All posts by Julia

Can you take-down web content democratically? If yes, under which conditions?

Last week, I did a presentation at the VOX-Pol Workshop on Countering Violent Extremism Online and the Impact on Civil Liberties at Harvard University, Berkman Klein Center for Internet & Society.

It covered basic requirements for democratically legitimate content regulation (incl. take-down), especially related to:

  • the justification of content regulation: concrete & specific norms (e.g. criminal law), and
  • procedural requirements to prevent errors & abuse (depending on tech and business developments).

I illustrated my theoretical accounts by explaining the details of the recent German “hate speech” law, binding social media platforms to take down illegal content upon user request within 1-7 days (with the threat of severe fines). Emphasis was given to the fact, that the law does not only provide for self-regulation in content-regulation (privatization of law-enforcement), but covers 22 complex offenses (instead of incitement to hatred, only), e.g.:

  • Encouraging the commission of a serious violent offense endangering the state,
  • Treasonous forgery,
  • Forming of criminal or terrorist organizations,
  • Insult and defamation, and
  • Forgery of data intended to provide proof.

I finished with an overview about main criticism related to the law, especially the lack of

  • user rights of objection (counter-notice procedures for cases legal content was taken-down by accident), and
  • meaningful public oversight about private content regulation.

All aspects need to be included into the new discussion of automated content regulation, with help of AI.  A paper is due to follow, the presentation can be downloaded here.

Auf der Reise durch die Netzpolitik (Forschungsupdate)

Angeregt vom Workshop on Internet Policy in Eastern Partnership, 8. März, von der Forschungsstelle Internet und Menschenrechte (CIHR)/ Europa Universität Viadrina (Frankfurt/ Oder), begann ich, über Netzpolitik im internationalen Vergleich nachzudenken, ich interessierte mich dabei besonders für die zusammenhängende Betrachtung von Entwicklungen in den Bereichen Infrastruktur/ technische Netzwerke, Regulierung/ politische Netzwerke und Netzfreiheiten/ Policy Output.¹

Zur Entwicklung eines entsprechenden Forschungsdesigns suchte ich alsbald nach systematischen Informationen zu den unterschiedlichen Dimensionen von Netzpolitik, nach relevanten Differenzen, nach best und worst cases. Jedoch stieß ich sogleich auf die Herausforderung der eingeschränkten Aussagekraft bekannter Forschungsprojekte und Indizes: Die wohl umfassensten Einschätzungen zu nationaler Netzpolitik der Open Net Initiative waren bereits veraltet (letztes Update: 2010), der Web Index der World Wide Web Foundation machte  2015 eine Pause, der World Press Freedom Index (Reporter ohne Grenzen) war für meine Zwecke zu eng auf Netzfreiheiten fokussiert und der Freedom House Index (Freedom of the Net) schien mir nicht nur fragwürdig hinsichtlich seiner Entstehung / Reportingsystem (full report, S. 969), sondern vor allem sehr unvollständig: 2015 erhob er weltweit 65 Länder, darunter bspw. nur 6 Staaten der EU (UK, DE, FR, EE, IT, HU).

Daher begann ich darüber nachzudenken, wie die erforderlichen Informationen vergleichend, zeitnah und kontinuierlich bereit gestellt werden können, auch wenn Forschungsprojekte auslaufen, z.B. durch Formen des Crowdsourcing oder durch Einsatz neuerer Technologien/ Automatisierung. Ich suchte nach weiteren vergleichenden Informationen und Datenquellen, fand z.B. das  Global Internet Policy Observatory, die Network Map of “Digital Constitutionalism” (Regulierung) oder die Africa ICT Policy Database., die ich in einem Wiki “Internet Policy in Comparison” (IPiC), insbesondere unter “Information Sorces“, ordnete. Und ich befand letztlich, dass mit Plattformen wie dem Global Internet Policy Observatory oder dem Internet Monitor (Berkman Klein Center) bereits vielfältige Informationen vorhanden sind, die je nach Forschungsinteresse ergänzt, aber vor allem in Bezug zueinander ausgewertet werden können, d.h. durch Einsatz entsprechender Daten- und Netzwerkanalysetools, und dadurch hohen Erkenntnisgewinn erwarten lassen.

Das Ganze könnte man natürlich outsourcen, aber unter den Aspekten der Wiederverwertung methodischen Wissens und den zukünftigen Bedingungen der Informationsproduktion erschien es mir sinnvoller, mich selbst in Materie einzuarbeiten. Deshalb lerne ich nun also kodieren und versuche, einen Überblick zu erlangen über die aktuellen Formen der Datenanalyse, versuche zu verstehen, wo sie eingesetzt werden können und wo Grenzen auftreten. Ich benutze dazu in erster Linie Online-Plattformen wie z.B. Codeacademy. Sehr hilfreich fand ich auch die Trello-Zusammenstellung “Data Science“. Insgesamt gibt es hier viele Möglichkeiten, die den Vorteil bieten, beim Lernen ein immer besseres Verständnis der technologischen (“digitalen”) Entwicklung selbst zu entwickeln.²

Wiewohl ich nun mit der Zeit eine immer prezisere Vorstellung davon gewonnen habe, welche Informationen ich im Bereich vergleichender Netzpolitik für Forschung und Advocacy gern hätte, und wie die bereit gestellt werden könnten, wird die Realisierung der vernetzen Informationen wohl noch etwas dauern.  Drum arbeite ich mich ebenfalls gerade durch die politische Theorie, auf der Suche nach Inspiration für das Verständnis von Netzpolitik, insbesondere zum Thema “Machtgleichgewichte und Machine Learning”. Sehr schön fand ich hier das Seminar/ Syllabus von Thorsten Thiel zum Thema Politische Theorie und Digitalisierung mit dazu gehörigem Hashtag: #digitheo :-)


¹ Der für mich anregenste Beitrag kam dabei von  Samvel Martitosyan (Institute for Strategic and Innovative Research, AM), er erläuterte Netzpolitik in Armenien: Aufgrund der Privatisierung des Telekommunikationssektors, der zugleich monopolisiert blieb und zeitweilig von griechischen Unternehmen dominiert wurde, wurde das Internet dort zwar 1997 eingeführt, fand allerdings erst ab 2008 eine größere, aber dann rasante Verbreitung.  Abgesehen von einem prominenten Zensurversuch in 2008, der international scharf kritisiert wurde, sei Armenien durch ein bis heute verhältnismäßig hohes Maß an Freiheiten gekennzeichnet, welches durch mangelndes Interesse politischer Akteure unterstützt werde. Allerdings filterten russische ISPs, die der Bevölkerung Internetzugang bereit stellen. Prominentes Internetregulierungsproblem sei aktuell beispielsweise die Besteuerung von Internetunternehmen, was ein elementare Diskussion über (den Mangel von) Policy Learing hervorrief (mehr Info siehe Freedom House Index).

² hierzu sehr schön Kathrin Passig und Aleks Scholz (2015): Schlamm und Brei und Bits. Warum es die Digitalisierung nicht gibt (Merkur 69 (798), 2015.

Das digitale Phänomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung

Es gibt gute Gründe, ein Arbeitspapier nicht zu veröffentlichen: Nicht perfekt, könnte man mehr draus machen, Unsicherheit ob der Resonanz … Und es gibt Gründe, es dennoch zu tun: Wenn der Inhalt relevant scheint für gesellschaftliche Debatten, wenn man Austausch sucht und bieten möchte – und wenn man sich entschieden hat, was Neues zu beginnenen, aufbauend auf dem Vorhandenen.

Deshalb lade ich ein, zu lesen: Das digitale Phaenomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung.

Der Literaturbericht beleuchtet die Ursprünge deutscher Netzpolitik ab den 80er Jahren, insbesondere die frühen Infrastruktur- und Anwendungsplanungen sowie den Diskurs zu den sozialen Kosten der digitalen Vernetzung. Er integriert diese frühen Einsichten in die spätere Netz- (Internet) und Netzpolitikentwicklung (Internationalisierung, Privatisierung,  Internet Governance, Multi-Level-Governance) der 90er Jahre. Er versucht, zu erklären, wie die jüngeren netzpolitischen Politisierungsprozesse im Kontext der Digitalisierung verstanden werden können. Er gibt einen Überblick über die  komplexe Netzpolitik, in deren Zentrum die Gestaltung gesellschaftlicher Vernetzung verortet wird, welche a) die Technologie- und Infrastrukturgestaltung, b) die Gestaltung gesellschaftlicher Regelungssysteme, z.B. in Recht und Wirtschaft, sowie c) die Politisierung und Bearbeitung der sozialen Kosten der digitalen Vernetzung umfasst. Er schließt in der Hoffnung auf das Internet als Segen für die digitale Gesellschaft.

Was ich damit machen möchte? Einen internationalen Vergleich. Mehr dazu in Kürze. Ich freue mich auf die Debatte.

#rpTEN

#besserstreiten: #hatespeech im globalen Kontext

„Slavery, the Gulag, the Holocaust (…) Ruanda (…) required a complete monopoly over the media, over expression, a complete monopoly over, in fact, consciousness, at times through the church. So I’m asking you (…) Where are the greatest dangers to our common values? (…) What are the sources of the greatest risks to our common humanity in contexts where governments are using state of emergencies to curtail dissent, are using counter-terrorism to put in prison people who are at the frontline of combatting terrorism and calling for tolerance? (…) I want you (…) to think (…) seriously about the response we are gonna bring to hate speech, and whom are we gonna target, and whom are we gonna try to bring back to the respect for human rights!“ (Dr. Agnes Callamard, UN Symposium Tracking Hatred 2015).

Agnes Callarmard brachte mit diesem Zitat jüngst wesentliche Fragen zu Content Regulierung auf die Agenda, ein Thema, was mich bereits in meiner Diplomarbeit (2011) beschäftigte. Angeregt von der Zensursula-Debatte diskutierte ich damals vor allem das Löschen, Sperren und Filtern  von strafbaren Inhalten in Deutschland, und zwar aus einer demokratietheoretischen Perspektive und unter Berücksichtigung der zunehmenden Selbst- und Koregulierung im Bereich Internetpolitik. Nicht nur ist diese Arbeit heute veraltet,  sie berücksichtigte weder soziale Netzwerke noch Formen der umfassenden Daten- und Netzwerkanalyse (#bigdata).  Gleichfalls war ihr Fokus beschränkt auf liberale Demokratien, die Zusammenhänge zwischen lokalen und globalen Kommunikations- und Zensurinfrastrukturen waren leider ausgeklammert.

Deshalb habe ich die aktuelle Debatte zu #hatespeech im Netz bzw. zum Löschen von #hatespeech in sozialen Netzwerken zum Anlass genommen, meine Gedanken neu zu strukturieren, diesmal unter Berücksichtigung der Netzwerkeffekte und Netzwerkanalysetools sowie weltweit zunehmender Zensur- und Repressionsmaßnahmen und einer Konzentration von Medien (Reporter ohne Grenzen: Rangliste). Im Ergebnis diskutiert der Artikel “hatespeech im globalen Kontext” (22.04.2016, Netzpolitik.org) die aktuellen Löschforderungen seitens des BMJV gegenüber Google, Facebook und Twitter in Deutschland, verortet die Diskussion im globalen Kontext und zeigt online und offline Alternativen zum Umgang mit #hatespeech im Netz. Großer Dank geht dabei an das UN Symposium “Tracking hatred: An international dialogue on HATE SPEECH in the media” (United Nations Alliance on Civilizations, 2015, #spreadnohate), welches den Artikel maßgeblich inspirierte.

*Update 15.01.2017*

Nach den US-Wahlen und infolge der Debatte um eine mögliche Mitverantwortung Facebook’s an der Wahl Donald Trumps habe ich meine Einschätzungen zum Thema Hatespeech, Fake News und Facebook erneut überarbeitet – diesmal unter besonderer Berücksichtigung amerikanischer Lösungsansätze und dem Zusammenspiel von technischen, wirtschaftlichen und politischen Aspekten:  Warum der bisherige Kampf gegen #hatespeech und #fakenews auf Facebook irreführend ist – und welche Alternativen sich bieten

Anekdoten aus der Netzpolitik-/ Wissenschaftsgeschichte (Geschichte der Analogcomputer)

Neulich  las ich eine Geschichte der Entwicklung von Analogcomputern in Deutschland von Helmut Hoelzer, “a Nazi Germany V-2 rocket engineer who was brought to the United States under Operation Paperclip.” Operation Paperclip/ Overcast stellte wohl so eine Art militärisches Geheimprojekt der USA nach dem Ende des 2. Weltkrieges dar, mit Hilfe dessen deutsche Wissenschaftler und Techniker in die USA geholt wurden – einerseits damit deren Wissen und Können nicht in der Sowjetunion landet, andererseits um ein Wiederaufrüsten Deutschlands zu verhindern. Soweit, so gut. Oder schlecht? Geschichte halt …

Helmut Hoelzer war bis dahin maßgeblich in der Entwicklung von Analogcomputern beteiligt, die er in 50 Jahre Analogcomputer anschaulich beschreibt.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.

“Bis vor gar nicht allzu langer Zeit haben sich nur sehr wenige Leute darum gekümmert, wie diese elektronischen Analogcomputer zustande kamen. Sie waren Nebenprodukte und standen völlig im Schatten viel größerer Vorhaben (…) Es war alles so ähnlich wie zur Zeit von Kolumbus. Ein bekannter amerikanischer Wissenschaftler hat einmal gesagt: «Kolumbus wollte die Beziehungen zu China verbessern, ein Problem, welches bis heute noch nicht gelöst ist.  Aber sehen Sie sich doch mal die Nebenprodukte an …!» So ähnlich erging es auch den elektronischen Analogcomputern.” (ebd., S. 69).

Eigentlich wollte Hoelzer als Student ein Gerät entwickeln, um die absolute Geschwindigkeit eines Segelflugzeuges zu messen (Geschwindigkeit gegenüber der Erde). Dies scheiterte daran, dass ein solches Vorhaben weder in die damalige Fernmeldetechnik, noch in die damalige Meßtechnik fiel. Ingesamt bestand folgendes Problem: “Die Mathematiker jener Zeit waren der Meinung, dass Mathematik nicht aus Stangen besteht, und, nachdem der erste elektronische Analogcomputer gebaut war, sagten sie: «aus Draht besteht die Mathematik auch nicht.»” (ebd., S. 71).

Nunja, irgendwann war der Krieg eröffnet und Hoelzer wurde dienstverpflichtet nach Peenemünde geschickt, wo unter der Leitung von Wernher von Braun Raketenversuche gemacht wurden, um das Verbot weitreichender Geschütze (Versailler Vertrag) mit gesteuerten Fernraketen zu umgehen – was man benötigte, war also eine Funk-Fernsteuerung.  Kurssteuerung war zunächst einmal instabil, z.B. gegenüber Seitenwind. “Instabilität liegt dann vor, wenn eine Störung nicht abklingt, sondern sich immer weiter aufschaukelt. Die Stabilitätstheorie verlangte, daß außer der seitlichen Abweichung auch die seitliche Komponente der Geschwindigkeit verwendet wird. Falls permanenter Seitenwind besteht, müsste dann auch noch das Integral der Abweichung aufgeschaltet werden. Woher kriegt man nun einen Echtzeitintegrator und einen Echtzeitdifferentiator?” (ebd., S. 72). Die Zusammenfassung der folgenden Ausführungen übersteigt leider mein physikalisches und mathematisches Grundwissen, aber ich kann sie zum Verständnis der Entwicklung von Computern nur wärmstens empfehlen, sie sind schön bebildert und mit Anekdoten aus dem Arbeitsalltag versehen.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.

Worüber ich allerdings zunächst sehr schmunzeln musste, dann aber ins Nachdenken geriet, ist das weitere Geschehen um die dazu gehörige Dissertation: “Während diese Entwicklung stattfand [Entwicklung der Raketen-Fernsteuerung, Anm. der Autorin], dokumentierte ich alles genau, denn ich wollte es als Dissertation an der Technischen Hochschule in Darmstadt vorlegen. Aber das stellte sich nicht als so einfach heraus. Zuerst wurde alles mit einem Geheimstempel versehen und eingeschlossen. Dann kam der Luftangriff auf Penemünde 1943, wo alles verbrannte, auch die völlig ausgearbeitete Dissertation. Ungefähr Anfang 1945 hatte ich sie ein zweites Mal fertig, aber da war der Krieg zu Ende und die Amerikaner kassierten die Arbeit. Ich bekam sie aber nach mehreren Anläufen wieder und präsentierte sie in Darmstadt im selben Jahre. Aber nun gab es inzwischen eine Militärregierung, und ein Captain der amerikanischen Armee war der technischen Hochschule vorgesetzt. Bei ihm musste ich mir Genehmigung holen zum Promovieren. Er blätterte die Dissertation durch, sagte, daß Raketen und überhaupt Waffen nicht mehr gebraucht würden, da dies der letzte Krieg gewesen sei. Deutschland  sei zerstört, die anderen alle alliiert und so lange er hier etwas zu sagen hätte – und das wäre noch sehr lange – würde hier nicht über Waffenentwicklung promoviert,  – PAUSE -. Als ich dann einwarf, daß Raketen ja auch für Raumfahrt gebraucht werden könnten, sagte er in fließendem deutsch: «Lieber Freund, Sie haben vielleicht eine blühende Phantasie!» und draußen war ich. Mein Doktorvater, Prof. Walther, kam dann auf die glorreiche Idee, die Arbeit in 2 Teile zu teilen; der erste nur über Analogcomputerentwicklung, die Anwendung auf die Raketenentwicklung im 2. Teil. Das war natürlich eine Mordsarbeit und im Februar des nächsten Jahres war es dann soweit. Gezeigt bekam der Herr Captain nur den ersten Teil. Von da an spielte der Computer, zuerst der Analogcomputer, später dann auch der Digitalcomputer eine sehr wichtige Rolle in der Raketenentwicklung sowohl für militärische Zwecke als auch für die Raumfahrt” (ebd., S. 90). Zum weiterlesen

Wenn das alles nicht so ernst wäre (Menschen sterben), hätte ich den Beitrag unter “Lustiges aus der Netzpolitik- und Wissenschaftsgeschichte” abgelegt. Hätte ich gern getan.

#neuland war gestern!

Aufräumen mit der Mär vom #neuland: Das Internet fiel nicht vom Himmel. Obwohl diese spezielle Vernetzungskonfiguration nicht „made in Germany“ ist – Vernetzung und Digitalisierung standen bereits seit den 70er Jahren auf der Agenda von Regierung und Parlament, ebenso wie daraus sich ergebende gesellschaftliche Risiken (Überwachung, Datenschutz, Rationalisierung usw.) – und Alternativen.

Dazu habe ich auf der “Das ist Netzpolitik!”-Konferenz 2015 (04.09.2015) vorgetragen unter dem Titel #neuland war gestern – Deutsche Vernetzungspolitik im Kontext aktueller Herausforderungen einer digitalen Gesellschaft.

 

Irgendwas mit digital …?

So ähnlich. Ich forsche aktuell zur Entwicklung deutscher Netzpolitik, insbesondere zur wirtschafts- und technologiepolitischen Geschichte der Vernetzung und Digitalisierung seit den 70er Jahren und ihren Einfluss auf die Entwicklung gegenwärtig mit Netzpolitik, Internetregulierung oder Digitalisierung befassten nationalen und internationalen Arenen politischer Gestaltung… Viel Work in Progress. Weitere Infos unter Talks, Articles und About.