Die Smarte Regierung

Union und die SPD ringen um Erneuerung, personell und inhaltlich. Gefragt ist ein Neuanfang, der inklusiver, partizipativer und effektiver gesellschaftliche Probleme löst. Dieser Neuanfang ist zeitkritisch. Die Digitalpolitik der Großen Koalition hinkt der Digitalisierung kaum hinterher.

Bezeichnend dafür ist der Vergleich von Daten und Öl (Digitalgipfel 2018) – dass sich Daten als Rohstoff nicht abnutzen, sondern Mehrwert erzeugen durch Kombination und explorative Analyse. Auch die KI-Strategie der Bundesregierung zeigt den Mangel an Strategie: Hier fehlen nicht nur Plattformen. Sondern auch: 1. ein Konzept für die überflüssige menschliche Arbeitskraft (Care-Arbeit und Grundeinkommen statt Pflegerobotern), 2. ein Konzept für die nachhaltige Mobilität (anstelle von autonomen Autos) und 3. ein Sicherheitskonzept, das Risiken für die Menschheit benennt anstelle von Menschen (Klimawandel statt Migranten).  Auch könnte man fragen, welche Anreize für das Teilen von KI-Wissen zwischen Wissenschaft und Wirtschaft bestehen (Wissenstransfer), wenn doch das Recht immaterieller Güter Urheberrechte, Patentrechte, Geschäftsgeheimnisse zunehmend über alles wiegt. Aber das ist für Experten.

Der Faktor: Regierungsmanagement

Vermutlich liegen dem Ganzen keine schlechten Intentionen zugrunde. Der aktuelle Technologieschub gibt uns als Gesellschaft die Möglichkeit, viele Bereiche noch einmal neu zu ordnen, sich an ursprüngliche Ziele zu erinnern und neue Wege ihrer Realisierung zu erörtern: Digitale Plattformen bergen die Option für eine nachhaltige, globale Wirtschaft, eine smarte Information und Kommunikation der Weltbevölkerung und effektive Politik. Allerdings hängt das einerseits ab vom Design der Plattformen, andererseits von Rahmenbedingungen wie sozialer Sicherung, Urheberrechten und internationaler Kooperation.

Um all das neu zu denken, braucht es interdisziplinäres Denken und Handeln auf der Höhe der Zeit. Doch leider ist die Politik fast vollständig in Arbeitsbereiche unterteilt, die bislang wenig technisch unterstützt werden und dadurch schwer überlastet sind. Interdisziplinäre Gremien oder Arbeitsgruppen finden sich im Regelfall als zusätzliche Aufgabe im Politikbetrieb – in einer Form, die kaum fundierte Analyse ermöglicht. Sollte das doch einmal gelingen, dann stellt sich die Herausforderung, die Ergebnisse durch zahlreiche Ebenen und Ausschüsse zu kommunizieren und zu koordinieren – mit Menschen, die von ihren eigenen Aufgaben schon lange überlastet sind. Wenn alles richtig schlecht läuft, kommt dann noch irgendein Horst mit einem Masterplan daher und hält die Öffentlichkeit in Schach damit, ihn nicht zu zeigen. In kurz: Der aktuelle Politikbetrieb ist schlecht gerüstet, die Digitalisierung über die vielen Gesellschaftsbereiche zu gestalten. Der fehlende Generationswechsel macht es nicht besser.

Update required: Die maschinenlesbare Regierung

Nun könnte man natürlich ein Digitalministerium fordern oder eine neue Regierung. Das wäre sicher sinnvoll. Aber würde das alles wirklich besser ohne Änderungen im Arbeits- oder Politikmanagement?

Bislang drehte sich die Debatte um ein zeitgemäßes E-Government vor allem um zwei Dinge: Die Digitalisierung von Verwaltungsvorgängen (E-Akte, Online-Services von Bürgerämtern, Registermodernisierung etc.) und die Transparenz von Politik- und Verwaltungsvorgängen (Lobbyregister, Onlinezugangs-Gesetz, Open Data etc.). Das Ganze kommt schlecht voran. Seit dem Scheitern von digitalen Wahlprozessen oder der Liquid Democracy genießen auch digitale Tools bei politischen Meinungs- und Abstimmungsprozessen einen schlechten Ruf.

Dabei könnte gerade der Bereich der Politik  von Online-Tools profitieren, müssen doch hier zahlreiche Informationen und Kommunikation verarbeitet werden, sei es zwischen Bürger und Regierung, (i.S.d. Legislative), zwischen Parlament und Regierung (i.S.d. Exekutive) oder zwischen den Ausschüssen der verschiedenen Stakeholder. Gerade hier könnten die Netzeffekte, die Visionen besserer Information und Kommunikation, fruchtbar sein.

Aktuelle Visionen einer smarten Regierungsschnittstelle

Eine Übersicht zu den aktuellen Möglichkeiten bot in der vergangenen Woche nun die World e-Parliament Conference der Interparlamentarischen Union, einer Art Dachorganisation der Parlamente weltweit.

Hier wurde nicht nur ein Fortschrittsbericht vorgestellt zum Thema e-Parliament und ein Centre for Innovation in Parliament ins Leben gerufen. Zahlreiche Länder stellten ihre Projekte vor. Diese reichten von Social Collaboration Tools in Suriname (eine Art Facebook für Parlamentarier, mit App) über verschiedene Varianten der smarten Daten- und Informationsaufbereitung in Rumänien, dem Iran oder Bahrain (Übersicht über legislative Vorgänge, Beteiligung, Texte und Statements, Abstimmungsprozesse etc.) bis hin zu großen Systemlösungen (Digitalisierung der kompletten Abstimmungskette) in Brasilien, Korea und Österreich, mit Unterstützung von Künstlicher Intelligenz (KI).

Was heißt Systemlösung?

Brasilien etwa präsentierte folgenden Module einer smarten Regierung:

  1. Die Klassifizierung von Regierungsinformationen (Keywords aus Nutzerperspektive),
  2. Die Automatisierung von Übersetzungen der legislativen Texte anderer Sprachbereiche (Beschleunigung von Politiklern- und Korrekturprozessen),
  3. Der Einsatz von Spracherkennung bei politischen Reden (wer sagt was wie lang?),
  4. Der Einsatz von digitalen Abstimmungstools in Kombination mit interaktiven Kommunikationstools (Kommentarspalten) und Sentimentanalyse (Gefühlsanalyse),
  5. Die automatisierte Zusammenfassung legislativer Vorgänge zur Information der Bürgerinnen und Bürger,
  6. Die Automatisierung der Interaktion zwischen Politik und Medien (Empfehlungen für Medienpräsenz auf Basis von bisherigen Rede- und Interviewanteilen),
  7. Der Einsatz von Bots zur Kommunikation mit dem Bürger.

Teilweise sind diese Module bereits in Erprobung, teilweise in der Entwicklung, basierend auf offenen Daten und offener Software (Python etc.).

Österreich stellte Visionen einer Regierungsschnittstelle vor, die an Automatisierungsprozessen im Mediensystem orientiert waren (Erkennung von Interessen und Stimmungen in der Bevölkerung und der Transport in das politische System). Der Iran beeindruckte durch ein sehr ausbalanciertes digitales Regierungssystem, das nicht nur die parlamentarische Arbeit erheblich vereinfachen könnte (Digitale Parlamentsverwaltung und Informationsplattformen), sondern gleichfalls Innovationen für Transparenz, Bürgerdialog und v.a. dem Crowdsourcing von legislativen Vorgängen und die elektronische Verarbeitung von Beschwerden beinhaltet.

Die smarte Regierung: Was fehlt?

Insgesamt wurden also viele Innovationen vorgestellt, die man zur Debatte stellen muss. Denn so ähnlich wie beim Smart City Diskurs zeigte sich auch hier eine technoaffine Grundhaltung, die an den Bedürfnissen der Parlamentarier vorbeigehen kann (z.B. Überwachung der Parlamentarier statt Transparenz über Lobbyismus).

Zu kurz kamen:
1. Möglichkeiten der Datenanalyse zur neuartigen Identifizierung und Lösung globaler Probleme: Was sagt uns eigentlich die Menge an Hatespeech in Kombination mit ökologischen und ökonomischen Daten über das Leiden der Menschen? Gibt es hier Unterschiede zwischen Kulturen, Nationen oder Schichten? Was sagen uns die Daten der Migranten über Fluchtursachen? Gibt es Bereiche, in denen Lösungen sichtbar werden?
2. Möglichkeiten der neuartigen Abstimmung über effizientes Regieren: Basierend auf smarter Datenanalyse und neuartigen Informations- und Kommunikationstools könnte Politik neu gedacht werden als Management von smarten Lösungsstrategien vorab identifizierter Probleme. Idealerweise würden hier Delegationsprozesse parlamentarischer Demokratien Berücksichtigung finden und Formen der neuartigen  Messung und Bewertung von Fortschritt.

Klar ist: Maschinen können menschliche Arbeit zwar erheblich unterstützen und damit Ressourcen frei setzen, sich den eigentlichen Problemen innovativ zu widmen. Nicht ersetzen können sie die Vorgabe von Zielen, Werten und Normen an denen sich die Arbeit orientiert.

Politik mit dem Netz: Netzpolitik!

Leider war es mir nicht möglich, bis zum Ende der Konferenz zu bleiben. Daher fehlen hier Vorschläge z.B. aus Israel. Aber der Prozess wurde gerade gestartet und wird fortgesetzt. Mit Blick auf die aktuelle Bundespolitik erscheint es dringend empfehlenswert, diesen Prozess zu berücksichtigen. Denn die Innovationen bieten einerseits das Potential, das die nächste Regierung auch besser wird, lösungsorientiert und handlungsfähiger. Andererseits scheint es bei der Digitalisierung politischer Prozesse ratsam, die menschliche Autonomie am richtigen Punkt zu bewahren, d.h. die Technologie und ihre Nutzung weise zu gestalten. Denn Utopie und Dystopie liegen hier enger zusammen als jemals zuvor.

Mit Algorithmen regulieren

Zumeist publiziere und arbeite ich dazu, wie man den Gefahren digitaler Technologien begegnen kann, sei es nun im Bereich von Algorithmen und Künstlicher Intelligenz (KI)  oder im Bereich von IT-Sicherheit. Selten komme ich dazu, positive Visionen einer Plattformregulierung zu formulieren, noch seltener dazu, Demokratie neu zu denken. Aber zwischendurch war es soweit: Das Aspen AI Institut bat im Sommer um Input zu Fragen rund um Governance und KI.

Herausgekommen ist ein Essay zum Thema Digitalisierung der Parlamente: “Technology in the Context of Geostrategic & Democratic Development – Making Sense of Digitization in Democratic Governance Architecture” ist nun nachzulesen in der frischen Aspen AI Institut Tech Power Democracy Essay Collection (2018).

Algorithmen und Künstliche Intelligenz: Wegweiser für Politik und Gesellschaft

Was Menschen seit den 80ern gleichermaßen erstreben und fürchten, ist wahr geworden: Künstliche Intelligenz kommt nicht nur, sie ist schon da – in Form von Assistenten, Empfehlungssystemen und vielem mehr. Ermöglicht wird das Ganze durch die massive Vernetzung, verfügbares Datenmaterial und enorme Rechnerkapazitäten – hier lernen nun Maschinen nicht nur immer schneller, sondern auch immer mehr. Und übernehmen immer mehr Entscheidungen, die bislang Menschen vorbehalten waren. Welche Chancen und Risiken ergeben sich daraus? Wie kann gesellschaftliche Kontrolle und Mitbestimmung gelingen? Was bleibt dem Menschen zu tun?

Diese Fragen werde ich auf der kommenden Republica beleuchten. Bei dem Talk zum Thema Algorithmen und KI: Wegweiser für Politik und Gesellschaft (03.05.18, 15:00 Uhr, Bühne 2) geht es im ersten Teil  darum, aufzuzeigen, was wir zum Thema wissen und was wir nicht wissen – aber dringend wissen sollten, um eine adäquate Risiko- und Folgenabschätzung zu ermöglichen. Der zweite Teil konzentriert sich auf aktuelle Handlungsoptionen und solche, die es zu schaffen gilt. Dabei gehe ich auf rechtliche, technische und politische Aspekte der Thematik ein und stelle sie in einen Zusammenhang.

Wer sich schon einmal einlesen möchte, dem empfehle ich die folgenden Beiträge:

Außerdem freue ich mich, auf folgende Publikationen hinweisen zu dürfen, die in Kürze erscheinen werden und an deren Entstehung ich als unabhängige Expertin maßgeblich beteiligt war.

  • Krüger, Julia/ Lischka, Konrad (im Erscheinen): Damit Maschinen
    dem Menschen dienen. Lösungsansätze, um algorithmische
    Entscheidungen in den Dienst der Gesellschaft zu stellen,
    Arbeitspapier der Bertelsmann Stiftung.
  • Krüger, Julia/ Lischka, Konrad (im Erscheinen): Was zu tun ist,
    damit Maschinen dem Menschen dienen, Beitrag zur ÖFIT
    2017 (Algorithmen und Automatisierung), Fraunhofer FOKUS.

Ganz herzlich bedanken möchte ich mich an dieser Stelle bei Konrad Lischka und Carla Hustedt von der Bertelsmann Stiftung (Projekt: Ethik der Algorithmen) für die großartige Zusammenarbeit!

Last, but not least: Algorithmen und Künstliche Intelligenz sind nicht nur ein hoch spannendes Feld, sondern auch heiß umstritten. Wer sich vorab ein bißchen einhören möchte in die Debatte, dem empfehle ich die folgenden Diskussionsbeiträge:

Ich freue mich, das Thema auf der #rp18 weiter zu erörtern und gemeinsam Strategien und Handlungsoptionen zu debattieren!

PS: Wer es nicht zur Re:publica schafft – der Talk wird natürlich aufgenommen und am Samstag folgt im Rahmen der diesjährigen Re:publica das Netzfest – mit freiem Eintritt und unter freiem Himmel – da kann man weiter debattieren. Getting very excited …

 

Die Netzpolitik der Großen Koalition: Wie Deutschland seine Zukunft verspielt

Die große Koalition hat sich am Mittwoch auf die Bildung einer Koalitionsregierung geeinigt. Der vorläufige Koalitionsvertrag ist veröffentlicht. Darin ist das Thema Digitalisierung ziemlich weit nach oben gerutscht – im Vergleich zur letzten Legislaturperiode. Es folgt direkt auf die allgemeinen Leitlinien nationaler und europäischer Politik sowie Familie und Kinder. Und geht den Themen Arbeit, Wirtschaft, sozialer Sicherung und allem anderen voraus. Außerdem wird das Thema gebündelt behandelt, auf insgesamt 13 Seiten. Das alles impliziert eine adäquate formelle Einordnung der Bedeutung von Digitalisierungspolitik gegenüber anderen Feldern.

Wie die Bundesregierung die Digitalisierung im Großen und Ganzen gestalten möchte

Aber was ist mit den Inhalten? Den größten Teil nimmt das Thema Infrastrukturausbau ein, dass seit Jahrzehnten nicht voran kommt. Nun soll es jedoch ein Recht auf schnelles Internet eventuell bald geben – zum Preis von stärkeren Oligopolen im Telekommunikationssektor. Im Bildungsbereich soll es eine Bildungsoffensive geben, die an Schulen, Berufsschulen, Hochschulen und außerschulischen Bildungseinrichtungen digitale Kompetenzen fördern soll. Neu sind die Buzzwords: Adaptive Lernsysteme, Serious Games und Datenanalyse (im außer-universitären Bildungsbereich) sowie Digital Humanities, Blockchaintechnologie und Quanten-Computing (im universären Bereich). Das Kapitel zur Arbeit 4.0 enthält vor allem Vorschläge zur Weiterbildung von Arbeitnehmern, z.B. durch die Prüfung des Instruments der Langzeitkonten und ein Recht auf Weiterbildung durch die Bundesagentur für Arbeit. Zur Förderung der Wirtschaft sieht der Entwurf die Gründungsförderung durch Bürokratieabbau und verbesserte Finanzierungsbedingen für entsprechende Projekte vor. Natürlich sollen IT-Sicherheit und die Modernisierung der Verwaltung gestärkt werden und ein innovativer Weg zwischen Datenschutz und Geschäftsinteressen gefunden werden, auch in Europa.

Was gibt es Neues? Die Einrichtung einer Digitalagentur soll geprüft werden, als der Bundesregierung nachgeordnete Behörde zur Unterstützung beim Thema Infrastruktur, d.h.  bspw. Telekommunikations- und Plattformregulierung sowie Marktbeobachtung. Außerdem gibt es das Versprechen der Einrichtung eines Zentrums für künstliche Intelligenz in Kooperation mit französischen Partnern, das auf nationaler Ebene durch einen Masterplan ergänzt werden soll. Zudem plant die Koalition das Einsetzen einer Daten-Ethikkommission, um Regierung und Parlament Empfehlungen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen zu geben. Und es soll einen Digitalrat geben, der einen engen Austausch zwischen Politik und nationalen und internationalen Experten ermöglicht. Das Kartellrecht soll modernisiert werden, durch Verfahrensbeschleunigung und eine Neufassung der Marktabgrenzung. Und es gibt Bewegung im Bereich von E-Government: Hier verspricht die Bundesregierung, innovative Distributed Ledger (Blockchain) Technologien zu pilotieren. Es soll eine Beteiligungsplattform für Bürger und Stakeholder zur Kommentierung von Gesetzesentwürfen der Bundesregierung geben und die öffentliche Bereitstellung von Daten der öffentlichen Verwaltung.

Digitaler Kontrollverlust Revisited?

Die Vereinbarungen erinnern im ersten Teil an die Digitalisierungspolitik und die sie begleitende Gestaltungsdebatte der 80er Jahre. Denn der Ausbau von Glasfaser steht bereits seit 30 Jahren zur Debatte – ebenso wie die betriebliche Weiterbildung, die Förderung von Digitalkompetenzen in schulischen und außerschulischen Bildungseinrichtungen, die Modernisierung der Verwaltung und die Herstellung von IT-Sicherheit. Es hat nicht geklappt, die Ursachen sind vielfältig. Dennoch stehen wir an einem anderen Punkt.

Beispiel Arbeit: Was soll die betriebliche Weiterbildung bringen, wenn die Menschen mehr und mehr für Plattformen wie foodora arbeiten? Was kann eine Gründungsförderung das non-plus-ultra sein, wenn überall die Fachkräfte fehlen? Wo ist das Grundeinkommen für diejenigen, die sich langfristig weiter bilden wollen? Und wie sollen sich Interessierte weiter bilden, wenn Weiterbildungen zu Data Science fast ausschließlich im Ausland zu finden sind?

Künstliche Intelligenz, Quanten-Computer, Plattformindustrie, Robotik und Blockchain – die wichtigsten technischen Entwicklungen sind benannt. Sie versprechen in ihrer Gesamtheit eine gesellschaftliche Umwälzung, wie sie die Welt noch nicht gesehen hat. Die zuerst da greifen wird, wo etablierte Institutionen – Krankenhäuser, Schulen, alle Bereiche der Daseinsvorsorge – nicht mehr finanziert werden können. Was ansteht, ist nicht nur eine gravierende Umwälzung des Arbeitsmarktes. Auszugehen ist von einer sich anschließenden Disruption staatlicher Aufgaben. Auch, dass die großen IT-Konzerne darin eine wesentliche Rolle übernehmen. Derweil plant die zukünftige Bundesregierung die Prüfung einer Digitalagentur, die Einrichtung eines Zentrums für künstliche Intelligenz, die Einberufung eines Digitalrates und eine Daten-Ethikkommission. Die Vorschläge scheinen unkonkret alle Probleme in eine Zukunft zu verschieben, in der technische und wirtschaftliche Fakten gesetzt sein werden.

Was wir brauchen ist eine Digitale Taskforce

Wie wäre es dagegen mit der Einrichtung einer Taskforce zu Algorithmen, Daten und künstlicher Intelligenz, die zügig die Probleme checkt und kontinuierlich Konzepte für die unterschiedlichen Sektoren erarbeitet? Oder eine Taskforce zu Robotik und Blockchain, die zeitnah Anpassungsoptionen erarbeitet, mithilfe derer die Menschen auf eine Zukunft vorbereitet werden können, in denen viele Kompetenzen irrelevant geworden sind? Oder eine Taskforce zur Anwendung neuster Technologien in der Daseinsvorsorge, zur Prüfung ihrer Gestaltungsmöglichkeiten? Wie wäre es, der Realität von digitaler Peripherie ins Auge zu sehen und verbliebe Ressourcen so zu bündeln, dass die Jugend eine Chance bekommt?

Can you take-down web content democratically? If yes, under which conditions?

Last week, I did a presentation at the VOX-Pol Workshop on Countering Violent Extremism Online and the Impact on Civil Liberties at Harvard University, Berkman Klein Center for Internet & Society.

It covered basic requirements for democratically legitimate content regulation (incl. take-down), especially related to:

  • the justification of content regulation: concrete & specific norms (e.g. criminal law), and
  • procedural requirements to prevent errors & abuse (depending on tech and business developments).

I illustrated my theoretical accounts by explaining the details of the recent German “hate speech” law, binding social media platforms to take down illegal content upon user request within 1-7 days (with the threat of severe fines). Emphasis was given to the fact, that the law does not only provide for self-regulation in content-regulation (privatization of law-enforcement), but covers 22 complex offenses (instead of incitement to hatred, only), e.g.:

  • Encouraging the commission of a serious violent offense endangering the state,
  • Treasonous forgery,
  • Forming of criminal or terrorist organizations,
  • Insult and defamation, and
  • Forgery of data intended to provide proof.

I finished with an overview about main criticism related to the law, especially the lack of

  • user rights of objection (counter-notice procedures for cases legal content was taken-down by accident), and
  • meaningful public oversight about private content regulation.

All aspects need to be included into the new discussion of automated content regulation, with help of AI.  A paper is due to follow, the presentation can be downloaded here.

Auf der Reise durch die Netzpolitik (Forschungsupdate)

Angeregt vom Workshop on Internet Policy in Eastern Partnership, 8. März, von der Forschungsstelle Internet und Menschenrechte (CIHR)/ Europa Universität Viadrina (Frankfurt/ Oder), begann ich, über Netzpolitik im internationalen Vergleich nachzudenken, ich interessierte mich dabei besonders für die zusammenhängende Betrachtung von Entwicklungen in den Bereichen Infrastruktur/ technische Netzwerke, Regulierung/ politische Netzwerke und Netzfreiheiten/ Policy Output.¹

Zur Entwicklung eines entsprechenden Forschungsdesigns suchte ich alsbald nach systematischen Informationen zu den unterschiedlichen Dimensionen von Netzpolitik, nach relevanten Differenzen, nach best und worst cases. Jedoch stieß ich sogleich auf die Herausforderung der eingeschränkten Aussagekraft bekannter Forschungsprojekte und Indizes: Die wohl umfassensten Einschätzungen zu nationaler Netzpolitik der Open Net Initiative waren bereits veraltet (letztes Update: 2010), der Web Index der World Wide Web Foundation machte  2015 eine Pause, der World Press Freedom Index (Reporter ohne Grenzen) war für meine Zwecke zu eng auf Netzfreiheiten fokussiert und der Freedom House Index (Freedom of the Net) schien mir nicht nur fragwürdig hinsichtlich seiner Entstehung / Reportingsystem (full report, S. 969), sondern vor allem sehr unvollständig: 2015 erhob er weltweit 65 Länder, darunter bspw. nur 6 Staaten der EU (UK, DE, FR, EE, IT, HU).

Daher begann ich darüber nachzudenken, wie die erforderlichen Informationen vergleichend, zeitnah und kontinuierlich bereit gestellt werden können, auch wenn Forschungsprojekte auslaufen, z.B. durch Formen des Crowdsourcing oder durch Einsatz neuerer Technologien/ Automatisierung. Ich suchte nach weiteren vergleichenden Informationen und Datenquellen, fand z.B. das  Global Internet Policy Observatory, die Network Map of “Digital Constitutionalism” (Regulierung) oder die Africa ICT Policy Database., die ich in einem Wiki “Internet Policy in Comparison” (IPiC), insbesondere unter “Information Sorces“, ordnete. Und ich befand letztlich, dass mit Plattformen wie dem Global Internet Policy Observatory oder dem Internet Monitor (Berkman Klein Center) bereits vielfältige Informationen vorhanden sind, die je nach Forschungsinteresse ergänzt, aber vor allem in Bezug zueinander ausgewertet werden können, d.h. durch Einsatz entsprechender Daten- und Netzwerkanalysetools, und dadurch hohen Erkenntnisgewinn erwarten lassen.

Das Ganze könnte man natürlich outsourcen, aber unter den Aspekten der Wiederverwertung methodischen Wissens und den zukünftigen Bedingungen der Informationsproduktion erschien es mir sinnvoller, mich selbst in Materie einzuarbeiten. Deshalb lerne ich nun also kodieren und versuche, einen Überblick zu erlangen über die aktuellen Formen der Datenanalyse, versuche zu verstehen, wo sie eingesetzt werden können und wo Grenzen auftreten. Ich benutze dazu in erster Linie Online-Plattformen wie z.B. Codeacademy. Sehr hilfreich fand ich auch die Trello-Zusammenstellung “Data Science“. Insgesamt gibt es hier viele Möglichkeiten, die den Vorteil bieten, beim Lernen ein immer besseres Verständnis der technologischen (“digitalen”) Entwicklung selbst zu entwickeln.²

Wiewohl ich nun mit der Zeit eine immer prezisere Vorstellung davon gewonnen habe, welche Informationen ich im Bereich vergleichender Netzpolitik für Forschung und Advocacy gern hätte, und wie die bereit gestellt werden könnten, wird die Realisierung der vernetzen Informationen wohl noch etwas dauern.  Drum arbeite ich mich ebenfalls gerade durch die politische Theorie, auf der Suche nach Inspiration für das Verständnis von Netzpolitik, insbesondere zum Thema “Machtgleichgewichte und Machine Learning”. Sehr schön fand ich hier das Seminar/ Syllabus von Thorsten Thiel zum Thema Politische Theorie und Digitalisierung mit dazu gehörigem Hashtag: #digitheo :-)


¹ Der für mich anregenste Beitrag kam dabei von  Samvel Martitosyan (Institute for Strategic and Innovative Research, AM), er erläuterte Netzpolitik in Armenien: Aufgrund der Privatisierung des Telekommunikationssektors, der zugleich monopolisiert blieb und zeitweilig von griechischen Unternehmen dominiert wurde, wurde das Internet dort zwar 1997 eingeführt, fand allerdings erst ab 2008 eine größere, aber dann rasante Verbreitung.  Abgesehen von einem prominenten Zensurversuch in 2008, der international scharf kritisiert wurde, sei Armenien durch ein bis heute verhältnismäßig hohes Maß an Freiheiten gekennzeichnet, welches durch mangelndes Interesse politischer Akteure unterstützt werde. Allerdings filterten russische ISPs, die der Bevölkerung Internetzugang bereit stellen. Prominentes Internetregulierungsproblem sei aktuell beispielsweise die Besteuerung von Internetunternehmen, was ein elementare Diskussion über (den Mangel von) Policy Learing hervorrief (mehr Info siehe Freedom House Index).

² hierzu sehr schön Kathrin Passig und Aleks Scholz (2015): Schlamm und Brei und Bits. Warum es die Digitalisierung nicht gibt (Merkur 69 (798), 2015.

Das digitale Phänomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung

Es gibt gute Gründe, ein Arbeitspapier nicht zu veröffentlichen: Nicht perfekt, könnte man mehr draus machen, Unsicherheit ob der Resonanz … Und es gibt Gründe, es dennoch zu tun: Wenn der Inhalt relevant scheint für gesellschaftliche Debatten, wenn man Austausch sucht und bieten möchte – und wenn man sich entschieden hat, was Neues zu beginnenen, aufbauend auf dem Vorhandenen.

Deshalb lade ich ein, zu lesen: Das digitale Phaenomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung.

Der Literaturbericht beleuchtet die Ursprünge deutscher Netzpolitik ab den 80er Jahren, insbesondere die frühen Infrastruktur- und Anwendungsplanungen sowie den Diskurs zu den sozialen Kosten der digitalen Vernetzung. Er integriert diese frühen Einsichten in die spätere Netz- (Internet) und Netzpolitikentwicklung (Internationalisierung, Privatisierung,  Internet Governance, Multi-Level-Governance) der 90er Jahre. Er versucht, zu erklären, wie die jüngeren netzpolitischen Politisierungsprozesse im Kontext der Digitalisierung verstanden werden können. Er gibt einen Überblick über die  komplexe Netzpolitik, in deren Zentrum die Gestaltung gesellschaftlicher Vernetzung verortet wird, welche a) die Technologie- und Infrastrukturgestaltung, b) die Gestaltung gesellschaftlicher Regelungssysteme, z.B. in Recht und Wirtschaft, sowie c) die Politisierung und Bearbeitung der sozialen Kosten der digitalen Vernetzung umfasst. Er schließt in der Hoffnung auf das Internet als Segen für die digitale Gesellschaft.

Was ich damit machen möchte? Einen internationalen Vergleich. Mehr dazu in Kürze. Ich freue mich auf die Debatte.

#rpTEN

#besserstreiten: #hatespeech im globalen Kontext

„Slavery, the Gulag, the Holocaust (…) Ruanda (…) required a complete monopoly over the media, over expression, a complete monopoly over, in fact, consciousness, at times through the church. So I’m asking you (…) Where are the greatest dangers to our common values? (…) What are the sources of the greatest risks to our common humanity in contexts where governments are using state of emergencies to curtail dissent, are using counter-terrorism to put in prison people who are at the frontline of combatting terrorism and calling for tolerance? (…) I want you (…) to think (…) seriously about the response we are gonna bring to hate speech, and whom are we gonna target, and whom are we gonna try to bring back to the respect for human rights!“ (Dr. Agnes Callamard, UN Symposium Tracking Hatred 2015).

Agnes Callarmard brachte mit diesem Zitat jüngst wesentliche Fragen zu Content Regulierung auf die Agenda, ein Thema, was mich bereits in meiner Diplomarbeit (2011) beschäftigte. Angeregt von der Zensursula-Debatte diskutierte ich damals vor allem das Löschen, Sperren und Filtern  von strafbaren Inhalten in Deutschland, und zwar aus einer demokratietheoretischen Perspektive und unter Berücksichtigung der zunehmenden Selbst- und Koregulierung im Bereich Internetpolitik. Nicht nur ist diese Arbeit heute veraltet,  sie berücksichtigte weder soziale Netzwerke noch Formen der umfassenden Daten- und Netzwerkanalyse (#bigdata).  Gleichfalls war ihr Fokus beschränkt auf liberale Demokratien, die Zusammenhänge zwischen lokalen und globalen Kommunikations- und Zensurinfrastrukturen waren leider ausgeklammert.

Deshalb habe ich die aktuelle Debatte zu #hatespeech im Netz bzw. zum Löschen von #hatespeech in sozialen Netzwerken zum Anlass genommen, meine Gedanken neu zu strukturieren, diesmal unter Berücksichtigung der Netzwerkeffekte und Netzwerkanalysetools sowie weltweit zunehmender Zensur- und Repressionsmaßnahmen und einer Konzentration von Medien (Reporter ohne Grenzen: Rangliste). Im Ergebnis diskutiert der Artikel “hatespeech im globalen Kontext” (22.04.2016, Netzpolitik.org) die aktuellen Löschforderungen seitens des BMJV gegenüber Google, Facebook und Twitter in Deutschland, verortet die Diskussion im globalen Kontext und zeigt online und offline Alternativen zum Umgang mit #hatespeech im Netz. Großer Dank geht dabei an das UN Symposium “Tracking hatred: An international dialogue on HATE SPEECH in the media” (United Nations Alliance on Civilizations, 2015, #spreadnohate), welches den Artikel maßgeblich inspirierte.

*Update 15.01.2017*

Nach den US-Wahlen und infolge der Debatte um eine mögliche Mitverantwortung Facebook’s an der Wahl Donald Trumps habe ich meine Einschätzungen zum Thema Hatespeech, Fake News und Facebook erneut überarbeitet – diesmal unter besonderer Berücksichtigung amerikanischer Lösungsansätze und dem Zusammenspiel von technischen, wirtschaftlichen und politischen Aspekten:  Warum der bisherige Kampf gegen #hatespeech und #fakenews auf Facebook irreführend ist – und welche Alternativen sich bieten

Anekdoten aus der Netzpolitik-/ Wissenschaftsgeschichte (Geschichte der Analogcomputer)

Neulich  las ich eine Geschichte der Entwicklung von Analogcomputern in Deutschland von Helmut Hoelzer, “a Nazi Germany V-2 rocket engineer who was brought to the United States under Operation Paperclip.” Operation Paperclip/ Overcast stellte wohl so eine Art militärisches Geheimprojekt der USA nach dem Ende des 2. Weltkrieges dar, mit Hilfe dessen deutsche Wissenschaftler und Techniker in die USA geholt wurden – einerseits damit deren Wissen und Können nicht in der Sowjetunion landet, andererseits um ein Wiederaufrüsten Deutschlands zu verhindern. Soweit, so gut. Oder schlecht? Geschichte halt …

Helmut Hoelzer war bis dahin maßgeblich in der Entwicklung von Analogcomputern beteiligt, die er in 50 Jahre Analogcomputer anschaulich beschreibt.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.

“Bis vor gar nicht allzu langer Zeit haben sich nur sehr wenige Leute darum gekümmert, wie diese elektronischen Analogcomputer zustande kamen. Sie waren Nebenprodukte und standen völlig im Schatten viel größerer Vorhaben (…) Es war alles so ähnlich wie zur Zeit von Kolumbus. Ein bekannter amerikanischer Wissenschaftler hat einmal gesagt: «Kolumbus wollte die Beziehungen zu China verbessern, ein Problem, welches bis heute noch nicht gelöst ist.  Aber sehen Sie sich doch mal die Nebenprodukte an …!» So ähnlich erging es auch den elektronischen Analogcomputern.” (ebd., S. 69).

Eigentlich wollte Hoelzer als Student ein Gerät entwickeln, um die absolute Geschwindigkeit eines Segelflugzeuges zu messen (Geschwindigkeit gegenüber der Erde). Dies scheiterte daran, dass ein solches Vorhaben weder in die damalige Fernmeldetechnik, noch in die damalige Meßtechnik fiel. Ingesamt bestand folgendes Problem: “Die Mathematiker jener Zeit waren der Meinung, dass Mathematik nicht aus Stangen besteht, und, nachdem der erste elektronische Analogcomputer gebaut war, sagten sie: «aus Draht besteht die Mathematik auch nicht.»” (ebd., S. 71).

Nunja, irgendwann war der Krieg eröffnet und Hoelzer wurde dienstverpflichtet nach Peenemünde geschickt, wo unter der Leitung von Wernher von Braun Raketenversuche gemacht wurden, um das Verbot weitreichender Geschütze (Versailler Vertrag) mit gesteuerten Fernraketen zu umgehen – was man benötigte, war also eine Funk-Fernsteuerung.  Kurssteuerung war zunächst einmal instabil, z.B. gegenüber Seitenwind. “Instabilität liegt dann vor, wenn eine Störung nicht abklingt, sondern sich immer weiter aufschaukelt. Die Stabilitätstheorie verlangte, daß außer der seitlichen Abweichung auch die seitliche Komponente der Geschwindigkeit verwendet wird. Falls permanenter Seitenwind besteht, müsste dann auch noch das Integral der Abweichung aufgeschaltet werden. Woher kriegt man nun einen Echtzeitintegrator und einen Echtzeitdifferentiator?” (ebd., S. 72). Die Zusammenfassung der folgenden Ausführungen übersteigt leider mein physikalisches und mathematisches Grundwissen, aber ich kann sie zum Verständnis der Entwicklung von Computern nur wärmstens empfehlen, sie sind schön bebildert und mit Anekdoten aus dem Arbeitsalltag versehen.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.

Worüber ich allerdings zunächst sehr schmunzeln musste, dann aber ins Nachdenken geriet, ist das weitere Geschehen um die dazu gehörige Dissertation: “Während diese Entwicklung stattfand [Entwicklung der Raketen-Fernsteuerung, Anm. der Autorin], dokumentierte ich alles genau, denn ich wollte es als Dissertation an der Technischen Hochschule in Darmstadt vorlegen. Aber das stellte sich nicht als so einfach heraus. Zuerst wurde alles mit einem Geheimstempel versehen und eingeschlossen. Dann kam der Luftangriff auf Penemünde 1943, wo alles verbrannte, auch die völlig ausgearbeitete Dissertation. Ungefähr Anfang 1945 hatte ich sie ein zweites Mal fertig, aber da war der Krieg zu Ende und die Amerikaner kassierten die Arbeit. Ich bekam sie aber nach mehreren Anläufen wieder und präsentierte sie in Darmstadt im selben Jahre. Aber nun gab es inzwischen eine Militärregierung, und ein Captain der amerikanischen Armee war der technischen Hochschule vorgesetzt. Bei ihm musste ich mir Genehmigung holen zum Promovieren. Er blätterte die Dissertation durch, sagte, daß Raketen und überhaupt Waffen nicht mehr gebraucht würden, da dies der letzte Krieg gewesen sei. Deutschland  sei zerstört, die anderen alle alliiert und so lange er hier etwas zu sagen hätte – und das wäre noch sehr lange – würde hier nicht über Waffenentwicklung promoviert,  – PAUSE -. Als ich dann einwarf, daß Raketen ja auch für Raumfahrt gebraucht werden könnten, sagte er in fließendem deutsch: «Lieber Freund, Sie haben vielleicht eine blühende Phantasie!» und draußen war ich. Mein Doktorvater, Prof. Walther, kam dann auf die glorreiche Idee, die Arbeit in 2 Teile zu teilen; der erste nur über Analogcomputerentwicklung, die Anwendung auf die Raketenentwicklung im 2. Teil. Das war natürlich eine Mordsarbeit und im Februar des nächsten Jahres war es dann soweit. Gezeigt bekam der Herr Captain nur den ersten Teil. Von da an spielte der Computer, zuerst der Analogcomputer, später dann auch der Digitalcomputer eine sehr wichtige Rolle in der Raketenentwicklung sowohl für militärische Zwecke als auch für die Raumfahrt” (ebd., S. 90). Zum weiterlesen

Wenn das alles nicht so ernst wäre (Menschen sterben), hätte ich den Beitrag unter “Lustiges aus der Netzpolitik- und Wissenschaftsgeschichte” abgelegt. Hätte ich gern getan.

#neuland war gestern!

Aufräumen mit der Mär vom #neuland: Das Internet fiel nicht vom Himmel. Obwohl diese spezielle Vernetzungskonfiguration nicht „made in Germany“ ist – Vernetzung und Digitalisierung standen bereits seit den 70er Jahren auf der Agenda von Regierung und Parlament, ebenso wie daraus sich ergebende gesellschaftliche Risiken (Überwachung, Datenschutz, Rationalisierung usw.) – und Alternativen.

Dazu habe ich auf der “Das ist Netzpolitik!”-Konferenz 2015 (04.09.2015) vorgetragen unter dem Titel #neuland war gestern – Deutsche Vernetzungspolitik im Kontext aktueller Herausforderungen einer digitalen Gesellschaft.