Algorithmen und Künstliche Intelligenz: Wegweiser für Politik und Gesellschaft

Was Menschen seit den 80ern gleichermaßen erstreben und fürchten, ist wahr geworden: Künstliche Intelligenz kommt nicht nur, sie ist schon da – in Form von Assistenten, Empfehlungssystemen und vielem mehr. Ermöglicht wird das Ganze durch die massive Vernetzung, verfügbares Datenmaterial und enorme Rechnerkapazitäten – hier lernen nun Maschinen nicht nur immer schneller, sondern auch immer mehr. Und übernehmen immer mehr Entscheidungen, die bislang Menschen vorbehalten waren. Welche Chancen und Risiken ergeben sich daraus? Wie kann gesellschaftliche Kontrolle und Mitbestimmung gelingen? Was bleibt dem Menschen zu tun?

Diese Fragen werde ich auf der kommenden Republica beleuchten. Bei dem Talk zum Thema Algorithmen und KI: Wegweiser für Politik und Gesellschaft (03.05.18, 15:00 Uhr, Bühne 2) geht es im ersten Teil  darum, aufzuzeigen, was wir zum Thema wissen und was wir nicht wissen – aber dringend wissen sollten, um eine adäquate Risiko- und Folgenabschätzung zu ermöglichen. Der zweite Teil konzentriert sich auf aktuelle Handlungsoptionen und solche, die es zu schaffen gilt. Dabei gehe ich auf rechtliche, technische und politische Aspekte der Thematik ein und stelle sie in einen Zusammenhang.

Wer sich schon einmal einlesen möchte, dem empfehle ich die folgenden Beiträge:

Außerdem freue ich mich, auf folgende Publikationen hinweisen zu dürfen, die in Kürze erscheinen werden und an deren Entstehung ich als unabhängige Expertin maßgeblich beteiligt war.

  • Krüger, Julia/ Lischka, Konrad (im Erscheinen): Damit Maschinen
    dem Menschen dienen. Lösungsansätze, um algorithmische
    Entscheidungen in den Dienst der Gesellschaft zu stellen,
    Arbeitspapier der Bertelsmann Stiftung.
  • Krüger, Julia/ Lischka, Konrad (im Erscheinen): Was zu tun ist,
    damit Maschinen dem Menschen dienen, Beitrag zur ÖFIT
    2017 (Algorithmen und Automatisierung), Fraunhofer FOKUS.

Ganz herzlich bedanken möchte ich mich an dieser Stelle bei Konrad Lischka und Carla Hustedt von der Bertelsmann Stiftung (Projekt: Ethik der Algorithmen) für die großartige Zusammenarbeit!

Last, but not least: Algorithmen und Künstliche Intelligenz sind nicht nur ein hoch spannendes Feld, sondern auch heiß umstritten. Wer sich vorab ein bißchen einhören möchte in die Debatte, dem empfehle ich die folgenden Diskussionsbeiträge:

Ich freue mich, das Thema auf der #rp18 weiter zu erörtern und gemeinsam Strategien und Handlungsoptionen zu debattieren!

PS: Wer es nicht zur Re:publica schafft – der Talk wird natürlich aufgenommen und am Samstag folgt im Rahmen der diesjährigen Re:publica das Netzfest – mit freiem Eintritt und unter freiem Himmel – da kann man weiter debattieren. Getting very excited …

 

Die Netzpolitik der Großen Koalition: Wie Deutschland seine Zukunft verspielt

Die große Koalition hat sich am Mittwoch auf die Bildung einer Koalitionsregierung geeinigt. Der vorläufige Koalitionsvertrag ist veröffentlicht. Darin ist das Thema Digitalisierung ziemlich weit nach oben gerutscht – im Vergleich zur letzten Legislaturperiode. Es folgt direkt auf die allgemeinen Leitlinien nationaler und europäischer Politik sowie Familie und Kinder. Und geht den Themen Arbeit, Wirtschaft, sozialer Sicherung und allem anderen voraus. Außerdem wird das Thema gebündelt behandelt, auf insgesamt 13 Seiten. Das alles impliziert eine adäquate formelle Einordnung der Bedeutung von Digitalisierungspolitik gegenüber anderen Feldern.

Wie die Bundesregierung die Digitalisierung im Großen und Ganzen gestalten möchte

Aber was ist mit den Inhalten? Den größten Teil nimmt das Thema Infrastrukturausbau ein, dass seit Jahrzehnten nicht voran kommt. Nun soll es jedoch ein Recht auf schnelles Internet eventuell bald geben – zum Preis von stärkeren Oligopolen im Telekommunikationssektor. Im Bildungsbereich soll es eine Bildungsoffensive geben, die an Schulen, Berufsschulen, Hochschulen und außerschulischen Bildungseinrichtungen digitale Kompetenzen fördern soll. Neu sind die Buzzwords: Adaptive Lernsysteme, Serious Games und Datenanalyse (im außer-universitären Bildungsbereich) sowie Digital Humanities, Blockchaintechnologie und Quanten-Computing (im universären Bereich). Das Kapitel zur Arbeit 4.0 enthält vor allem Vorschläge zur Weiterbildung von Arbeitnehmern, z.B. durch die Prüfung des Instruments der Langzeitkonten und ein Recht auf Weiterbildung durch die Bundesagentur für Arbeit. Zur Förderung der Wirtschaft sieht der Entwurf die Gründungsförderung durch Bürokratieabbau und verbesserte Finanzierungsbedingen für entsprechende Projekte vor. Natürlich sollen IT-Sicherheit und die Modernisierung der Verwaltung gestärkt werden und ein innovativer Weg zwischen Datenschutz und Geschäftsinteressen gefunden werden, auch in Europa.

Was gibt es Neues? Die Einrichtung einer Digitalagentur soll geprüft werden, als der Bundesregierung nachgeordnete Behörde zur Unterstützung beim Thema Infrastruktur, d.h.  bspw. Telekommunikations- und Plattformregulierung sowie Marktbeobachtung. Außerdem gibt es das Versprechen der Einrichtung eines Zentrums für künstliche Intelligenz in Kooperation mit französischen Partnern, das auf nationaler Ebene durch einen Masterplan ergänzt werden soll. Zudem plant die Koalition das Einsetzen einer Daten-Ethikkommission, um Regierung und Parlament Empfehlungen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen zu geben. Und es soll einen Digitalrat geben, der einen engen Austausch zwischen Politik und nationalen und internationalen Experten ermöglicht. Das Kartellrecht soll modernisiert werden, durch Verfahrensbeschleunigung und eine Neufassung der Marktabgrenzung. Und es gibt Bewegung im Bereich von E-Government: Hier verspricht die Bundesregierung, innovative Distributed Ledger (Blockchain) Technologien zu pilotieren. Es soll eine Beteiligungsplattform für Bürger und Stakeholder zur Kommentierung von Gesetzesentwürfen der Bundesregierung geben und die öffentliche Bereitstellung von Daten der öffentlichen Verwaltung.

Digitaler Kontrollverlust Revisited?

Die Vereinbarungen erinnern im ersten Teil an die Digitalisierungspolitik und die sie begleitende Gestaltungsdebatte der 80er Jahre. Denn der Ausbau von Glasfaser steht bereits seit 30 Jahren zur Debatte – ebenso wie die betriebliche Weiterbildung, die Förderung von Digitalkompetenzen in schulischen und außerschulischen Bildungseinrichtungen, die Modernisierung der Verwaltung und die Herstellung von IT-Sicherheit. Es hat nicht geklappt, die Ursachen sind vielfältig. Dennoch stehen wir an einem anderen Punkt.

Beispiel Arbeit: Was soll die betriebliche Weiterbildung bringen, wenn die Menschen mehr und mehr für Plattformen wie foodora arbeiten? Was kann eine Gründungsförderung das non-plus-ultra sein, wenn überall die Fachkräfte fehlen? Wo ist das Grundeinkommen für diejenigen, die sich langfristig weiter bilden wollen? Und wie sollen sich Interessierte weiter bilden, wenn Weiterbildungen zu Data Science fast ausschließlich im Ausland zu finden sind?

Künstliche Intelligenz, Quanten-Computer, Plattformindustrie, Robotik und Blockchain – die wichtigsten technischen Entwicklungen sind benannt. Sie versprechen in ihrer Gesamtheit eine gesellschaftliche Umwälzung, wie sie die Welt noch nicht gesehen hat. Die zuerst da greifen wird, wo etablierte Institutionen – Krankenhäuser, Schulen, alle Bereiche der Daseinsvorsorge – nicht mehr finanziert werden können. Was ansteht, ist nicht nur eine gravierende Umwälzung des Arbeitsmarktes. Auszugehen ist von einer sich anschließenden Disruption staatlicher Aufgaben. Auch, dass die großen IT-Konzerne darin eine wesentliche Rolle übernehmen. Derweil plant die zukünftige Bundesregierung die Prüfung einer Digitalagentur, die Einrichtung eines Zentrums für künstliche Intelligenz, die Einberufung eines Digitalrates und eine Daten-Ethikkommission. Die Vorschläge scheinen unkonkret alle Probleme in eine Zukunft zu verschieben, in der technische und wirtschaftliche Fakten gesetzt sein werden.

Was wir brauchen ist eine Digitale Taskforce

Wie wäre es dagegen mit der Einrichtung einer Taskforce zu Algorithmen, Daten und künstlicher Intelligenz, die zügig die Probleme checkt und kontinuierlich Konzepte für die unterschiedlichen Sektoren erarbeitet? Oder eine Taskforce zu Robotik und Blockchain, die zeitnah Anpassungsoptionen erarbeitet, mithilfe derer die Menschen auf eine Zukunft vorbereitet werden können, in denen viele Kompetenzen irrelevant geworden sind? Oder eine Taskforce zur Anwendung neuster Technologien in der Daseinsvorsorge, zur Prüfung ihrer Gestaltungsmöglichkeiten? Wie wäre es, der Realität von digitaler Peripherie ins Auge zu sehen und verbliebe Ressourcen so zu bündeln, dass die Jugend eine Chance bekommt?

Can you take-down web content democratically? If yes, under which conditions?

Last week, I did a presentation at the VOX-Pol Workshop on Countering Violent Extremism Online and the Impact on Civil Liberties at Harvard University, Berkman Klein Center for Internet & Society.

It covered basic requirements for democratically legitimate content regulation (incl. take-down), especially related to:

  • the justification of content regulation: concrete & specific norms (e.g. criminal law), and
  • procedural requirements to prevent errors & abuse (depending on tech and business developments).

I illustrated my theoretical accounts by explaining the details of the recent German “hate speech” law, binding social media platforms to take down illegal content upon user request within 1-7 days (with the threat of severe fines). Emphasis was given to the fact, that the law does not only provide for self-regulation in content-regulation (privatization of law-enforcement), but covers 22 complex offenses (instead of incitement to hatred, only), e.g.:

  • Encouraging the commission of a serious violent offense endangering the state,
  • Treasonous forgery,
  • Forming of criminal or terrorist organizations,
  • Insult and defamation, and
  • Forgery of data intended to provide proof.

I finished with an overview about main criticism related to the law, especially the lack of

  • user rights of objection (counter-notice procedures for cases legal content was taken-down by accident), and
  • meaningful public oversight about private content regulation.

All aspects need to be included into the new discussion of automated content regulation, with help of AI.  A paper is due to follow, the presentation can be downloaded here.

Auf der Reise durch die Netzpolitik (Forschungsupdate)

Angeregt vom Workshop on Internet Policy in Eastern Partnership, 8. März, von der Forschungsstelle Internet und Menschenrechte (CIHR)/ Europa Universität Viadrina (Frankfurt/ Oder), begann ich, über Netzpolitik im internationalen Vergleich nachzudenken, ich interessierte mich dabei besonders für die zusammenhängende Betrachtung von Entwicklungen in den Bereichen Infrastruktur/ technische Netzwerke, Regulierung/ politische Netzwerke und Netzfreiheiten/ Policy Output.¹

Zur Entwicklung eines entsprechenden Forschungsdesigns suchte ich alsbald nach systematischen Informationen zu den unterschiedlichen Dimensionen von Netzpolitik, nach relevanten Differenzen, nach best und worst cases. Jedoch stieß ich sogleich auf die Herausforderung der eingeschränkten Aussagekraft bekannter Forschungsprojekte und Indizes: Die wohl umfassensten Einschätzungen zu nationaler Netzpolitik der Open Net Initiative waren bereits veraltet (letztes Update: 2010), der Web Index der World Wide Web Foundation machte  2015 eine Pause, der World Press Freedom Index (Reporter ohne Grenzen) war für meine Zwecke zu eng auf Netzfreiheiten fokussiert und der Freedom House Index (Freedom of the Net) schien mir nicht nur fragwürdig hinsichtlich seiner Entstehung / Reportingsystem (full report, S. 969), sondern vor allem sehr unvollständig: 2015 erhob er weltweit 65 Länder, darunter bspw. nur 6 Staaten der EU (UK, DE, FR, EE, IT, HU).

Daher begann ich darüber nachzudenken, wie die erforderlichen Informationen vergleichend, zeitnah und kontinuierlich bereit gestellt werden können, auch wenn Forschungsprojekte auslaufen, z.B. durch Formen des Crowdsourcing oder durch Einsatz neuerer Technologien/ Automatisierung. Ich suchte nach weiteren vergleichenden Informationen und Datenquellen, fand z.B. das  Global Internet Policy Observatory, die Network Map of “Digital Constitutionalism” (Regulierung) oder die Africa ICT Policy Database., die ich in einem Wiki “Internet Policy in Comparison” (IPiC), insbesondere unter “Information Sorces“, ordnete. Und ich befand letztlich, dass mit Plattformen wie dem Global Internet Policy Observatory oder dem Internet Monitor (Berkman Klein Center) bereits vielfältige Informationen vorhanden sind, die je nach Forschungsinteresse ergänzt, aber vor allem in Bezug zueinander ausgewertet werden können, d.h. durch Einsatz entsprechender Daten- und Netzwerkanalysetools, und dadurch hohen Erkenntnisgewinn erwarten lassen.

Das Ganze könnte man natürlich outsourcen, aber unter den Aspekten der Wiederverwertung methodischen Wissens und den zukünftigen Bedingungen der Informationsproduktion erschien es mir sinnvoller, mich selbst in Materie einzuarbeiten. Deshalb lerne ich nun also kodieren und versuche, einen Überblick zu erlangen über die aktuellen Formen der Datenanalyse, versuche zu verstehen, wo sie eingesetzt werden können und wo Grenzen auftreten. Ich benutze dazu in erster Linie Online-Plattformen wie z.B. Codeacademy. Sehr hilfreich fand ich auch die Trello-Zusammenstellung “Data Science“. Insgesamt gibt es hier viele Möglichkeiten, die den Vorteil bieten, beim Lernen ein immer besseres Verständnis der technologischen (“digitalen”) Entwicklung selbst zu entwickeln.²

Wiewohl ich nun mit der Zeit eine immer prezisere Vorstellung davon gewonnen habe, welche Informationen ich im Bereich vergleichender Netzpolitik für Forschung und Advocacy gern hätte, und wie die bereit gestellt werden könnten, wird die Realisierung der vernetzen Informationen wohl noch etwas dauern.  Drum arbeite ich mich ebenfalls gerade durch die politische Theorie, auf der Suche nach Inspiration für das Verständnis von Netzpolitik, insbesondere zum Thema “Machtgleichgewichte und Machine Learning”. Sehr schön fand ich hier das Seminar/ Syllabus von Thorsten Thiel zum Thema Politische Theorie und Digitalisierung mit dazu gehörigem Hashtag: #digitheo :-)


¹ Der für mich anregenste Beitrag kam dabei von  Samvel Martitosyan (Institute for Strategic and Innovative Research, AM), er erläuterte Netzpolitik in Armenien: Aufgrund der Privatisierung des Telekommunikationssektors, der zugleich monopolisiert blieb und zeitweilig von griechischen Unternehmen dominiert wurde, wurde das Internet dort zwar 1997 eingeführt, fand allerdings erst ab 2008 eine größere, aber dann rasante Verbreitung.  Abgesehen von einem prominenten Zensurversuch in 2008, der international scharf kritisiert wurde, sei Armenien durch ein bis heute verhältnismäßig hohes Maß an Freiheiten gekennzeichnet, welches durch mangelndes Interesse politischer Akteure unterstützt werde. Allerdings filterten russische ISPs, die der Bevölkerung Internetzugang bereit stellen. Prominentes Internetregulierungsproblem sei aktuell beispielsweise die Besteuerung von Internetunternehmen, was ein elementare Diskussion über (den Mangel von) Policy Learing hervorrief (mehr Info siehe Freedom House Index).

² hierzu sehr schön Kathrin Passig und Aleks Scholz (2015): Schlamm und Brei und Bits. Warum es die Digitalisierung nicht gibt (Merkur 69 (798), 2015.

Das digitale Phänomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung

Es gibt gute Gründe, ein Arbeitspapier nicht zu veröffentlichen: Nicht perfekt, könnte man mehr draus machen, Unsicherheit ob der Resonanz … Und es gibt Gründe, es dennoch zu tun: Wenn der Inhalt relevant scheint für gesellschaftliche Debatten, wenn man Austausch sucht und bieten möchte – und wenn man sich entschieden hat, was Neues zu beginnenen, aufbauend auf dem Vorhandenen.

Deshalb lade ich ein, zu lesen: Das digitale Phaenomen: 30 Jahre Netzpolitik im Spiegel der Sozialforschung.

Der Literaturbericht beleuchtet die Ursprünge deutscher Netzpolitik ab den 80er Jahren, insbesondere die frühen Infrastruktur- und Anwendungsplanungen sowie den Diskurs zu den sozialen Kosten der digitalen Vernetzung. Er integriert diese frühen Einsichten in die spätere Netz- (Internet) und Netzpolitikentwicklung (Internationalisierung, Privatisierung,  Internet Governance, Multi-Level-Governance) der 90er Jahre. Er versucht, zu erklären, wie die jüngeren netzpolitischen Politisierungsprozesse im Kontext der Digitalisierung verstanden werden können. Er gibt einen Überblick über die  komplexe Netzpolitik, in deren Zentrum die Gestaltung gesellschaftlicher Vernetzung verortet wird, welche a) die Technologie- und Infrastrukturgestaltung, b) die Gestaltung gesellschaftlicher Regelungssysteme, z.B. in Recht und Wirtschaft, sowie c) die Politisierung und Bearbeitung der sozialen Kosten der digitalen Vernetzung umfasst. Er schließt in der Hoffnung auf das Internet als Segen für die digitale Gesellschaft.

Was ich damit machen möchte? Einen internationalen Vergleich. Mehr dazu in Kürze. Ich freue mich auf die Debatte.

#rpTEN

#besserstreiten: #hatespeech im globalen Kontext

„Slavery, the Gulag, the Holocaust (…) Ruanda (…) required a complete monopoly over the media, over expression, a complete monopoly over, in fact, consciousness, at times through the church. So I’m asking you (…) Where are the greatest dangers to our common values? (…) What are the sources of the greatest risks to our common humanity in contexts where governments are using state of emergencies to curtail dissent, are using counter-terrorism to put in prison people who are at the frontline of combatting terrorism and calling for tolerance? (…) I want you (…) to think (…) seriously about the response we are gonna bring to hate speech, and whom are we gonna target, and whom are we gonna try to bring back to the respect for human rights!“ (Dr. Agnes Callamard, UN Symposium Tracking Hatred 2015).

Agnes Callarmard brachte mit diesem Zitat jüngst wesentliche Fragen zu Content Regulierung auf die Agenda, ein Thema, was mich bereits in meiner Diplomarbeit (2011) beschäftigte. Angeregt von der Zensursula-Debatte diskutierte ich damals vor allem das Löschen, Sperren und Filtern  von strafbaren Inhalten in Deutschland, und zwar aus einer demokratietheoretischen Perspektive und unter Berücksichtigung der zunehmenden Selbst- und Koregulierung im Bereich Internetpolitik. Nicht nur ist diese Arbeit heute veraltet,  sie berücksichtigte weder soziale Netzwerke noch Formen der umfassenden Daten- und Netzwerkanalyse (#bigdata).  Gleichfalls war ihr Fokus beschränkt auf liberale Demokratien, die Zusammenhänge zwischen lokalen und globalen Kommunikations- und Zensurinfrastrukturen waren leider ausgeklammert.

Deshalb habe ich die aktuelle Debatte zu #hatespeech im Netz bzw. zum Löschen von #hatespeech in sozialen Netzwerken zum Anlass genommen, meine Gedanken neu zu strukturieren, diesmal unter Berücksichtigung der Netzwerkeffekte und Netzwerkanalysetools sowie weltweit zunehmender Zensur- und Repressionsmaßnahmen und einer Konzentration von Medien (Reporter ohne Grenzen: Rangliste). Im Ergebnis diskutiert der Artikel “hatespeech im globalen Kontext” (22.04.2016, Netzpolitik.org) die aktuellen Löschforderungen seitens des BMJV gegenüber Google, Facebook und Twitter in Deutschland, verortet die Diskussion im globalen Kontext und zeigt online und offline Alternativen zum Umgang mit #hatespeech im Netz. Großer Dank geht dabei an das UN Symposium “Tracking hatred: An international dialogue on HATE SPEECH in the media” (United Nations Alliance on Civilizations, 2015, #spreadnohate), welches den Artikel maßgeblich inspirierte.

*Update 15.01.2017*

Nach den US-Wahlen und infolge der Debatte um eine mögliche Mitverantwortung Facebook’s an der Wahl Donald Trumps habe ich meine Einschätzungen zum Thema Hatespeech, Fake News und Facebook erneut überarbeitet – diesmal unter besonderer Berücksichtigung amerikanischer Lösungsansätze und dem Zusammenspiel von technischen, wirtschaftlichen und politischen Aspekten:  Warum der bisherige Kampf gegen #hatespeech und #fakenews auf Facebook irreführend ist – und welche Alternativen sich bieten

Anekdoten aus der Netzpolitik-/ Wissenschaftsgeschichte (Geschichte der Analogcomputer)

Neulich  las ich eine Geschichte der Entwicklung von Analogcomputern in Deutschland von Helmut Hoelzer, “a Nazi Germany V-2 rocket engineer who was brought to the United States under Operation Paperclip.” Operation Paperclip/ Overcast stellte wohl so eine Art militärisches Geheimprojekt der USA nach dem Ende des 2. Weltkrieges dar, mit Hilfe dessen deutsche Wissenschaftler und Techniker in die USA geholt wurden – einerseits damit deren Wissen und Können nicht in der Sowjetunion landet, andererseits um ein Wiederaufrüsten Deutschlands zu verhindern. Soweit, so gut. Oder schlecht? Geschichte halt …

Helmut Hoelzer war bis dahin maßgeblich in der Entwicklung von Analogcomputern beteiligt, die er in 50 Jahre Analogcomputer anschaulich beschreibt.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 70.

“Bis vor gar nicht allzu langer Zeit haben sich nur sehr wenige Leute darum gekümmert, wie diese elektronischen Analogcomputer zustande kamen. Sie waren Nebenprodukte und standen völlig im Schatten viel größerer Vorhaben (…) Es war alles so ähnlich wie zur Zeit von Kolumbus. Ein bekannter amerikanischer Wissenschaftler hat einmal gesagt: «Kolumbus wollte die Beziehungen zu China verbessern, ein Problem, welches bis heute noch nicht gelöst ist.  Aber sehen Sie sich doch mal die Nebenprodukte an …!» So ähnlich erging es auch den elektronischen Analogcomputern.” (ebd., S. 69).

Eigentlich wollte Hoelzer als Student ein Gerät entwickeln, um die absolute Geschwindigkeit eines Segelflugzeuges zu messen (Geschwindigkeit gegenüber der Erde). Dies scheiterte daran, dass ein solches Vorhaben weder in die damalige Fernmeldetechnik, noch in die damalige Meßtechnik fiel. Ingesamt bestand folgendes Problem: “Die Mathematiker jener Zeit waren der Meinung, dass Mathematik nicht aus Stangen besteht, und, nachdem der erste elektronische Analogcomputer gebaut war, sagten sie: «aus Draht besteht die Mathematik auch nicht.»” (ebd., S. 71).

Nunja, irgendwann war der Krieg eröffnet und Hoelzer wurde dienstverpflichtet nach Peenemünde geschickt, wo unter der Leitung von Wernher von Braun Raketenversuche gemacht wurden, um das Verbot weitreichender Geschütze (Versailler Vertrag) mit gesteuerten Fernraketen zu umgehen – was man benötigte, war also eine Funk-Fernsteuerung.  Kurssteuerung war zunächst einmal instabil, z.B. gegenüber Seitenwind. “Instabilität liegt dann vor, wenn eine Störung nicht abklingt, sondern sich immer weiter aufschaukelt. Die Stabilitätstheorie verlangte, daß außer der seitlichen Abweichung auch die seitliche Komponente der Geschwindigkeit verwendet wird. Falls permanenter Seitenwind besteht, müsste dann auch noch das Integral der Abweichung aufgeschaltet werden. Woher kriegt man nun einen Echtzeitintegrator und einen Echtzeitdifferentiator?” (ebd., S. 72). Die Zusammenfassung der folgenden Ausführungen übersteigt leider mein physikalisches und mathematisches Grundwissen, aber ich kann sie zum Verständnis der Entwicklung von Computern nur wärmstens empfehlen, sie sind schön bebildert und mit Anekdoten aus dem Arbeitsalltag versehen.

Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.
Hoelzer, H.: 50 Jahre Analogcomputer, in: Bolz, N./ Kittler, F./ Tholen, C. (Hg.): Computer als Medium, Wilhelm Fink: München, S. 89.

Worüber ich allerdings zunächst sehr schmunzeln musste, dann aber ins Nachdenken geriet, ist das weitere Geschehen um die dazu gehörige Dissertation: “Während diese Entwicklung stattfand [Entwicklung der Raketen-Fernsteuerung, Anm. der Autorin], dokumentierte ich alles genau, denn ich wollte es als Dissertation an der Technischen Hochschule in Darmstadt vorlegen. Aber das stellte sich nicht als so einfach heraus. Zuerst wurde alles mit einem Geheimstempel versehen und eingeschlossen. Dann kam der Luftangriff auf Penemünde 1943, wo alles verbrannte, auch die völlig ausgearbeitete Dissertation. Ungefähr Anfang 1945 hatte ich sie ein zweites Mal fertig, aber da war der Krieg zu Ende und die Amerikaner kassierten die Arbeit. Ich bekam sie aber nach mehreren Anläufen wieder und präsentierte sie in Darmstadt im selben Jahre. Aber nun gab es inzwischen eine Militärregierung, und ein Captain der amerikanischen Armee war der technischen Hochschule vorgesetzt. Bei ihm musste ich mir Genehmigung holen zum Promovieren. Er blätterte die Dissertation durch, sagte, daß Raketen und überhaupt Waffen nicht mehr gebraucht würden, da dies der letzte Krieg gewesen sei. Deutschland  sei zerstört, die anderen alle alliiert und so lange er hier etwas zu sagen hätte – und das wäre noch sehr lange – würde hier nicht über Waffenentwicklung promoviert,  – PAUSE -. Als ich dann einwarf, daß Raketen ja auch für Raumfahrt gebraucht werden könnten, sagte er in fließendem deutsch: «Lieber Freund, Sie haben vielleicht eine blühende Phantasie!» und draußen war ich. Mein Doktorvater, Prof. Walther, kam dann auf die glorreiche Idee, die Arbeit in 2 Teile zu teilen; der erste nur über Analogcomputerentwicklung, die Anwendung auf die Raketenentwicklung im 2. Teil. Das war natürlich eine Mordsarbeit und im Februar des nächsten Jahres war es dann soweit. Gezeigt bekam der Herr Captain nur den ersten Teil. Von da an spielte der Computer, zuerst der Analogcomputer, später dann auch der Digitalcomputer eine sehr wichtige Rolle in der Raketenentwicklung sowohl für militärische Zwecke als auch für die Raumfahrt” (ebd., S. 90). Zum weiterlesen

Wenn das alles nicht so ernst wäre (Menschen sterben), hätte ich den Beitrag unter “Lustiges aus der Netzpolitik- und Wissenschaftsgeschichte” abgelegt. Hätte ich gern getan.

#neuland war gestern!

Aufräumen mit der Mär vom #neuland: Das Internet fiel nicht vom Himmel. Obwohl diese spezielle Vernetzungskonfiguration nicht „made in Germany“ ist – Vernetzung und Digitalisierung standen bereits seit den 70er Jahren auf der Agenda von Regierung und Parlament, ebenso wie daraus sich ergebende gesellschaftliche Risiken (Überwachung, Datenschutz, Rationalisierung usw.) – und Alternativen.

Dazu habe ich auf der “Das ist Netzpolitik!”-Konferenz 2015 (04.09.2015) vorgetragen unter dem Titel #neuland war gestern – Deutsche Vernetzungspolitik im Kontext aktueller Herausforderungen einer digitalen Gesellschaft.

 

Irgendwas mit digital …?

So ähnlich. Ich forsche aktuell zur Entwicklung deutscher Netzpolitik, insbesondere zur wirtschafts- und technologiepolitischen Geschichte der Vernetzung und Digitalisierung seit den 70er Jahren und ihren Einfluss auf die Entwicklung gegenwärtig mit Netzpolitik, Internetregulierung oder Digitalisierung befassten nationalen und internationalen Arenen politischer Gestaltung… Viel Work in Progress. Weitere Infos unter Talks, Articles und About.