2021: Datafizierung, Disziplinierung, Demystifizierung.

Abstract

Dies ist eine PrePrint-Version. Die tatsächliche Druckfassung kann abweichen.

Publication
In: Frank Schmiedchen, Klaus Peter Kratzer, Jasmin S.A. Link, Heinz Stapf-Finé (Hrsg.): Wie wir leben wollen. Kompendium zu Technikfolgen von Digitalisierung, Vernetzung und Künstlicher Intelligenz. Logos 2021, S.23-31.
Date

Daten, die gegebenen – wenn es nach Francis Bacon geht (Klein und Giglioni, 2020). Daten, die zu regulierenden – wenn es nach der Europäischen Kommission geht (EUCOM, 2020a). Dazwischen liegen 400 Jahre, in denen Daten gesammelt, gespeichert, verarbeitet und verbreitet wurden. Während für Bacon selbstverständlich war, dass Daten primär der Wissenschaft dienen, sprechen wir heute von Daten wie von einer Handelsware (engl. commodity), die alleine in Europa über 325 Milliarden Euro wert sein soll (EUCOM, 2020b, S. 31). Etymologisch nähern sich also das lateinische datum und die commoditas, das Gegebene hier und das Nützliche, Passende, Vorteilhafte dort. Den wissenschaftlichen Geist sollte das aufhorchen lassen, denn wo etwas zu passend für die eigene Theorie ist, gilt es, genauer hinzusehen. Daten sollen unbequem sein, die eigene Theorie in Frage stellen können (und, wenn wir wie Mendel bei der Erbsenzucht vielleicht ein ganz klein wenig schummeln, auch manchmal Theorien bestätigen).

In diesem Jahr feiern wir den 75. Geburtstag des Electronic Numerical Integrator and Computer, kurz ENIAC, des ersten frei programmierbaren, elektronischen Universalcomputers. Sicher, in Deutschland könnten wir auch den 80. Geburtstag von Konrad Zuses Z3 feiern und in Groß-Britannien den 85. Geburtstag der Turing-Maschine – kurzum, wir leben seit mehreren Generationen in einem Zeitalter der Berechnung mit Hilfe von Universalcomputern. Daten werden also seit Jahrzehnten als maschinenlesbare und vor allem berechenbare Informationen betrachtet. Das Wort der Information, des In-Form-Gebrachten, verrät die Transformation der reinen Notation von Zahlenwerten anhand von Beobachtung oder Überlegung in strukturierte Formate. Daten sind mehr als Zahlen bzw. Symbole, sie besitzen ein Schema, wurden modelliert und maschinenlesbar aufbereitet.

Ein sehr einfaches – und dennoch geniale – Schema ist die Tabelle. In der ersten Zeile befinden sich Bezeichnungen, wie Messgrößen und Einheiten, in den weiteren Zeilen Symbole, notiert in Bild, Schrift und Zahl. Welche Macht bereits die Tabelle besitzt, beschrieb Leibniz seinem Landesfürsten in blumigen Worten. Der beschäftigte Geist der herrschenden Person könne unmöglich wissen, wieviel wüllenes Tuch in welchen Fabriken fabriziert und in welcher Menge von wem in der Bevölkerung verlangt wird. Da das Wissen über diese »connexion der Dinge« für eine gute Regierung jedoch unerlässlich seien, schlug Leibniz so genannte Staatstafeln vor, die auf einen Blick komplexe Sachverhalte erfassbar und somit regierbar, steuerbar machen (Leibniz, 1685).

Daten dienen der Kontrolle des Menschen. Zunächst ist dies nur als genetivus subjectivus zu verstehen, der Mensch nutzt die Daten zur Kontrolle über seine Umwelt. In jüngster Zeit jedoch wird auch die Bedeutung im genetivus objectivus debattiert: Daten dienen der Kontrolle über die Menschen. In diesem Beitrag beginnen wir bei den Bausteinen der Daten, wie wir sie im modernen Kontext verstehen, wir beginnen also bei den Daten verarbeitenden Maschinen. Danach betrachten wir die beiden Dimensionen der Daten für die Kontrolle des Menschen.

Baustein: Digital-Zahl

Für das moderne Verständnis von Daten ist die Zahl der wohl wichtigste Baustein. Die Informatik in der direkten Nachfolge der pythagoreischen Denkschule vertritt mit ihrem Mantra »Alles ist Digitalzahl« die Auffassung, dass jede Geste, jede Rede, jedes Bild, jede Schrift, kurz alle kodifizierten Handlungen des Menschen mit Hilfe einer Zahl aufgeschrieben werden können (vgl. Ullrich 2019). Dies stimmt natürlich nicht, die wichtigsten Dinge können ja gerade nicht erfasst werden, etwa, was einen Gute-Nacht-Kuss im Wesen ausmacht. Die Dichtkunst kommt dem noch am nächsten, aber auch sie scheitert auf hohem Niveau daran, das Innerste des Menschen zu erfassen. Doch wovon die Informatik nicht sprechen kann, darüber schweigt sie nicht etwa, sondern erfasst Daten. Die Anzahl der Gute-Nacht-Küsse korreliert mit der Größe der Familie oder Wohngemeinschaft, ein wichtiges Datum für die Rechteinhaber von Software, die Nutzungslizenzen verkaufen wollen.

Die Zahl, genauer, die diskrete Zahl zerlegt das unfassbare Kontinuum der uns umgebenden Umwelt in messbare und zählbare Objekte, die Messungen und Zahlen geben uns ein Gefühl der Kontrolle. Es muss für die ersten Gemeinschaften unheimlich beruhigend gewesen sein, das Geheimnis der Jahreszeiten zu entschlüsseln, dass der Winter eben nicht ewig dauert, sondern vom Frühling abgelöst wird. Acht Stunden Tag bei der Wintersonnenwende, gute sechs Mondphasen später sind es schon sechzehn Stunden – mit Hilfe des Kalenders und dem Blick auf das Datum besitzt der dem Wetter ausgelieferte Mensch ein wenig Kontrolle. Selbst heutzutage im Zeitalter des menschengemachten Klimawandels sind es Daten, die unsere Klima-Modelle stützen und uns über unsere Zukunft aufklären.

Die diskrete Zahl diente vor allem den empirischen Wissenschaften, produziert mit Hilfe der Beobachtung oder mit Hilfe von Instrumenten und Werkzeugen. Im mechanischen Zeitalter lieferten Werkzeuge wie das Teleskop allerdings analoge Signale, die erst schematisiert oder gleich diskretisiert werden müssen – Galileo zeichnete den Mond mit seiner wenig perfekten Oberfläche schematisch und bis heute halten Pilzsammlerinnen und Medizinerinnen die schematische Darstellung von Fruchtkörpern oder Nervenzellen für didaktisch wertvoller als die hoch aufgelöste Photographie.

Um ein analoges Signal in ein diskretes umzuwandeln, wird ein Analog-Digital-Wandler benötigt. Das kontinuierliche Signal, etwa eine Schallwelle, wird 44.100-mal pro Sekunde gemessen, im Fachjargon »abgetastet«. Die Funktionsweise kann man sich am besten mit Hilfe eines Rasters vorstellen. Stellen Sie sich vor, sie zeichnen eine Welle auf ein Karo-Papier. Dann nehmen Sie einen Stift in einer anderen Farbe, rot etwa, und markieren die Schnittpunkte der Karos, die der Welle am nächsten sind. Diese roten Punkte markieren dann die diskreten Werte des analogen Signals (Abbildung 1).

Abb. 1: Digitalsignal (rote Punkte) nach Abtastung und Quantisierung eines analogen Signals (grau). Gemeinfreie Abbildung via Wikimedia Commons, dem freien Wissensarchiv.

Das resultierende diskrete, digitale Signal ist natürlich nur eine Näherung des analogen Signals, die umso kongruenter ist, je höher die Abtastfrequenz und je feiner die Quantifizierung. Der Vorteil ist, dass wir nun ein maschinell verarbeitbares Datum haben, ein digitales Datum, das wir speichern oder kommunizieren können.

Die ersten Analog-Digital-Wandler wurden von Konrad Zuse zwischen 1943 und 1944 entwickelt, um das Ablesen der analogen Messuhren der Henschel-Gleitbombe Hs 293 mechanisieren zu können. Nach Abwurf der Bombe konnte sie dank Quer- und Höhenruder per Funk gesteuert werden, um ihre 300 Kilogramm Sprengstoff sicher ans Ziel zu bringen. Sie war der weltweit erfolgreichste Seezielflugkörper, wobei »erfolgreich« übersetzt heißt, für den größten Menschenverlust der US-Amerikaner im Zweiten Weltkrieg verantwortlich zu sein.

Mit diesem drastischen, aber durchaus typischen Beispiel, soll die Rolle der Daten verdeutlicht werden. Daten sind ein Dämon, der ebenso dienstbar wie verschlingend ist. Es gibt keine harmlosen Daten, sie haben die unschuldige Sphäre der Mathematik verlassen und bestimmen spätestens seit Erfindung der Lochkarte über Wohl und Wehe der Person.

In der Lochkarte sind Daten mit Hilfe von Löchern kodiert, und man benötigt nicht einmal eine Maschine, um sie auszulesen. Die ersten Programmiererinnen hätten sich den Luxus, nur für das Auslesen wertvolle Maschinenzeit zu verbrauchen, gar nicht erlauben können. Selbst die Ausführung von einfachen Filter-Algorithmen benötigt bei geeigneter Gestaltung der Löcher keine Maschine. Nehmen wir einmal eine Randlochkarte, die im Gegensatz zu anderen Lochkarten auch für die manuelle Verarbeitung geeignet ist. Eine Randlochkarte besitzt im uncodierten Zustand ringsum Löcher am Rand. Nun wird ein Schlüssel, eine Codierung entworfen, und die Karten werden eingekerbt, so dass an bestimmten Stellen ein Schlitz entsteht. In Abbildung 2 sehen wir sowohl Löcher (wie mit einem Locher erstellt) und Schlitzungen (Kerben). Alle Randlochkarten werden nun auf einen Stapel gelegt und aufgestellt, so dass die Löcher übereinander liegen. Wenn man nun eine Stricknadel hineinschiebt und den Kartenstapel anhebt, fallen diejenigen Karten herunter, die an der Stelle der Nadel einen Schlitz aufweisen. Die Zeitersparnis bei der Suche im Gegensatz zu normalen Karteikarten ist enorm: Die Auswahlgeschwindigkeit beträgt zwischen 30.000 und 40.000 Karten pro Stunde.

Abb. 2: Manuelle Auswahl von Randlochkarten. Abbildung aus: Bourne, Charles: Methods of Information Handling, John Wiley & Sons, New York, 1963, S. 81.

Nicht allein die Datenauswertung, sondern schon die Erfassung und Kategorisierung der Daten fördern sowohl ihren Gebrauch als auch den potentiellen Daten*miss*brauch. Mit Hilfe eines Randlochkartensystems hätten Leibniz’ Staatstafeln einen Versionssprung gemacht, und wer weiß, vielleicht hätten sie dafür gesorgt, dass der Landesfürst sich nicht nur über die Anzahl der wüllenen Tücher informiert hätte, sondern über politische Widersacher, deren persönlichen Daten, Gewohnheiten und Treffpunkte.

Daten für die Kontrolle des Menschen

Was dem Landesfürsten Leibniz’ Staatstafeln, sind dem gesundheitsbewussten Menschen die smarten Fitnessarmbänder und die noch smarteren Universalcomputer in der Hosentasche, die wir aus historischen Gründen nach wie vor »Telefon« nennen. Wir zählen Schritte, Kalorien oder CO~2~-Emmissionen, um uns selbst besser zu disziplinieren. Wir wollen uns selbst oder die Umwelt mit Hilfe von erfassten Daten kontrollieren – doch was heißt das eigentlich? Die contre-rôle ist das Gegenregister zur Bestätigung einer mit Hilfe von Daten belegten Behauptung. Vertrauen ist gut, Kontrolle mag besser sein, sie braucht aber eben auch Überwachung: Wir müssen erneut Daten erfassen, diesmal unabhängig von den Daten, die in die zu belegende Behauptung geflossen sind (besonders, wenn die Daten von anderen stammen), und wir brauchen diese Daten am besten in Echtzeit.

Denn das ist natürlich der Schwachpunkt bei Leibniz’ Staatstafeln: Die Aussagekraft der Daten nimmt mit der Zeit natürlich ab. Sicher, zur Kontrolle der eigenen Handlungen, also das Testen der Wirksamkeit politischer Entscheidungen beispielsweise, sind jährlich erhobene Daten ausreichend, oder wie Leibniz schrieb: zur Selbstregierung geeignet. Wenn wir allerdings über jemanden regieren wollen, benötigen wir neben den Daten auch die Überwachung. Wir können nicht sinnvoll über gegenwärtige datenbasierten Geschäftsmodelle sprechen oder Datenmärkte behandeln, ohne die Überwachung explizit zu erwähnen, die natürlich ebenfalls ein Instrument der Kontrolle des Menschen ist.

Die Ikone der Überwachung ist selbstverständlich das Panoptikum von Jeremy Bentham, sein Entwurf eines »Kontrollhauses« von 1791. Bentham (2013) plante dies für eine Vielzahl von Einrichtungen, von Schulen bis Krankenhäuser, aber das erste und bekannteste Beispiel ist das Gefängnis. Im Zentrum der Einrichtung steht ein Turm, der die strahlenförmig abgehenden Zellen einsehen kann, jedoch die Beobachterin im Turm vor dem Einblick schützt. Somit weiß die Insassin einer solchen Zelle nicht, ob und wann sie beobachtet wird, sie weiß jedoch, dass sie jederzeit beobachtet werden kann. Diese Möglichkeit der Überwachung führt zur Verhaltensänderung, die Insassin verhält sich permanent so, als würde sie tatsächlich jederzeit überwacht. Sie hat die Überwachung verinnerlicht, das ist es, was als »panoptisches Prinzip« bekannt wurde.1

Das Pan-optische, also das All-sehende, wird durch Überwachungstechnologien zum All-sehenden-für-immer-gespeicherten. So wie das moderne Konzept der Privatheit (»the right to be let alone«, Warren/Brandeis, 1890) erst mit dem Aufkommen des Photoapparats ex negativo entstand, so wurde das Grundrecht auf informationelle Selbstbestimmung erst mit dem Aufkommen großer Datenverabeitungsanlagen begründet (BVerfG, 1983). Der Datenschutz, eigentlich ein sehr ungeeigneter Begriff, greift die Informationsflussrichtung des panoptischen Prinzips auf. Die informationell mächtigere Person wacht im Turm über die informationell unterlegene Insassin. Der Datenschutz, genauer: das Datenschutzrecht soll nun dafür sorgen, dass diese Macht nicht missbraucht wird.

Doch wer überwacht die Überwachenden? Natürlich die Öffentlichkeit, die »Gesamtheit der

Schaulustigen, diesem großen offenen Gremium des Gerichtshofs der Welt«, und zwar mit Hilfe von öffentlich zugänglichen Daten (Bentham, 2013, S.36). Private Daten schützen, öffentliche Daten nutzen, wie in der Hacker-Ethik des Chaos Computer Clubs zu lesen ist, meint die Eigenheit der Daten zu erkennen und zum Wohle der Gesellschaft zu nutzen (CCC, 1998). Daten dienen eben der Kontrolle des Menschen, mal verstanden als Genitivus Objektivus im Falle des Panoptikums, mal verstanden als Genitivus Subjektivus im Falle des Gerichtshofs der Welt.

In biometrischen Erkennungssystemen kommen all die oben genannten Ausführungen in einem komplexen sozio-technischen System zusammen, so dass sich eine exemplarische Aufarbeitung dieser Technik an dieser Stelle anbietet. Die Biometrie, also die Vermessung des Lebens, ist ein Instrument der Statistik. Mortalitätstabellen, Altersstruktur der Bevölkerung und durchschnittliche Lebenserwartung sind für Staatenlenkerinnen interessant, wenn es um Steuern, Teilhabe und Verteilungsgerechtigkeit geht. In einem der ersten wissenschaftlichen Werke zur Biometrie beschreibt der Schweizer Naturforscher C. Bernoulli dann auch zunächst, wie eine Tafel der Lebenserwartung aufgebaut sein sollte, welche Vorteile durch diese übersichtliche connexion der Dinge entstehen, bevor in einem Einschub etwas versteckt darauf hingewiesen wird, dass es Lebensversicherungsanstalten waren, die die Erhebung dieser Daten »zum Bedürfniß« machten (Bernoulli, 1841, S.398-399). Wenn die transdisziplinäre Kulturtechnikforscherin diese technikhistorische Spur aufgenommen hat, entdeckt sie überall die wahren Beweggründe hinter biometrischen Systemen. Die Daktyloskopie diente seit Francis Galton nicht nur der Strafverfolgung, sondern liefert wie alle anderen biometrischen Vermessungssysteme bis zum heutigen Tage auch, freiwillig oder unfreiwillig, rassistischen Denkweisen und Praktiken Vorschub.

Bevor wir diesen Gedanken zu Ende führen, soll an dieser Stelle die »Black Box« ein wenig geöffnet werden. Dazu betrachten wir den typischen Aufbau eines Systems zur automatisierten Erkennung von Fingerabdrücken (nach Knaut, 2017, S.44).

Abb. 3: Aufbau eines Systems zur automatisierten Erkennung von Fingerabdrücken (nach Knaut, 2017, S.44).

Dieses Diagramm ist schon eine erhebliche Vereinfachung der tatsächlichen Architektur eines typischen Systems, was wir allein an der Komponente »Fingerprint Acquisition« sehen können. Vor der Entwicklung entsprechender Sensoren wurde der Fingerabdruck analog erfasst, wie es ja auch der Name verrät. Der Abdruck, typischerweise nach Auflegen des Fingers zunächst auf ein Stempelkissen und anschließend auf ein Stück Karton, hinterlässt nur dort Farbpigmente, wo sich die Papillarleiste des Fingers befindet, eben diese typischen Linien, die wir auch mit bloßem Auge sehen.

Biometrische Erkennungssysteme dienen der Verifikation und der Identifikation und werden in der Regel als Zugangssysteme (Verifikation) oder generell als behördliche Sicherheitstechnologie (Identifikation) vermarktet. Auch die Einführung biometrischer Pässe und Personalausweise in Deutschland wurden unter diesem Gesichtspunkt präsentiert. In Hintergrundgesprächen und auf direkte Nachfrage ist aber allen Beteiligten klar, dass es um eine Wirtschaftsförderung geht, da die entsprechenden Lesegeräte lizensiert werden müssen. Die datenbasierten Geschäftsmodelle biometrischer Erkennungssysteme haben jedoch einen Haken: Sie fallen technisch unter die Datenschutzgrundverordnung (Artikel 9 Abs. 1 DSGVO), was die Verwertung so herausfordernd macht. Biometrische Daten sind zugleich die intimsten und sichtbarsten Daten: Wenn nicht gerade eine Pandemie herrscht, zeigen wir ständig unser Gesicht. Und selbst in Corona-Zeiten kann unser Gang in einer Menge von Menschen recht eindeutig sein. Schließlich sind da noch unsere Fingerabdrücke, die sinnbildlich für Identität stehen, obwohl Technikerinnen und Wissenschaftlerinnen schon seit Jahrzehnten darauf hinweisen, dass es um Identitätskonstruktionen und Zuschreibungen geht. Daten können jedoch auch verwendet werden, um diese Zuschreibungen in Frage zu stellen, darum geht es im letzten Abschnitt.

Daten für die Entzauberung

Daten sind der Schlüssel zum Wissen, sie sind die Grundlage der empirischen Wissenschaften und bieten nicht nur den quantitativ, sondern auch den qualitativ Forschenden eine Sichtweise auf die Welt. Daten sind keine Fakten, das war Francis Bacon wichtig, und das sollten wir uns immer wieder vor Augen führen. Daten können Fakten im wissenschaftlich arbeitenden Geist erzeugen, bestätigen oder in Frage stellen. Daten können auch Sachverhalte verschleiern. Die Datenkunde mausert sich langsam zur grundlegenden Kulturtechnik des mündigen Mitglieds der vernetzten Gesellschaft. Der Datenwissenschaftler Hans Rosling demonstrierte einem großen Publikum (und dank audiovisuellen Daten auch auf Youtube, vimeo und co), wie Daten dazu genutzt werden können, kulturelle Differenzen zu überbrücken, Vorurteile abzubauen und für ein gemeinsames Verständnis zu sorgen. Auf eine sehr humorvolle und entlarvende Art hält uns Rosling den Spiegel vor, dass wir uns auf Daten, Zahlen und Fakten verlassen, die wir in der Schule gelernt haben und die nun auf allen Medienkanälen reproduziert werden. Unsere Vorstellung von Ländern des globalen Südens beispielsweise sind dem Mythos näher als der Gegenwart (Rosling, 2006). Die Demystifizierung falscher, vielleicht sogar schädlicher Annahmen mit Hilfe von Daten war der Hauptantrieb des Humanisten Rosling.

Doch dazu müssen diese Daten auch vorhanden sein. Es gibt eine prinzipielle Verzerrung, wenn es um Daten geht: Wir können nur messen, was messbar ist. Das ist also einerseits von Instrumenten und Werkzeugen abhängig, andererseits aber auch von Kultur und Sitten. Es liegt nicht an fehlenden Werkzeugen, dass Caroline Criado Perez (2019) einen Gender Data Gap beobachten konnte, sondern auch an der Datenkultur der Mehrheitsgesellschaft. Daten werden zu einem bestimmten Zweck erhoben, und je mehr Aufwand in die Datenerhebung gesteckt wird, desto eher erwartet man eine Dividende: Daten als Zahlungsmittel.

Daten fallen insofern eine zentrale Rolle zu, weil sie Teil sowohl der alten Welt der automatisierten Datenverarbeitung wie auch der neuen Welt der heuristischen Datentechniken wie Machine Learning, Big Data und Artificial Intelligence sind. Es ist daher nicht verwunderlich, dass immer wieder auf die Herausbildung einer Datenkompetenz (data literacy) gepocht wird, ohne freilich zu sagen, wie genau die aussehen soll. Zur Demystifzierung gehört auch der ernüchternde Blick auf die gegenwärtigen Praktiken der Datenverarbeitung. Der Großteil der Menschen hat schlicht keine Lust, sich mit Daten zu beschäftigen, und in einer arbeitsteiligen Gesellschaft sollten wir das auch akzeptieren und Informatikerinnen und Firmen mit datenbasierten Geschäftsmodellen stärker in die Pflicht nehmen, beispielsweise durch die Forderung, datenbasierte Geschäftsmodelle keiner Geheimhaltungspflicht zu unterwerfen oder die genaue Kennzeichnung der datenverarbeitenden Systeme zu verlangen.

Ein weiterer Schritt zur Demystifizierung könnten didaktische Systeme wie MENACE sein (vgl. Ullrich 2019c). MENACE war der Name einer didaktischen Maschine zur Vermittlung von Machine-Learning-Prinzipien, das von Donald Michie in den 1960er Jahren erdacht und beschrieben wurde. Seine Maschine konnte Noughts and Crosses (auch bekannt als Tic-Tac-Toe, Three in a Line oder Tatetí) gegen einen menschlichen Spieler spielen (vgl. Michie 1961). Die Machine Educable Noughts And Crosses Engine war ein maschinelles Lernsystem, aber mit einer Besonderheit: Die Maschine bestand nicht etwa aus Computerbauteilen, sondern aus Streichholzschachteln, die mit bunten Perlen gefüllt waren. Jede Farbe steht dabei für eine der neun möglichen Positionen, die ein X oder ein O auf dem Spielfeld einnehmen kann. Der Aufbau war einfach und beeindruckend zugleich, nicht weniger als 304 Schachteln wurden dafür benötigt, eine Schachtel für jede mögliche Konfiguration im Spiel. Der Operator zieht nun zufällig eine farbige Perle aus der jeweiligen Schachtel mit der entsprechenden Konfiguration. Im Laufe der ersten Spiele wird die Streichholzschachtel-Maschine wahrscheinlich verlieren, da es keinerlei Strategie gibt, da die Perlen zufällig gezogen werden. Doch dann setzt das maschinelle Lernen ein: Wenn MENACE verliert, werden alle gezogenen Perlen, die zur Niederlage führten, entfernt. Wenn MENACE gewinnt, werden drei Perlen in der jeweiligen Farbe zu den verwendeten Schachteln hinzugefügt. Das bedeutet, dass die Chance zu verlieren verringert wird, während auf der anderen Seite gute Züge erheblich belohnt werden. Wenn MENACE lange genug trainiert wird, »lernt« es eine Gewinnstrategie (indem es die Chancen für gute Züge verbessert) und »spielt« daher ziemlich gut.

Das Interessante daran ist, dass kein Mensch einem Kistenstapel irgendeine Absicht zuschreiben würde, im Gegensatz zu maschinellen Lernsystemen, die mit Software auf einer Computerhardware implementiert sind. Gerade beim maschinellen Lernen oder der Künstlichen Intelligenz kann man sich als kritischer Beobachter der Informationsgesellschaft immer noch darüber wundern, »welch enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, vor der es nichts versteht.« (Weizenbaum 1978, S.20)

Mit dem Verstehen-Wollen fängt alles an, um die Macht der Daten entsprechend zum Wohle der Allgemeinheit nutzen zu können. Wir als Mitglieder der Vereinigung Deutscher Wissenschaftler [sic] sind uns der besonderen Verantwortung bewusst, die der technologisch-wissenschaftliche Fortschritt auf die Geisteshaltung des Menschen besitzt und daher setzen wir uns dafür ein, dass wir als vernetzte Gesellschaft insgesamt die informationelle Hoheit eben wieder zurückerlangen. Dieser Text soll dazu beitragen.

Literatur

Bentham, Jeremy. (2013): Panoptikum Oder Das Kontrollhaus. Orig. 1791. Berlin.

Bernoulli, Christoph (1841): Handbuch der Populationistik. Stettin.

Bourne, Charles (1963): Methods of Information Handling. New York.

BVerfG (Bundesverfassungsgericht) (1983): Volkzählungsurteil vom 15.12.1983 — 1 BvR 20983, 1 BvR 26983, 1 BvR 36283, 1 BvR 42083, 1 BvR 44083, 1 BvR 48483.

CCC (Chaos Computer Club) (1998): Hackerethik. http://dasalte.ccc.de/hackerethics?language=de. (1.4.2021)

Coy, Wolfgang et al., Hrsg. (1992): Sichtweisen Der Informatik. Braunschweig/Wiesbaden.

Criado-Perez, Caroline (2020): Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München.

EUCOM (Europäische Kommission) (2020a): Proposal for a Regulation of the European Parliament and of the Council on European data governance (Data Governance Act), COM/2020/767 final, 25. November 2020. [https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52020PC0767]{.ul} (1.4.2021)

EUCOM (Europäische Kommission) (2020b): Impact Assessment Report Accompanying the Document Proposal for a Regulation of the European Parliament and of the Council on European data governance (Data Governance Act), COM/2020/767 final, 25. November 2020. [https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=71225]{.ul}. (1.4.2021)

Foucault, Michel (1975): Surveiller et punir. Naissance de la prison. Paris.

Klein, Jürgen/Giglioni, Guido (2020): »Francis Bacon«, In: The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.). https://plato.stanford.edu/archives/fall2020/entries/francis-bacon/. (1.4.2021)

Knaut, Andrea (2017): Fehler von Fingerabdruckerkennungssystemen Im Kontext. Disssertation an der Humboldt-Universität zu Berlin. https://edoc.hu-berlin.de/handle/18452/19001 (1.4.2021)

Leibniz, Gottfried Wilhelm (1685): Entwurf gewisser Staatstafeln. In: Politische Schriften I, hrsg.v. Hans Heinz Holz, Frankfurt am Main, 1966, S. 80–89.

Michie, Donald (1961): Trial and Error. In: Barnett, S.A., & McLaren, A.: Science Survey, Part 2, 129–145. Harmondsworth.

Rosling, Hans (2006): Debunking myths about the “third world”. TED Talk, Monterey. https://www.gapminder.org/videos/hans-rosling-ted-2006-debunking-myths-about-the-third-world/

Ullrich, Stefan (2019a): Algorithmen, Daten und Ethik. In: Bendel, Oliver (Hrsg.), Handbuch Maschinenethik. Wiesbaden. S. 119-144.

Ullrich, Stefan (2019b): Boulevard Digital, Berlin. 2019.

Ullrich, Stefan/Messerschmidt, Reinhard/Hilbig, Romy/Butollo, Florian/Serbanescu, Diana (2019c): Entzauberung von IT-Systemen. In: Anja Höfner, Vivian Frick (Hrsg.), Was Bits und Bäume verbindet. Digitalisierung nachhaltig gestalten. München, S.62.63.

Warren/Brandeis (1890): The Right to Privacy, 4 HARV. L. REV. 193.

Weizenbaum, Joseph (1978): Die Macht der Computer und die Ohnmacht der Vernunft. München.

Financing note

The Weizenbaum Institute for the Networked Society is fully funded by the Federal Ministry of Education and Research of Germany under grant no. 16DII113.


  1. Bentham sah das Panoptikum als Projekt der Aufklärung an, an anderer Stelle (Ullrich, 2019b, S.26-28) habe ich versucht, den dunklen Schatten von Foucault (1975) abzuschütteln.

    [return]