2018: Calculemus.

Abstract

Ein Algorithmisches Entscheidungssystem ist nicht allein ein technisches sondern ein soziotechnisches System. Es besteht aus mindestens zwei Teilsystemen: Dem Informationstechnischen System und dem Menschen. IT-Systeme können nicht entscheiden, sie können nur ausrechnen.

Publication
Vortrag auf dem ÖFIT2018–Symposium »(Un)ergründlich. Künstliche Intelligenz als Ordnungsstifterins«
Date

calculemus – ausrechnen statt entscheiden

Calculemus. Lasst uns rechnen! Diese Aufforderung stammt von Gottfried Leibniz, der Jahrzehnte lang versucht hat, eine universelle mathematische Sprache zu entwerfen, mit der man den Wahrheitsgehalt von Aussagen einfach ausrechnen kann. Ist das nicht verlockend? Bei Meinungsverschiedenheiten könnten wir ganz einfach ausrechnen, wer von uns denn nun Recht habe. Oder wir rechnen aus, wer am besten zu unserer Firma passt, wir entscheiden das nicht mehr länger, wir rechnen es einfach aus. Oder, noch besser: Selbst bei Dingen, die wir nicht wissen, rechnen wir einfach die richtige Antwort aus.

Der Einstieg (oder Verweis auf) über Leibniz zeigt: Die Denkweise hinter Calculemus ist schon sehr alt. Ausrechnen nimmt uns Entscheidungen ab. Dieselbe Denkweise begegnet uns heute wieder, wenn wir über Algorithmische Entscheidungssysteme sprechen. Oft werden dabei grundlegende Annahmen über Ausrechnen oder Entscheiden weglassen. Dies kann verschiedene Gründe haben. Vielleicht sind wir Fachleute und unsere Annahmen erscheinen so klar und trivial, dass wir sie weglassen. Oder wir sind eben keine Fachleute, und dann lassen wir sie weg, weil sie uns viel zu sehr an den Matheunterricht in der Schule erinnern.

Dies ist aber ein Problem.

Ein Algorithmisches Entscheidungssystem ist nicht allein ein technisches sondern ein soziotechnisches System. Es besteht aus mindestens zwei Teilsystemen: Dem Informationstechnischen System und dem Menschen. IT-Systeme können nicht entscheiden, sie können nur ausrechnen. Der Mensch entscheidet. Freilich tut er das inmitten eines komplexen Prozesses, in dem Daten verarbeitet und klassifiziert wurden. Am Ende dieses Prozesses steht in den meisten Fällen dann eine Zahl, die an einem Interface abgelesen werden kann. Aber eben keine Entscheidung.

Diese Zahl spendet Geborgenheit, Sicherheit, Kontrolle. Sie suggeriert eine Sicherheit, die kein IT-System aufweist. Der Mensch mit seinen Werkzeugen diskretisiert seine kontinuierliche Umwelt und notiert seine Beobachtungen in symbolischer Form, die er inzwischen auch in den Digitalcomputer eingibt. Dieser Prozess des Diskretisierens und seine Probleme lassen sich anhand des Pointillismus sehr gut aufzeigen.

Georges Seurat: Un dimanche après-midi à l'Île de la Grande Jatte. Public Domain

Im Hintergrund sehen Sie George Seurats bekanntes Werk »Ein Sonntagnachmittag auf der Insel [La Grande Jatte]«. In dieser speziellen Darstellungstechnik erscheinen uns die Übergänge zwischen den Farbflächen fließend obwohl sie das Ergebnis sehr präzise gesetzter Punkte auf einer Leinwand sind. Wenn ich einen Baum betrachte und an die Ränder gehe: Gehört der von mir gesehene Bildpunkt noch zum Baum oder schon zum Himmel? Unser Gehirn zieht eine symbolische Linie, wo es in der physikalischen Welt keine gibt. Es gibt keine Linien in der Natur, wir ziehen welche.

Solche Linien ziehen wir auch in Softwaresystemen, die etwas klassifizieren sollen. Bei einem gegebenen Punkt entscheidet (sie denken sich hoffentlich die Anführungszeichen) die Software, ob es sich um Baum oder Himmel handelt. Vielleicht misst sie die Frequenz der Farbe und spuckt eine Zahl aus, 490 Nanometer etwa. Ist das noch blau? Oder schon grün? Anstatt des Ergebnisses blau oder grün, sollte die Software eigentlich das Konfidenzintervall ausspucken. Kann blau sein, kann grün sein.

Dies zeigt auf eine weitere Grundannahme, über die selten geredet wird. Das IT-System klassifiziert nicht Baum/Himmel, sondern grün/blau, bzw. 490480 Nanometer. Ein Baum bei Sonnenuntergang oder im Herbst wird von Menschen dennoch als Baum erkannt, weil wir nicht (nur) auf die Farben der Blätter achten, sondern seine Baumheit erkennen. Diese Fähigkeit ist uns angeboren, wir können sie aber nicht erklären, geschweige denn nachbauen. Zumindest im Prinzip, wenn wir die scharfe Trennung wahr/falsch annehmen und versuchen, Algorithmen zu finden, die unsere Fähigkeiten simulieren.

Wenn wir diesen absoluten Gedanken aufgeben und nur noch mit Wahrscheinlichkeiten und Statistik arbeiten, so klappt das in den meisten Fällen erstaunlich gut. Ist das ein Baum? Es ist groß, unten braun, oben grün und alle Leute auf Twitter sagen, dass es ein Baum ist – dann ist es wohl ein Baum. Wie wird das Wetter morgen? Ungefähr so wie heute. Diese Aussage stimmt in sehr vielen Fällen. Dieses »ungefähr« reicht für unsere Lebenswirklichkeit aus, und genau das macht die Stärke von heuristischen im gegensatz zu algorithmischen Informatiksystemen aus: Sie können mit wenig Daten, mit viel Daten, mit genauen Daten, mit ungenauen oder sogar widersprüchlichen Daten umgehen – und liefern ein Ergebnis, das ungefähr stimmt.

Wir erleben zur Zeit nichts weniger als eine Heuristische Revolution. Wir rechnen nicht mehr mit Hilfe von Algorithmen, wir trainieren ein heuristisch arbeitendes System. Good enough, gut genug ist das neue wahr.

Ein Beispiel für Heuristisch arbeitende Systeme ist die Biometrie. Gute biometrische Systeme beispielsweise haben eine Erkennungsrate von 98%. Schlechte, wie die am Bahnhof Südkreuz eingesetzten, 80%. Das BKA hat 17 Personen auf der Fahndungsliste: Die werden wohl alle von dem System erkannt. Doch von den 100.000 unbescholtenen Reisenden werden auch eine ganze Menge fälschlich verdächtigt.

Wenn wir die geschönten Zahlen zugrunde legen sind das bereits 600 Fehlalarme. Pro Tag! Das ist kein Mehrwert, das ist Mehrarbeit für die Polizei.

Gut genug heißt in bestimmten Einsatzfällen, dass es zu massenhaften Verletzungen von Menschenrechten kommt. Die Bundesregierung hat dieses Problem des Einsatzes von Heuristischen IT-Systemen erkannt und formuliert in dem »Strategiepapier Künstliche Intelligenz der Bundesregierung« deutlich: Auf der Grundlage europäischer Werte wie der Unantastbarkeit der Menschenwürde, der Achtung der Privatsphäre und des Gleichheitsgrundsatzes sollen Potentiale der neuen Technologie gehoben werden. Diese grundlegende Orientierung wird auch, mit dem deutschen Grundgesetz im Hinterkopf, für alle weiteren Überlegungen berücksichtigt.

Damit ist auch klar, auf welcher Seite die Bundesregierung im Konfliktfall steht, wenn beispielsweise die Prävention von Diskriminierung zu einer ineffizienten Nutzung und im Ende zu weniger leistungsfähigen KI-Systemen führt: Auf der Seite der Bürgerinnen und Bürger, deren Wohl und Rechte über wirtschaftlichen Vorteil gestellt werden.

In diesem Sinne freue ich mich auf den weiteren Input und die anschließende Diskussion.


Bildrechte

Das Bild von George Seurat in diesem Artikel ist in der Public Domain, freundlicherweise der public zur Verfügung gestellt von Wikimedia Commons, dem freien Wissensrepositorium.