Dieser Beitrag ist Teil unserer Literaturecke: Dort veröffentlichen wir Kurzrezensionen und Literaturtipps unserer Mitarbeiter_innen und Verbundenen.

Oliver Bülchmann rezensiert die Monographie von Hannah Fry,


Über: „Hello World“ – Was Algorithmen können und wie sie unser Leben verändern.

Fry, Hannah (2019). Hello world. Was Algorithmen können und wie sie unser Leben verändern. München: C.H. Beck.

„Nur weil ein Computer etwas sagt, muss es noch lange nicht richtig sein“

Hannah Fry führt uns spannend und feinsinnig durch die Welt der Algorithmen

Die schwierigen und komplexen Dinge mit einfachen und verständlichen Worten auszudrücken ist eine Kunst, die nicht jedem Menschen geschenkt ist. Eine von Daten und Informationen geprägte, in Netzwerken und Plattformen agierende Welt macht es nötig, komplexe Zusammenhange verständlich und einfach zu verdeutlichen. Neue Begriffe prägen und verwirren die öffentliche Diskussion: Künstliche Intelligenz (KI), Deep Learning, Algorithmen, Big Data, IoT (Internet of Things), um nur einige zu nennen. Dem geneigten Betrachter, im Extremfall dem Betroffenen, wird es schwieriger und teilweise unmöglich gemacht, eine angemessene Einordnung von Chancen und Risiken der neuen Technologien und ihrer Möglichkeiten vorzunehmen. Die Frage, wie die atemberaubenden technologiegetriebenen Veränderungen unser Leben, uns selbst direkt oder indirekt beeinflussen, gilt es zu klären.

Der Begriff Algorithmus spielt als Dreh- und Angelpunkt für unsere technologieorientierte Welt eine zentrale Rolle. Was sich hinter dem Begriff aus mathematischer, informatischer Sicht verbirgt und wie eine Einordnung in eine gesellschaftliche Perspektive aussehen könnte, dafür leistet das Buch einen wertvollen, nachvollziehbaren und unterhaltenden Beitrag.

Hannah Fry (außerordentliche Professorin für Mathematik am University College London) versteht es, Geschichten von Menschen zu erzählen. Zusammenhänge, Begebenheiten und Situationen werden prägnant zusammengefügt und Einblicke in Hintergründiges gewährt. Am Anfang ihres Buches erzählt sie Eindrücke auf der Fahrt von New York nach Jones Beach auf Long Island. Auf dem Weg dorthin fährt man unter mehreren Brücken hindurch. Diese Brücken haben etwas Ungewöhnliches. An manchen Stellen beträgt die Durchfahrtshöhe nämlich nur 2,80 m. Der Grund für diese Tatsache liegt in der Person des Stadtplaners Robert Moses begründet. Er wollte, dass sein „vollendetes, preisgekröntes Naturschutzgebiet am Jones Beach weißen und wohlhabenden Amerikanern“ vorbehalten werden sollte. Da Menschen mit Privatautos dort anreisen mussten, die schwarze Bevölkerung in der Regel über keine verfügte, wurde diese durch die Art des Baus und der Konstruktion von vorherein ausgeschlossen. Diese „rassistischen Brücken“ stellen also Kontrolle und Machtausübung über Menschen dar. Die Autorin erläutert, dass der eigentliche Zweck bewusst oder unbewusst, manchmal durch einen Fehler oder durch eine gezielte Handlung, mit dem Ergebnis nichts mehr zu tun hat. Herrschafts- und Machtstrukturen zeigen sich darin, wie eine Konstruktion geplant und realisiert wird. Das ist in der Informatik in Form von Algorithmen nicht anders als in der Architektur und Stadtplanung. In der Formulierung der Anforderungen, in der Planung und in der Realisierung spiegelt sich das jeweilige Selbstverständnis einer Gesellschaft und die damit verbundenen Herrschaftsformen.

Mit Algorithmen kann man nicht nur nützliche Dinge tun. Menschen können mit der Hilfe von Algorithmen andere Menschen kontrollieren, sie in ihrer Freiheit und ihren Möglichkeiten einschränken. Ganze Gesellschaften können unter Kontrolle gebracht, Verhalten und Denken können reglementiert werden. Punktuell   macht das Buch auch diesen Aspekt bewusst. Neben populärwissenschaftlichen Erklärungen stehen Geschichten im Mittelpunkt. Umfassende tiefgründige naturwissenschaftliche oder gesellschafts-wissenschaftliche Theorie sucht man vergeblich. Das Narrative ist das entscheidende Instrument, um Zusammenhänge zu beleuchten und Position zu beziehen. Persönlichkeiten aus Wissenschaft, Forschung und Wirtschaft kommen mit ihren übergreifenden Argumenten zu Wort. Somit ergibt sich ein vielschichtiges Bild.

Wie ein roter Faden zieht sich der Appell der Autorin durch das Buch, dass der Mensch der entscheidende Faktor ist und zukünftig auch bleiben soll.  Menschen sind gefordert, sich ein Urteil zu einem Algorithmus zu bilden. Beziehungen zwischen Mensch und Maschine müssen verstanden, Vor- und Nachteile gegeneinander abgewogen werden.  Die Autorin schreibt in gewisser Weise ein philosophisches Buch. Die berührenden Geschichten von Menschen verknüpfen die Fragen, wer wir sind, wohin wir gehen, was uns wichtig ist, wie wir uns durch die Anwendung von Technologie verändern.

Aus Sicht von Hannah Fry ist mit der Konzeptionierung und Anwendung eines Algorithmus immer die Frage zu beantworten, in welcher Weise Nützlichkeit für die Gesellschaft erreicht wird. Andererseits muss reflektiert werden, was der Mensch verlernt, wenn Urteilen und Agieren an Algorithmen abgegeben werden. Besonders im Hinblick auf universelle Wahrnehmungen und die richtige Gefahrenabschätzung verfügt der Mensch über Fähigkeiten, die nur auf der Grundlage von Training und Erfahrung erlangt werden und nicht ohne Verluste an Maschinen delegiert werden können.

Neben der philosophischen Sicht auf die Dinge kann man das Buch passagenweise als Lehrbuch lesen, verstehen und begreifen. Die gelungene Mischung aus wissenschaftlich-verständnismäßigen Grundlagen und der Verdeutlichung an wahrhaftigen Geschichten gibt dem Buch eine Tiefe und Bedeutsamkeit für das Leben. In verständlicher Weise wird eine fachlich-technische Einordnung vorgenommen. Fry fast den Begriff Algorithmus als  eine Abfolge logischer Anweisungen, die von Anfang bis Ende zeigen, wie eine Aufgabe ausgeführt werden soll. Grundsätzlich gehe es immer noch um schrittweise Anweisungen. Diese Anweisungen seien jedoch fast immer mathematische Objekte. Dabei wird eine Folge mathematischer Operationen – mithilfe von Gleichungen, Arithmetik, Algebra, Analysis, Logik und Wahrscheinlichkeiten – in Computercode umgewandelt. Algorithmen werden mit Daten aus der realen Welt „gefüttert“. Nachdem sie ein Ziel gesetzt bekommen, werden Rechenschritte abgearbeitet, um das Ziel zu erreichen.  Auf der Grundlage dieses begrifflichen Verständnisses streift Fry im Verlaufe des Buchs Felder der Wissenschaft und Gesellschaft. Fragestellungen werden, im Zusammenhang mit bereits eingesetzten Algorithmen beleuchtet, kritische Aspekte diskutiert.

Eindringlich wird herausgearbeitet, dass der Mensch nicht zu gutgläubig und träge im Glauben sein sollte, er könne unreflektiert dem Algorithmus vertrauen. Die Anwendung von Algorithmen ist nur in bedingter Weise dazu in der Lage, menschliche Fehler und Schwächen zu eliminieren oder diese zu kompensieren.  Die Autorin zieht für die Argumentation konkrete Beispiele heran.

Manchmal bleiben nur wenige Momente, um die richtige Entscheidung zu treffen. So wie es Stanislaw Petrow erging, einem russischen Militär, der für die Überwachung des nuklearen Frühwarnsystems des sowjetischen Luftraums verantwortlich war. Er hatte am 26.09. 1983 Dienst als ein Alarm ausgelöst wurde und das System meinte, eine feindliche Rakete beim Eindringen in den Luftraum entdeckt zu haben. Petrov zögerte zu reagieren, er war sich nicht sicher, ob er dem Algorithmus vertrauen konnte und er hatte mit seinem Zögern recht. Der Algorithmus hat einen Fehler gemacht. Der Mensch wird auch zukünftig in bestimmten Entscheidungssituationen gebraucht werden. Hanna Fry schreib dazu, dass „Menschen spüren, wie schwerwiegend ihre Entscheidungen sind. Ein Algorithmus hätte keine Sekunde über die möglichen Folgen seiner Entscheidung nachgedacht, wenn es seine Aufgabe gewesen wäre, den Kreml zu benachrichtigen.“.

In Entscheidungssituationen müssen entweder Mensch oder Maschine die Führung übernehmen. Die Mathematikerin erkennt eine „menschliche Tendenz, alles in Schwarz und Weiß einzuteilen – also Algorithmen entweder als allmächtige Herren oder nutzlosen Müll zu betrachten“. In dieser Tendenz sieht sie im Hightech-Zeitalter ein „erhebliches Problem“.  Die Wissenschaftlerin stellt Forderungen, wie sich der Mensch zukünftig verhalten und einrichten sollte. Nach ihrer Meinung müssen Menschen objektiver werden, die eigenen Schwächen anerkennen. Algorithmen sollten vom Podest geholt und hinterfragt werden, ob sie wirklich das leisten können, was sie versprechen.

So gut und richtig diese Forderungen erscheinen, so naiv sind sie auch. Die Frage, wie die demokratische Einflussnahme auf Inhalte sowie Funktionsweise von Algorithmen erfolgen solle und welche Möglichkeiten der Einzelne hat, seine berechtigten Interessen mit einer realen Aussicht auf Erfolg einzufordern, bleibt weitestgehend im Dunkeln. Kritische Aspekte einer von Algorithmen bestimmten Welt lässt die Autorin andererseits nicht unerwähnt und meint: „Jedes Mal, wenn wir einen Algorithmus verwenden – vor allem einen kostenlosen – müssen wir uns fragen, welche Motive dahinterstecken. Warum gibt mir diese App all das kostenlos? Was macht dieser Algorithmus tatsächlich? Fühle ich mich bei diesem Deal wohl? Ginge es mir ohne ihn besser? , …. , Daten und Algorithmen können nicht nur unsere Einkaufsgewohnheiten vorhersagen. Sie können auch Menschen die Freiheit nehmen.“.

Auch Richter sind nicht allwissend und können Korrektive vertragen

Die Justiz ist in der Praxis keine exakte Wissenschaft. Eine wirkliche Gleichbehandlung ist eine Idealvorstellung, die in der Realität nicht realisierbar ist. Als Beweis zitiert die Autorin Studien, in welchen herausgefunden wurde, dass Richter bei Ihrer Urteilsfindung mit einer vorgegebenen Ermessensfreiheit zu sehr abweichenden Urteilen kommen. Selbst bei Sachverhalten, die ihnen zweimal versteckt vorgelegt wurden, kommen sie zu unterschiedlichen Urteilen. Vor diesem Hintergrund meint Fry, dass Richter nicht durch Algorithmen ersetzt werden können. Richter besitzen die Fähigkeit, eine Person im Hinblick auf ihre Straftat zu erfassen. Eine Einschätzung ob eine Person reumütig, einsichtig und veränderungsfähig ist, kann keine Maschine treffen. Ein Algorithmus kann jedoch das Risiko abschätzen und mathematisch berechnen, ob ein Angeklagter wieder straffällig wird oder nicht. Bereits heute werden Algorithmen zu diesem Zweck verwendet. Dabei wird bei Entscheidungen über Bewährungen mit passenden Interventionsprogrammen unterstützt und auf dieser Grundlage entschieden, wer auf Kaution entlassen wird. Empfehlungen über das Strafmaß können auf der Grundlage von Algorithmen ausgesprochen werden. Fry ordnet jeweils die heutigen Entwicklungen in die historische Perspektive der Justiz ein.

Studien besagen, dass Vorurteile, welche in der Gesellschaft verfestigt sind (z. B. das Schwarze mehr Verbrechen begehen als übrige Bevölkerungsgruppen, dass Leute aus ärmeren Bevölkerungsschichten eher zu verdächtigen sind als andere) in Algorithmen unkritisch übertragen werden. Was ist der Grund dafür? Algorithmen beruhen teilweise auf Statistiken, in welche bestehende Ungleichheiten der Gesellschaft im Denken und im Sein unreflektiert eingeflossen sind. Was dagegen zu tun wäre, wie dieser gesellschaftspolitische Mangel behoben werden könnte, wird nicht thematisiert.

Der Unterstützung von Richtern durch Algorithmen kann Fry etwas Positives abgewinnen. Die Begründung liegt in der oft fehlerhaften Wahrnehmung von Richtern. Warum ist das so? Wir Menschen neigen dazu, unsere Realität als relativ wahrzunehmen. Wir zerlegen nicht einzelne Fakten und fügen diese anschließend für die Urteilsfindung akribisch wieder zusammen (Webersche Gesetz). Zumindest ein gut konzipierter und angemessen regulierter Algorithmus kann nach ihrer Meinung dazu beitragen, Verzerrungen und Zufallsfehler zu verhindern.

Daten und wiederkehrende Muster als Grundlage für die Wahl der richtigen Behandlungsmethode

Die Geschichte der modernen Medizin basiert auf der Erkennung von Mustern in Daten und Erscheinungsbilder von Krankheiten. Mit dem Beginn der modernen Medizin von Hippokrates, mit einem Blick auf die chinesische Medizin (die Erkenntnis, dass man gegen Pocken impfen kann, wurde übrigens bereits im 15. Jh. gemacht) vertieft sie das Verständnis der modernen Medizin bis in unsere Gegenwart.  Fry zeigt, dass es bei der Entscheidung über ein bestimmtes medizinisches Vorgehen darauf ankommt, Muster zu erkennen, zu klassifizieren und Prognosen abzuleiten. So ist dem Menschen die Fähigkeit eigen, bei der Erkennung von Tumoren sehr genau sein zu können (Pathologen haben eine beindruckende Treffsicherheit von ca. 96 Prozent lt. Studie CAMELYON 16-Wettbewerb). Bei kleineren Krebszellen sieht es jedoch mit einer Genauigkeit von 76 Prozent schon anders aus. Im Zusammenhang mit der Genauigkeit von Menschen bleibt ein Versuch von Harvard-Forschern nach der Lektüre des Buches besonders in Erinnerung. Diese hatten das Bild eines Gorillas in einer Reihe von Brust-Scans versteckt und baten 24 Radiologen die Bilder auf Anzeichen von Krebs zu untersuchen. Das ernüchternde Fazit: 83 Prozent der Radiologen bemerkten den Gorilla nicht. Nach der Aussage der Autorin haben die Algorithmen das gegenteilige Problem. Sie finden kranke Zellen, selbst wenn diese Zellen gesund sind. In der Praxis funktioniert es als sinnvolles Zusammenspiel. Der Algorithmus übernimmt die Vorauswahl und der Pathologe die „menschliche Prüfung“. Mit diesem Vorgehen werden Ergebnisse von bis zu 99,5 Prozent erreicht. Diese Präzision ist wirklich erstaunlich!

Die Prognosefähigkeit bei der Erkennung von potenziellen Erkrankungen wird in der Medizin zukünftig eine wesentliche Rolle spielen.  In der Diagnostik gehe es darum, mögliche Fehlbehandlungen im Vorhinein zu erkennen und damit zu vermeiden. In der Vergangenheit und Gegenwart von Menschen könne man auf der Grundlage von Algorithmen kleine Hinweise finden, wie sich die Gesundheit zukünftig entwickeln werde.

Die Autorin weist in ihrem detailreichen Buch immer wieder auch auf eigentlich Naheliegendes hin. Einleuchtende Fakten werden bei der Euphorie über die neuen technologischen Möglichkeiten zu schnell außer Acht gelassen. So werden nach Aussage des Computerpathologen Thomas Fuchs immer noch unzählige medizinische Experten in Spezialbereichen benötigt, die jahrzehntelang ausgebildet wurden, um Informationen, die der Computer bekommt, richtig zu kennzeichnen. Erst mit diesen korrekt gekennzeichneten Daten kann die Informatik dazu in der Lage sein, eine zielgerichtete Verarbeitung vorzunehmen.

Grundrechte und Auswirkungen des Datenschutzes werden als wesentliche Aspekte für die Nützlichkeit von Algorithmen diskutiert. Die entscheidenden Informationen in den falschen Händen können zu Benachteiligungen und Diskriminierungen führen. So werden in Großbritannien in einigen NHS Krankenhäusern bereits Nichtraucher bei Knie – und Hüftoperationen gegenüber Rauchern bevorzugt. Diese Tatsache stuft die Autorin als bedenklich ein und sieht das Risiko , dass „wenn wir unsere Daten aufgeben, …,  wir immer Gefahr laufen, das unsere Daten manipuliert, gestohlen oder gegen uns verwendet werden.“.

Die Konsequenzen der „Durchleuchtung des Menschen“ werden auch am Beispiel von kommerziellen Gentests besonders gravierend deutlich. Die Firma 23andMe verkauft diese Tests zu kommerziellen Zwecken und verfügt am Ende eines solchen Tests über hoch brisante Informationen von Menschen, die Auswirkungen auf die Arbeitsplatzsuche, die Beschaffung von Krediten oder die Genehmigung von Versicherungen haben können. Die Aussage von Hanna Fry, man solle bedenken, wenn man eine Probe für einen kommerziellen Gentest einschickt: „Man benutzt das Produkt nicht, sondern ist selbst das Produkt.“, weist mit aller Deutlichkeit auf die Gefahr für die Einschränkung der persönlichen Freiheit hin.

Im Gesundheitssystem meint Fry, dass es keine Verteidigung und keine Anklage gibt. Dort wollen alle dasselbe – dass es den einzelnen Patienten bessergeht. Man möchte der Autorin glauben. Gerade jüngste Beispiele einer seit Jahrzehnten laufenden Opiad-Krise in den USA, an welcher Pharmakonzerne eine große Mitschuld tragen und sogar daran verdient haben, belehren uns eines Besseren. Es ließen sich besonders in diesem Sektor viele weitere Beispiele der vergangenen Jahre finden, dass nicht jeder Konzern es „gleich gut“ mit den Menschen meint.

Wie autonom können Autos wirklich sein?

Gegenwärtig viel diskutiert sind Fragen der zukünftigen Mobilität. Die Möglichkeiten der Anwendung von Algorithmen machen intelligente Assistenzsysteme bis hin zu autonom agierenden Fahrzeugen möglich. Welche Rolle spielen bei der Realisierung der Vision vom „Autonomen Fahren“ Algorithmen und die Erfahrungen von Menschen mit sich ändernden Situationen umzugehen? Fry kritisiert das in der öffentlichen Diskussion vermittelte Bild vom autonomen Fahren. Besonderer Kritikpunkt ist die Vorstellung, dass alles so bleiben könne wie bisher, nur die Fahrzeuge zukünftig autonom sind. Sie teilt den Standpunkt des Soziologen Jack Stiloge vom University College London, der Menschen als „Störfaktoren“ in einem autonomen System betrachtet. Menschen sind aktiv Handelnde und nicht „passive Bestandteile der Landschaft“. Stiloge hält die Vorstellung für dumm, dass alles so bleiben kann wie bisher, nur zukünftig die Autos autonom und intelligent seien. Er kommt zu dem Schluss und Fry folgt ihm: „Was wie ein autonomes System aussieht, ist in Wahrheit nur ein System, bei dem die Welt eingeschränkt wird, damit es autonom wirkt.“. Bedenkenswert und angsteinflößend. Die Vision vom „autonomen Fahren“ suggeriert uns doch eine Menge an Vorteilen.  Stimmt da vielleicht etwas nicht? Liegen bereits in den Grundlagen der öffentlich vermittelten Vorstellung gravierende Denkfehler vor? Läuft die Gesellschaft Gefahr, dem Trugschluss zu erliegen, dass sich die Technologie an den Menschen anpasst und nicht der Mensch an die Technologie?  In diesem Falle besteht das Risiko, dass menschliche Fähigkeiten verkümmern.

Hanna Fry fordert zur Klarheit auf, worin Menschen wirklich gut sind. Was die entscheidenden Argumente für den Einsatz von Menschen in Schlüsselfunktionen sind, müsse definiert werden. „Menschen, … sind…, wirklich gut darin, Feinheiten zu verstehen, Zusammenhänge zu analysieren, Erfahrungen anzuwenden und Muster zu erkennen.“, meint sie. Andererseits muss kritisch diskutiert werden, wo Menschen Defizite haben. So z. B. wenn es auf lang andauernde Aufmerksamkeit, Präzision oder Beständigkeit ankommt, sowie wenn es darum geht, die jeweilige Umgebung vollständig zu erfassen.

Fry bezieht Position und meint, dass wir kein vollständiges autonomes Fahren benötigen. Was wir brauchen sind zukünftig weniger „Chauffeure und mehr Schutzengel“. Mit anderen Worten ausgedrückt: die einzusetzenden Systeme sollten mehr unterstützenden und korrigierenden Charakter als vermeintlich „autonomen“ Charakter besitzen. Ihre These lautet, dass: die Leistungsfähigkeit von Algorithmen überschätzt wird. Realistische Erwartungen seien gefragt.

Statistik als Grundlage für die Verhinderung von Verbrechen

Algorithmen können für die Lösung von Kriminalfällen bzw. die proaktive Verhinderung von entscheidender Bedeutung sein. Ein Algorithmus kann schneller zum Ziel führen, als herkömmliche Methoden. Der Ex-Polizist Kim Rossomo erkannte die Möglichkeit, einen Algorithmus aus der Geografie der Verbrechen zu entwickeln und damit auf die Täter zu schließen. Im Ergebnis kam er zu der bewiesenen Schlussfolgerung, dass die Suche nach dem Täter mit Hilfe eines Algorithmus nur bei drei Prozent der potenziell in Frage kommenden Personen durch die Polizei hätte durchgeführt werden müssen. Diese Methode wird als Geoprofiling bezeichnet. Die Anwendung ist am erfolgversprechendsten bei Straftaten wie Serienvergewaltigungen, Morden, gewalttätigen Angriffen. Straftaten konzentrierten sich in der Regel auf wenige Lokationen, können sich jedoch auch schnell wieder an andere Orte verlagern. Im Rahmen der Weiterentwicklung des Geoprofiling wurden folgende Fragen gestellt: Gibt es andere Muster, die nicht nur verrieten, wo Verbrechen stattfanden, sondern auch wann? Gibt es eine Möglichkeit, über die bereits geschehenen Verbrechen hinauszublicken? Konnte man Straftaten auch vorhersagen, statt nur auf sie zu reagieren?

Erstaunlich genaue Vorhersagen waren in Los Angeles und in Großbritannien möglich. Es konnten Vorhersagen gemacht werden, wo in Zukunft welche Art von Verbrechen passieren können (die benutze Sofware heißt PredPol). Kritisch zu hinterfragen ist, dass die Software als geistiges Eigentum betrachtet wird und somit geschützt ist. Es ist also von außen her nicht zu verhindern, dass wissentlich oder unwissentlich bestimmte Gruppen von Menschen benachteiligt werden könnten.

Die Autorin bezieht Position und meint, dass prädiktive Polizei-Algorithmen in der Tat vielversprechend im Kampf bei der Verhinderung und Aufklärung von Kriminalität sind. Bedenken bezüglich Voreingenommenheit und Diskriminierung sind jedoch legitim. Fry hält fest, dass diese Fragen zu fundamental für eine gerechte Gesellschaft sind, als dass wir uns einfach auf die Zusicherung verlassen sollten, die Strafverfolgungsbehörden würden die Algorithmen schon auf faire Weise nutzen. Das ist nur eines von vielen Beispielen dafür, wie wichtig unabhängige Experten und eine Regulierungsbehörde sind, die dafür sorgen, dass die Vorteile eines Algorithmus seine Nachteile überwiegen. Aus ihrer Sicht können, Algorithmen über die Prognose hinaus jedoch auch Schaden anrichten. Es besteht die reale Gefahr, dass Algorithmen einem falschen Ergebnis den Anschein von Autorität verleihen und damit zu einem Maßstab erhoben werden, der ihnen nicht zusteht.

Ein weiteres Beispiel, was die aktuelle Leistungsfähigkeit von Computern in Frage stellt, kann man im Feld der Gesichtserkennung identifizieren. Fry zitiert einen extremen Fall von Steve Talley, der für den Falschen gehalten, eines Verbrechens beschuldigt wurde und den Einsatz eines Sonderkommandos nur mit erheblichen Verletzungen überstand. All das nur, weil das Gesichtserkennungsverfahren ihn für den Täter gehalten hat.

Fry führt aus, dass die computergestützte Gesichtserkennung beim Vergleich zweier Bilder derselben Person selbst genaueste Messungen nicht erfassen könne. Wichtige Kriterien für die Gesichtserkennung sind die Alterung, Krankheit, Müdigkeit, Mimik oder Verzerrungen aufgrund des Kamerawinkels. Messungen allein können ein Gesicht nicht von einem anderen unterschieden.

Viele Fragestellungen, die von Frey aufgegriffen werden, betreffen unser tägliches Leben und können sogar von Fall zu Fall schicksalhaft sein. Bestehende Grenzen des technisch Machbaren sollten erkannt und von der Gesellschaft offen thematisiert werden. Diese Leistung hat jedoch einen Preis: Es ist nicht immer genau klar, wie der Algorithmus entscheidet und wie er zu dem Ergebnis gelangt, dass ein Gesicht einem anderen gleicht oder sich ähnelt.

Das aktuell beste Produkt für die Gesichtserkennung wird von Fry mit dem chinesischen Produkt „Tencent YouTu Lab“, mit einer Erkennungsquote von 82,29 Prozent benannt. Statistisch heißt das: wenn in einer digitalen Zusammenschau von Millionen Menschen nach einem bestimmten Straftäter suchen, bedeutet diese Zahl, dass Sie im besten Fall bei jedem sechsten Treffer den falschen Verdächtigen finden würde. Beide Fakten sind eher angsteinflößend als beruhigend.

Aus Sicht von Fry gehe es um „einen Kompromiss“ zwischen Datenschutz und dem Schutz vor Verbrechen, Fairness und Sicherheit. Wie viele Menschen dürften man verwechseln/unschuldig belangen, um wirkliche Straftäter dingfest zu machen? Eine angeführte Statistik der New Yorker Polizei von 2015 besagt, dass 1700 Verdächtige in jedem Jahr erfolgreich identifiziert werden, was zu 900 Verhaftungen führt. Fünf Personen wurden in diesem Zeitraum falsch identifiziert. Es bleibt die Frage, ob es sich um akzeptables Verhältnis handelt? Wie hoch wird der Preis sein, den wir zahlen müssen, um Kriminalität wirksam zu bekämpfen? Diese eindringliche Frage kann Fry nur stellen und nicht beantworten. Jede neu entwickelte Software „verspricht“ Lösungen für drängende Probleme. Oft wird jedoch vergessen oder sogar verdrängt, dass mit der Einführung auch neue Probleme geschaffen werden. Ihr Appell heißt deshalb: „Algorithmen müssen nirgendwo dringender und eindeutiger reguliert werden als im Zusammenhang mit Straftaten, wo allein die Existenz dieser Systeme ernste Fragen aufwirft.“. Aus ihrer Sicht muss sich die Gesellschaft entscheiden, was im Zusammenhang mit der Kriminalität als Erfolg zählt? Wo liegen die wesentlichen Ziele und Interessen? Soll die Kriminalitätsrate möglichst so niedrig wie möglich gehalten werden? Oder soll die Freiheit der Unschuldigen Priorität haben und besonders geschützt werden? Wie soll gewichtet werden?

Emotionalität in der Kunst kann nicht ersetzt werden

Abschließend widmet sich die Autorin dem Betrachtungsfeld der Kunst im Lichte von Algorithmen und deren Anwendung. Um es zusammenzufassen, dieses Kapitel erscheint nicht so tiefgründig und mit so drängenden sozialen Fragen verbunden, wie die vorhergehenden. Die Schlussfolgerung von Hollywood-Produzenten, dass man keine Prognosen für den Erfolg eines Filmes machen könne und man im Prinzip außer einigen Anhaltspunkten, was zum Erfolg in der Vergangenheit beitrug „gar nichts wisse“, ist beruhigend. Der Mensch wird also zumindest als Produzent von Kunst nicht verschwinden, wenn es zukünftig auch hier sicher neue Formen und eine hybride Mischung zwischen analoger und digitaler Kunstproduktion geben wird. Diese These wird von Frey durch ein Beispiel aus der Musik gestützt.

Beim Komponieren mit Hilfe von Algorithmen auf Grundlage der Analyse von Strukturen Bachscher Musik wurde das neue Werk nur auf bereits durch Bach kreierten kompositorischen Strukturen erschaffen. Es ist also keine neue Kreation und auch keine musikalische Innovation. Fry meint mit Blick auf die Kunst, dass „Algorithmen, …, zweifellos großartige Nachahmer, aber keine besonders guten Innovatoren…“, seien.

Am Ende ihres Buchs wird Tolstoi mit den Worten zitiert: „Kunst ist kein Handwerk, sondern die Mitteilung von Gefühlen, die der Künstler erfahren hat“. Mit diesem Gedanken ist ein hoffnungsvoller Ausblick auf die zukünftige Rolle des Menschen gegeben. Fry sieht es ähnlich, wenn sie schreibt: „Die Reichweite von Algorithmen hat Grenzen, die man quantifizieren kann. Daten und Statistiken können alle möglichen atemberaubenden und verblüffenden Dinge verraten, aber nicht, wie es sich anfühlt, ein Mensch zu sein.“. Wir können also hoffen, dass wir nicht so schnell unnötig werden oder gar verschwinden, wie von manch düsteren Apologeten prognostiziert!

Wird menschliches Handeln durch Algorithmen ersetzt werden?

Das eigentliche Fazit des Buches ist ernüchternd. Einerseits können wir mit der Hilfe von Algorithmen Probleme in den Griff bekommen. Innovationen und Fortschritt werden vorangetrieben. Andererseits ist jedoch auch klar, dass nicht alles, was wir uns versprechen, wirklich eingelöst werden kann. Neue intransparente Probleme werden hervorgebracht. Die zukünftige noch komplexere Welt der Algorithmen, braucht Regeln und Transparenz. Wie das in Zukunft zum Wohle des Menschen passieren soll, ist bei allen gut gemeinten Ansätzen (siehe z. B. DSGVO mit Blick auf den Datenschutz) ein schwerwiegendes Problem und weitestgehend ungelöst. Die Lösung dieses Problems könnte auch über die Zukunft unsere Demokratien mitentscheiden. Ein Fehlen an Orientierung schafft Verunsicherung. Gegenbewegung entstehen, die Intransparenz für Ihre Interessen nutzen. Neue Technologien werden im Verborgenen zur Destabilisierung der Gesellschaft oder sogar für eine Ausbreitung einer neuen Dimension von Kriminalität und Anarchie genutzt. Die politische Dimension und die Frage, wie die Algorithmen in eine als unsicher, unfair und unverlässlich wahrgenommenen Welt passen könnten, bleibt im Buch unscharf. Insofern ist es ein Sachbuch und eben kein politisches Buch. Die junge Wissenschaftlerin ist sich wohl bewusst, dass Fortschritt mit dem Werkzeug „Algorithmus“ neue Gefahren für das gesellschaftlich faire und gerechte Zusammenleben in sich birgt. Aus diesem Dilemma erkennt sie nur einen Ausweg: wie bei Ideologien sollen auch Algorithmen in ihrer Autorität vom Sockel gestoßen und ihre Allmacht angezweifelt werden. Nur unser kritisches Urteilsvermögen kann uns vor der Allmacht der Algorithmen bewahren. Die „Welt der Algorithmen“ hat uns auch neue Probleme beschert, die durchschaut und gelöst werden müssen.

Die Expertin kommt zu der Erkenntnis, dass es keinen „absolut gerechten Algorithmus“ gibt. Unter der Oberfläche lauern überall Probleme und es ist ein Abwägungsprozess nötig, der identifiziert, was gewonnen und was verloren wird. Das Buch bietet viel Stoff zum Nachdenken und Reflektieren. Am Ende bleibt die Autorin auch ihrem appellierenden Gestus treu, indem sie Hoffnung in die Zukunft des Menschen hegt, wenn die Autorität von Algorithmen angezweifelt wird. Algorithmen seien schließlich genauso unperfekt wie Menschen selbst. Wie haben in ihren Augen nur die Alternative, eine Situation mit oder ohne Algorithmus zu beurteilen. Das sollten wir anerkennen!


Alle Rechte vorbehalten.

Abdruck oder vergleichbare Verwendung von Arbeiten des Instituts für Sozialstrategie ist auch in Auszügen nur mit vorheriger schriftlicher Genehmigung gestattet.

Publikationen des IfS unterliegen einem Begutachtungsverfahren durch Fachkolleginnen und -kollegen und durch die Institutsleitung. Sie geben ausschließlich die persönliche Auffassung der Autorinnen und Autoren wieder.

Posted by Oliver Bülchmann

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert