Abstract [en]: Opportunities and risks of the technological possibilities, which are termed artificial intelligence (AI), arouse not only interest and enthusiasm, but also uncertainty and fears. AI is perceived not only as a technical support and assistance system, but also as a competitor to human intelligence. People fear that they may become redundant. The AI opens the way to a far-reaching technological reorganization with complex social and individual consequences. Concentration of power and the infiltration of democracy are currently unwanted side effects of this development. Questions of freedom, justice, responsibility and equality of people must be answered again from a democratic perspective in the light of technological changes. Politics and, ultimately, the state and its instances as a regulatory authority play a central role in balancing the various interests.

With this in mind, a commission set up by the German Bundestag in 2018 dealt over two years in different formats with the technical mechanisms of action and the respective possible consequences in various areas of society. This article analyzes the final report of the Bundestag Enquete Commission. In terms of content, both the current state of knowledge in the respective social areas and the quality of the summarized findings are analyzed for further social discourse and for political decisions. The analysis raises awareness of critical aspects and asks the question of what value this report should provide for the further development of the federal government’s AI strategy. The lack of overarching methodology is discussed in detail as an essential criticism in addition to an underexposed link between goals and the chosen approach. Finally, the demand for comprehensive scientific thinking and cooperation of the relevant disciplines is raised as a requirement in order to accompany political decisions in a well-founded manner. In this respect, the analysis sees itself as a “wake-up call” to curb the future development of AI with the values of a democratic system!

Abstract [de]: Chancen und Risiken, der unter dem Begriff Künstliche Intelligenz (KI) gefassten technologischen Möglichkeiten, rufen neben Interesse und Begeisterung ebenso Unsicherheit und Ängste hervor. Die KI wird nicht nur als technisches Unterstützungs- und Hilfssystem, sondern auch als eine Konkurrenz der menschlichen Intelligenz, wahrgenommen. Menschen befürchten, dass Sie überflüssig werden könnten. Die KI öffnet den Weg zu einem weitreichenden technologischen Umbau mit vielschichtigen sozialen und individuellen Folgen. Machtkonzentration und die Unterwanderung der Demokratie sind schon aktuell ungewollte Nebenwirkungen dieser Entwicklung. Fragen der Freiheit, der Gerechtigkeit, der Verantwortung und Gleichheit von Menschen müssen im Lichte des technologischen Wandels neu aus demokratischer Perspektive beantwortet werden. Eine zentrale Rolle im Ausbalancieren der unterschiedlichen Interessen nimmt die Politik und letztlich der Staat mit seinen Instanzen als Ordnungsmacht ein.

Unter diesen Vorzeichen hat sich eine vom Deutschen Bundestag im Jahr 2018 eingesetzte Kommission über zwei Jahre in unterschiedlichen Formaten mit den technischen Wirkungsmechanismen und den jeweiligen möglichen Folgen in diversen Bereichen der Gesellschaft auseinandergesetzt. Dieser Beitrag analysiert den finalen Bericht der Enquete Kommission des Bundestages. Inhaltlich wird sowohl der aktuelle Stand des Wissens in den jeweiligen gesellschaftlichen Bereichen betrachtet, als auch die Qualität der zusammengefassten Erkenntnisse für den weiteren gesellschaftlichen Diskurs und für die politischen Entscheidungen analysiert. Die Analyse hebt kritische Aspekte ins Bewusstsein und stellt die Frage, welchen Wert dieser Bericht für die Weiterentwicklung der KI-Strategie der Bundesregierung hat. Die fehlende übergreifende Methodik wird neben einer unterbelichteten Verknüpfung von Zielen mit der gewählten Vorgehensweise als wesentliche Kritik eingehend thematisiert. Abschließend wird die Forderung nach einem übergreifenden wissenschaftlichen Denken und Zusammenarbeiten der relevanten Disziplinen als Forderung erhoben, um politischen Entscheidungen fundiert zu begleiten. Insofern versteht sich die Analyse als ein „Weckruf“ um die zukünftige Entwicklung der KI mit den Werten eines demokratischen Systems zu zügeln!


Februar 2021

KI: Schöne neue Welt oder Gefahr für die Demokratie?

Kritische Analyse des Berichts der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale

  1. Auftrag und Vorgehensweise
  2. Kritische Würdigung spezifischer Anwendungsgebiete
  3. Der Bericht ist ein Spiegel von Defiziten
  4. Neue Technologien verschärfen alte Probleme
  5. Appelle ersetzen keinen stringenten Gestaltungswillen 
  6. Der Staat muss wissen, was er will
  7. Ein Bericht für die „Datenspeicher“ des Parlaments

Auftrag und Vorgehensweise

Am 30.10.2020 hat der Deutsche Bundestag in einer Debatte die Ergebnisse des Berichts der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“, diskutiert. Die Beschäftigung mit dem Thema Künstliche Intelligenz (im Folgenden KI genannt) erfolgte auf Grundlage eines Beschlusses des Deutschen Bundestages vom 26. Juni 2018 (Bundestagsdrucksache 19/2978). Die Enquete-Kommission wurde von der Bundestagsabgeordneten der SPD-Fraktion Daniela Kolbe geleitet. Zu gleichen Teilen wurden Bundestagsabgeordnete und Sachverständige in die Kommission berufen. Die Einladung zahlreicher Expertinnen und Experten orientierte sich an den jeweiligen Themen und diente als Grundlage für Diskussionen und um Detailwissen zu vertiefen. 

Eine gute Initiative, wenn ein demokratisch gewähltes Parlament, Zeit und Ressourcen zur Verfügung stellt, um sich mit technologischen Zukunftsfragen und deren möglichen Auswirkungen auf die Gesellschaft eingehend zu befassen. Fast jeder ahnt, manche meinen es sogar zu wissen, dass die Auswirkungen neuer digitaler Technologien auf unser gesellschaftliches und privates Leben gravierend sein werden. Potenzielle Ängste der Bürger können befördert oder sogar verstärkt werden. Die Politik sollte also alarmiert sein. Das Feld darf nicht anderen Akteuren überlassen werden. Ein Kampf um Deutungshoheit und Aufmerksamkeit ist in vollem Gange. Einzelpersonen, Interessengruppen und ganze Staaten haben neue Technologien als Kampfzone längst für sich erkannt und nutzen sich bietende Möglichkeiten gnadenlos aus. Bevor wir uns der Frage zuwenden, ob eine „parlamentarische Position“ zu fundamentalen Fragen in dem Bericht auszumachen ist, einige Anmerkungen zur Ausgangsposition und dem genaueren Auftrag der Kommission. 

Die Enquete-Kommission sollte sich intensiv mit KI und ihren gesellschaftlichen, wirtschaftlichen und ökologischen Folgen beschäftigen. Es war die Absicht, auf Grundlage eines gemeinsamen Verständnisses der Technologien existierende und zukünftige Auswirkungen auf verschiedene Gesellschaftsbereiche zu untersuchen und Handlungsempfehlungen für den Gesetzgeber zu entwickeln. Eine Vielzahl an technischen, rechtlichen, politischen und ethischen Fragen sollte im Kontext von KI in den Blick genommen werden. Weiterhin wurde das Ziel verfolgt, die Öffentlichkeit aktiv mit einzubeziehen. 

Der vorgestellte Bericht ist das Produkt intensiver Befassung mit der Technologie, und ihren Anwendungsgebieten sowie den Chancen und Risiken. Die Enquete-Kommission entschied sich, die Arbeit in sechs Projektgruppen aufzuteilen. Folgende Arbeitsgruppen wurden definiert: 

KI und Wirtschaft; KI und Staat; KI und Gesundheit; KI und Arbeit, Bildung, Forschung; KI und Mobilität; KI und Medien. Soviel zum Hintergrund. Es wurden konkrete Anwendungsfälle des KI-Einsatzes sowie die Relevanz in den dazugehörigen Politikfeldern beleuchtet. Auf dieser Basis identifizierten die Mitglieder der Enquete-Kommission Themen mit übergreifender Relevanz. Die Ergebnisse wurden schlussendlich im Mantelteil des Berichts zusammengeführt. 

Alles nicht so dramatisch oder höchste Zeit, sonst verpassen wir die Zukunft?

Passte dieses Format, um am Ende greifbare Ergebnisse für die Arbeit des Deutschen Bundestages und die Entscheidungen der Bundesregierung zu liefern? 

Kritische Würdigung spezifischer Anwendungsgebiete

Nehmen wir es vorweg, die Bilanz fällt gemischt aus. Vor allem ist dieser Eindruck der Tatsache geschuldet, dass die große Linie, eine generelle tragfähige Basis für diese Art der Beschäftigung mit dem Thema fehlt. Worauf hätte sich die Kommission stützen müssen? Das Naheliegendste wäre gewesen, als Basis die KI-Strategie der Bundesregierung heranzuziehen. Wie bei einer Strategie üblich, kommt es darauf an, diese zu operationalisieren und die erreichten Ergebnisse zu reflektieren, wenn nötig nach zu justieren. In keiner der Arbeitsgruppen wurde ein derartiger Weg eingeschlagen. Nur punktuell erinnert man sich der Strategie. Als Grundlagen für die Beurteilung von Zielen und Kenngrößen wird sie jedoch nicht herangezogen. Dieses Vorgehen ist mit Sicherheit fraglich.

Die erzielte und dokumentierte Substanz aus den einzelnen Arbeitsgruppen ist qualitativ differenziert in Relevanz und Tiefgang. Der Bericht zum Gesundheitswesen ist hervorzuheben. Er ist tiefgehender als andere. Wesentliche Fragestellungen werden in einer nachvollziehbaren Art und Weise ausgeführt. Prinzipien werden herangezogen, auf deren Basis spezifische Aspekte differenziert beurteilt werden können. Vier Grundprinzipien der medizinischen Ethik werden benannt: Wohltun bzw. Fürsorge (beneficence), Nichtschaden (non-maleficence), Autonomie (autonomy) und Gerechtigkeit (justice). Inwieweit der Einsatz von Methoden der KI in der Medizin geboten oder auszuschließen ist, folgt grundsätzlich der gleichen Abwägung zwischen Wohltun und Nichtschaden. Spezifische Fragestellungen ergeben sich insbesondere beim Prinzip der Gerechtigkeit im Kontext der Herausforderungen der Nutzung individualisierter Medizin, den Risiken eines Bias in Datensätzen, der Regelungen für den Zugang zu Datensätzen etc. und für das Prinzip der Autonomie zur unabhängigen Entscheidungsfindung. Im ausgeführten Sinne sind die Aussagen in diesem Teil des Berichts konkret und richtungsweisend. Instrumente für die Bewältigung von Problemen sind allerdings nicht weiter präzisiert. Wie so oft, wird der Gesetzgeber gefordert. 

Ein weiteres Hemmnis wird in den geringen Ausgaben der Krankenhäuser für IT gesehen (durchschnittlich 1,5 bis 1,7 Prozent der Gesamtausgaben). Als Bezugsgröße: Im Jahr 2017 betrugen die Gesamtausgaben der deutschen Krankenhäuser 105,7 Milliarden Euro. Der Verband der Universitätskliniken Deutschlands geht allein für die Universitätskliniken von einem jährlichen Investitionsdefizit in der IT von etwa 5 bis 10 Millionen Euro pro Klinik aus. Dies führt zu veralteten und fragmentierten IT-Systemen, die den heutigen Anforderungen nicht mehr gerecht werden. Diese Fakten machen deutlich, wie irreführend eine illusionistische Diskussion um die Möglichkeiten der KI ist, wenn Grundlagen nicht in ausreichendem Maße vorhanden sind. Dieser Aspekt zieht sich wie ein roter Faden durch alle bearbeiteten Handlungsfelder.

Ebenso kritisch wird die Ausrichtung des Datenschutzes im Gesundheitswesen als Hemmnis betrachtet. Einige datenschutzrechtliche Regelungen werden für die Forschung auf der Grundlage von medizinischen Daten als nicht mehr zeitgemäß angesehen. Aber natürlich, wie so oft, der Weisheit letzter Schluss, ist die Einsetzung einer Projektgruppe. Auf Bund-Länder-Ebene, sollen schnellstmöglich die unterschiedlichen Datenschutzregelungen auf Basis der DSGVO vereinheitlicht und zeitgemäß ausgestaltet werden. Im Kontrast zu dieser durchaus kritischen Analyse flüchtet sich der Bericht mit Blick auf die Arbeitsgesellschaft überwiegend in Floskeln. Ein ganz klares sowohl als auch, im Hinblick auf Art, Anzahl und Qualität von zukünftigen Arbeitsplätzen, wird formuliert. Man geht davon aus, dass die KI neue Formen der Automatisierung hervorbringt und damit monotone, gefährliche oder anstrengende Tätigkeiten durch Maschinen zu erledigen sein werden. Arbeitsplätze, die wegfallen, würden an anderer Stelle wiederum neu, mit adäquaten Anforderungen entstehen. Neue Fakten und Erkenntnisse – Fehlanzeige. Stattdessen gibt es eine Flut von allgemein gehaltenen Empfehlungen an die Adresse der Bundesregierung. So sollte ein systematisches Monitoring von KI implementiert werden. Als wäre es etwas Neues, gängige wissenschaftliche oder gesellschaftliche Phänomene/Technologien in deren Wirkung für die Gesellschaft zu beobachten. 

Charakteristisch sind einerseits vage Aussagen aus Wissenschaft und Forschung, andererseits eine verheißungsvolle Zukunftsmusik. Natürlich gibt es auch hier ein Leitmotiv für die Entwicklungen zwischen KI und Arbeit. Es erfordere eine menschenzentrierte Entwicklung und Nutzung von KI-Anwendungen in der Arbeitswelt. Ethische Fragen stellten sich in der Arbeit mit KI in besonderer Weise. Der Schutz der Persönlichkeitsrechte müsse gewahrt werden. Beschäftigte stehen in einem Abhängigkeitsverhältnis, welches sie schutzbedürftig mache. Möglichkeiten zur Mitbestimmung müssten einer Modernisierung unterzogen werden. Eine Losung zur Nachdrücklichkeit darf natürlich nicht fehlen. So wird fast wie von den Barrikaden des proletarischen Straßenkampfes ausgerufen: „KI so gestalten, dass Arbeit menschengerechter wird!“. Man fühlt sich etwas an Zeiten der Maschinenstürmerei erinnert. Hoffentlich kommt es nicht so. Die entscheidenden Fragen sind natürlich: was ist erkennbar von dem, was implementiert wird und schließlich: wem nützt es. Realismus ist gefragt. Die Teilnehmer betrachten den Einsatz von KI als Gestaltungsaufgabe und das Ergebnis von Aushandlungsprozessen. Eine Selbstverpflichtung von Unternehmen könne dazu beitragen, dass die Auswirkungen der Automatisierung in einer Organisation genau beschrieben und die Betroffenen frühzeitig eingebunden werden (sogenannter „Human-Friendly-Automation“-Ansatz). Wenn man einige Beispiele der vergangenen Jahre im Bereich der Wirtschaftskriminalität ins Gedächtnis ruft, so erscheint die Freiwilligkeit ein fragwürdiger Weg. Die teils kriminellen Skandale fordern Staat und Gesellschaft auf, entschlossen und konsequent klare Grenzen zu ziehen. Verstöße müssen mit Hilfe von Experten auf staatlicher Ebene sanktioniert und materiell bestraft werden. Wer sich keinem fairen Wettbewerb stellt, dem muss der Markzugang verwehrt werden.Etwas resigniert, ob der großen Aufgabe, stellt die Projektgruppe fest, dass wegen der komplexen KI-spezifischen Wirkungszusammenhänge keine Empfehlung zu den diversen konzeptionellen Ansätzen erarbeitet werden können. Mit anderen Worten: Man weiß einfach nicht, was sich nach Einführung von KI-Systemen wie auswirken wird. Etwas hilflos wird auf den „Corporate Governance Kodex“ für gute Unternehmensführung verwiesen. An diesem könne man sich orientieren. Ein System ethischer Maßstäbe als Instrument der Selbststeuerung der Wirtschaft sollte implementiert werden. Als weiteres handhabbares Instrument wird das Modell der Datenethikkommission für die Einstufung algorithmischer Systeme in Kritikalitätsstufen in Erwägung gezogen. Ausführungen und Empfehlungen der Kommission bleiben unkritisch gegenüber den großen Gefahren einer technologisch geprägten Zukunft (Stichwort Überwachungskapitalismus, Selbstausbeutung, Entgrenzung von Arbeit, Herrschaft von Monopolen und ungleiche Verteilungen von Wertschöpfungsgewinnen etc.). Zentrale Fragestellungen, die über die Zukunftsfähigkeit unserer demokratischen Gesellschaft entscheiden, werden nicht mit gebotener Schärfe und Nachdrücklichkeit kritisch-analytisch betrachtet. Die faire Ausgestaltung der Arbeitsgesellschaft bietet die zentrale Chance, zukünftiges Vertrauen in Staat und demokratische Institutionen zu etablieren. Menschen müssen in diesem Bereich vor allem die Möglichkeit erhalten, das eigene Leben in die richtigen Bahnen zu lenken und dafür die angemessene materielle Basis selbst schaffen zu können. Wie der Einzelne auch mit Hilfe des Instruments KI zu einem selbstbestimmten Leben gelangen kann und wie die Gesellschaft zukünftige Möglichkeiten zur 

Entfaltung von Selbstbestimmung unter fairen Bedingungen schaffen kann, wird nicht thematisiert. Unfaire Arbeitsbedingungen wie z. B. bei Amazon, wo schon seit Jahren um einen Betriebsrat in Deutschland gekämpft wird, sollten einem zu denken geben.

Der Bericht ist ein Spiegel von Defiziten

Der Bericht ist immer dann substanziell, wenn Empfehlungen und Zielstellungen herausarbeitet werden, die mit Leitgedanken, mit Prinzipien oder verbindlichen Wertvorstellungen unserer Gesellschaft verankert sind. Eine Schwäche ist die immerwährende Empfehlung von Kommissionen. Wenn man im Moment nicht weiterkommt oder in der Tat nichts Drängendes (z. B. eine Krise) den Ton angibt, wird für die nächste Legislaturperiode eine Expertenkommission des Deutschen Bundestages vorgeschlagen. Das scheint so eine Art deutsche Krankheit zu sein. Dinge, die aktuell nicht beherrschbar scheinen, werden aufgeschoben, weiterdelegiert oder einfach anderen Akteuren überlassen. Ein Risiko wird bei der politischen Beurteilung von neuen Technologien gar zu oft bei Seite geschoben: Man sollte sich sehr genau überlegen, was wir in Deutschland wirklich gut beherrschen und was in der Tat anderen im Wettbewerb überlassen werden kann. Es gibt Länder und Gesellschaften, die mittlerweile schneller sind als wir und darüber hinaus beim qualitativen Niveau von Produkten und Leistungen rasant aufholen. Motivation ist ebenso ein entscheidender Faktor für Innovation und Veränderung, den man nicht unterschätzen sollte. Diese Einsicht ist in dem Bericht nicht zu finden. Neue Technologien sind eben keine Experimentierkiste. Wurde der Anschluss verloren, ist es sehr schwierig, Schritt zu halten.

Die Kommission erkennt, dass mit der Entwicklung und dem Einsatz von KI neue Risiken entstehen oder sich bestehende verstärken. Ursachen und Wirkungen der Implementierung von KI wird z. B. mit konkreten Fragestellungen zum Thema „Diskriminierung“ nachgegangen. Die Beteiligten sind sich einig, dass es keinen durch das Rechtssystem definierten Begriff der Fairness gibt. Ein grundlegendes Risiko von systematischen Verzerrungen (Bias) in KI-Systemen bestehe grundsätzlich. Zur Beherrschbarkeit dieses Problems sollten normative Vorgaben in einem interdisziplinären und gesellschaftlichen Diskurs entwickelt werden. Benannte Handlungsempfehlungen sind in diesem Kontext jedoch wiederum generisch (Transfer von Forschungserkenntnissen in den „Software-Entwicklungsalltag“; Funktionsweise von Algorithmen und KI-Systemen in Bildungsbereiche integrieren etc.) und nicht zügig zu realisieren. Die im Bericht formulierte Vorstellung, dass sich Individuen gegen Diskriminierung durch KI genauso zur Wehr setzen müssten, wie in klassischen Fällen, folgt einem naiven und gefährlichen Irrglauben. Selbst staatliche Stellen haben massive Probleme bei Ressourcen und Technologie, um Verzerrungen in den Märkten oder sogar kriminellen Machenschaften auf die Schliche zu kommen. Der Einzelne kann im Daten- und Tech-Dschungel nur sehr wenig ausrichten. Es ist geradezu unmöglich, herauszubekommen, was mit seiner Person im Verborgenen auf Datenebene passiert oder eben nicht passiert (siehe dazu Fragestellung rund um das Scoring und Kreditwürdigkeit, Identitätsklau etc.). Wer schon einmal den Versuch unternehmen musste, falsch erfasste Datensätze zur eigenen Person bei Providern zu korrigieren, kann erahnen, wie gefährlich technische Fehler oder kriminelle Energie werden können.Grundsätzlich werden die jeweiligen Risiken erkannt und thematisiert. Eine strikte Linie, was unbedingt durch den Staat unterbunden werden muss, ist jedoch nicht zu erkennen bzw. bleibt allgemein. Einordnungen und Ableitungen von Strategien sollten in Abhängigkeit von Gefahrentiefe und -wahrscheinlichkeit vorgenommen werden. Maßnahmen zur Aufsicht, dem spezifischen Einsatz und der Kontrolle seien daraus abzuleiten. Dieses Vorgehen wird als ein KI-spezifisches Risikomanagement bezeichnet. Die durch die Bundesregierung eingesetzte Datenethikkommission (DEK) empfiehlt in ihrem Abschlussbericht die Entwicklung einer EU-Verordnung für algorithmische Systeme und schlägt eine Klassifizierung in fünf Kritikalitäts-Stufen vor. Diese richten sich nach dem Schädigungspotenzial der Anwendung. Auch im Weißbuch der Europäischen Kommission zur Künstlichen Intelligenz wird ein solcher Kritikalitätsansatz gefordert. Im Unterschied zur Kritikalitätspyramide der Datenethikkommission sollen hier nicht „algorithmische Systeme“, sondern KI-Anwendungen auf ihre Kritikalität geprüft werden. Die EU-Kommission ist im Gegensatz zur DEK der Ansicht, dass sowohl der Sektor als auch die beabsichtigte Verwendung der KI-Anwendung in diesem Sinne betrachtet werden sollten, wenn es um die Risikobewertung unter den Gesichtspunkten Sicherheit, Verbraucherrechte und Grundrechte geht. Wird eine KI-Anwendung als Hochrisikoanwendung klassifiziert, muss ein umfangreicher Katalog an Anforderungen erfüllt werden, um eine Anwendung in der Praxis zu realisieren. Als Institution der Steuerung und Kontrolle wird im Weißbuch ein nationales und europäisches Netzwerk von Regulierungsbehörden bei KI-Systemen mit einem „hohem Risiko“ gefordert. Dabei sollte u. a. an bestehende vertikale behördliche Strukturen angeknüpft werden, führt die Kommission aus.

Zu bedenken ist: Für Herstellung und Betreiben von KI-Systemen gibt es derzeit keine speziellen Haftungsregelungen. Die grundsätzliche Feststellung ist, dass Menschen KI-Systeme entwickeln und für ihre Zwecke einsetzen. Damit muss die Verantwortlichkeit für den Einsatz von KI und deren Folgen beim Menschen bleiben und kann nicht auf die Technik übergehen. Bei Wahrung dieses Grundsatzes, könne die Erstellung und der Einsatz von KI juristisch nach den gleichen Maßstäben bewertet werden. Aus dieser Perspektive findet das allgemeine Haftungsrecht Anwendung: Wer KI entwickelt und auf den Markt bringt, haftet nach der allgemeinen Produkt- und Produzentenhaftung. Wer eine Maschine, einen Roboter, autonome Fahrzeuge oder eine Software einsetzt, haftet nach den Vorschriften der Betreiberhaftung. Diese Ausführungen der Kommission stellen eine Grundlage dar und sollten im gesellschaftlichen Diskurs als Ausgangsbasis Verwendung finden.

Neue Technologien verschärfen alte Probleme

Selbstkritische Töne fehlen im Bericht nicht. Oder wird nur in Erinnerung gerufen, was die Basis für die Arbeit der Kommission hätte sein müssen? In diesem Tenor wird angemerkt, dass für eine umfassende und gründliche Bearbeitung des Themas Nachhaltigkeit und KI eine Erörterung der Chancen und Herausforderungen durch KI mit Blick auf die Erreichung der 17 Ziele für eine nachhaltige Entwicklung der Vereinten Nationen notwendig gewesen wäre. Dies konnte die Enquete-Kommission in der Kürze der Zeit jedoch nicht leisten. Stattdessen wurde auf wesentliche Aspekte der ökologischen Dimension der Nachhaltigkeit Wert gelegt. Und wen wundert‘s, es wird auf andere Projektgruppen verwiesen, die entsprechende Themen schließlich mitdiskutiert hätten.Zu den „herausragenden“ Erkenntnissen des Berichts zählt, dass der Einsatz von KI-Lösungen nicht per se als wirtschaftlich, ökologisch und sozial nachhaltig, anzusehen sei. Wen wundert‘s, auch unter dem Aspekt „Nachhaltigkeit“, weiß man erst Genaueres nach der Durchführung von Untersuchungen. Zum wiederholten Male empfiehlt der Bericht, eine vertiefte Analyse des nachhaltigkeitspolitischen Potenzials von KI unter Beachtung von Suffizienzfragen durchzuführen. Im Anschluss könne dann die Ableitung und Entwicklung einer nachhaltigkeitspolitischen KI-Strategie, verbunden mit gezielter Förderung der vielversprechendsten Ansätze und Monitoring ihres tatsächlichen Beitrags zur Erreichung von Klima- und Nachhaltigkeitszielen in die Wege geleitet werden. Und natürlich, damit man die Beiträge belegen kann, muss mehr Forschung zur systematischen Analyse des CO2-Minderungspotenzials durch KI-Anwendungen in den Schlüsselsektoren Energie, Industrie, Landwirtschaft, Wohnen und Mobilität geleistet werden. Fazit: Es kann immer nur eins nach dem anderen erfolgen. Wie lange dieses Vorgehen, mit relativ kleinen Schritten dauert, und was in der Zwischenzeit in die falsche Richtung läuft, wer uns im Wettbewerb die Initiative abnimmt, das steht auf einem ganz anderen Blatt. Diese Fragen braucht die Enquete-Kommission nicht zu beantworten. Es gibt ja eine nächste Legislaturperiode!

Der durch Digitalisierung und KI verursachte Stromverbrauch ist ein neuralgischer Punkt bei der Beurteilung möglicher ökologischer Auswirkungen. Die Erwartungen schwanken dabei stark. So rechnet die französische Regierung in ihrer KI-Strategie „AI for Humanity“ damit, dass im Jahr 2030 zwischen 20 (moderates Szenario) und 50 Prozent (pessimistisches Szenario) des globalen Stromverbrauchs durch digitale Anwendungen verursacht sein könnten. Nach Industriestudien könnte bei linearer Fortsetzung gegenwärtiger Wachstumstrends im Jahr 2040 gar die gesamte globale Energieproduktion für Rechenleistungen benötigt werden. 

Welche Lösungsansätze von staatlicher Seite denkbar sind, damit Schadstoffemissionen und Ressourcenverbrauch knapper Rohstoffe (die oftmals in den ärmeren Regionen der Welt zu finden sind) eingedämmt werden können, wird nicht skizziert. In diesem Punkt bleibt durch den gesamten Bericht hinweg die entscheidende Frage offen: Wenn KI keinen Beitrag in der Gesamtsumme der zu lösenden Problemstellung leistet, wem nützt sie dann? Fragen des gesamtgesellschaftlichen Nutzens im Lichte der Analyse, welche Ressourcen im Zusammenspiel mit welchen Technologien perspektivisch verbraucht werden, bleiben im Wesentlichen im Dunkeln. Eine Betrachtung von Verlusten/Gefährdungen für definierte Bevölkerungsgruppen oder sogar ganze Länder (auf welche man in der Liefer- und Wertschöpfungskette angewiesen ist) erfolgt nicht. Es kann ja eigentlich nicht sein, dass die Menschheit mit KI noch mehr Ressourcen verbrauchen als vor KI, fragt sich der an der Zukunft interessierte naive Mensch? Zur Verteidigung der Autoren des Berichts kann angeführt werden: Es ist ihnen Folgendes bewusst: Die Datenbasis zum tatsächlichen Leistungsvermögen von KI-Technologien kann in vielen Bereichen (noch) nicht auf standardisierte statistische Indikatoren aufsetzen. Prognosen basieren häufig auf anderen Kenngrößen oder Hochrechnungen, wobei es teilweise schwerfällt, zwischen KI-Einsatz und herkömmlichen IT-Anwendungen in Unternehmen zu differenzieren. Um valide Aussagen zu den ökonomischen Effekten des KI-Einsatzes treffen zu können, empfiehlt die Projektgruppe daher, eine KI-spezifische, wissenschaftliche Datenbasis zu entwickeln. Man fragt sich, auf welcher Grundlage sonst Entscheidungen gefällt werden sollen? Es ist in modernen Gesellschaften ja üblich, die Wissenschaft zu befragen und kein Orakel. Wobei ja besonders in jüngster Zeit auch andere Entwicklungen sorgenvoll zu beobachten sind. Aber nicht genug dieser eindringlichen Forderungen. Es werden noch weitere Appelle zum Thema Forschung erhoben. So wird festgehalten: Forschung zu KI müsse aktiv an Lösungen für die Zukunft von Arbeit, Bildung, Gesundheit, Mobilität, Wirtschaft und Energie arbeiten und gleichzeitig sicherstellen, dass das Wohl aller Menschen und das demokratische, partizipative und gleichberechtigte Zusammenleben im Mittelpunkt dieser Anwendungen stehen. Gut, dass uns das noch einmal in Erinnerung gerufen wurde. 

Die Kommission sieht drei Möglichkeiten, wie der Staat als Akteur im Rahmen der strategischen Forschungsförderung agieren sollte. Dazu zählen: klare Werte artikulieren und definieren; vielversprechende Forschungs- und Transfereinrichtungen über finanzielle Investitionen befördern, über politische Steuerungsmittel (z. B. Wirtschafts-, Innovations- oder Bildungspolitik etc.) und KI-Forschung an gesellschaftlichen Zielen orientierten. Es ist zu bezweifeln, dass man mit diesen Vorschlägen, die ohnehin auf der Hand liegen, eine Dynamik entwickeln kann, die uns als Land in eine Führungsrolle in der Handhabung von KI-Technologie bringt.

Appelle ersetzen keinen stringenten Gestaltungswillen 

Neben der Wirtschaft, dem Staat und den Institutionen sollte die Zivilgesellschaft von der Anwendung neuer Technologien profitieren. Oftmals haben wir es nicht mit Amts- und Würdenträgern zu tun, sondern mit ganz normalen Menschen, die reale Probleme lösen müssen. Die Frage, wie KI und die Ergebnisse von Grundlagenforschung in die Gesellschaft transformiert werden können, stellte sich die Kommission ebenfalls. Als zentrales Thema wird das Bereitstellen von Daten und Technologien, die für die Forschung notwendig sind, sowohl vonseiten der Wirtschaft als auch vonseiten des Staates gesehen. Ein Appell darf natürlich nicht fehlen: Hochschulen, insbesondere Universitäten, und Forschungseinrichtungen sollten sich Anforderungen der Gesellschaft öffnen und Brücken zwischen Wissenschaft und Anwendung schaffen, wodurch drängende gesellschaftliche Probleme bearbeitet werden könnten. Soweit so gut. Diese Appelle sollen Gehör finden bei Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft im Bereich der KI-Forschung, mithin auch eine Zugänglichkeit von KI-Entwicklung im Rahmen von Citizen Sciences, Reallaboren und ähnlichen inklusiven Ansätzen der Innovation. Damit das alles gelingt, solle die Abhängigkeit von Dritten außerhalb Europas bzw. von finanzkräftigen Technologieunternehmen minimiert werden. Diese Ausführungen im Bericht machen ebenfalls einen gewissen Realitätsverlust deutlich. Man stelle sich einmal vor, wie in dem vergangenen Jahrzehnt unsere deutsche digitale Welt ohne Microsoft, Samsung, Amazon, Apple & Co ausgesehen hätte. Der klare Blick für die Tatsachen fehlt auch in diesem Punkt. Deutschland, aus welchen Gründen auch immer, hat in einigen technischen Bereichen den Anschluss verloren. Es fehlt einfach an einer Basis. Consumer- und Business-Tech-Companies stellen Infrastrukturen, Daten, Informationen und Experten. Ohne all dies ist das wirtschaftliche und private Leben mittlerweile nicht mehr denkbar. Die Interaktion mit den Konsumenten ist die entscheidende Basis, auf welcher KI-Forschung aufsetzen kann. Was müsste also unternommen werden? Zunächst natürlich auf politischer Ebene mehr Selbstanalyse! Die Felder, in welchen Deutschland etwas bewegen kann, müssten kritisch unter die Lupe genommen werden, um die Erfolgsaussichten zu gewichten. Worauf haben wir überhaupt noch direkte Entscheidungsmöglichkeiten? Die im Bericht benannte „digitale technologische Souveränität“ ist eine Illusion. Eine derartige Abgrenzung ist nur schwerlich vorstellbar. Überlegungen, dass der Staat eine besondere Profilbildung im Bereich „missionsbasierter, an gesellschaftlichen Zielsetzungen orientierter Forschungscluster“ (z. B. im Bereich der Umwelttechnologien, der menschenzentrierten Robotik oder des ethik- und wertorientierten Designs automatisierter Entscheidungsfindung) gewährleisten sollte, wiederum sind gut gemeint. Diese Ambitionen reichen bei weitem nicht aus, um global Schritt zu halten. Die stärksten Impulse für notwendige Innovation müssten von der Wirtschaft selbst ausgehen. Zukunft muss sich lohnen! An Zukunft muss man interessiert sein! Diese Herausforderungen können nicht von Labs oder Start-ups geschultert werden. Wie sehen in diesem Falle die Vorschläge der Kommission aus? Natürlich, sollte wieder einmal eine Kommission, in diesem Falle bestehend aus führenden deutschen KI-Forscherinnen und -Forschern in Form eines nationalen Zukunftsrat für die KI-Forschung, ein möglicher Ausweg sein. Man fragt sich, woher die Teilnehmer, die wirklich etwas Sinnvolles zu tun haben, die Zeit für all die Kommissionen hernehmen sollen? Haben wir in unserem Land bei lauter Kommissionen überhaupt noch Menschen, die die entscheidenden Arbeiten für Fortschritt und Innovation verrichten oder sind die meisten Wissenschaftler in naher Zukunft „Dauerpolitikerklärer“ geworden?

Der Staat muss wissen, was er will

Halten wir uns am Positiven fest! Es ist hervorzuheben, dass ein öffentlicher Dialog mit Bürgerinnen und Bürgern erprobt wurde. Als Grundlage diente ein wissenschaftliches Gutachten, mit dessen Hilfe die Haltung der Öffentlichkeit zu Thesen und Handlungsempfehlungen eingeholt wurde. Für dieses Gutachten hat die Enquete-Kommission einen Online-Dialog durchgeführt, an dem sich Bürgerinnen und Bürger sowie Fachleute aus Wissenschaft, Wirtschaft und Zivilgesellschaft gleichermaßen beteiligen. Im Ergebnis empfiehlt die Kommission weitere Pilotprojekte von KI in der Verwaltung. 

Immer wenn der Staat dem einzelnen Bürger gegenübertritt, gilt es etwas zu regeln, zu entscheiden, zu ermöglichen. Wo sind KI-gestützte Entscheidungen überhaupt möglich? Eine Arbeitsgruppe hat sich unter dem Aspekt KI-gestützter Entscheidungen damit beschäftigt. Im Fazit wird davon ausgegangen, dass eine Entscheidung voll automatisiert getroffen werden kann (lt. § 155 Absatz 4 AO), wenn kein Anlass besteht, den Einzelfall durch einen Amtsträger zu bearbeiten. Die Norm geht somit davon aus, dass nur regelbasierte Entscheidungen voll automatisiert und Abweichungen nicht automatisiert eingelesen, verarbeitet und bewertet werden dürfen. Als Hemmnis von innovativen Entwicklungen für die Verwaltung und die Zivilgesellschaft wird der mangelnde Zugang zu entwicklungsrelevanten Datensätzen gesehen. In diesem Zusammenhang wird auf das von der OECD vorgeschlagene Partizipationsverfahren, welches von staatlicher Seite initiiert werden soll, (beinhaltet drei Ebenen: Information, Konsultation und Zusammenarbeit) verwiesen. 

Ein gravierendes Problem wird im Fehlen von generell an gemeinwohlorientierten KI-Anwendungen identifiziert. Damit sind Anwendungen gemeint, die in der Lage sind, explizit gesellschaftliche Probleme zu lösen. Profitorientierte Ziele stehen dabei nicht im Vordergrund. Die Idee der Social-Innovation-Fonds zur Bereitstellung von Geldmitteln könnte für Verbesserungen sorgen. Ein wesentlicher Aspekt im Umgang mit KI-Systemen ist die Ausgestaltung von Möglichkeiten der Partizipation. Von der Kommission wird eingefordert, dass beim Einsatz von KI-Systemen mit einem nicht-trivialen Schadenspotenzial zivilgesellschaftliche Akteure über das gesamte Verfahren von Entscheidung, Entwicklung und Betrieb beteiligt werden müssten. Dies setze eine möglichst hohe Transparenz der Verwaltung bezüglich der Planung und des Einsatzes von KI-Systemen und den Austausch mit allen betroffenen Stakeholdern voraus, um die Bedürfnisse der Gesellschaft berücksichtigen zu können. Es gelte, mögliche ungerechtfertigte Diskriminierungen beim Einsatz von algorithmischen Entscheidungssystemen stets zu minimieren, hebt die Kommission richtigerweise hervor. Es auf jeden Fall gut, wenn man weiß, was man eigentlich will oder was es gilt, unbedingt zu verhindern!Darüber hinaus wird hervorgehoben, dass gegenwärtig viele KI-Lösungen, die zur Verbesserung der Kommunikation und Interaktion mit der öffentlichen Verwaltung beitragen, auf Chatbots, basieren. Chatbot-Anwendungen würden dabei häufig Messenger-Dienste großer Drittanbieter nutzen. Da die KI-Anwendungen momentan auf die Nutzung von Drittanbieter-Plattformen angewiesen seien, haben jene Plattformen ebenfalls Zugriff auf alle Informationen, die während dieses Prozesses weitervermittelt werden. Der Staat greift also auf Instrumente aus der Privatwirtschaft zurück und das ist nicht ungefährlich. Im Optimalfall sollte ein Messenger-Dienst angestrebt werden, der als öffentlich-rechtliche Plattform direkt von der Verwaltung betrieben werden sollte. Grundsätzlich ist die Anforderung, dass planerische und gestalterische Vorgänge und Entscheidungen mit Ermessensspielraum auch zukünftig von Mitarbeiterinnen und Mitarbeitern in den Verwaltungen ausgeübt werden müssten. Es müsse sichergestellt sein, dass Mitarbeiterinnen und Mitarbeiter auch wirklich gegen die Vorschläge des Systems entscheiden können. Eine grundsätzlich richtige und bedenkenswerte Anforderung! Der jeweils verantwortliche Mensch oder die verantwortlichen Menschen müssen quasi die „letzte und die entscheidende Instanz“ sein.

Wen wundert es, dass die Projektgruppe ebenfalls feststellt: Es bedarf weiterer Forschung, insbesondere zu der Frage, wie Menschen in der Interaktion mit KI-Systemen auf vorbereitete Entscheidungsvorschläge reagieren und welche Automatisierungsgrade, welche tatsächliche menschliche Autonomie als Spielräume verbleiben. Die Verfasser sind sich bewusst, dass mit dem Einsatz von KI-gestützten Systemen auch neue Fähigkeiten der Mitarbeiter gefragt sind. Aus diesem Grunde wird zur grundsätzlichen Funktionsweise und den Grenzen der KI-Systeme geschult werden müssen. Ethik-Kompetenzen im Umgang mit KI-Systemen müssten erlangt, sowie über mögliche Fehlerquellen und Fehlinterpretationen aufgeklärt werden. Unter dem Strich lässt sich erahnen, dass die Arbeit in der Interaktion mit KI-Systemen nicht unbedingt einfacher wird. Darüber hinaus besteht die Gefahr, dass sich bei falschen Weichenstellungen die Systeme verselbstständigen werden.Daten, Informationen und Persönlichkeitsrechte spielen beim Thema Smart City eine ebenso entscheidende Rolle für die Zivilgesellschaft. Diese Arbeitsgruppe erhebt die Forderung, dass Daten der öffentlichen Hand der Öffentlichkeit im Rahmen der rechtlichen Begrenzungen (vgl. Informationsfreiheitsgesetz) uneingeschränkt zur Verfügung gestellt werden müssten. Um die Verfügbarkeit der Daten der öffentlichen Hand über Ressort- und Behördengrenzen hinweg ebenso wie für Wirtschaft und Zivilgesellschaft zu verbessern, wird die Einrichtung eines Open-Data-Instituts angeregt, das die Verwaltungen bei der Erstellung von Konzepten für Data-Governance und bei der Offenlegung von Daten unterstützt. In Zusammenhang mit Smart City wird der Inhalt des Koalitionsvertrages in Erinnerung gerufen. Es wurde ein Bundesprogramm „Smarte Modellregionen“ aufgelegt, welches insbesondere ländliche Regionen und mittlere Städte in den Fokus rückt. Das BMI fördert in diesem Zusammenhang 13 Smart-City-Modellprojekte seit Herbst 2019. Insgesamt sollen so in vier Umsetzungsstaffeln insgesamt rund 50 Modellprojekte gefördert werden. Wie es um diese Modellprojekt steht, wird nicht erläutert. An die Adresse des Staates schlägt die Kommission in den Ministerien des Bundes ein Monitoring bezüglich des Einsatzes von KI in anderen Behörden und Staaten vor. Und natürlich sollte ein strukturierter Erfahrungsaustausch unter den KI-einsetzenden Behörden im In- und Ausland stattfinden. Dies sollte vom Bundeskanzleramt koordiniert werden. In diesem Zuge sollte bei der Umsetzung des Onlinezugangsgesetzes (OZG) bereits jetzt der Einsatz eines KI-Systems systematisch geprüft werden. Und noch eine sphärische Vorstellung, wie sich die Dinge vielleicht lösen und schneller bewegen lassen: Es gelte zu prüfen, inwiefern in der Wirtschaft etablierte Standardprozesse für die Implementierung von KI-Anwendungen im öffentlichen Sektor geeignet seien. Der Prozess der Überprüfung sollte basierend auf einem Risikoklassifizierungsmodell u.a. folgende Schritte beinhalten: die Definition von Zweck, 

Qualitätszielen und Fairnessmaßen, Technikfolgenabschätzung, Transparenz, Rechtskonformität, zugrundeliegende Daten, Bedingungen und Grenzen der Wirksamkeit, stete Evaluation, Revision, ggf. Anpassung bzw. Redesign oder Beendigung des Einsatzes. Zumindest schwebt den Beteiligten für die Verwirklichung eine Vorgehensweise vor, die man entwickeln, abstimmen und an die man sich vor allen Dingen halten sollte. 

Als eine Lehre aus dem bisherigen Verlauf der Corona-Pandemie hat man schließlich die Einsicht gewonnen, dass in außerordentlichen Situationen Modelle für die Anwendung von personenbezogenen, hochaufgelösten Daten genutzt werden müssen. Der Umgang müsse transparent und verantwortlich erfolgen. Höchste Sicherheitsansprüche sollten gelten. Gleichzeitig müsse die wissenschaftliche Auswertung gewährleistet werden. Auf der technischen Ebene erkennt man darüber hinaus, dass Konzepte für die Arbeit mit synthetischen Daten und mit Modellkompressionen benötigt werden, um sich in neuen „Denk- und Möglichkeitsräumen“ zu bewegen. Konkret sieht man neue Rollen und Institutionen wie z. B. Datentreuhänder oder Prozesse der Anonymisierung und De-Anonymisierung. Alles sehr vage und nicht konkret. Man ahnt jedoch, dass man sich auf ein völlig neues Feld begibt!Beim Thema Mobilität ist man konkreter. Die Gewährleistung von fairem Wettbewerb und die Verhinderung von Monopolbildungen werden in den Vordergrund gestellt. Die fachliche Einordnung der Sachverständigen in der Projektgruppe „Mobilität“ kam zu dem Schluss, dass bei der Steuerung im Bereich des autonomen Fahrens „Regeln“ im Sinne der regelbasierten Anwendung und bei der Verarbeitung von Daten vermehrt Maschinelles Lernen im Sinne von „Deep Learning“ (KI) zum Einsatz kommen. Es darf natürlich nicht fehlen, dass wieder eine vertiefende Untersuchung angeregt wird. Die Bereiche Mobilität und Smart City werden im politischen Sinne als ein gewichtiger Entwicklungsteil der Stadtentwicklung gesehen. Die Bundesregierung hat 2016 auf Beschluss des Staatssekretärsausschusses für nachhaltige Entwicklung die Dialogplattform Smart Cities eingerichtet. Die Dialogplattform fördert die Befassung mit Fragen der Digitalisierung der Mobilität auf kommunaler Ebene, die Identifizierung von Chancen und Risiken sowie den nationalen und internationalen Austausch zu stadtentwicklungspolitischen Fragen der Digitalisierung. Wesentliche, damit in Verbindung stehende Fakten, wie der funktionierende Wettbewerb als Basis für Innovationen werden ins Bewusstsein gerückt und klare Forderungen aufgestellte: Das Wettbewerbsrecht müsse einen fairen Datenaustausch gewährleisten, langfristig würde es ohne einen einheitlichen europäischen Rechtsrahmen nicht funktionieren, wird im Bericht hervorgehoben. Es wird ebenso die drängende Frage gestellt, wie die angesprochenen Systeme mit den richtigen Maßnahmen und Überprüfungen zugelassen werden können. Eine Weiterentwicklung von KI-Systemen wolle man nicht unnötig verlangsamen. Zertifizierungen sollten aus diesem Grund vorerst mit den bereits existierenden Standards für Nicht-KI-Systeme beginnen. Die Notwendigkeit von weiteren Zertifizierungsstandards wird bei Bedarf eingeräumt. Für die Verifizierung und die Validierung von KI-Systemen wird empfohlen, ein Forschungsprogramm aufzulegen, das mit einem Grundlagenforschungsprogramm der Deutschen Forschungsgemeinschaft (DFG) gekoppelt ist. Dieses Themenfeld sei noch nahezu unbearbeitet. Natürlich muss wieder einmal geforscht werden, bevor man entscheiden könne. Es sei nötig, bürokratische Hürden schnell zu überspringen. So bleibt für den interessierten Leser festzuhalten: Personenbezogene Daten können unter Beachtung der DSGVO-Vorgaben zur Profilbildung genutzt werden. Nicht-personenbezogene Daten, von denen auch Dritte (zum Beispiel ÖPNV-Anbieter) profitieren könnten, werden wiederum nicht als Open Data zur Verfügung gestellt. Der Gesetzgeber hat darauf bereits vor einigen Jahren mit der 9. Novelle des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) reagiert. Eine 10. GWB-Novelle zur Modernisierung des Kartellrechts ist in Arbeit. Das ist ein ganz entscheidender und nicht nur rechtlicher Punkt, da es um Gerechtigkeit und letzten Endes um die Nutzung von Ressourcen zur Schaffung von Gerechtigkeit geht. 

Eine zentrale Frage ist in diesem Zusammenhang ist, ob Daten „wesentliche Einrichtungen“ im Sinne des Kartellrechts („Essential Facility Doctrine“) sind? Diese Frage gilt es aus Sicht der Kommission politisch zu definieren. Der Zugang zu Datennetzen und anderen wesentlichen Einrichtungen ist Bestandteil der kartellrechtlichen Missbrauchsaufsicht des Bundeskartellamtes. Werden diese Frage positiv beantwortet, müssen Daten unter bestimmten Voraussetzungen allen Marktteilnehmern zur Verfügung gestellt werden – auch und gerade, um einer Monopolbildung entgegenzuwirken und gleichzeitig maximales Optimierungspotenzial zu bieten. Was bleibt in diesem Kontext festzuhalten? Es ist gut und richtig, dass kartellrechtliche Herausforderungen und Aspekte eines fairen Wettbewerbs so klar auf die Agenda gestellt werden. Den Reden müssen Taten folgen. Die nachhaltigen und mit vernünftigen Argumenten belegbaren Interessen des Gemeinwohls müssen mit den nützlichen und sinnvollen Aspekten der technologischen Entwicklungen in Einklang gebracht werden. Entscheidend ist jedoch schon jetzt die Frage, wie die erwirtschafteten Erträge auch wieder der Gemeinschaft zu Gute kommen? 

Zum Abschluss noch ein Blick auf die Ausführungen zu den Möglichkeiten der neuen medialen Welt. Besonderer Fokus lag dabei, völlig zurecht, auf dem Verständnis von technischen Voraussetzungen. Es wird erkannt, dass die Gefahren der Manipulation, der Verbreitung von Lügen und der Irreführung vom Staat sehr ernst genommen werden müssen. Man ist sich bewusst, dass nicht alles so läuft, wie es wünschenswert wäre. Die Gefahren für die Stabilität unserer demokratisch-liberalen Gesellschaft sind aus Sicht der Kommission nicht zu übersehen. Es gäbe auch noch keine hinreichenden wissenschaftlichen Erkenntnisse über die genauen Folgen von Microtargeting(Kommunikationsstrategie mit Hilfe von digitalen Medien für die öffentliche Meinungsbildung). Die ausschließlich interessengebundene Einflussnahme auf die Meinungsbildung von bestimmten Bevölkerungsgruppen wird durchaus kritisch gesehen, weil damit nicht unbedingt demokratische Ziele verfolgt werden können. Wie allerdings die konkrete potenzieller Regulierung aussehen könnte, da ist man ratlos. Sogenannte Filterblasen und Echokammern werden als Risiken für einen offenen Diskurs in der demokratischen Gesellschaft gesehen. Dem wolle man mit Aufklärung der willigen Teile der Gesellschaft begegnen. Eine gesetzliche Grundlage fehle bislang.

Ein Bericht für die „Datenspeicher“ des Parlaments

Wie sieht das Fazit nach Analyse des Berichts aus? Man könnte es so ausdrücken: Es gibt mehr Schatten als Licht. Nichts ist bekanntlich unsicherer als Vorhersagen über die Zukunft! Spitzt man es zu, so spiegelt der Bericht die bisherige Fehlleistung auf politischer Ebene wider. Dem Bericht fehlt die Kraft, die wesentlichen Tatsachen zu identifizieren und unangenehme Wahrheiten einer „trägen“ und teils bürokratischen Gesellschaft zu benennen. Das gravierende Gefahrenpotenzial zur Verunsicherung, Manipulation und Irritation mit den technologischen Möglichkeiten im Hinblick auf die „Steuerung“ breiter Gesellschaftsschichten wird nicht als drängend wahrgenommen. Der Bericht mahnt jedoch nicht zum unbedingten und schlüssigen Handeln auf nationaler, europäischer und schließlich globaler Ebene. Darin liegt eine Nachlässigkeit! Dem Bürger wird es im praktischen Leben und bei Meldungen von Skandalen, die man nur als Staatsversagen bezeichnen kann, gar zu deutlich, dass Gefahr im Verzuge ist. Die Wahrnehmung ist, dass drängende Fragen wie Klima, Umweltschutz aber auch Themen, die mit sozialem Ausgleich und Gerechtigkeit in Verbindung stehen, in einer immerwährenden Warteschleife gehalten werden. Der Weg von Kommissionen zu spürbaren Lösungen ist weit. Es reicht in diesem Zusammenhang auch nicht aus, auf die europäische oder globale Ebene zu verweisen. Das Kleine im Großen ist entscheidend! Das Höher, Schneller, Weiter und vor allem das Mehr muss auch in der KI-Welt begrenzt werden! Diese Tatsache gilt nicht nur für das Geld. Für Geld kann man sich eben nicht alles kaufen. Luft, Wasser, Tiere, Natur und auch der Mensch selbst vertragen nur einen maßvollen Umgang. Irgendwann schlägt das Pendel zurück! Die Lasten werden größer als der Nutzen. Rund um den Planten ist es spürbar, dass der Raubbau durch den Menschen an gefährliche Grenzen gestoßen ist. Zur Korrektur eines Irrweges wäre die Frage zu stellen, wo Helfersysteme (KI) zukünftige Fehlleistungen verhindern oder wieder etwas ins Lot bringen können, was der Mensch in die falsche Richtung gelenkt hat. Die Führung hatte und wird der Mensch haben! KI-Systeme sind Werkzeuge, die uns helfen, Probleme zu lösen, den Alltag zu gestalten und unsere Welt zu erhalten. Quasi „intelligentere Faustkeile“ für die Gestaltung von Leben und Umwelt, nicht mehr und nicht weniger. Dieses Bewusstsein sollte den Diskurs prägen.

Gut gemeinte Absichtserklärungen und Appelle an die politischen Entscheidungsträger (als den imaginären Verantwortlichen) durchziehen den Bericht. Mut und Entschlossenheit, Defiziten couragiert entgegen zu steuern, sind nicht wahrnehmbar. Alle sind so bemüht, aber niemand will irgendwem weh tun. Der Staat, die Forschung, die Wissenschaft und die Wirtschaft – alle geben doch „ihr Bestes“. Die Realität sieht anders aus. Drängende Fakten dulden keinen Aufschub, kein Vertagen. Ein schleppendes Tempo beim Infrastrukturausbau, eine nicht besonders gut ausgebildete heranwachsende Generation mit wenig Dynamik in den MINT-Fächern, eine Wirtschaft, die Zukunftsaufgaben an Start-up’s und Labs verlagert, signalisieren eine brüchige Basis und eine unsichere Zukunft. Der Anschluss in einigen Bereichen der Digitalisierung ist verloren gegangen. Ein Gegenmittel wäre es, wenn die Generationen mit ihren Träumen, ihrer Naivität und Erfahrung gemeinsam Kräfte entwickeln.  Impulse für notwendige Innovationen müssen neben der Wirtschaft aus der Gesellschaft selbst kommen. Momentan ist unsere Gesellschaft zu starr in Strukturen und Prozessen. Diese Langatmigkeit und Verschlossenheit werden als Mühen der Demokratie ausgegeben. So kann man jedoch keine Zukunft gewinnen. So funktioniert Unternehmergeist nicht. Bislang ist der Weg von der Forschung und Entwicklung zur aktiven Anwendung von KI-Systemen in der Breite der Gesellschaft ein weiter, manchmal zu weiter, Weg. Jeder große Tanker fährt in gewisser Weise seinen eigenen Kurs. Bemühungen, etwas zusammenzubringen, scheitern an Strukturen und Eigeninteressen. Die Digitalisierung und im speziellen die KI, hat das zwiespältige Potenzial, alles was an Widersprüchen und Ungleichgewichten in einer nationalen Gesellschaft und auf unserem Planeten schon bestand hat, noch schlimmer und explosiver zu machen. Es braucht eine kluge, besonnene Gemeinschaft, deren Instrument ein menschlicher Staat ist! Nur in diesem Zusammenspiel kann die Gefahr einer entfesselten KI gebändigt werden.

Damit wir nicht in allzu naher Zukunft feststellen müssen, um Goethes Wort aufzugreifen:

„Die ich rief, die Geister,

Werd’ ich nun nicht los.“.


Alle Rechte vorbehalten.

Abdruck oder vergleichbare Verwendung von Arbeiten des Instituts für Sozialstrategie ist auch in Auszügen nur mit vorheriger schriftlicher Genehmigung gestattet.

Publikationen des IfS unterliegen einem Begutachtungsverfahren durch Fachkolleginnen- und kollegen und durch die Institutsleitung. Sie geben ausschließlich die persönliche Auffassung der Autorinnen und Autoren wieder.

Posted by Oliver Bülchmann