Nick-Magin Stefanie, Mrass Volkmar
[ENG] Like most spheres of economy and society public administration is confronted with many challenges and radical changes caused by digitization, today. Especially the developments linked with the use of artificial intelligence can be seen as a sudden crisis. This article deals with the developments of AI referring to public administration, with the ethics of digitization in general, introduces into the current approaches to regulate AI – especially AI-legislation in the European Union and the United States on the one hand, but also the recommendations of Deutscher Ethikrat. Finally, it refers those insights of administrative practice with the central idea, that all perceived use or benefit of AI, first of all has to be seen under the “humanistic imperative”. This is in accordance with German Grundgesetz. So, the legal framework is already there: Especially in the practice of public administration decision making and evaluations have all to be made by Man.
Keyword: Artificial Intelligence, AI, Digitization, Public Administration, German Grundgesetz, Ethics, Humanism
Aktuelle Entwicklungen im Bereich der Künstlichen Intelligenz mit Verwaltungsbezug
Schon mehr als vier Jahre liegt nun der Ausbruch der Corona-Krise in Deutschland im März 2020 zurück und teilweise hat der zurückgekehrte Alltag auch die Erinnerungen an die damalige große Belastungssituation für Gesellschaft, Wirtschaft und öffentliche Verwaltung auf Bundes-, Länder- und kommunaler Ebene verdrängt. Die Verwaltungen in den Städten und Gemeinden hatten eine besonders wichtige Rolle bei der Aufrechterhaltung des Alltags und der Umsetzung der politischen und rechtlichen Vorgaben zur Eindämmung der Pandemie, etwa mit der Einrichtung der Impfzentren.
Genauso waren die Behörden insgesamt aber auch wie alle anderen Organisationen sowohl intern als auch extern von dem großen Digitalisierungsschub betroffen, den die Corona-Pandemie zur Folge hatte [1]. Dieser ergab sich unter anderem auch daraus, dass die Pandemie die Schwächen Deutschlands im Bereich Digitalisierung deutlich offenbart hat. Und gleichzeitig der Nutzen von Digitalisierung transparent wurde, mit der Folge gestiegener Aufmerksamkeit und daraus resultierender Investitionen in diesen Bereich. Auch wenn, Stichwort Onlinezugangsgesetz (OZG), noch viel zu tun ist, so können seit dieser Zeit zumindest nun deutlich mehr Behördenleistungen digital erledigt werden. Und unter dem Stichwort Open Government wiederum können sich Bürger etwa auf kommunaler Ebene über digitale Ratsinformationssysteme unkompliziert und wenig zeitintensiv mit vielen Informationen zur Kommunalpolitik versorgen. Allgemein ist nun zudem wie in anderen gesellschaftlichen Bereichen auch in Behörden das Arbeiten mit künstlicher Intelligenz auf dem Vormarsch – dazu zählen Large Language Models (LLM) auf denen Chatbots wie ChatGPT basieren sowie KI zur Unterstützung geologischer Kartierung und zur Auswertung von Datenbanken.
Auch in Hochschulen und Wissenschaftseinrichtungen wird bereits häufig künstliche Intelligenz eingesetzt, insbesondere ChatGPT [2]. Dessen hohe Verbreitungsgeschwindigkeit ohne damalige vorgelagerte ethische und juristische Reflexion zeigt aber auch das große „Disruptionspotential“ sowohl dieser speziellen Technologie, als auch die Risiken von künstlicher Intelligenz allgemein. ChatGPT hat bereits heute Einfluss auf Forschung, Lehre und Hochschulen inklusive deren Verwaltungen.
Das Erstellen wissenschaftlicher Journalbeiträge kann durch dieses leistungsfähige Tool bereits heute ebenso unterstützt werden wie Prüfungsleistungen im Bereich studentischer Haus- oder Abschlussarbeiten oder Aufgaben im Bereich der Sachbearbeitung. Insbesondere die ersten beiden Aspekte werfen nicht zuletzt zahlreiche Fragen im Bereich der Gerechtigkeit auf, beispielsweise die Bewertung von Leistungen welche mit versus solcher welche ohne Unterstützung von ChatGPT erbracht wurden. Der Einsatz von ChatGPT in (Hochschul-)Verwaltungen kann zudem heikle Fragen im Bereich Datenschutz, Urheberrecht oder Vertraulichkeit aufwerfen. So lässt sich schon einmal als Ausgangspunkt dieses Textes formulieren, dass „Genauigkeit, Präzision und Redlichkeit“ noch wichtigere Tugenden werden und insbesondere in Bezug auf die Wissenschaft Newtons berühmte Bemerkung „If I have seen further, it is by standing on the shoulders of giants“ (Newton 1675).
Die Gesellschaft (und damit auch die Vertreter in Behörden) muss sich also zunehmend mit dem Gedanken auseinandersetzen, dass es Maschinen geben könnte, die Fähigkeiten besitzen, die dem menschlichen Handeln sehr stark ähneln können. Der Deutsche Ethikrat fasst künstliche Intelligenz folgendermaßen zusammen:
Als sogenannter Turing-Test des Mathematikers Alan Turing ging 1950 das berühmte Testverfahren in die Geschichte ein, nach dem maschinelle Intelligenz dann vorläge, wenn das Verhalten einer Maschine für menschliche Beobachter nicht von dem eines Menschen unterschieden werden kann [4].
Aber ist dieses wirklich wünschenswert? Aus ethischer und juristischer Sicht stellt sich nämlich die Frage, was allgemein und in dem hier vorliegenden Kontext vor allem mit Blick auf die öffentliche Verwaltung unternommen werden muss, um der Digitalisierung bzw. der voranschreitenden Entwicklung der künstlichen Intelligenz einen Rahmen zu geben, um drohender Entmenschlichung vorzubeugen. Entscheiden nun Maschinen über moralische und rechtliche Fragen? Fördert diese die Vereinzelung des Menschen? So könnte der „Einsatz algorithmisch gestützter Entscheidungshilfen und Prognosen das Leben vieler Menschen, beispielsweise bei der Beurteilung oder Überwachung von Personen im Bereich des Sozial- oder Polizeiwesens“, sehr stark beeinflussen [5].
Der Deutsche Ethikrat vertritt hierzu eine klare Position, die auch hier durch Einnahme eines deontologischen Standpunktes vertreten wird, der nicht zu relativieren ist: „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung.“ [6] Diese Formulierung liest sich wie der „humanistische Imperativ“, wie ihn Ulrich Hemel ebenso formuliert [7]. „Menschliche Intelligenz, Verantwortung und Bewertung“ können nicht ersetzt werden, so der Ethikrat weiter [8].
Der Mensch handelt entsprechend reaktiver Einstellungen und moralischer Gefühle, die von unverrückbaren und auch nicht nur begründbaren moralischen und damit normativen Gründen begleitet sind. Freiheit lässt sich somit nur leben, wenn auch die goldene Regel im kantschen Sinne beachtet wird. Freiheit kann nur mit Verantwortung und menschlicher Vernunftfähigkeit gelebt werden [9].
Hier ließe ich auch der von Ulrich Hemel formulierte „humanistische Imperativ“, der wie aktuell das Thema gerade ist, zeigt auch der vergangene G7-Gipfel, bei dem im Juni 2024 über künstliche Intelligenz diskutiert wurde und bei dem der Papst als eingeladener Gast entschieden vor den Gefahren der KI warnte und forderte, dass diese durch die Politik kontrolliert werden müsse [10]. Dieser Beitrag setzt sich mit genau diesen Standpunkten in der praktischen Anwendung für die öffentliche Verwaltung auseinander, ausgehend von allgemeinen Ausführungen zur Ethik des Digitalen und zu den aktuellsten Ansätzen zur Regulierung der KI, die dann hinführen zu ethischen Erwägungen über die Anwendung künstlicher Intelligenz in der öffentlichen Verwaltung.
Fußnoten
[1] Vgl. Nick-Magin, Stefanie (2021). Recommendations for a sustainable Public Administration: Team-cooperation and Procedural Fairness in times of COV-19 driven Digitization. In: Hemker, Thomas/Müller-Török, Robert/Prosser, Alexander/Scola, Dona/Szádeczky, Tamás/Urs, Nicolae. Central and Eastern European e|Dem and e|Gov Days 2021 (Tagungsband). Wien: Facultas Verlag, S. 387-396., S. 388.
[2] Vgl. Mrass, Volkmar (2023): ChatGPT: Chancen und Herausforderungen für Forschung, Lehre und Hochschulen. In: Dürrschmidt, Jörg und Majer, Christian F. (Hg.): Jahrbuch des Instituts für Angewandte Forschung 2023. Verwaltung und Gesellschaft im Wandel: 50 Jahre Hochschule für öffentliche Verwaltung und Finanzen Ludwigsburg, Bd. 6. Stuttgart: Richard Boorberg Verlag (Ludwigsburger Schriften Öffentliche Verwaltung und Finanzen Band, 6), S. 105–124. S. 105.
[3] Deutscher Ethikrat (Hrsg.) (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Berlin: Deutscher Ethikrat, online abrufbar unter https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf, zuletzt geprüft am 22.05.2024, S. 15.
[4] Vgl. Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, S.12.
[5] Ebd., S.17.
[6] Ebd., S. 17.
[7] Vgl. Ulrich Hemel (2020). Kritik der digitalen Vernunft: Warum Humanität der Maßstab sein muss, Freiburg: Herder Verlag, S. 267 sowie 273f.
[8] Ebd., S. 17.
Die Ethik des Digitalen – eine kurze Einführung
Ein zentraler Grundsatz der Ethik des Digitalen ist die Forderung, dass das Digitale den Menschen nicht überflüssig machen darf [11] . Für den Bildungsbereich schreibt Ulrich Hemel: „Es handelt sich um einen großen gesellschaftlichen Lern- und Suchprozess, der alte Fragen wie die nach der Autonomie der Person oder des ‚Subjekts‘, nach der Rolle des Staates und nach dem Einfluss gesellschaftlicher Mächte wie Digitalkonzernen neu aufgeworfen hat“ [12]. Auch die Gefahren der Datensicherheit werden häufig in den verschiedensten Bereichen durch die verstärkten Digitalisierungstendenzen beklagt, so im Finanzsektor etwa in Bezug auf die Blockchain-Technologie , die zunächst in der Einführungsphase von manchen als Alternative zum klassischen Bankenwesen angesehen worden war [13].
Dabei kann doch eine einfache Faustregel gelten: Sobald neben aller Förderung zur digitalen Selbststeuerung die Grundsätze der Humanität in Gefahr geraten könnten, sollten Rahmenbedingungen formuliert werden, die dafür sorgen, dass deren Grundsätze nicht verletzt werden [14]. „Der Umgang mit der digitalen Welt ist daher niemals ein nur individueller, sondern stets und ständig auch ein kollektiver, politischer und sozialer Lernprozess“, so Hemel weiter [15]. Und aufgrund des sich momentan noch immer stärker beschleunigenden technischen Innovationsprozesses im Digitalen, insbesondere durch die künstliche Intelligenz, der dann auch eine digitale Informations- und Materialflut zur Folge hat, rät er vor allem auch zu einem bewussten Umgang mit dem eigenen „digitalen Nichtwissen“, da für den Einzelnen viele Aspekte des Digitalen gar nicht zu überblicken seien [16].
Hierfür sind nun auch die sich ausbildenden gesellschaftlichen und juristischen Rahmenbedingungen im Sinne einer „digitalen Sozialethik“ mit Fokus auf Verantwortung und Fairness zentral, die die Menschlichkeit aufrecht erhalten und fördern und auf die nun im Folgenden eingegangen werden soll [17].
Fußnoten
[9] Vgl. Ebd., S. 26.
[10] Stuttgarter Zeitung (2024). Papst. Politik muss KI kontrollieren, Ausgabe vom 15.06.2024.
[11] Vgl. Hemel, Kritik der digitalen Vernunft, S. 15.
[12] Hemel, Ulrich (2023). Digitale Bildung, Datenethik und die Zukunft der Zivilgesellschaft. Institut für Sozialstrategie, 07/2023, online verfügbar unter: https://institut-fuer-sozialstrategie.de/2024/01/23/digitalebildung/ , zuletzt geprüft am 12.06.2024., S. 2.
[13] Vgl. Peter Seele/Claus Dierksmeier (2021). Blockchain and Cryptocurrencies, the Relevance for Business Ethics. In: Deborah C. Poff/Alex C. Michalos. Encyclopedia of Business and Professional Ethics, Springer: Cham., S. 3.
[14] Vgl. Hemel, Kritik der digitalen Vernunft, S. 5.
[15] Hemel, Digitale Bildung, Datenethik und die Zukunft der Zivilgesellschaft.
[16] Ebd., S. 6.
Aktuellste Ansätze zur Regulierung der KI
Sucht man nämlich nach anwendbaren Rahmenbedingungen zur Regulierung von Digitalisierung und insbesondere von künstlicher Intelligenz, dann gibt es bereits zahlreiche Bezugsgrößen als Grundlage: Hier ließe sich auf den Ansatz des „Humanistic Managements“ blicken, das sich etwa in den Wirtschaftswissenschaften ausgebildet hat, um die ethischen Lücken der Wirtschaftswissenschaften durch Bezug auf die noch junge Disziplin der Wirtschaftsanthropologie zu schließen [18].
Die drohenden ethischen Lücken der Digitalisierung können auf diese Weise präventiv geschlossen werden, ohne ähnliche Fehler wie die Ökonomen zu machen. Der Mensch ist nämlich nicht allein rational handelnd und braucht klare Normen als Grundlage, was Amartya Sen in der Wirtschaft als „Rational Fools“ kritisiert, würde auch bei der Digitalisierung zum Problem werden [19]. So schreibt Claus Dierksmeier mit Bezug zur Wirtschaft
„Die angebliche Neutralität der Wirtschaftswissenschaften ist eine Illusion. Selbst wenn die Ökonomie vorgibt, grundsätzliche Orientierung geben zu können, muss sie dennoch auch implizite hypothetische Orientierung geben. Ohne diese könnten Ökonomen weder all die Subdisziplinen ihrer Wissenschaft unter einer gemeinsamen Forschungsperspektive vereinen, noch könnten sie irgendwelche greifbaren Empfehlungen formulieren. Die Ökonomie benötigt einen Bezugspunkt, was sie als mikroökonomischen und makroökonomischen Erfolg ansieht. Wenn die ökonomische Vernunft nicht mehr länger darauf abzielt, die qualitative Richtung wirtschaftlicher Zwecke vorzugeben, dann wird die ökonomische Rationalität nur noch darauf abzielen, die Anzahl an möglichen Richtungen ihrer Zwecke zu maximieren.“ [20]
Sucht man nach weiteren Rahmenbedingungen für eine Digitalisierungsethik, dann lässt sich aber noch viel grundsätzlicher denken, ähnlich wie dies auch Claus Dierksmeier in seinen Darstellungen zum Humanistic Management tut [21]. In Bezug auf die Wirtschaftsethik allgemein verweist er auf die Allgemeine Erklärung für Menschenrechte von 1948 durch die Vereinten Nationen. In deren Zentrum steht die Humanität in der Form der Forderung nach der „Anerkennung der angeborenen Würde und der gleichen und unveräußerlichen Rechte aller Mitglieder der Gemeinschaft der Menschen“ als „Grundlage von Freiheit, Gerechtigkeit und Frieden“ sowie beim „Internationalen Pakt über bürgerliche und politische Rechte“, der 1976 durch die Generalversammlung der Vereinten Nationen als Grundlage für das internationale Menschenrechtssystem beschlossen wurde [22].
Auch das Weltethos Projekt des Theologen Hans Küng an der Universität Tübingen kann als Ausgangspunkt dienen [23]. Das Projekt zeigt, dass sich diese zentralen Werte, die sich durch die Allgemeine Erklärung der Menschenrechte ausdrücken, mit einem Wertesystem überschneiden, das aus „allen spirituellen und säkularen Traditionen der Menschheit“ mit der Goldenen Regel im Zentrum hergeleitet werden und damit als wahrhaft globale Ethik angesehen werden kann.
Die Weltethos Erklärung, die 1993 in Chicago durch das „Parlament der Weltreligionen“ formuliert wurde, unterliegt zweierlei grundlegenden Prinzipien: „Keine neue Weltordnung ohne ein Weltethos“ sowie „Jeder Mensch muss menschlich behandelt werden“ [24]. Zudem formuliert sie fünf Grundsätze für das Miteinander in einer Weltgesellschaft:
1. „Verpflichtung auf eine Kultur der Gewaltlosigkeit und der Ehrfurcht vor allem Leben“
2. „Verpflichtung auf eine Kultur der Solidarität und eine gerechte Wirtschaftsordnung“
3. „Verpflichtung auf eine Kultur der Toleranz und ein Leben in Wahrhaftigkeit“
4. „Verpflichtung auf eine Kultur der Gleichberechtigung und die Partnerschaft von Mann und Frau“
5. „Verpflichtung auf eine Kultur der Nachhaltigkeit und der Sorge für die Erde“ [25].
Für die Wirtschaft wurde im Jahr der großen Finanzkrise 2009 auf Basis der Weltethos-Erklärung das Globale Wirtschaftsethos formuliert und in einer Veranstaltung mit dem UN Global Compact präsentiert. In der Präambel heißt es:
„Die Globalisierung des wirtschaftlichen Handelns wird nur dann zum allgemeinen und nachhaltigen Wohlstand und Vorteil aller Völker und ihrer Volkswirtschaften führen, wenn sie auf die beständige Kooperationsbereitschaft und werteorientierte Kooperationsfähigkeit aller Beteiligten und Betroffenen bauen kann. Das ist eine der grundlegenden Lehren der weltweiten Krise der Finanz- und Gütermärkte.“ [26]
Humanität steht also auch im Zentrum des Manifests, das die Grundsätze der Weltethos Erklärung auf die Wirtschaft überträgt. Da ist es dann kein weit entfernter Gedanke, dieses Vorgehen auch bei Digitalisierungsthemen und bei der künstlichen Intelligenz anzuwenden [27].
Eine Antwort bietet bereits in kleinerer Form das am Weltethos Institut formulierte praxisnahe „Berufsethos KI“, das sich aufgrund dieses Ansatzes an alle mit KI-Arbeitenden – vor allem Studierende und junge Hochschulabsolventen, richtet: „Wir sind Menschen, keine Maschinen“, „Menschlichkeit ist der Maßstab digitaler Entwicklung“, „Dein persönliches Handeln hat eine ethische Dimension“, „Kultiviere ein Gefühl für Verantwortung“, „Nichtwissen ist ein Grenze, aber auch eine Ressource“, „Nicht alles, was möglich ist, ist auch nützlich“, „Investiere in ethische Sprach- und Handlungsfähigkeit“, „Wir alle sind Ambassadors für Menschenrechte“, „Wir alle können aktiv einstehen für digitale Rechte“ sowie „Dialog ist entscheidend.“ [28]
Als besonders wichtig sollte die Stellungnahme zur künstlichen Intelligenz des Deutschen Ethikrates vom März 2023 angesehen werden: Er formuliert eine zentrale Schlüsselfrage für die ethische Bewertung beim Arbeiten mit KI: „Werden menschliche Autorschaft und die Bedingungen für verantwortliches Handeln durch den Einsatz von KI erweitert oder vermindert?“ [29]. Auch hier steht somit die Menschlichkeit im Zentrum. Der Ethikrat beschäftigt sich in seiner Stellungnahme damit, dass KI nur „zur Entscheidungsunterstützung und nicht zur Entscheidungsersetzung“ verwendet werden darf [30]. Er fordert, dass „die Diffusion von Verantwortung“ verhindert werden muss, dass menschliche Kontrolloptionen nicht beeinträchtigt werden dürfen und dass „der Zugang zu den Entscheidungsgrundlagen insbesondere in Bereichen mit hoher Eingriffstiefe“ gewährleistet ist [31].
Des Weiteren warnt er davor, dass es „Verzerrungen, Abhängigkeiten und Missbrauch von Technik“ sowie zu unerwünschten Verlusten menschlicher Fertigkeiten kommen könnte, wenn dem nicht begegnet wird [32]. Über „alle Anwendungsbereiche“ hinweg gelte es, „die Interessen der Menschen, von denen die in KI-Anwendungen verwendeten Daten stammen, in den Mittelpunkt zu stellen, übermäßige Eingriffe in die Privatsphäre mithilfe effektiver rechtlicher und technischer Vorkehrungen zu verhindern und gleichzeitig eine gemeinwohlorientierte Datennutzung zu ermöglichen“ [33].
Und schließlich stellt der Ethikrat die „Handlungsurheberschaft bzw. die Autorschaft“ des Menschen in den Mittelpunkt, der Handlungsbegriff als Grundlage von Autonomie muss beim Menschen bleiben [34].
Auf politischer Ebene hat sich beim Thema Regulierung der KI Vieles in den vergangenen Monaten sehr konkret weiterentwickelt. Während im Frühjahr 2023 noch sehr intensiv nach Lösungsansätzen gesucht wurde – Auslöser war der Markteitritt von ChatGPT – brachten die darauffolgenden Monate auch auf Ebene der Gesetzgebung mehr Stabilität [35]. Im Oktober 2023 erließ der amerikanische Präsident Joe Biden ein Dekret zur sicheren Entwicklung und Anwendung von künstlicher Intelligenz [36].
In der Gesetzesbegründung heißt es: Künstliche Intelligenz trägt sowohl außergewöhnliches Potential als auch Gefahren in sich. KI kann zu mehr Produktivität, Innovation und Sicherheit führen, auf der anderen Seite kann die verantwortungslose Nutzung von KI zu Betrug, Diskriminierung und Desinformation führen, Arbeitslosigkeit und Machtlosigkeit von Angestellten erzeugen, Wettbewerb erdrücken sowie eine Gefahr für die innere Sicherheit darstellen [37].
Deshalb müssen nun die Behörden in den USA die KI-Gesetzgebung gegenüber der Industrie, der Wissenschaft, der Zivilgesellschaft, den Gewerkschaften sowie nach außen hin den internationalen Partnern und anderen relevanten Organisationen nach folgenden Prinzipien vertreten [38]. Diese lauten:
1.Künstliche Intelligenz muss ungefährlich und sicher sein („safe and secure“).
2.Die Förderung von verantwortungsvoller Innovation, von Wettbewerb und Kooperation wird es den USA ermöglichen, beim Thema KI voranzugehen, das technologische Potential zu erschließen, um einige der größten gesellschaftlichen Probleme zu lösen.
3.Die verantwortungsvolle Entwicklung und die Nutzung von künstlicher Intelligenz erfordern eine Verpflichtung, die amerikanischen Angestellten zu unterstützen.
4.Die Prinzipien der künstlichen Intelligenz müssen einhergehen mit der Verpflichtung der Regierung nach sozialer Gerechtigkeit und den Bürgerrechten.
5.Die Interessen der Amerikaner, die zunehmen KI nutzen, mit dieser interagieren, diese erwerben bzw. Produkte verwenden, in denen KI im täglichen Leben Anwendung findet, müssen geschützt werden.
6.Die Datenschutzgesetzgebung und die bürgerlichen Freiheiten der Amerikaner müssen gegenüber der sich immer weiter entwickelnden KI geschützt werden.
7.Es ist wichtig, auch die Risiken innerhalb der amerikanischen Regierung bei der Nutzung von KI einzudämmen und intern die Fähigkeiten zu fördern, diese zu regulieren, zu regieren und die verantwortungsvolle Nutzung von künstlicher Intelligenz für die Amerikaner umzusetzen.
8.Die Regierung sollte den Weg zu globalem gesellschaftlichem, ökonomischem und technologischem Fortschritt gestalten, wie die Vereinigten Staaten dies bei früheren disruptiven Innovationen und Veränderungen getan haben.
[39]
Auf europäischer Ebene wiederum wurde im Mai 2024 nach mehrjährigem Vorlauf – die Initiative durch die EU-Kommission war bereits 2021 auf den Weg gebracht worden – eine umfangreiche KI-Verordnung („AI Act“) verabschiedet, mit dem Anspruch, das weltweit erste Gesetz dieser Art formuliert zu haben, das auch „einen globalen Standard setzen“ könne [40].
Nach dem Abschluss des Gesetzgebungsverfahrens wurde das KI-Gesetz im Mai 2024 endgültig von den EU-Mitgliedsstaaten beschlossen [41]. Das Gesetz beinhaltet schärfere Regeln für KI-Anwendungen, die bis zum Verbot führen können [42]. In der Gesetzesbegründung der EU-Verordnung heißt es:
„Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen künstlicher Intelligenz (KI-Systeme) in der Union im Einklang mit den Werten der Union festgelegt wird, um die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz (KI) zu fördern und gleichzeitig ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und der in der Charta der Grundrechte der Europäischen Union („Charta“) verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz, sicherzustellen, den Schutz vor schädlichen Auswirkungen von KI-Systemen in der Union zu gewährleisten und gleichzeitig die Innovation zu unterstützen [43].“
Ein Kerngedanke der Verordnung ist der Gedanke, dass KI-Systeme von Menschen überwacht werden und nicht nur von anderen Technologien [44].
Es zeigt sich somit auch auf der EU-Ebene der Bezug zur Menschenwürde und zu den Grundrechten des Menschen als klare Orientierung bei Fragen der künstlichen Intelligenz und so liegt es nach der Darstellung verschiedener Ansätze zur Regulierung der KI, zu formulieren, dass es allen Ansätzen gemeinsam ist, die Menschlichkeit immer als Richtschnur zur Entscheidungsfindung in den Mittelpunkt zu stellen.
In der EU-Verordnung werden „harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI-Systemen in der Union“; „Verbote bestimmter Praktiken im KI-Bereich“; „besondere Anforderungen an Hochrisiko-KI-Systeme und Pflichten für Akteure in Bezug auf solche Systeme“; „harmonisierte Transparenzvorschriften für bestimmte KI-Systeme“; „harmonisierte Vorschriften für das Inverkehrbringen von KI-Modellen mit allgemeinem Verwendungszweck“; „Vorschriften für die Marktbeobachtung sowie die Governance und Durchsetzung der Marktüberwachung“ sowie schließlich „Maßnahmen zur Innovationsförderung mit besonderem Augenmerk auf KMU,
einschließlich Start-up-Unternehmen“ festgelegt [45].
Das Gesetz verbietet etwa das ‚Social Scoring‘, also die Punktevergabe zu wünschenswertem Verhalten, wie es in China praktiziert wird und die „Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen“ [46].
Auch die Nutzung von KI soll innerhalb der EU sicherer werden. Zudem hat es zum Ziel, KI-Systeme so zu kontrollieren, dass diese „möglichst transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich“ sind [47]. Das Gesetz unterscheidet zudem zwischen KI-Systemen „mit allgemeinem Verwendungszweck und beträchtlichen Auswirkungen, die zukünftig systemische Risiken verursachen können, sowie für Hochrisiko-KI-Systeme“, die auch unterschiedlich streng kontrolliert werden müssen [48]. Auch müssen die Betreiber von Hochrisiko-KI-Systemen vor der Inbetriebnahme „eine Folgenabschätzung in Bezug auf die Grundrechte“ durchführen [49].
Eine Verletzung dieser gesetzlichen Vorgaben wird mit erheblichen Geldstrafen für Unternehmen verbunden sein [50]. Schließlich beinhaltet das Gesetz für seine Umsetzung auch die Einführung eines Amtes für künstliche Intelligenz auf EU-Ebene [51].
Fußnoten
[17] Ebd., S. 6.
[18] Vgl. Dierksmeier, Claus/Ulrich Hemel/Jürgen Manemann (Hrsg.) (2015). Wirtschaftsanthropologie. Baden-Baden: Nomos.
[19] Vgl. Stefanie Nick-Magin (2023). Kooperation lohnt sich: Einführung in einen Grundgedanken der Wirtschaftsanthropologie. Journal of Social Strategy (JSS), 4(4), S. 5-120., S. 44 und S. 6, sowie vgl. Amartya Sen (1977). Rational Fools: A Critique of the Behavioral Foundations of Economic Theory, in: Philosophy & Public Affairs , Summer, 1977, Vol. 6, No. 4 (Summer, 1977), S. 317-344.
[20] Claus Dierksmeier (2016). What is ‘Humanistic’ About Humanistic Management?. In: Humanistic Management Journal, Band 1, Nr. 1, 2016, S. 9–32., S. 20.
[21] Vgl. Ebd., S. 20.
[22] Dierksmeier, What is ‘Humanistic’ About Humanistic Management?, S. 25 sowie Nick-Magin, Kooperation lohnt sich, S. 47.
[23] Vereinte Nationen (1948). Resolution der Generalversammlung. 217 A (III). Allgemeine Erklärung der Menschenrechte, online verfügbar unter: https://www.un.org/depts/german/menschenrechte/aemr.pdf, zuletzt geprüft am: 09.05.2023 sowie Vereinte Nationen (1966). International Covenant on Civil and Political Rights Adopted and opened for signature, ratification and accession by General Assembly resolution 2200A (XXI) of 16 December 1966, entry into force 23 March 1976, in accordance with Article 49, https://www.ohchr.org/sites/default/files/ccpr.pdf, (zuletzt geprüft am: 12.06.2024); – Die Goldene Regel im Christentum: „Alles, was Ihr wollt, das Euch die Menschen tun, das tut auch ihr ihnen ebenso“ sowie bei Immanuel Kant in Form des kategorischen Imperativs: „Handle so, dass die Maxime Deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten“.
[24] Hans Küng (1990). Projekt Weltethos. München: Piper-Verlag, S. 84 sowie vgl. Dierksmeier, S. 25.
[25] Stiftung Weltethos (2018). Erklärung zum Weltethos. Parlament der Weltreligionen September 1993/Juli 2018, Chicago, U.S.A., https://www.weltethos.org/wp-content/uploads/2022/10/weltethos-erklaerung- 2018.pdf, online verfügbar unter: 13.06.24 sowie vgl. Ulrich Hemel (Hrsg.) (2019.), Weltethos für das 21. Jahrhundert, Freiburg/Br..
[26] Stiftung Weltethos (Hrsg.) (2017). Globales Wirtschaftsethos. Konsequenzen für die Weltwirtschaft. Tübingen: Stiftung Weltethos sowie Link zu den Erstunterzeichnern: Global Ethic Foundation Tuebingen/Stiftung Weltethos Tübingen (2009). First Signatories of the Manifesto, online verfügbar unter: https://www.globaleconomicethic.org/03_01a-signatories.php, zuletzt geprüft am 13.06.24.
[27] Vgl. Nick-Magin, Kooperation lohnt sich, S. 48.
[28] Weltethos Institut (2023). Berufsethos KI. Leitlinien für Selbst- und Weltverantwortung, online verfügbar unter: https://weltethos-institut.org/wp-content/uploads/2023/10/Berufsethos-KI-26-10-23.pdf, zuletzt geprüft am 14.06.2024.
[29] Deutscher Ethikrat (Hrsg.) (2023). Pressemitteilung 02/2023 vom 20.03.2023 – Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern, online abrufbar unter https://www.ethikrat.org/mitteilungen/mitteilungen/2023/ethikrat-kuenstliche-intelligenz-darf-menschliche-entfaltung-nicht-vermindern/?cookieLevel=not-set, zuletzt geprüft am 22.03.2024.
[30] Ebd.
[31] Deutscher Ethikrat.
[32] Deutscher Ethikrat.
[33] Deutscher Ethikrat.
[34] Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, S. 23.
[35] Vgl. Nils Dampz, Nils (2023). Nutzung von KI. Ringen um die richtigen Regeln, tagesschau.de vom 13.04.2024, online verfügbar unter https://www.tagesschau.de/ausland/amerika/ki-regulierung-101.html, zuletzt geprüft am 24.05.2024.
[36] Vgl. Federal Register (2023). Vol. 88, No. 210, Wednesday, November 1, 2023, Presidential Documents, Executive Order 14110 of October 30, 2023 – „Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”.
[37] Federal Register, S. 75191.
[38] Federal Register, S. 75191.
[39] Federal Register, S. 75193ff.
[40] eGovernment (Hrsg.) (2024). Globaler Standard für Regulierung – KI-Gesetz der EU endgültig beschlossen, 21.05.2023, online verfügbar unter https://www.egovernment.de/ki-gesetz-der-eu-endgueltig-beschlossen-a-0f1904c279e849aeef11d8ff1cf50121/?cmp=nl-127&uuid=55acfc02e80f7b378ab04a508d0cc16e, zuletzt geprüft am 23.05.2024 .
[41] Tagesschau.de (2024). Einigung der EU-Staaten. KI-Gesetz ist endgültig beschlossen, tagesschau.de vom 21.05.2024, online verfügbar unter https://www.tagesschau.de/ausland/europa/ki-gesetz-eu-102.html, zuletzt geprüft am 24.05.2024 sowie vgl. Europäisches Parlament (2024). Berichtigung des in erster Lesung am 13. März 2024 festgelegten Standpunkts des Europäischen Parlaments im Hinblick auf den Erlass der Verordnung (EU) 2024/ …… des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)
[42] eGovernment, Globaler Standard für Regulierung – KI-Gesetz der EU endgültig beschlossen.
[43]Europäisches Parlament (2024). Berichtigung des in erster Lesung am 13. März 2024 festgelegten Standpunkts des Europäischen Parlaments im Hinblick auf den Erlass der Verordnung (EU) 2024/ …… des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, S. 3.
[44]eGovernment, Globaler Standard für Regulierung – KI-Gesetz der EU endgültig beschlossen.
[45] Europäisches Parlament (2024). Berichtigung des in erster Lesung am 13. März 2024 festgelegten Standpunkts des Europäischen Parlaments im Hinblick auf den Erlass der Verordnung (EU) 2024/ …… des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, S. 160f.
[46] eGovernment, Globaler Standard für Regulierung – KI-Gesetz der EU endgültig beschlossen.
[47] Vgl. Ebd. sowie Tagesschau.de, Einigung der EU-Staaten. KI-Gesetz ist endgültig beschlossen.
Was bedeutet dies somit mittelfristig für die Verwaltungspraxis?
Betrachtet man nun die Verwaltung und ihre Interdependenz mit künstlicher Intelligenz, dann ist offensichtlich, dass deren Stärke – also die Bürokratie im Weberschen Sinne –
plötzlich zu einem großem Risikofaktor werden könnte. Als Grundlage eines funktionierenden Gemeinwesens in einem demokratischen Rechtsstaat, der auf Verlässlichkeit und Routinen basiert, könnte die Bürokratie bei einem zu viel an Digitalisierung und insbesondere an „Computerisierung“ die Gefahr von Entmenschlichung mit sich bringen.
Deshalb sind gerade obige allgemeine Erörterungen besonders wichtig. Der Grundsatz der Menschlichkeit hat an erster Stelle zu stehen mit den Grund- und Menschenrechten als einem unverrückbaren Standard. Die rechtlichen Grundlagen, die nun in den USA und auf EU-Ebene geschaffen wurden, bieten eine sehr gute und bereits weit ausgearbeitete Grundlage zur Orientierung, die es auch ermöglicht, mit der Geschwindigkeit der technologischen Entwicklungen Schritt zu halten.
Wichtig ist hierbei auch, dass sich die Gesetzgebung in den USA und der EU sehr deckt, was eine künftige Harmonisierung sicher erleichtern wird. Auch die ethischen Standards des Weltethos-Projektes bieten eine praxistaugliche Orientierung. Und besonders hilfreich erscheinen die Empfehlungen des Ethikrates zum Umgang mit künstlicher Intelligenz in Behörden. Diese sollen an dieser Stelle zusammengefasst werden:
Er rät den Behörden zu „Ansätzen, die vor Diskriminierungen schützen und dem blinden Befolgen maschineller Empfehlungen vorbeugen“ und dass Einzelfälle weiterhin kompetent bearbeitet werden können [52]. Für die Gefahrenabwehr betont er die Notwendigkeit von „gesellschaftlichen Aushandlungsprozessen über ein angemessenes Verhältnis zwischen Risiken und Chancen“ der künstlichen Intelligenz [53].
Ein Prozess, der auf Grundlage der Gesetzgebung sicher auch nie in der öffentlichen Diskussion aufhören darf, ähnlich wie bei anderen ethischen Fragen. Ganz konkret empfiehlt der Ethikrat, dass die mit „automatisierten Entscheidungshilfen (ADM-Systeme) einhergehende verstärkte Standardisierung und pauschale Kategorisierung von Einzelfällen“ mit dem Maß der hinzugezogenen Anwendung von KI umso stärker reflektiert werden und „um spezifisch einzelfallbezogene Erwägungen ergänzt werden“ muss, „je intensiver die betroffene Entscheidung individuelle Rechtspositionen berührt“ [54].
Er warnt zudem vor einem ‚Automation Bias‘, dem durch „technische und organisatorische Instrumente“ begegnet werden kann, die es Verwaltungsmitarbeitenden erschweren, „selbst bei einer Letztentscheidungskompetenz der algorithmischen Entscheidungsempfehlung unbesehen zu folgen“.
Dies könnte mit der Umkehrung einer Begründungspflicht einhergehen, das heißt, wer der Entscheidung der KI folgt, muss dies begründen, nicht umgekehrt. Mit Bezug auf die Grundrechtsbindung der Behörden empfiehlt er durch „Transparenz und Nachvollziehbarkeit“, den Schutz vor Diskriminierung und Begründungspflichten zu gewährleisten. Dies bedeutet auch, dass die Softwaresysteme besonderen Qualitätskriterien unterliegen müssen [55]. Hier hilft auch das oben beschriebene KI-Gesetz der EU, wenn dieses KI-Anwendungen in den Hochrisikobereich einstuft. Dadurch sollte die Verpflichtung zur Sorgfalt automatisch gegeben sein, was auch eine Reform des Beschaffungswesens bedeuten könnte.
Auch fordert der Ethikrat für den Umgang mit algorithmischen Systemen besonders kompetente Personen einzusetzen, die nicht nur über die „Kenntnis der Verwendungsweisen, sondern auch über das Wissen um die Limitationen und mögliche Verzerrungen“ verfügen, „um Systeme angemessen einsetzen zu können“. Auch die „Einsichts- und Einspruchsrechte Betroffener müssen“ bei der Anwendung von KI gewährleistet bleiben. Besonders wichtig erscheint auch die Forderung nach einem öffentlichen gesellschaftlichen Diskurs über die möglichen Gefahren der künstlichen Intelligenz mit der Frage, „ob es in bestimmten Kontexten überhaupt einer technischen Lösung bedarf“. Für das Sozialwesen betont er, dass automatisierte Entscheidungshilfen, die elementaren fachliche Standards „von sozialprofessionellen Interaktionen“ „nicht unterlaufen oder verdrängen“ darf, vor allem bei Maßnahmen, die mögliche „Vergröberungen individueller Fallkonstellationen“ durch KI verhindern.
Die „Feststellung individueller Hilfebedarfe“ darf nicht erschwert werden und es darf nicht zur schleichenden „Aushöhlung der sozialrechtlich gebotenen Identifizierung individueller Hilfebedarfe“ kommen, um äußeren Einzelinteressen oder Kostenersparnis zu dienen. Schließlich empfiehlt der Ethikrat den Gefahrenabwehrbehörden mit besonderer Grundrechtsrelevanz vor dem Hintergrund eines gesellschaftlichen Diskurses bei der prädiktiven Polizeiarbeit, „Risiken wie Verletzungen der Privatsphäre oder potenziell unzulässige Diskriminierungen der von dem Einsatz betroffenen Personen“ mit den „Chancen auf erhebliche Verbesserungen der staatlichen Gefahrenabwehr“ sorgfältig abzuwägen und „in ein angemessenes Verhältnis“ zu bringen [56].
Letztendlich geht es auch darum, bei KI-Anwendungen mehr Licht in die „Black Box“ zu bringen. Es gilt, bereits beim „Input“, beispielsweise den Daten, auf deren Basis KI arbeitet, auf potenzielle Risiken zu achten (und nicht nur am Ende beim Ergebnis). Die Bürger erwarten zu Recht insbesondere von öffentlichen Verwaltungen in diesem Kontext besondere Sorgfalt. Verwaltungen müssen auf der einen Seite die Potenziale von KI identifizieren und nutzen und gleichzeitig deren Risiken im Bereich Bias/Voreingenommenheit, Datenschutz, Diskriminierung, Urheberrecht oder Vertraulichkeit „auf dem Schirm“ haben. Es gilt auch hier: „A fool with a tool is still a fool“, ein blindes Vertrauen auf Künstliche Intelligenz darf es gerade für öffentliche Verwaltungen nicht geben.
KI darf unterstützen, die letztendliche Entscheidung und Verantwortung muss aber immer bei Menschen liegen. Gleichzeitig muss stärker ins Bewusstsein gerückt werden, dass KI auch „Fehler“ machen und „genial daneben“ liegen kann, die inzwischen berühmten „ChatGPT-Halluzinationen“ sind hierfür nur ein Beispiel. Ein möglicher Weg, potenzielle aus KI-Anwendungen resultierende Risiken zu vermindern ist der Einsatz eigener KI-Systeme wie beispielsweise die Anwendung „F 13“ des Landes Baden-Württemberg. Dabei handelt es sich um eine vom Innovationslabor Baden-Württemberg (InnoLab_bw) im Staatsministerium gemeinsam mit dem Heidelberger Start-up Alex Alpha entwickelte Textassistenz für Verwaltungsmitarbeiter. Dieser Prototyp basiert auf Künstlicher Intelligenz und soll die Mitarbeiter der Landesverwaltung insbesondere bei ihrer täglichen Arbeit mit Texten entlasten. In einem ersten Schritt sind vier Funktionen vorgesehen [57]:
1. Fließtextgenerierung: Mittels dieser Anwendung ist geplant, hochgeladene Dokumente und Texte (wie Notizen, Vermerke oder Studien) zusammenzuführen und daraus einen ganzheitlichen Fließtext zu erstellen; Textlänge, Fragestellung und thematischer Fokus sollen dabei individuell eingestellt werden können. Ein möglicher Auftrag an „F13“ könnte beispielsweise wie folgt lauten: „Bitte führe den Sachstand der Analyse zum Thema Verkehrswende zusammen.“
2. Kabinettsvorlage-Vermerk: Mittels dieser Funktion können Kabinettsvorlagen direkt als Word-Dokument hochgeladen und in einen Kabinettsvorlage-Vermerk überführt werden. Inhalt und Sachstand der Kabinettsvorlage werden zusammengefasst und in eine Vermerks-Vorlage übertragen, die zur weiteren Bearbeitung heruntergeladen werden kann.
3. Rechercheassistenz: Damit können Nutzer bei der Aufbereitung großer Mengen an Informationen zu verschiedenen Fragestellungen unterstützt werden. Es besteht die Möglichkeit, F 13 Fragen zu einem hochgeladenen Dokument oder der Wissensdatenbank zu stellen und konkrete Antworten zu erhalten. Im Anschluss daran können diese anhand der angegebenen Quellen validiert und vertieft werden. Beispiel für eine mögliche Fragestellung: „Welche Maßnahmen ergreift die baden-württembergische Landesregierung zur Förderung des Fahrradverkehrs?“ Indem die Wissensdatenbank Informationsquellen bündelt, die für die Arbeit der öffentlichen Verwaltung besonders relevant sind – beispielsweise Drucksachen oder Plenarprotokolle – soll eine deutliche Zeitersparnis bei Recherchetätigkeiten erzielt werden.
4. Zusammenfassungsfunktion: Diese können Mitarbeiter der Landesverwaltung nutzen, um Texte einzufügen und zusammengefasst zu bekommen. Dabei kann zwischen unterschiedlichen Komprimierungsstufen gewählt werden. Der Text wird dann innerhalb von Sekunden verarbeitet und eine zusammengefasste Version wird zum Kopieren oder Download bereitgestellt [58].
Da die direkte Einbindung von Nutzern für die Entwicklung der Funktionen von „F13“ zentral war, wurde schon in einer frühen Entwicklungsphase ein ressortübergreifender Kreis von Testern in die Feedbackschleifen einbezogen. In einem nächsten Schritt konnten diese Anwendung „F 13“ ab Mai 2023 alle Mitarbeiter mit Zugriff auf das baden-württembergische Landesverwaltungsnetz nutzen [59]. Es bleibt allerdings abzuwarten, wie sich diese Anwendung entwickelt und insbesondere, ob sich solche proprietären Lösungen langfristig gegen die leistungsfähigen und „mächtigen“ Tools US-amerikanischer Anbieter wie ChatGPT von OpenAI auf Dauer auch werden behaupten können.
Letztlich gilt auch für die Digitalisierung der Verwaltung – ob basierend auf KI oder anderen Anwendungen: neben dem wichtigen Aspekt der ethischen Nutzung sind auch Faktoren wie die Bedienerfreundlichkeit und der wahrgenommene Nutzen entscheidend für die Akzeptanz und damit auch den Erfolg einer IT-Anwendung im öffentlichen Dienst. Die wegweisenden Schlussfolgerungen von Venkatesh et al. von Anfang diesen Jahrtausends zur Nutzerakzeptanz von IT haben immer noch Gültigkeit: gemäß deren „United Theory of Acceptance and Use of Technology (UTAUT)“ („Vereinte Theorie der Akzeptanz und Nutzung von Technologie“) gibt es vier Kern-Determinanten von Intention und Nutzungsverhalten [60]:
1.Die Leistungserwartung („Performance Expectancy“): Damit ist das Ausmaß in welchem ein Individuum daran glaubt, dass die Nutzung eines Systems ihm oder ihr hilft, Vorteile für seine Leistung bei seiner Arbeit zu erzielen, gemeint.
2.Die Aufwandserwartung („Effort Expectancy“): Damit ist die Erwartungshaltung bezogen auf Leichtigkeit oder Schwere der Nutzung eines Systems gemeint.
3.Sozialer Einfluss („Social Influence“): Dieser ist definiert als der Grad, zu welchem ein Individuum den Eindruck hat, das bedeutende Andere der Auffassung sind, er oder sie solle das neue System nutzen.
4.Erleichternde Bedingungen („Facilitating Conditions“): Damit ist der Grad des Glaubens eines Individuums daran gemeint, dass eine organisationale und technische Infrastruktur existiert, welche die Nutzung des Systems unterstützt.
Des Weiteren postulieren Venkatesh et al. (2003) vier bedeutende Moderatoren, welche unter anderem die obigen Determinanten beeinflussen: Alter, Erfahrung, Geschlecht und die Freiwilligkeit der Nutzung [61].
Darauf basierend lassen sich allgemein für Verwaltungen (auch) in Deutschland – immer unter Beachtung der Besonderheiten, der Organisationskultur und der prägenden Rahmenbedingungen der jeweiligen Institution – folgende Schlüsse ziehen: Bei der Einführung von neuen IT-Anwendungen in der Verwaltung – sei es ein Dokumentenmanagementsystem wie Enaio, ein Enterprise Resource Planning (ERP)-System wie diejenigen von SAP oder eine auf KI-basierende ChatBot-Lösung – muss den jeweiligen Verwaltungsmitarbeitern als allererstes zunächst deutlich und glaubhaft aufgezeigt werden, dass sich dadurch für sie klare Vorteile bei ihrer Arbeit ergeben. Solche Vorteile können beispielsweise darin liegen, dass Arbeit leichter oder schneller durchgeführt werden kann. Wenn ein Dokumentenmanagementsystem wie Enaio die Ablage und das Handling von Dokumenten wesentlich vereinfacht, dann kann sich die „Anfangsinvestition“, welche erforderlich ist, um sich mit einem neuen IT-System vertraut zu machen, schon bald „lohnen“. Gleiches gilt, wenn ein auf KI-basierender ChatBot wie ChatGPT von OpenAI dabei hilft, Texte, für welche keine Mustervorlagen vorhanden sind, in deutlich kürzerer Zeit und vielleicht sogar in besserem Sprachstil zu formulieren. Wenn also Vorteile für die eigene Arbeit glaubhaft vermittelt werden, dann ist ein erster wichtiger Punkt dafür erfüllt, die Wahrscheinlichkeit der Intention, ein System nutzen zu wollen, zu erhöhen. Insbesondere da in öffentlichen Verwaltungen (aber nicht nur dort) viele Menschen mit einem (gesunden) Maß an Skepsis gegenüber IT arbeiten, ist dieser Punkt für den Erfolg von IT zentral.
Der zweite wichtige Punkt ist einer, den Verwaltungsmitarbeiterinnen und -Mitarbeiter aus ihrem Privatleben bereits in den letzten gut eineinhalb Jahrzehnten „live“ erleben und auf IT-Anwendungen in Verwaltungen übertragen konnten: spätestens seit der Einführung des iPhone im Jahr 2007 (und später vieler anderer Smartphones) ist sehr deutlich geworden, welche Bedeutung Benutzerfreundlichkeit und leichte Bedienung von IT-Anwendungen haben (können). Es gilt also auch für öffentliche Verwaltungen, IT-Systeme so zu gestalten, dass sie einfach und intuitiv bedienbar sind. Dass daraus im Durchschnitt eine häufigere Nutzung [62] (und damit ein höherer Erfolg – Stichwort „Nutzen durch Nutzung“) resultieren dürfte, bedarf keiner größeren Erläuterung.
Der soziale Einfluss als dritte wichtige Determinante kann in Verwaltungen dadurch gut genutzt werden, dass sowohl auf Führungs- als auch auf Mitarbeiterebene entsprechende Signale erfolgen: Führungskräfte wie beispielsweise Amts- oder Referatsleiter müssen als Vorbilder fungieren und selbst bei der Einführung von neuen IT-Systemen in Sachen Nutzung vorangehen. Eine Führungskraft, welche durch ihr Verhalten direkt oder indirekt zu erkennen gibt, dass sie der Nutzung einer bestimmten IT-Anwendung keine große Bedeutung beimisst, dürfte bei den Mitarbeitern im Zweifel den Eindruck hinterlassen, dass dieses keine hohe Priorität hat, nicht wichtig ist. Da Führungskräfte aber naturgemäß nicht permanent bei ihren Mitarbeitern präsent sein können, sollten auch Kolleginnen und Kollegen als wichtige „Botschafter“ oder Multiplikatoren für die Relevanz der Nutzung von IT-Systemen in einer Verwaltung eingesetzt werden. Dieses kann ebenfalls sehr wirkungsvoll sein.
Und last but not least gilt es als vierten Punkt auch in öffentlichen Verwaltungen dafür zu sorgen, dass die organisationale und technische Infrastruktur, also wichtige Rahmenbedingungen, stimmen. Soll eine neue Software zum Einsatz kommen, welche eine hohe Rechenleistung und moderne PCs erfordert, dann kann veraltete Hardware einen starken Hemmschuh für deren Akzeptanz und Nutzung darstellen. Dies ist ein Punkt, der bei Verwaltungen besonders kritisch ist, da dort vielfach noch recht veraltete Systeme im Einsatz sind und oft aus Know-how- oder Kostengründen auch in Zukunft im Einsatz sein werden. Hier gilt es, dafür zu sorgen, dass wenigstens Schlüsselpersonen adäquat ausgestattet sind.
Letztlich gilt es auch in Verwaltungen, die Kern-Elemente des Work System Frameworks (Arbeitssystemtheorie) von Alter (2013) [63] bei der Anwendung und Implementierung von IT-Lösungen (ob KI-basiert oder nicht) im Blick zu haben: sowohl die Teilnehmer (hier insbesondere die Verwaltungsmitarbeiter) als auch Information (hier beispielsweise rechtliche Kenntnisse zu einzelnen Sachgebieten) und Technologien (hier beispielsweise DMS-Software) als auch die Prozesse und Aktivitäten (hier beispielsweise die Ausstellung eines neuen Personalausweises). Wenn diese Punkte in Verwaltungen genügend Beachtung finden, dann ist nicht nur wahrscheinlicher, dass die Digitalisierung der deutschen Verwaltung erfolgreich voranschreitet, sondern auch wahrscheinlicher, dass sie ethischen und moralischen Ansprüchen im Kontext von IT (ob KI oder andere Anwendungen) genügt.
„Es gibt nichts Praktischeres als eine gute Theorie“ – dieser bekannte Spruch von Kurt Lewin (1945) [64] zeigt auf, dass diese beiden „Sphären“ keinen Widerspruch darstellen müssen. Und oftmals Theorien (wie beispielsweise die beiden oben dargestellten von Venkatesh et al. und Alter) später erheblichen Einfluss auf die Praxis in Organisationen haben können. Bezogen auf die Digitalisierung der Verwaltung in Deutschland bedeutet dieses, das in Theorien übermittelte Wissen für einen effektiven u n d effizienten Einsatz im Bereich Digitalisierung und IT zu nutzen. Und dabei gleichzeitig, insbesondere bezogen auf den künftigen Einsatz von Künstlicher Intelligenz, ethische Aspekte entsprechend gleichwertig zu berücksichtigen.
Abschließend lässt sich noch einmal festhalten, dass die Vertreter der öffentlichen Verwaltung – wie wohl die meisten gesellschaftlichen Akteure – prinzipiell durch die oben dargestellten Initiativen zur Regulierung der künstlichen Intelligenz zwischenzeitlich schon recht gut den großen Gefahren dieser technologischen Entwicklung begegnen können. Bedingung hierfür ist das strenge Beachten dieser Grundlagen, die aber mittlerweile auch klare rechtliche Sanktionsmöglichkeiten umfassen. Für Politik, Wirtschaft und Gesellschaft erscheint nun die Geschwindigkeit der technischen Entwicklungen im Bereich der künstlichen Intelligenz kontrollierbar – zumindest auf nationaler Ebene, EU-Ebene und in Teilen auch schon international. Das Deutsche Grundgesetz , in dessen erstem Artikel die Unantastbarkeit der Würde des Menschen zentral hervorgehoben wird und welches am 23. Mai 2024 sein 75-jähriges Jubiläum feiern durfte, bleibt weiterhin für Deutschland der wichtigste Bezugspunkt auch auf diesem Feld und sorgt gleichzeitig dafür, dass den potenziellen Gefahren von KI wirksam begegnet werden kann. Unbedingt muss dem “humanistischen Imperativ”[65] auch auf dem Feld der Digitalisierung der Verwaltung insbesondere in Bezug auf künstliche Intelligenz Genüge getan werden – nicht alles, was geht, darf auch getan werden.
Fußnoten
[48] Rat der Europäischen Union (Hrsg.) (2023). Gesetz über künstliche Intelligenz: Rat und Parlament einigen sich über weltweit erste Regelung von KI, Pressemitteilung vom 09.12.2023, aktualisierte Version vom 02.02.2024, online verfügbar unter https://www.consilium.europa.eu/de/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/, zuletzt geprüft am 24.05.2024.
[49] Rat der Europäischen Union.
[50] Vgl. Rat der Europäischen Union.
[51] Vgl. Rat der Europäischen Union.
[52] Deutscher Ethikrat, Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern.
[53] Ebd.
[54] Deutscher Ethikrat, Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, S. 328f.
[55] Eigene Anmerkung: Obwohl ja die öffentliche Hand auch nicht immer über hohe finanziellen Mittel verfügt, was sich ja auch in den Vergabeverfahren zeigt.
[56] Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, S. 332.
[57] Staatsministerium Baden-Württemberg (2023): Digitalisierung | Künstliche Intelligenz in der Verwaltung, 10.5.2023, abrufbar unter: https://stm.baden-wuerttemberg.de/de/service/presse/meldung/pid/kuenstliche-intelligenz-in-der-verwaltung (zuletzt abgerufen am 24.7.2024).
[58] Ebd.
[59] Ebd.
[60] Venkatesh, Viswanath; Morris, Michael G.; Davis, Gordon B.; Davis, Fred D. (2003): User Acceptance of Information Technology: Toward a Unified View. In: MIS Quarterly 27 (3), S. 425–478.
[61] Ebd.
[62]. Ebd.
[63] Alter, Steven (2013): Work System Theory: Overview of Core Concepts, Extensions, and Challenges for the Future. In: Journal of the Association for Information Systems (JAIS) 14 (2), S. 72–121.
[64] Lewin, Kurt (1945): The Research Center for Group Dynamics at Massachusetts Institute of Technology. In: Sociometry 8 (2), S. 126–136.
[65] Vgl. Hemel, Kritik der digitalen Vernunft, S. 267 sowie 273f.
Literatur und Quellen
- Alter, Steven (2013): Work System Theory: Overview of Core Concepts, Extensions, and Challenges for the Future. In: Journal of the Association for Information Systems (JAIS) 14 (2), S. 72–121.
- Dierksmeier, Claus (2016). What is ‘Humanistic’ About Humanistic Management?. In: Humanistic Management Journal, Band 1, Nr. 1, 2016, S. 9–32.
- Dampz, Nils (2023). Nutzung von KI. Ringen um die richtigen Regeln, tagesschau.de vom 13.04.2024, online verfügbar unter https://www.tagesschau.de/ausland/amerika/ki-regulierung-101.html, zuletzt geprüft am 24.05.2024.
- Deutscher Ethikrat (Hrsg.) (2023). Pressemitteilung 02/2023 vom 20.03.2023 – Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern, online abrufbar unter https://www.ethikrat.org/mitteilungen/mitteilungen/2023/ethikrat-kuenstliche-intelligenz-darf-menschliche-entfaltung-nicht-vermindern/?cookieLevel=not-set, zuletzt geprüft am 22.03.2024.
- Deutscher Ethikrat (Hrsg.) (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Berlin: Deutscher Ethikrat, online abrufbar unter https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf, zuletzt geprüft am 22.05.2024.
- Dierksmeier, Claus/Ulrich Hemel/Jürgen Manemann (Hrsg.) (2015). Wirtschaftsanthropologie. Baden-Baden: Nomos.
- eGovernment (Hrsg.) (2024). Globaler Standard für Regulierung – KI-Gesetz der EU endgültig beschlossen, 21.05.2023, online verfügbar unter https://www.egovernment.de/ki-gesetz-der-eu-endgueltig-beschlossen-a-0f1904c279e849aeef11d8ff1cf50121/?cmp=nl-127&uuid=55acfc02e80f7b378ab04a508d0cc16e, zuletzt geprüft am 23.05.2024.
- Europäisches Parlament (2024). Berichtigung des in erster Lesung am 13. März 2024 festgelegten Standpunkts des Europäischen Parlaments im Hinblick auf den Erlass der Verordnung (EU) 2024/ …… des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)
- P9_TA(2024)0138 (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), 17.04.2024.
- Federal Register (2023). Vol. 88, No. 210, Wednesday, November 1, 2023, Presidential Documents, Executive Order 14110 of October 30, 2023 – „Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”.
- Ulrich Hemel (Hrsg.) (2019.),Weltethos für das 21. Jahrhundert, Freiburg/Br..
- Hemel, Ulrich (2020). Kritik der digitalen Vernunft: Warum Humanität der Maßstab sein muss, Freiburg: Herder Verlag.
- Hemel, Ulrich (2023). Digitale Bildung, Datenethik und die Zukunft der Zivilgesellschaft. Institut für Sozialstrategie, 07/2023, online verfügbar unter: https://institut-fuer-sozialstrategie.de/2024/01/23/digitalebildung/, zuletzt geprüft am 12.06.2024.
- Küng, Hans (1990). Projekt Weltethos. München: Piper-Verlag.
- Lewin, Kurt (1945): The Research Center for Group Dynamics at Massachusetts Institute of Technology. In: Sociometry 8 (2), S. 126–136.
- Mrass, Volkmar (2023): ChatGPT: Chancen und Herausforderungen für Forschung, Lehre und Hochschulen. In: Dürrschmidt, Jörg und Majer, Christian F. (Hrsg.): Jahrbuch des Instituts für Angewandte Forschung 2023. Verwaltung und Gesellschaft im Wandel: 50 Jahre Hochschule für öffentliche Verwaltung und Finanzen Ludwigsburg, Bd. 6. Stuttgart: Richard Boorberg Verlag (Ludwigsburger Schriften Öffentliche Verwaltung und Finanzen Band, 6), S. 105–124.
- Nick-Magin, Stefanie (2021). Recommendations for a sustainable Public Administration: Team-cooperation and Procedural Fairness in times of COV-19 driven Digitization. In: Hemker, Thomas/Müller-Török, Robert/Prosser, Alexander/Scola, Dona/Szádeczky, Tamás/Urs, Nicolae. Central and Eastern European e|Dem and e|Gov Days 2021 (Tagungsband). Wien: Facultas Verlag, S. 387-396.
- Nick-Magin, Stefanie (2023). Kooperation lohnt sich: Einführung in einen Grundgedanken der Wirtschaftsanthropologie. Journal of Social Strategy (JSS), 4(4), S. 5-120.
- Rat der Europäischen Union (Hrsg.) (2023). Gesetz über künstliche Intelligenz: Rat und Parlament einigen sich über weltweit erste Regelung von KI, Pressemitteilung vom 09.12.2023, aktualisierte Version vom 02.02.2024, online verfügbar unter https://www.consilium.europa.eu/de/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/, zuletzt geprüft am 24.05.2024.
- Seele, Peter/Claus Dierksmeier (2021). Blockchain and Cryptocurrencies, the Relevance for Business Ethics. In: Deborah C. Poff/Alex C. Michalos. Encyclopedia of Business and Professional Ethics. Springer, Cham.
- Sen, Amartya (1977). Rational Fools: A Critique of the Behavioral Foundations of Economic Theory, in: Philosophy & Public Affairs, Summer, 1977, Vol. 6, No. 4 (Summer, 1977), S. 317-344.
- Staatsministerium Baden-Württemberg (2023): Digitalisierung | Künstliche Intelligenz in der Verwaltung, 10.5.2023, abrufbar unter: https://stm.baden-wuerttemberg.de/de/service/presse/meldung/pid/kuenstliche-intelligenz-in-der-verwaltung, zuletzt geprüft am 24.7.2024.
- Stiftung Weltethos (Hrsg.) (2018). Erklärung zum Weltethos. Parlament der Weltreligionen September 1993/Juli 2018, Chicago, U.S.A., https://www.weltethos.org/wp-content/uploads/2022/10/weltethos-erklaerung- 2018.pdf, online verfügbar unter: 13.06.24.
- Stiftung Weltethos (Hrsg.) (2017). Globales Wirtschaftsethos. Konsequenzen für die Weltwirtschaft. Tübingen: Stiftung Weltethos sowie Link zu den Erstunterzeichnern: Global Ethic Foundation Tuebingen/Stiftung Weltethos Tübingen (2009). First Signatories of the Manifesto, online verfügbar unter: https://www.globaleconomicethic.org/03_01a-signatories.php, zuletzt geprüft am 13.06.24.
- Stuttgarter Zeitung (2024). Papst. Politik muss KI kontrollieren, Ausgabe vom 15.06.2024.
- Tagesschau.de (2024). Einigung der EU-Staaten.
- KI-Gesetz ist endgültig beschlossen, tagesschau.de vom 21.05.2024, online verfügbar unter https://www.tagesschau.de/ausland/europa/ki-gesetz-eu-102.html, zuletzt geprüft am 24.05.2024.
- Venkatesh, Viswanath; Morris, Michael G.; Davis, Gordon B.; Davis, Fred D. (2003): User Acceptance of Information Technology: Toward a Unified View. In: MIS Quarterly 27 (3), S. 425–478.
- Vereinte Nationen (1966). International Covenant on Civil and Political Rights Adopted and opened for signature, ratification and accession by General Assembly resolution 2200A (XXI) of 16 December 1966, entry into force 23 March 1976, in accordance with Article 49, https://www.ohchr.org/sites/default/files/ccpr.pdf, (zuletzt geprüft am: 13.06.2024).
- Weltethos Institut (2023). Berufsethos KI. Leitlinien für Selbst- und Weltverantwortung, online verfügbar unter: https://weltethos-institut.org/wp-content/uploads/2023/10/Berufsethos-KI-26-10-23.pdf, zuletzt geprüft am 14.06.2024.