Kritische KI-Kompetenz in Bildung und Erziehung – digitale Selbstbestimmung und Fairness als Herausforderung

Erstveröffentlicht im Verbandsmagazin „Katholische Bildung“ des VkdL (Verein kath. dt. Lehrerinnen e.V.), Ausgabe 7/8 2025.

In unserer Zeit erleben wir radikale Veränderungen der Lebenswelt. Im Jahr 2025 feiert YouTube sein 20-jähriges Jubiläum. Da YouTube für viele Menschen einfach zum Alltag gehört, bedeutet diese einfache Tatsache, dass jüngere Menschen sich eine Welt ohne YouTube gar nicht recht vorstellen können, während ältere ohne dieses Medium aufgewachsen sind.

Die Geschwindigkeit der Entwicklung nimmt aber rasant zu. Im November 2022 wurde ChatGPT (Buchstaben-Dreher: nicht ChatGTP) vorgestellt. Das Wort „Chat“ steht für ein „plauderndes Gespräch“, das Kürzel GPT für „generative pre-trained transformer“. Es geht hierbei um ein „Large Language-Model“ (LLM), bei dem in riesengroßer Geschwindigkeit die wahrscheinlichsten Wortfolgen für bestimmte Fragestellungen „generiert“ werden. Innerhalb von nur fünf Tagen erreichte dieses Werkzeug den Schwellenwert von 1 Million Nutzerinnen und Nutzern.

Dieser Schwellenwert gilt als Definition für ein Massenmedium. Bei den frühen Massenmedien des 20. Jahrhunderts wie dem Radio oder dem Fernsehen dauerte es noch Jahre, bis solche Nutzerzahlen erreicht werden konnten.

KI ALS BESTANDTEIL UNSERES HEUTIGEN ALLTAGS

Für viele Menschen steht ChatGPT oder – seit 2025 – das chinesische „DeepSeek“ bespielhaft für das Eindringen von KI in den Alltag. Übersehen werden dabei häufig einige weitere Aspekte: Dabei geht es zum einen um den Einsatz von KI in unglaublich vielen Berufszweigen von der Landwirtschaft bis zur Medizin, von der Industrieproduktion bis zur Sicherheitstechnik. Zum anderen gehen so gut wie alle Menschen in ihrem Alltag unerkannt mit KI um, etwa bei der Nutzung von Social Media, beim Umgang mit dem eigenen Smartphone und bei zahlreichen weiteren Alltagsaktivitäten.

Darüber hinaus ist die Entwicklung im Bereich der KI geradezu unglaublich dynamisch. Das zeigt ein Blick auf die investierten Mittel. Normalerweise sollten die Investitionen in Unternehmen höher sein als die Abschreibungen, denn ansonsten kommt es zu einem sogenannten Substanzverzehr. Eines der innovativsten Unternehmen in Deutschland ist der HighTech-Optik-Spezialist Carl Zeiss mit einer Investitionsquote von rund 10 Prozent des Umsatzes. Davon können viele andere Betriebe nur träumen. In der Welt der KI ist es freilich anders: Hier wächst der Markt jährlich um 37 Prozent, und bei einem Umsatz von rund 150 Milliarden US-Dollar im Jahr 2022 wurden 92 Milliarden Dollar investiert. Das sind weit mehr als 60 Prozent des Umsatzes, also das Zwanzigfache eines „normalen“ und das Sechsfache eines „hoch innovativen“ Unternehmens.

Im Klartext heißt das: Die meisten (aber nicht alle) KI-Unternehmen fahren Verluste ein, denn Investitionen muss man sich auch finanziell leisten können. Die Bewertung von KI-Unternehmen an der Börse ist Ausdruck von noch nicht realisierten Hoffnungen. Zugleich zeigte schon die Eröffnungsfeier zur Amtseinführung des wiedergewählten US-Präsidenten Donald Trump ein ungewöhnliches Bild. Denn neben Politikern, Staatsgästen und hochrangigen Repräsentanten der Gesellschaft waren mehrere Tech-Milliardäre zu sehen, von Elon Musk bis Jeff Bezos, von Mark Zuckerberg bis Sundar Pichai, dem Chef von Google.

KI IM STRUDEL DER MACHT- UND INTERESSENPOLITIK: FREIHEIT ODER REGULIERUNG?

KI zeigt schon in diesem Kontext, dass Technik niemals „nur“ Technik ist, sondern dass sie im Zusammenhang mit gesellschaftlichen, politischen, sozialen und auch ökologischen Fragen steht. Derzeit ist dabei ein Hang zum Sozialdarwinismus mit einer blanken und unverblümten Macht- und Interessenpolitik unverkennbar. Gesetze und Regulierungen gelten lediglich als bürokratischer Hemmschuh, nicht mehr als Schutzplanken der Freiheit, die sie eben auch sein können. Monopole gelten nicht mehr als ablehnungswürdig, weil sie hohe Kosten mit schlechter Leistung zu verbinden pflegen. Im libertären Trend und der elitären Welt der Tech-Milliardäre gelten Monopole hingegen als gut, natürlich besonders dann, wenn sie einem selbst gehören.

Der Hintergrund dazu ist die Plattform-Ökonomie, die den bekannten ABBA-Song „The winner takes it all“ in alltagsökonomische Zusammenhänge überführt. Denn wenn alle bei Amazon einkaufen, bleibt für viele andere Online-Anbieter nur noch wenig übrig. Wenn alle bei Google suchen, wird der Wettbewerb eingeschränkt. Wenn niemand ohne Facebook, WhatsApp und dergleichen auskommt, ballt sich Macht bei den Eigentümern digitaler Quasi-Monopolisten. Selbst wenn Elon Musk Twitter kauft, in „X“ umbenennt und eine andere Richtung vorgibt, bewirkt die hohe Reichweite einer großen Plattform noch recht lange einen entsprechenden sozialen, kommerziellen und bisweilen auch politischen Einfluss.

Schon einleitend lässt sich also sagen: Nicht allein die Technik, sondern die Verbindung von Technik mit ökonomischer und politischer Macht verändert die Welt. Sie kann neue Fakten schaffen und Angst erzeugen.

Genau aus diesem Grund brauchen wir eine öffentliche Diskussion über die Wirkungen und auch Begrenzungen, die wir mit KI verbunden wissen wollen. Diese Diskussion setzt im Idealfall eine „kritische KI-Kompetenz“ und eine hinreichende digitale Risikokompetenz voraus. Gemeint ist mit der kritischen KI-Kompetenz eine neue Alltagskompetenz im Sinne der Fähigkeit, den Nutzen und die Grenzen von KI kundig einzuschätzen. Ein Teil dieser kritischen KI-Kompetenz zeigt sich in der Fähigkeit, die Risiken im Umgang mit digitalen Applikationen und insbesondere mit KI-Anwendungen zu erkennen, sinnvollerweise zu vermeiden und jedenfalls mit ihnen umzugehen: Genau das soll mit dem Begriff der „digitalen Risikokompetenz“ zum Ausdruck kommen (vgl. U. Hemel 2024, 25 – 29).

Es liegt auf der Hand, dass menschliche Fähigkeiten als solche nicht angeboren sind, sehr wohl aber zum Lernpotenzial junger und weniger junger Menschen gehören. Der Umgang mit der digitalen Welt und besonders mit KI-Anwendungen wird daher zu einer neuen Herausforderung auch auf dem Gebiet der Bildung und Erziehung. Und gerade, weil die laufende Entwicklung so rasant ist, muss die Ausformulierung und Umsetzung von Zielen und Maßnahmen digitaler Bildung als Teil desjenigen großen gesellschaftlichen Lern- und Suchprozesses verstanden werden, der unsere Zeit prägt.

Erst allmählich gerät dabei in den Blick, wie stark sich die aktuelle technologische Revolution auf die soziale Welt auswirkt und wie notwendig es ist, sich auch mit politischen Fragen rund um eine sinnvolle Gesetzgebung und Regulierung beispielsweise von KI einzusetzen. Dabei gilt ein Paradox, denn angesichts der Geschwindigkeit der Entwicklung lässt sich feststellen: Gesetze sind nötig, aber die Gesetzgebung in diesem Bereich kann dem „regulatorischen Paradox“ nicht entkommen.

Dieses regulatorische Paradox für die KI lautet: „KI-Gesetze kommen immer zu früh oder zu spät, und sie sind zu lax oder zu streng“. Dennoch können wir nicht auf sie verzichten. Die EU-Gesetzgebung mit dem „EU-AI-Act“, die ab 1. August 2024 in Kraft getreten ist, teilt KI in Risikoklassen ein und ist ein erster Versuch, mit dieser neuen und komplexen Thematik fertig zu werden.

Dabei zeigt sich mit jedem sozialen und politischen Bewältigungsversuch zugleich eine Art von Menschenbild, bei dem entweder – wie in China – der Staat oder – wie in den USA – der Markt die Vorherrschaft gewinnt. Europa will hier einen Mittelweg gehen und die einzelne Person in einer freien Zivilgesellschaft stärken. Wie weit dies gelingen kann, ist nach aktuellem Stand noch völlig offen.

KI ALS ANFRAGE AN UNSER MENSCHENBILD:  POLITISCHE UND SOZIALE FOLGEN DER DURCHDRINGUNG UNSERER WELT MIT KI

Der Begriff der KI (Künstliche Intelligenz), auch AI (Artificial Intelligence), ist ein Sammelbegriff für eine ganze Reihe automatisierter Vorgänge der Mustererkennung mithilfe von Datensätzen (vgl. A. Nassehi 2019). Er hat sich durchgesetzt, ist aber nicht sonderlich glücklich gewählt. Das Wort „Künstlich“ ist letztlich willkürlich und steht im Grunde für „technisch“ oder vielleicht auch „automatisiert“. Tatsächliche Voraussetzung für diese Automatisierung in der Verarbeitung von Daten ist die Leistungsfähigkeit von Chips. Obwohl seit Jahren über eine physikalische Leistungsgrenze des technischen Fortschritts diskutiert wird, hat sich bisher das sogenannte „Mooresche Gesetz“ als valide erwiesen. Es wurde von Gordon Moore im Jahr 1965 formuliert und besagt, dass sich die Geschwindigkeit der Datenverarbeitung, genauer: die Zahl der Transistoren integrierter Schaltkreise, etwa alle zwei Jahre verdoppelt. Anders gesagt: Was heute an Technik und Rechenleistung miniaturisiert in unseren Smartphones enthalten ist, hätte räumlich noch vor wenigen Jahren das gesamte Wohnzimmer gefüllt.

KI ist, so gesehen, ein Resultat des rasanten technischen Fortschritts speziell auf dem Gebiet der Datenverarbeitung. Und es ist typisch für technische Neuerungen, dass Menschen gerne vertraute und ihnen geläufige Begriffe verwenden, auch wenn deren Bedeutung nicht so ganz übertragbar ist. So sprechen wir von „maschinellem Lernen“, obwohl sich das „Lernen von Menschen“ und das „Lernen“ von Maschinen etwa im Sinn statistischer Interferenz, also der Extrapolation von Ergebnissen aus vorhandenen Daten, in verschiedener Hinsicht unterscheidet.

Wenn wir Lernen 1 als Faktenlernen („Berlin ist die Hauptstadt Deutschlands“), Lernen 2 als verstehendes Lernen („Die Wörter Brot und Bread klingen ähnlich, weil sie eine gemeinsame Sprachgeschichte haben“) und Lernen 3 als Identitätslernen als „Lernen über mich selbst“ betrachten, so ist uns Menschen die KI beim Lernen 1 überlegen. Beim Lernen 2 kann sie Verstehen „emulieren“, wirkt also so, als verstünde sie. Aber Lernen 3 als selbstreflexives Lernen darüber, wer ich in meiner sprachlichen, sexuellen, religiösen und sonstigen Identität bin, und welche Ziele ich mir setze oder welche ich gerade abändere, das ist nach wie vor eine speziell menschliche Eigenart. Anders gesagt: Menschen können ihr exekutives Programm mitten in seiner Performanz grundlegend abändern.

Auch wenn wir von „Intelligenz“ im Begriff „Künstliche Intelligenz“ sprechen, ist keineswegs klar, was gemeint ist, weder bei Menschen noch bei Maschinen und Programmen. Am sinnvollsten ist es, KI als Erweiterung der menschlichen Erkenntnis- und Handlungsmöglichkeiten zu sehen. So können wir mit dem Fernglas und dem Mikroskop besser sehen, mit dem Hörgerät besser hören und mit dem Auto schneller fahren, als wir laufen können. Und bestimmte Anwendungen der KI wie VAR-Brillen verwenden sogar ganz ausdrücklich den Begriff der „Virtuell erweiterten Realität“ (Virtual Augmented Reality).

Die besondere Eigenschaft von KI ist nicht so sehr ihre Anwendung auf unsere Sinnesorgane, sondern auf das menschliche Hirn. Über einzelne Sinnesorgane hinaus steigert KI unsere Wahrnehmungs-, Denk- und Handlungsmöglichkeiten in einer Art und Weise, die zuvor unbekannt war. KI ist und bleibt aber eine technische Anwendung.

Durch die „Emulation“ und Steigerung menschlicher Fähigkeiten wirkt sie aber teilweise wie ein menschliches Gegenüber, eine Person oder „Quasi-Person“. Wenn jemand im Bereich des Gamings oder der Computerspiele Avatare (also künstliche digitale Stellvertreter-Wesen) schafft und mit anderen Avataren interagiert, weiß er zwar von der „Künstlichkeit“ des Avatars, spürt aber bald nicht mehr, dass diese „nur“ Maschinen sind. Damit verschwindet in gewisser Weise die wahrgenommene Grenze zwischen Mensch und Maschine.

Genau das macht vielen Menschen Angst. Die große Sorge vor Massenarbeitslosigkeit durch KI (vgl. C. Frey / M. Osborne 2017, 114, 254 – 280) weicht zwar allmählich einer differenzierteren und positiver gestimmten Erwartung, weil eben auch neue Berufszweige entstehen. Gefragt wird darüber hinaus aber, ob Maschinen und Roboter nicht irgendwann die Macht über den Menschen übernehmen. Das wird beispielsweise in Filmen und Büchern verarbeitet oder über den Begriff der „Superintelligenz“ und des „Transhumanismus“ diskutiert.

Hilfreich ist hier zunächst einmal die Unterscheidung zwischen „schwacher“ und „starker KI“.  Bei der starken KI geht es um „Agenten“, die letztlich ein Eigenleben führen und sich am Ende womöglich gegen Menschen selbst wenden. Dafür gibt es bisher aber keine überzeugenden Anzeichen. Was wir vielmehr erleben, ist die Verbindung immer besserer KI-Programme mit der Hardware, beispielsweise bei einem Pflegeroboter. Dieser wird tatsächlich zu einem Alltagsgefährten: Er hat Zeit, er ist sympathisch, er kann sich mit der älteren Person unterhalten und sich auf ihre Eigenheiten einstellen.

Das bedeutet jedoch im Umkehrschluss, dass die direkte Kommunikation zwischen Menschen als mühsamer und anstrengender als in vor-digitalen Zeiten empfunden wird. Mitmenschen tun ja nicht immer, was wir wollen. Sie antworten womöglich ganz anders, als wir es erwarten. Sie können die Maßstäbe nicht erfüllen, die wir – wie im genannten Beispiel – an einen immer geduldigen, immer kompetenten Pflegeroboter stellen. Der Mensch kann dann als „defizitäre KI“ wahrgenommen werden.

Paradoxerweise führt dann die Mensch-Maschine-Interaktion daher bisweilen zu Komplikationen in der sozialen Welt, eben, weil wir Menschen im Vergleich zu funktional gut ausgestatteten digitalen Agenten für angenehme und weniger angenehme Überraschungen gut sind. Ein interessantes Beispiel ist die Verschiebung in der Alltagspraxis von Kommunikation: War früher der Griff zum Telefon eine Selbstverständlichkeit, gilt dies manchen jüngeren Menschen ohne vorherige Vereinbarung schon als übergriffig: „Es geht doch auch per Whatsapp oder E-Mail“, so der Einwand.

Komplexe digitale Agenten werden sich zukünftig noch mehr durchsetzen. Gleichwohl fallen die meisten KI-Anwendungen unter den Begriff der „schwachen KI“, also einem Hilfsmittel für bestimmte, wohl definierte Aufgaben. Ein Beispiel wäre hier das Callcenter, bei dem eine KI-generierte Stimme den Anrufer so navigiert, dass er am Ende zufrieden ist oder idealerweise an eine kompetente Person verwiesen wird.

Schwache KI findet sich heute überall im Alltag, von der Gesichtserkennung bis zu den KI-gestützten Algorithmen der Social Media. Wir wissen freilich oft nicht, dass KI im Einsatz ist, was wiederum auf das Problem der sozialen Kontrolle hinweist. In vielen Fällen ist KI ausgesprochen hilfreich, etwa bei der „Predictive Maintenance“ im Produktionsprozess, wo die KI schneller und besser als Menschen erkennt, wann ein bestimmtes Teil in einer Maschine gewartet oder ausgetauscht werden muss. Komplizierter liegt der Fall bei medizinischen oder juristischen Anwendungen. Ein bekanntes Beispiel ist das „Predictive Policing“, wo die Polizei schon vor dem Begehen einer Straftat eingreift, weil die KI anhand von Bewegungsmustern und anderen Parametern erkennt, wo genau in Kürze ein Einbruch oder eine Gewalttat verübt werden dürfte.

Wie sieht es dann aber mit dem Datenschutz und mit den Menschenrechten aus? Und wie sicher, wie gut begründbar und wie gut für Dritte nachvollziehbar ist die Grundlage für konkrete Handlungsentscheidungen?

Diese Fragen können in KI-Kontexten als echte Störfaktoren gelten. Denn die KI weist verschiedene Ebenen der Datenverarbeitung auf (die sogenannten „Deep Levels“), deren Art und Weise der Mustererkennung und Schlussfolgerung nicht eigens dokumentiert wird. Daher sind KI-Ergebnisse nicht ohne Weiteres reproduzierbar und haben, so gesehen, den Status des Orakels von Delphi.

Es gibt zwar technisch langsamere, aber nachvollziehbare Spezialanwendungen unter dem Begriff „Explainable AI“. Doch sind diese bislang eine Nischenanwendung geblieben. Im politischen und sozialen Bereich stellt sich allerdings schon die Frage, ob beispielsweise ein erfahrener Radiologe von der Krankenkasse vergütet wird, wenn er zu einem anderen Ergebnis kommt als die KI mit ihrer überlegenen Bild- und Mustererkennung. Solche sozialen Folgefragen wurden bislang jedoch kaum diskutiert. Sie sind aber wesentlich, weil es von ihrer Beantwortung abhängt, ob wir der KI letztlich eine „überlegene Normativität“ zugestehen. Denn die beste KI hilft nicht weiter, wenn ihre Trainingsdaten verzerrt sind.

Jetzt wird es freilich noch ein wenig komplizierter. Denn was „verzerrt“ ist, hängt schließlich von der Anwendung einer KI ab. Ein einfaches Beispiel wäre eine KI-gestützte Gesichtserkennung. Stellen wir uns einen gut besuchten Vortrag der Erwachsenenbildung in einer mittelgroßen deutschen Stadt mit rund 100 Teilnehmenden vor. Wären die Gesichter der Anwesenden zugleich „Trainingsdaten“ für unsere Gesichtserkennungs-KI, dann könnte man im ersten Schritt vielleicht kritisieren, dass die Basis recht schmal ist. Andererseits ist es durchaus wahrscheinlich, dass es sich auch in anderen deutschen Städten bei Veranstaltungen der Erwachsenenbildung häufig um überwiegend weiße Männer und Frauen im Alter von 50 bis 70 Jahren handelt. Würde jemand den Anwendungsbereich unserer „Erwachsenenbildungs-Gesichtserkennung“ erweitern, dann würden wir sofort bei einer ungewollten Diskriminierungspraxis landen. Das Publikum in einer landläufigen Disko wäre jünger, und in einem internationalen Kontext hätte nur eine Minderheit eine weiße Gesichtsfarbe. In solchen Kontexten wäre unsere KI aufgrund mangelnder Trainingsdaten ungeeignet!

Das genannte Beispiel mag einfach sein, hat aber eine grundsätzliche Tragweite. Denn die Auswahl, die Menge und die situative Schlagseite von Trainingsdaten spielen eine entscheidende Rolle für den Output einer KI. Und zum ehrlichen Umgang mit einer KI gehört die Einsicht, dass Diskriminierung auch dort stattfinden kann, wo eine diskriminierende Absicht ursprünglich womöglich gar nicht vorhanden war.

Gleiches gilt im juristischen Bereich. Sicherlich kann die KI schneller als der Mensch alle bisherigen Urteile zu einem Fall durchlaufen lassen. Trotz guter Trainingsdaten arbeitet eine KI dann aber nach dem Prinzip der „wiederkäuenden Kuh“: Sie verarbeitet, was es schon gab. Die Art und Weise einer juristischen Schlussfolgerung hängt am Ende jedoch von sehr spezifischen, situativen Kontexten ab. Es gibt eben manchmal auch neue und ungewöhnliche Fallkonstellationen.

Im Klartext heißt das, dass die KI am Ende ein Hilfsmittel ist, das denen am meisten hilft, die schon viel wissen. Hier kann man dann positiv von „Kollusion“ sprechen, also dem professionellen Zusammenspiel von Mensch und Maschine. Anders gesagt: Wenn du ein Experte auf deinem Gebiet bist, dann hast du auch etwas von einer guten KI, auch weil du beurteilen kannst, wo diese ihre Grenzen hat. KI macht also das Lernen nicht überflüssig, sondern erweitert im besten Fall den Horizont. Sie kann aber andere Kulturtechniken nicht ersetzen.

Nun sind wir alle aber auf den meisten Gebieten gerade keine Experten. Wie aber sollen wir dann mit unserem begrenzten Wissen oder gar ausgesprochenem Nichtwissen umgehen? Welchen Texten und Bildern, welchen Darstellungen und Empfehlungen können wir vertrauen?

Die Herausforderung durch die KI liegt folglich nicht in ihrer technischen Eigenart. Wir haben uns längst daran gewöhnt, dass Autos schneller fahren als selbst der weltbeste Läufer rennen kann. Wir wissen aber noch nicht, wie wir politisch und sozial mit KI umgehen wollen und können. Anders gesagt: Die Verfügungsgewalt über KI wird zur Machtfrage. Wem gehören unsere Daten? Wer regelt Zugänge zu Datensätzen und Informationen? Wer kontrolliert Missbrauch? Wie komme ich als einzelne Person zu meinem Recht, und wie bewahre ich meine „digitale Souveränität“?

In dem Maße, wie es nicht einfach um technische Fragen zur Bedienung und Anwendung, sondern um Fragen des persönlichen und kollektiven Umgangs mit einer neuen Art und Weise der Problemlösung und der Welterschließung geht, werden Fragen nach einer Daten-Ethik (vgl. U. Hemel 2023, 93 – 105) und nach Verantwortung im digitalen Raum (vgl. U. Hemel 2022, 53 – 70) immer wichtiger. Dies wirkt sich zwangsläufig auf den Bereich der Bildung und Erziehung aus, und zwar sowohl mit Blick auf den „Kompetenzerwerb“ rund um KI wie auch mit Blick auf die anthropologische Verortung und soziale Einbettung von entsprechenden Lernprozessen.

WELTERSCHIESSUNG ODER MANIPULATION:
DIE HERAUSFORDERUNG DER BILDUNG RUND UM KI

Noch vor wenigen Jahren drehten sich viele Diskussionen um den Zugang zur digitalen Welt, etwa in Gestalt der Frage nach der technischen Ausrüstung von Schulen, nach der Verfügbarkeit von Laptops und Smart Boards und dergleichen mehr. Die Frage der Bildungszugänge ist heute nicht mehr ganz oben auf der Tagesordnung, auch wenn der Zugang zur digitalen Welt durchaus auch eine soziale und eine infrastrukturelle Seite hat –  schließlich haben keineswegs alle die Premium-Version von ChatGPT.

In der Zwischenzeit gibt es allerdings auch Gegenbewegungen, etwa, wenn an Schulen die Nutzung der Smartphones nicht mehr gestattet ist, weil die Sorge besteht, die besondere Formbarkeit oder „Plastizität“ des jungen menschlichen Gehirns könne durch die Einengung auf Aktivitäten in der digitalen Welt Schaden erleiden. Das Smartphone-Verbot an Schulen wurde beispielsweise in Finnland durchgesetzt, weil sich offenbar die schulischen Leistungen durch die besondere Ablenkbarkeit und „Fragmentierung“ in der digitalen Welt verschlechtert haben. In anderen Ländern, inzwischen auch in Deutschland, wird ein Verbot der Smartphone-Nutzung zumindest an Grundschulen breit diskutiert.

Ein zweiter wesentlicher Diskussionsstrang richtete das Augenmerk auf mögliche Schäden durch die Nutzung von Social Media mit den bekannten Negativeffekten wie Cybermobbing und Sucht, aber speziell auch im Rahmen von Missbrauch beispielsweise durch Fake News, Hate Speech und dergleichen. Mehr noch: Wenn junge Menschen sich täglich sechs bis acht Stunden und mehr mit dem eigenen Smartphone befassen, dann hat dies unweigerlich Auswirkungen auf unsere Hirnstruktur und unsere Aufmerksamkeitsspanne. Ein interessantes Beispiel ist die Abbildung des Daumens bei bildgebenden Verfahren im Gehirn: Durch das häufige Wischen auf dem Smartphone braucht der Daumen heutzutage nachweisbar mehr „Hirnkapazität“ als noch vor zwanzig oder dreißig Jahren, erkennbar an entsprechenden hirndiagnostischen Verfahren. Menschen sind zwar ungeheuer anpassungsfähig, aber oft lernen wir erst aus Versuch und Irrtum. Wie wir diese Veränderungen bewerten, kann kontrovers diskutiert werden.

Dies lässt sich an einfachen Beispielen zeigen wie etwa der Rechtschreibung und dem Erlernen von Fremdsprachen. Aufgrund der fest verbauten Rechtschreibkorrekturen hat die korrekte Orthographie bei jungen Menschen zweifellos einen geringeren Stellenwert als vor 50 Jahren. Die Frage ist aber, wo der Vorteil in einen Nachteil kippt. Viele können auch keine Landkarten mehr lesen, weil Navigationssysteme sehr zuverlässig geworden sind. Ob wir freilich auch das Erlernen von Fremdsprachen aufgeben sollten, weil wir jederzeit Übersetzungsmöglichkeiten auf dem Smartphone wie „DeepL“ und andere haben, das ist eine weiter ausgreifende Frage. Denn sie berührt eben auch die spezifisch menschliche Eigenheit, sich in andere kulturelle Welten auch mittels Sprache einfühlen zu können. Es wäre eine Verarmung, wenn wir in den Schulen nicht mehr die Mühe auf uns nähmen, uns einem anderen Kulturkreis auch durch das Erlernen von ein oder zwei Fremdsprachen zu nähern.

Wie wir also sinnvoll mit den Möglichkeiten der digitalen Welt und speziell mit KI im Bereich von Bildung und Erziehung umgehen sollten, ist Teil eines großen gesellschaftlichen Lern- und Suchprozesses, bei dem wir zugleich Akteure oder Akteurinnen wie auch Suchende sind.

Gute Erziehung und Bildung weiß aber auch, wo ihre Grenzen sind. Dabei geht es um Handlungsgrenzen im Sinn der Reichweite eigener Entscheidungen, sowohl im unmittelbar pädagogischen Raum wie darüber hinaus auf dem Gebiet des sozialen und rechtlichen Ordnungsrahmens.

Denn es ist eine Aufgabe des Gesetzgebers, nicht allein von Pädagoginnen und Pädagogen, für Transparenz im digitalen Raum zu sorgen, also beispielsweise dafür, dass es eine umfassende Kennzeichnungspflicht gibt für Texte, Bilder und Videos, die KI-generiert sind. So erscheinen heute im Internet immer bessere Fake-News-Videos, also KI-generierte Videos, z.B. unter dem Slogan „Putin frisch verliebt“ oder „Der Papst in seinem neuen weißen Pelzumhang“. Und tatsächlich erkennen eben nicht alle Nutzer, was „echt“ ist und was „nicht echt“ ist.

Wenn wir aber unseren Augen und Ohren immer weniger trauen dürfen, dann wächst umgekehrt das Misstrauen in der Welt. Das wiederum ist schädlich für die Qualität des sozialen Miteinanders. Abnehmendes soziales Vertrauen ist aber zugleich gemäß dem internationalen „Trust Index“ ein Indikator für abnehmenden Wohlstand! Um gesellschaftliches Vertrauen zu schaffen und zu erhalten, ist es also dringend notwendig und geboten, dass es eine gesetzliche Kennzeichnungspflicht für KI-generierte Inhalte gibt. Dann muss deutlich werden, dass KI genutzt wurde, und es ist anzugeben, wer der Autor der entsprechenden Botschaft ist. Ich bin zuversichtlich, dass es über kurz oder lang zu solchen Regelungen kommen wird. Diese sind freilich nicht Sache einer Schule oder einer Institution der Erwachsenenbildung, sondern Aufgabe des Gesetzgebers.

Darüber hinaus können KI-gestützte Anwendungen auch den Lernprozess selbst grundlegend verändern. Wir sprechen hier von einer Individualisierung und Personalisierung des Lernens. Wir können z.B. ein Video schneller oder langsamer abspielen, wir können Inhalte wiederholen oder überspringen. KI-gestütztes Lernen ist speziell für hör- oder sehbehinderte Menschen ein wahrer Segen, weil auf die verbleibenden starken Sinnesleistungen abgestellt werden kann. Und als Lehrer oder Lehrerin kann ich mich noch so bemühen, aber die KI ist im Grunde bei einer größeren Zahl von Schülerinnen und Schülern technisch immer überlegen: Sie merkt sich die bisher gemachten Fehler, sie geht auf Lernstrategien ein, und sie verliert nie die Geduld.

Hier stoßen wir allerdings erneut auf eine Systemgrenze von KI. Im Zusammenhang von Bildung und Erziehung ist es schließlich eine wesentliche Aufgabe, eher funktionale und eher kommunikative Lebensbereiche gut voneinander zu unterscheiden. Wenn jemand eine Brücke baut und eine Sitzung einberuft, dann geht es um einen zweckrationalen Zusammenhang, bei dem ein Protokoll sinnvoll ist. Beim Abendessen in der Familie wäre der Gedanke an ein „Ergebnisprotokoll“ jedoch höchst unpassend. Es gibt zwar reale „Ergebnisse“ des Abendessens wie Gesprächsinhalte und Kalorienaufnahme, aber im Vordergrund steht die gemeinsam verbrachte Familienzeit, ob man die nun neuerdings „Quality Time“ nennt oder nicht..

Diesen Unterschied zwischen zweckrationalem und kommunikativem Handeln hat Jürgen Habermas in seiner „Theorie des kommunikativen Handelns“ kenntnisreich ausgeführt. (J. Habermas 1981, Bd. 1 – 2). Die besondere Erfahrung von Schule zu Zeiten von Corona hat eindrucksvoll vor Augen geführt, dass digitale Hilfsmittel am Ende kein Ersatz für das soziale Ineinander und Miteinander am Lernort Schule sind. Denn wir brauchen eben auch den Kontakt mit anderen. Wir sind neugierig, wir vergleichen uns, wir setzen uns für andere ein oder grenzen uns von ihnen ab. Diese Art von sozialem Lernen geht weit über kognitive Lernprozesse hinaus und zahlt am Ende auf das ein, was wir zusammenfassend „Bildung“ nennen.

KI-gestütztes Lernen ist aber von Haus aus funktional. Sie sieht im Lernergebnis den Erfolg, in Fehlern eine Störgröße. Dadurch wächst freilich die Gefahr, dass Menschen eben grundsätzlich als eine defizitäre KI begriffen werden. Zu KI-gestütztem Lernen gehören die Zwillinge „Problem“ und „Lösung“. Der Zweifel und der Graubereich freilich gehören zu den blinden Flecken der KI.

Für umfassende Bildung und Erziehung ergibt sich aus der „Lösungsfixierung“ oder dem „Solutionism“ von KI eine besondere Herausforderung. Schließlich gibt es auf der Welt zahlreiche Probleme, die mehrere Lösungen zulassen, aber auch solche, für die es gar keine nebenwirkungsfreie und ideale Lösung gibt. Wenn ich mit Maschinenbauern und Ingenieuren Workshops über KI-Ethik veranstalte, bringe ich diesen Sachverhalt regelmäßig an den Anfang einer Lerneinheit ein. Denn für den Ingenieur gilt der Weg vom wohldefinierten Problem A zur Lösung B. Gesucht wird dann der beste, kürzeste und effizienteste Weg nach B. Für Ethiker und Philosophen gilt berufsmäßig ein ganz anderer Ansatz, denn sie lernen in ihrem Studium, die Lösung B noch einmal zu hinterfragen und beispielsweise auf mögliche Folgeprobleme zu prüfen. Beide Ansätze sind notwendig und hilfreich. Bildung und Erziehung dürfen allerdings nicht der Illusion Vorschub leisten, es gebe auf der Welt nur ingenieurmäßig zu lösende Probleme und Herausforderungen. Dafür ist die Welt zu vielfältig, und dafür haben Menschen viel zu unterschiedliche Voraussetzungen und Perspektiven.

Was wir brauchen ist also die oben erwähnte digitale Risikokompetenz und eine kritische KI-Kompetenz, bei der wir die Chancen KI-gestützter Ansätze würdigen, ohne ihre Risiken und Nebenwirkungen außer Acht zu lassen. Maßstab sollte dabei die Menschlichkeit im Sinn eines qualifizierten Begriffs von Humanität sein.

Nicht alles, was Menschen tun, ist human. Wenn wir das Prinzip der Humanität qualifiziert verstehen, dann geht es vor allem um die Entfaltung der besten Möglichkeiten des Menschseins und in diesem Sinn um eine Balance aus eigenem Wohlbefinden und dem Wohlergehen von sozialer und ökologischer Mitwelt und Umwelt. Denn zum Menschen gehört die Balance aus der eigenen Verletzlichkeit und seiner Schöpferkraft, aus seinem legitimen Eigeninteresse und dem Wunsch nach Sinn und sozialer Anerkennung. In diesem Sinn ist auch der humanistische Imperativ der digitalen Welt zu verstehen, den ich in meinem Buch „Kritik der digitalen Vernunft“ ausformuliert hatte und der schlicht lautet: „Hemmt oder fördert eine digitale Applikation die Menschlichkeit?“ (U. Hemel 2020)

SCHLUSS: DIGITALE SELBSTBESTIMMUNG UND DIGITALE FAIRNESS
ALS ZIEL DES UMGANGS MIT KI

Bildung und Erziehung müssen immer auf die Herausforderungen in einer Gesellschaft reagieren, brauchen dafür aber auch Zeit. Inzwischen herrscht Einigkeit darüber, dass wir in einer digitalen Welt leben, an der Bildung und Erziehung nicht mehr vorbeigehen können.

Was aber wollen und was sollen wir lernen? KI-gestützte Systeme prägen unseren Alltag, bis hin zur Politik, bis hin zur Energieversorgung, bis hin zu Krieg und Frieden. In den USA wurden 2024 stillgelegte Kernkraftwerke älterer Technik mit dem Argument reaktiviert, der Energiehunger von Firmen für KI-Anwendungen sei so groß, dass ihr Output dringend gebraucht würde. Und KI-gestützte Killerdrohnen identifizieren ihre Ziele und führen letztlich zu außergerichtlichen Hinrichtungen. Das aber ist ein Verlust an Humanität und entspricht – weder in der Ukraine noch in Palästina – in keiner Art und Weise der Genfer Kriegsrechts-Konvention. Diese stammt freilich aus dem 19. Jahrhundert und muss dringend überarbeitet werden.

Bildung und Erziehung haben hier, wie schon so oft in der Geschichte, eine doppelte Aufgabe und einen doppelten Wert. Sie dienen der „Welterschließung“ durch das Erlernen möglicher und heute nötiger Kulturtechniken. Sie leisten gleichzeitig einen Beitrag zur persönlichen Kompetenzentfaltung, indem sie kritische Reflexion ermöglichen und zu ihr ermutigen. Dazu ist es hilfreich, die Chancen und die Grenzen KI-gestützter Systeme zu erkennen, von den Grenzen durch eingeschränkte Trainingsdaten bis zu möglichen Diskriminierungen, vom Risiko des Machtmissbrauchs durch staatliche oder private Akteure bis umgekehrt zur Chance auf bessere medizinische Versorgung, enorme Fortschritte in den Lebenswissenschaften, Erleichterung bei der Erfüllung von Routineaufgaben, schwerer physischer Arbeit und vielem mehr.

Technischer Fortschritt ist von Haus aus janusköpfig. Er bietet neue Möglichkeiten, aber auch neue Gefahren. Wie die Gesellschaft mit beiden Seiten der KI umgeht, ist eine heute noch offene Frage. Sie ist freilich zukunftsentscheidend, denn Menschen sind Personen mit einer unveräußerlichen Würde und einem Selbstbestimmungsrecht. Sie sind weder angepasste Marionetten eines erzieherisch wirkenden Staates noch willfährige Konsumentinnen und Konsumenten entlang kommerzieller Interessen in der Hand weniger Tech-Milliardäre. Aus diesem Grund ist weder der Weg der hemmungslosen Kommerzialisierung von KI wie in den USA, noch der Pfad der ausufernden Staatskontrolle wie in Russland und China langfristig überzeugend.

So mühsam die Suche nach immer wieder neuen Konsenslinien sein mag, so sinnvoll ist es daher, die europäische Suche nach Balance zwischen Individualwohl und Gemeinwohl, zwischen dem Recht der einzelnen Person und den Interessen von Firmen, Institutionen und Staaten klug gegeneinander abzuwägen. Anders gesagt: Gute KI-Bildung muss auf dem ethischen Auge wachsamer und kritischer werden, als dies bisher der Fall ist. Sie kann und muss für Organisationen, gleich ob staatliche Institutionen oder private Unternehmen, am Ziel digitaler Fairness Maß nehmen (vgl. U. Hemel 2022, 53 – 70). Denn „Fairness“ ist ein Wert der Zuschreibung durch fremde Dritte, nicht der eitlen Selbstzuschreibung. Sie muss daher durch Verhaltensweisen errungen werden, von denen jene fremde Dritte sagen können, dass sie fair sind.

Ähnliches gilt für Personen. Die Alltagspraxis von Bildung und Erziehung, gleich ob in schulischen oder außerschulischen Bildungskontexten, ob in der Freizeit oder im beruflichen Alltag, sollte das Ziel der Befähigung zur digitalen Selbstbestimmung (vgl. U. Hemel 2023, 15) nicht aus den Augen verlieren. Dies lässt sich durchaus als Weiterführung des Humboldtschen Bildungsideals in digitalen Zeiten verstehen, denn die besondere Fähigkeit, sich selbst Ziele zu setzen und sogar mitten auf dem Weg zur Zielerreichung eine grundlegende Zielkorrektur vorzunehmen, das bleibt nach wie vor eine besondere menschliche Fähigkeit. Anders gesagt: Bildung befähigt uns, die Freiheitsgrade einer menschlichen Person über alle Systemgrenzen und Beschränkungen hinaus einzuüben und in unserem Leben zu realisieren.

Es ist kein Zufall, dass hier auch eine neue Form der Orientierung durch die Tradition der Christlichen Soziallehre greifen kann. In ihrer klassischen Form, entstanden als Reaktion auf die Herausforderungen der Industrialisierung am Ende des 19.Jahrhunderts, bezieht sie sich auf die drei Prinzipien der Personalität, der Subsidiarität und der Solidarität. Papst Franziskus hat diese Soziallehre mit seinen Enzykliken „Laudato Sí“ (24. Mai 2015) und „Fratelli Tutti“ (4. Oktober 2020) durch das Prinzip der „Nachhaltigkeit“ ergänzt. Papst Leo XIV. hat sich im Mai 2025 mit der Wahl seines Namens in die Tradition von Leo XIII. (Papst von 1878-1903) gestellt, dem Begründer der Christlichen Soziallehre mit der Enzyklika „Rerum Novarum“ (1891). Er hält damit an der Aktualität und Bedeutung dieser Soziallehre fest!

Tatsächlich ist die Forderung nach digitaler Selbstbestimmung, nach digitaler Souveränität oder digitaler Autonomie letztlich eine Ausfaltung des Personalitätsprinzips. Die Person steht im Mittelpunkt, an ihr muss Technik sich messen! Nicht der Mensch dient der Technik, sondern die Technik muss dem Menschen dienen. Für gute Bildung und Erziehung wird es zukünftig noch mehr darum gehen müssen, Empathie und Empathiefähigkeit zu fördern. Denn wenn die direkte Mensch-zu-Mensch-Interaktion im Verhältnis zur Mensch-Maschine-Interaktion immer weiter in den Hintergrund rückt, verändern sich auch Kommunikationsgewohnheiten. Wir müssen dann immer wieder neu lernen, dass Menschen zu Überraschungen fähig sind und dass sie – anders als Maschinen – Freude und Leid empfinden.

Auch die Prinzipien der Subsidiarität und der Solidarität können gut auf die digitale Welt angewandt werden und sind vielleicht zu übersetzen mit der Frage nach dem richtigen Ort der Verantwortung. Ein Teil dieser Frage hängt mit der Frage nach der Rolle des Staates im digitalen Raum zusammen. Wo werden meine Daten gespeichert? Wer hat wie lange und unter welchen Voraussetzungen Zugriff auf sie? Wie wirksam sind Sanktionen bei Verstößen gegen eine verantwortungsvolle Daten-Ethik und wer setzt sie durch? Diese Fragen gehen weit über die bisher vorherrschende Deutung nach zentraler und dezentraler Entscheidungsfindung hinaus. Sie berühren das Selbstverständnis von großen Organisationen, von Völkern, von Staaten, ja der globalen Zivilgesellschaft in ihrer Gesamtheit.

Es wird Zeit, dass wir die entsprechenden Aufgaben auch im Horizont der Orientierung an solchen Werten aktiv aufgreifen. Dabei kann das Modell inklusiver Entwicklung als Leitfaden dienen, bei dem ökonomische, ökologische, soziale und ethische Faktoren ineinandergreifen (vgl. U. Hemel 2025, 157-170). Denn der Ende April 2025 verstorbene Papst Franziskus hatte durchaus die richtige Intuition: Nur in der Verbindung aller Dimensionen können wir eine lebenswerte Welt für alle in der Balance aus Wohlstand, Nachhaltigkeit und sozialem Ausgleich schaffen. Dass bereits heute rund 12 Prozent des weltweiten Energieverbrauchs durch digitale Anwendungen, besonders stark durch Kryptowährungen und KI-Applikationen, benötigt werden, ist Teil der globalen Herausforderung in Gegenwart und Zukunft.

In Zukunft brauchen wir eine gute Verbindung zwischen einer kritischen KI-Kompetenz und einem guten digitalen Risikomanagement, individuell und kollektiv. Damit kommt auch die oben erwähnte sozialethische und politische Dimension von KI ins Spiel.

In der Gesellschaft nimmt insbesondere die Sensibilität für die Bedeutung von Daten-Ethik stetig zu. Dabei geht es nicht nur um den Schutz vor Fake News, sondern auch um politisch umfassende Zielsetzungen wie das erwähnte Transparenzgebot von Chatbots oder die Einrichtung eines internationalen Digitalgerichtshofs zur Verteidigung von Persönlichkeitsrechten gegenüber Staaten, die es ihren Angehörigen nicht erlauben, solche Rechte wirksam einzuklagen.

Dass hier noch ein weiter Weg zu gehen ist, versteht sich von selbst. Dass wir aber auch in interessanten Zeiten mit großen Möglichkeiten der Mitgestaltung leben, das ist die andere, durchaus spannende Seite der Medaille!

Literatur:

Carl B. Frey, Michael A. Osborne, The Future of Employment: How Susceptible are Jobs to Computerisation, in: Technological Forecasting and Social Change, Amsterdam 2017, 114, 254 – 280.
Jürgen Habermas, Theorie des kommunikativen Handelns, Frankfurt/M. Bd.1 – 2, 1981.
Ulrich Hemel, Kritik der digitalen Vernunft, Freiburg/Br.: Herder 2020.
Ulrich Hemel, Ist die Christliche Soziallehre in einer digitalen Welt zukunftsfähig? Grüne Reihe Nr. 488, hrsg. Von der Katholischen Sozialwissenschaftlichen Zentralstelle, Mönchengladbach 2022.
Ulrich Hemel, Digitale Fairness und digitale Humanität- Was heißt Verantwortung in der digitalen Welt? In: Reinhard Kahle, Niels Weidtmann (Hrsg.), Verantwortung, Ein Begriff in seiner Aktualität, Paderborn: Brill-Mentis 2022, 53 – 70 (= U. Hemel 2022 b).
Ulrich Hemel, Datenethik zwischen gesellschaftlichem Anspruch und betrieblicher Praxis, in: Andreas Gillhuber, Göran Kauermann, Wolfgang Hausner (Hrsg.), Künstliche Intelligenz und Data Science in Theorie und Praxis, Von Algorithmen und Methoden zur praktischen Umsetzung in Unternehmen, Berlin: Springer 2023, Seite 93 – 105.
Ulrich Hemel, Digitale Bildung, Datenethik und die Zukunft der Zivilgesellschaft, in: Martin Schreiner (Hrsg.), Religiöse Bildung und Digitalität, Münster: Waxmann 2023, 11 – 24.
Ulrich Hemel, Digitale Risikokompetenz entwickeln, Ethik – Datenschutz – Inklusion und die Herausforderung ganzheitlicher digitaler Bildung, in: Weiterbildung 2024, Nr.4 (August 2024), S. 25 – 29.
Ulrich Hemel, Der Index inklusiver Entwicklung als Handlungspfad zu menschenwürdiger Globalisierung und zu einem globalen Ökosozialfonds, in: Jahrbuch Nachhaltige Ökonomie 2023/2024, Marburg: Metropolis-Verlag 2025, 157-170
Armin Nassehi, Muster, Theorie der digitalen Gesellschaft, München: C. H. Beck 2019.
Sarah Spiekermann, Digitale Ethik, Ein Wertesystem für das 21. Jahrhundert, München: Droemer 2019.

Das könnte dich auch interessieren …