In Öffentlichkeit, Medien, Wissenschaft, Wirtschaft und selbst Religion sorgt seit November 2022 die neue Software ChatGPT für einen aufgeregten Diskurs. Überholt „Künstliche Intelligenz“ bald menschliche Intelligenz? Werden autonom lernfähige Maschinen die Kontrolle über alle Bereiche der Gesellschaft übernehmen? Die Begeisterung hierüber vermischt sich mit erheblichen Zweifeln ethisch-moralischer Natur. Wird das zum Albtraum, oder ist das alles nur ein Hype, der wieder abflaut?
Gleich vorweg: Dieser Artikel kann nur einen kurzen Impuls zur weiteren Auseinandersetzung geben, die eher noch am Anfang steht. Nicht mehr und nicht weniger. ChatGPT (siehe Anmerkung) wird derzeit in der Öffentlichkeit als eine Art „Flaggschiff“ der Künstlichen Intelligenz (KI) wahrgenommen. Dabei ist es nur eines von mehreren bereits bestehenden Systemen dieser Art. In der Rekordzeit von 6 Monaten zog es weltweit über 100 Millionen Internetnutzer an. Dieses KI-gestützte Sprachmodell produziert zu einer Frage oder einem Stichwort eine Antwort, eine fertige Rede oder sogar eine Examensarbeit. Je nach geforderter Länge schnell, detailliert und in gutem Deutsch. Klug aufbereitet anhand des Wissens, das bereits in Millionen Internetseiten steckt. Alles dank eines Algorithmus, der in unvorstellbarer Geschwindigkeit die statistisch wahrscheinlichste, aber dennoch Sinn ergebende Wortfolge konstruiert. Dies allerdings erst, nachdem er zuvor eine aufwändige „Trainingsphase“ durchlaufen hatte.
Fest steht, dass „selbstständig lernende Systeme“ bereits jetzt in gewisser Hinsicht mehr leisten als menschliche Gehirne. Mit ihrer Funktionsweise über sogenannte „neuronale Netze“ versuchen diese Systeme das menschliche Gehirn so weit wie möglich nachzuahmen, dessen außerordentliche Komplexität allerdings selbst noch geheimnisvoll ist und weiter erforscht wird. Generell sollen KI-Systeme umfangreiche Aufgaben, von Sprach- oder Bilderkennung bis hin zu autonomen Entscheidungen, lösen und damit der menschlichen Intelligenz nahekommen. Als Anwendungsgebiete wird alles in den Blick genommen, egal ob Gesundheit, Forschung, Bildung, öffentliche Verwaltung, Wirtschaft – oder auch Militär und Kriegsführung.
Die Begeisterung hierfür war schon im deutschen „Wissenschaftsjahr 2019“ deutlich, als KI zu dessen Schwerpunkt erklärt wurde. Zur Eröffnung hieß es in einer Presseerklärung des Bundesministeriums für Bildung und Forschung:
Wir wollen die Chancen, die Künstliche Intelligenz birgt, erkennen und ergreifen. Wissenschaft und Forschung sind wichtige Treiber, damit dies gelingt. Sie tragen auch dazu bei, mögliche Risiken abzufedern. KI soll von Menschen für Menschen gemacht werden – das ist mir wichtig", betont Bundesministerin Anja Karliczek. Als Beitrag zur KI-Strategie der Bundesregierung regt das aktuelle Wissenschaftsjahr Bürgerinnen und Bürger an, sich intensiver mit KI zu beschäftigen.
Pressemitteilung 020/2019 des Bundesministeriums für Bildung und Forschung
Viele sehen in KI eine der größten Entdeckungen der Menschheit. Andere befürchten allerdings deren Untergang. Überwiegen die Risiken die Chancen? Werden Arbeitsplätze in großem Stil vernichtet? Werden Computer über Patienten entscheiden? Werden Computer Wählermeinungen manipulieren, also Menschen mit intransparenten Methoden steuern?
Selbst Philosophen diskutieren die Frage, ob KI nicht so etwas wie ein eigenes „Bewusstsein“ entwickeln kann. Vielleicht anders als das menschliche Bewusstsein, aber mit einer Art „künstlicher Moral“ und Empfinden für Schuld oder Mitgefühl? Beruhigend mag hier sein, dass wir selbst menschliches Bewusstsein nur in kleinen Teilen, in Bruchstücken wie Wahrnehmung, Empfinden oder Selbstreflexion verstehen. Was Bewusstsein wirklich ist, hat noch kein Mensch entschlüsselt.
Beflügelt wird diese Diskussion durch die Ähnlichkeit des KI-Aufbaus mit den neuronalen Netzen im menschlichen Gehirn. Die ständig zunehmende Leistungsfähigkeit der Datenverarbeitung beschert uns die Aussicht auf eine maschinelle „Superintelligenz“ - und somit die Angst, Maschinen könnten uns bald überlegen sein. Entgleitet die KI möglicherweise weit mehr unserer Kontrolle, als dies in einer zunehmend komplexen Welt bereits der Fall ist?
Kritische Stimmen
Seit einigen Jahren ertönen daher besorgte und warnende Stimmen. Zu Wort melden sich Privatleute, Kulturschaffende, Wissenschaftler aller Fachrichtungen, verantwortungsbewusste Politiker oder Vertreter von Kirchen und Religionsgemeinschaften.
Die Baha'i-Religion nimmt hier auf ihre Weise Stellung. Sowohl durch die Rolle, die in ihr Wissenschaft und Religion zukommen, als auch durch die zentrale Bedeutung der Einheit der ganzen Menschheit in ihren Lehren. Im Februar 2021 warnte eine Vertreterin der Baha'i International Community (BIC) auf der 59. Sitzung der UN-Kommission für Soziale Entwicklung vor der Gefahr, dass trotz des großen Potenzials der KI mögliche unerwünschte Folgeerscheinungen weltweit Ungerechtigkeit vergrößern könnten. Die derzeitige Hochgeschwindigkeit bei der KI-Entwicklung steht einer ausreichenden Berücksichtigung ethisch-moralischer Herausforderungen im Weg:
Aufstrebende Technologien wie künstliche Intelligenz besitzen ein großes Potenzial, den menschlichen Geist zu nutzen, um die drängendsten Herausforderungen der Menschheit anzugehen. Eine Herausforderung, der wir heute begegnen, liegt darin, dass die Geschwindigkeit des technologischen Fortschritts die Fähigkeit überholt, darüber zu reflektieren.
Soraya Bagheri, Baha'i International Community (Übersetzung der Redaktion)
Im April 2023 haben zahlreiche Prominente – unter ihnen der Unternehmer Elon Musk sowie namhafte Entwickler von ChatGPT – in einem Offenen Brief eine „Ruhepause“ von 6 Monaten gefordert. Sie sollte für alles gelten, was über den derzeitigen Stand von ChatGPT hinausgeht. Es sollte umfassend öffentlich diskutiert werden, welche Folgen eine superintelligente KI haben könnte. Sie forderten ein Einschreiten von Regierungen, falls die zuständigen Labore diese Forderung nicht umsetzen würden. Darauf reagierte eine bekannte deutsche Wochenzeitung mit der Frage: „Fürchten sich jetzt sogar die Erfinder?“ (ZEIT Nr. 16, 13. April 2023). Oder wird hier nur ein werbewirksames Problembewusstsein über denkbare nicht kontrollierbare ethisch-moralische Konflikte vorgetäuscht?
Mehr noch. Zusammen mit Hunderten (auch deutschen) KI-Experten erhoben die Chef-Entwickler von OpenAI/ChatGPT (Sam Altman) und Google/„Deepmind“ (Demis Hassabis) ihre Stimme. Ende Mai 2023 warnten sie in einem Offenen Brief in einer knappen, aber drastischen Botschaft vor den Gefahren einer unregulierten „Maschinenintelligenz“:
Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie Pandemien oder Atomkriege.
Was sagt ChatGPT selbst zu diesem ethisch-moralischen Risiko?
Aus Neugierde habe ich ChatGPT Mitte Juni 2023 folgende Frage gestellt: „Ist künstliche Intelligenz in der Lage, ethisch-moralische Probleme zu lösen?“ Ich erhielt binnen 20 Sekunden folgende Antwort:
„Die Fähigkeit von künstlicher Intelligenz (KI), ethisch-moralische Probleme zu lösen, ist ein kontroverses Thema, das weiterhin intensiv diskutiert wird. KI-Systeme sind darauf ausgelegt, bestimmte Aufgaben auf Basis von Algorithmen und Datenverarbeitung zu erfüllen. Sie besitzen jedoch keine eigenen moralischen Werte, Empfindungen oder eine umfassende ethische Sensibilität.
Ethik und Moral sind komplexe menschliche Konzepte, die auf kulturellen Normen, Wertvorstellungen und sozialen Überzeugungen basieren. Die Lösung ethisch-moralischer Probleme erfordert häufig Abwägungen zwischen verschiedenen Werten, Kontextualisierung und moralische Reflexion. Dies sind Fähigkeiten, die typischerweise mit menschlichem Bewusstsein und moralischer Urteilsfähigkeit verbunden sind.
Dennoch können bestimmte Aspekte der KI-Technologie bei der Unterstützung ethischer Entscheidungsfindung helfen. Zum Beispiel können KI-Systeme große Datenmengen analysieren und Informationen bereitstellen, die bei der Bewertung ethischer Implikationen unterstützen können. Auch die Entwicklung von ethischen Richtlinien und Prinzipien für den Einsatz von KI-Systemen ist ein wichtiger Schritt, um potenziell negative Auswirkungen zu minimieren und soziale Verantwortung zu gewährleisten.
Die Lösung ethisch-moralischer Probleme erfordert jedoch oft menschliche Werte, moralische Reflexion und eine ganzheitliche Betrachtung der Situation. Es ist wichtig anzuerkennen, dass KI-Systeme Entscheidungen auf Basis von Algorithmen und Daten treffen und dass diese Daten und Algorithmen fehlerhaft oder voreingenommen sein können. Eine rein algorithmische Lösung ethischer Fragen kann daher problematisch sein.
Letztendlich liegt die Verantwortung für die Lösung ethisch-moralischer Probleme bei den Menschen, die KI entwickeln, implementieren und nutzen. Es erfordert eine umfassende Betrachtung der Auswirkungen, eine ethische Reflexion und gesellschaftlichen Diskurs, um sicherzustellen, dass KI im Einklang mit unseren gemeinsamen Werten und moralischen Prinzipien handelt.“
OpenAI, 2023
Diese Antwort klingt durchaus selbstkritisch und problembewusst. Doch wurde sie in der bisherigen Entwicklung berücksichtigt?
Zunächst: Obige Antwort ist alles andere als in Stein gemeißelt, da die Texterzeugung auf Wahrscheinlichkeiten beruht und daher immer auch ein Element des Zufalls enthält. Das bedeutet, dass auch laufend Variationen der Formulierung möglich sind. Es erklärt aber nicht befriedigend, dass ich auf die identische Frage einen Monat zuvor (Mitte Mai) eine nur etwa halb so lange Antwort erhielt, mit der finalen Kernaussage: “Daher ist es wichtig, dass bei der Entwicklung von KI-Systemen eine starke ethische Grundlage gelegt wird und dass diese Systeme so gestaltet werden, dass sie ethischen Richtlinien folgen. Darüber hinaus ist es wichtig, dass KI-Systeme von Menschen überwacht werden, um sicherzustellen, dass sie ethisch korrekte Entscheidungen treffen.“ Auf mich wirkte das recht selbstgewiss, wenn nicht naiv und illusionär.
Wie kann es sein, dass eine Antwort auf dieselbe Frage nur einen Monat später so anders ausfällt? Ist es Zufall? Bekannt ist, dass die Trainingsphase der Algorithmen im Fall von ChatGPT (genau genommen das derzeit verbreitet genutzte ChatGPT3) bereits im September 2021 abgeschlossen wurde. Hierzu befragt, antwortet ChatGPT: „OpenAI kann nach dem Trainingszeitpunkt Aktualisierungen und Verbesserungen an den Modellen von ChatGPT vornehmen. Diese Aktualisierungen können zu leichten Veränderungen in der Antwortgenerierung führen, um beispielsweise frühere Fehler oder Schwächen zu korrigieren.“ War der Unterschied zwischen den Versionen eine im Eiltempo gesteuerte Reaktion auf die intensive und kontrovers geführte mediale Diskussion nach den beiden Offenen Briefen? Waren letztere selbst in erster Linie gezielt als werbewirksame „Selbsterkenntnis“ eingesetzt? Wo bleiben dann, wie oben so schön gefordert, „ethische Reflexion und gesellschaftlicher Diskurs“?
Abgesehen davon - wer legt eigentlich diese „ethischen Richtlinien“ und „gemeinsamen Werte“ fest und überwacht ihre Umsetzung? Immerhin erwarten Tech-Giganten riesige Gewinne und entwickeln daher aus Wettbewerbsgründen ihre KI hinter verschlossenen Türen. Bisher. Dass Maschinen menschenähnliche Sprache liefern, war eine große Überraschung. Das hat Furcht und Albträume vor unbekannter Weiterentwicklung erzeugt. An eine echte Regulierung „im Nachhinein“ glaubt kaum jemand. Was bringt es da, Pausieren zu fordern, oder das Problem mit der Atombombe zu vergleichen?
Es besteht ein großes Spannungsfeld zwischen einerseits ethisch-moralischen Maßstäben und andererseits wissenschaftlich-technischem Fortschritt mit wirtschaftlichem Machtstreben. Beispiel Klimaproblem: Obwohl Öl-Konzerne schon in den 1970er Jahren durch eigene wissenschaftliche Forschung – ebenso hinter verschlossenen Türen - die drohende Klimakatastrophe erkannt hatten, hielten sie diese Erkenntnisse geheim. Nach außen hin leugneten sie jahrzehntelang den Klimawandel und bremsten ihn aufhaltende Maßnahmen - zu Gunsten gewaltiger Gewinne (siehe auch „Die Moderne, moderne Krisen, Schatten – und Licht!"
Wissenschaft versus Moral oder Religion? Eine Baha'i-Perspektive
Religion und Wissenschaft stehen nach den Baha'i-Schriften in enger Verbindung, sind aber dennoch grundverschieden:
Religion ist Religion und Wissenschaft ist Wissenschaft. Die eine erkennt und artikuliert die Werte, die sich durch göttliche Offenbarung fortschreitend entfalten; die andere ist das Instrument, durch das der menschliche Geist forscht und fähig wird, immer genauer auf die stoffliche Welt Einfluss zu nehmen.
Universales Haus der Gerechtigkeit, Ein gemeinsamer Glaube
Der „menschliche Geist“ kann hier als Spiegelung der Seele im menschlichen Körper verstanden werden, wobei die Seele selbst als nicht der materiellen Welt zugehörig gilt. Sehen wir das Bewusstsein als Teil dieser Spiegelung, dann können wir KI auch nicht die Fähigkeit zu eigenem Bewusstsein zuschreiben.
Religion als Grundlage von Ethik und Moral ist demnach als Gegengewicht zum wissenschaftlich-technischen Fortschritt unverzichtbar. Der Gedanke eines notwendigen Gleichgewichts zwischen den beiden ist einer der zentralen Grundsätze der Baha'i-Lehren. Die Menschheit wird mit einem Vogel verglichen, der zwei Flügel hat:
Religion und Wissenschaft sind die beiden Flügel, auf denen sich die menschliche Geisteskraft zur Höhe erheben und mit denen die menschliche Seele Fortschritte machen kann. Mit einem Flügel allein kann man unmöglich fliegen: Wenn jemand, versuchen wollte, nur mit dem Flügel der Religion zu fliegen, so würde er rasch in den Sumpf des Aberglaubens stürzen, während er andererseits nur mit dem Flügel der Wissenschaft auch keinen Fortschritt machen, sondern in den hoffnungslosen Morast des Materialismus fallen würde.
Abdu'l-Baha, Ansprachen in Paris
Materialismus umschreibt hier puren Eigennutz, einseitigen Profit oder Machtgewinn und die daraus resultierende Ungerechtigkeit. Die Gefahr des Abgleitens in Materialismus geht aber nicht von der wissenschaftlichen Entdeckung als solcher aus, sondern von ihrer technologischen und ökonomischen Umsetzung. Beispielsweise war die Entdeckung der atomaren Kernkraft zunächst ein wertneutrales Ergebnis menschlicher Erkenntnis. Erst ihre Umsetzung in eine zerstörerische Bombe wurde zum Problem.
Über die möglichen Risiken der weltweiten Verschärfung von Ungleichheit und Ungerechtigkeit durch die digitale technologisch-ökonomische Entwicklung schrieb die Baha'i International Community in einem Dokument für die 59. Sitzung der UN-Kommission für Soziale Entwicklung:
Wie sich in den letzten Jahren immer deutlicher gezeigt hat, sind digitale Technologien nicht von Natur aus neutral. Technologische Innovationen sind, ähnlich wie das vorherrschende Entwicklungsparadigma, tief von materialistischen Grundlagen beeinflusst. Maßgebliche Vorstellungen von Fortschritt fußen größtenteils auf der Annahme, dass der Erwerb von Gütern zu einem höheren Wohlstand führt. Lösungen werden basierend auf diesen Annahmen entwickelt und weit verbreitet, ohne soziale, ethische und geistig-spirituelle Auswirkungen zu berücksichtigen. ...
Die Menschheit wird zu immer größerer Integration vorangetrieben. …. Wir haben die Werkzeuge, sowohl durch digitale Technologien selbst als auch durch echte Konsultation, um einen gerechten Übergang zu gewährleisten. Wir haben die Möglichkeit, jene historisch Ausgeschlossenen daran zu beteiligen, über die zukünftigen Belange der Menschheit mitzureden.
Baha'i International Community, New York, 8. Februar 2021: „Reflexion unserer Werte: Digitale Technologien und ein gerechter Übergang“ (Übersetzung der Redaktion)
Um alle Mitglieder der menschlichen Familie an den Angelegenheiten der Welt zu beteiligen, muss eine Voraussetzung erfüllt werden: KI darf nicht weiter im Verborgenen entwickelt werden. Bisher herrscht angesichts des zunehmenden Konkurrenzkampfes und wachsender ideologischer Gräben eine große Geheimniskrämerei um KI. Damit die Zukunft für die gesamte Menschheit lebenswert wird, müssen wir jedoch in allen Phasen der KI-Entwicklung, ihres Selbstlernens und ihrer Anwendung sicherstellen, dass vorgegebene Werte verbindlich als Kompass dienen. Diese Werte müssen sich am Wohl der ganzen Menschheit orientieren. Ohne Religion als eigenständige Quelle solcher Werte ist dies kaum denkbar.
Ist die Menschheit schon reif für eine wertebasierte KI? Derzeit ist sie so sehr gespalten und „von materialistischen Grundlagen“ beeinflusst oder gar beherrscht – vielleicht zu sehr? Die Schwierigkeit, sich auf eine gemeinsame Wertebasis zu einigen, dürfte weit größer sein, als alle Herausforderungen bei der Entwicklung digitaler Technologien. Nur eine solche Einigung kann aber bewirken, dass Vertrauen in die Zukunft zurückgewonnen wird - und das ist notwendig, um die Gesellschaft vor Zerfallserscheinungen zu schützen.
Anmerkung des Autors
Diese Erklärung liefert das durch den US-Konzern OpenAI entwickelte ChatGPT bei Befragung direkt: ChatGPT steht für „Chat-based GPT“ (Generative Pre-trained Transformer). GPT-3, das Modell hinter ChatGPT, ist ein Sprachmodell, das auf dem Transformer-Netzwerk basiert und darauf trainiert wurde, natürliche Sprache zu verstehen und zu generieren. Das „Chat“ in ChatGPT bezieht sich auf die Fähigkeit des Modells, interaktive Konversationen mit Benutzern zu führen und auf Fragen und Anfragen zu antworten.
Ingo Hofmann studierte Physik in München und war über drei Jahrzehnte im Raum Darmstadt-Frankfurt in der Forschung und als Hochschullehrer tätig. Er ist Vater von vier Kindern und lebt seit einigen Jahren in Potsdam, Brandenburg.
Photo von Pavel Danilyuk auf Pexels