In Zeiten, wo viele von uns Korrespondenz mehr oder weniger schluderig über Messenger-Apps und per E-Mail erledigen, gewinnen Briefe plötzlich wieder an Bedeutung. Vor allem, wenn es sich um sogenannte «offene Briefe» handelt. Sie sind jüngst zum bevorzugten Stilmittel von Expert:innen unterschiedlicher Couleur geworden.
Ihre Absicht? Sie warnen die Menschheit vor existenziellen Risiken wie dem Klimawandel und neuerdings Auslöschung der Menschheit durch Künstliche Intelligenz.
So haben kürzlich mehrere Hundert Führungskräfte, Forschende und Ingenieur:innen einen Brief unterzeichnet, in dem wörtlich gefordert wird, dass die Minderung des Risikos des «Aussterbens durch KI» (sic!) eine globale Priorität neben anderen Risiken von gesellschaftlichem Ausmass wie Pandemien und Atomkrieg sein sollte. Auch die katastrophalen Folgen des Klimawandels sind immer wieder Gegenstand von offenen Briefen.
Es scheint, als hätten wir eine wahrhaftige Qual der Wahl, nämlich diejenige zwischen verschiedenen Wegen in die Apokalypse. Aber worum geht es hier eigentlich? Befinden wir uns gerade in einem poly-apokalyptischen Zeitalter, oder sind Weltuntergangsfantasien einfach ein neuer PR-Gag, mit dem sich gut Aufmerksamkeit erzielen lässt?
Klar ist: Die zwei Szenarien – Klimawandel und Auslöschung der Menschheit durch KI – unterscheiden sich fundamental voneinander.
Vage Weltuntergangsszenarien als Basis für diffuse Drohungen
Mit dem Klimawandel befassen sich Wissenschafter:innen weltweit seit Jahrzehnten. Inzwischen liegen Unmengen an Daten vor. Und diese zeigen immer drastischere Szenarien auf. Wir verstehen den kausalen Zusammenhang zwischen CO2-Ausstoss und Klimaerwärmung, wir kennen die zu erwartenden Konsequenzen, und wir spüren sie bereits jetzt deutlich. Wir wissen ungefähr, wer wo wie viel CO2 verursacht, und wir wissen auch, was wir tun müssten, um diesen Ausstoss massiv zu senken und damit der Menschheit eine bessere – oder zumindest weniger schlechte – Zukunft zu ermöglichen.
Und bei der Auslöschung der Menschheit durch künstliche Intelligenz? Nun ja, hier haben wir vor allem eines … Fantasie! Und diese erzeugt vage Weltuntergangsszenarien, die wiederum als Basis für diffuse Drohungen dienen werden.
Interessanterweise unterschreiben ausgerechnet diejenigen Expert:innen die Warnbriefe zur existenziellen Auslöschung durch KI, die den Fortschritt auf dem Gebiet massgeblich vorangetrieben haben. Jahrelang forschten und entwickelten sie ihre Wunderwaffe nach der Lieblings-Logik des Silicon Valley: «move fast and break things». Nun erwachen sie und geben sich erschrocken darüber, was sie angerichtet haben. Goethes Zauberlehrling lässt grüssen!
In einem der jüngsten offenen Briefe vergleichen die Absender:innen die Warnung vor der KI, die sie selbst geschaffen haben, denn auch tatsächlich mit der Warnung von J. Robert Oppenheimer, dem «Vater der Atombombe», vor den möglichen Auswirkungen seiner Erfindung.
Gefahr aus der Zukunft?
Und während einige der KI-Apokalyptiker:innen vordergründig Regulierung verlangen, um die Schäden einzudämmen, krebsen sie sehr schnell zurück, wenn demokratisch legitimierte Institutionen Nägel mit Köpfen machen wollen. So geschehen, als kürzlich Open-AI-Boss Sam Altman drohte, die EU zu verlassen, wenn diese per Gesetz mehr Transparenz zu grossen Sprachmodellen wie ChatGPT verlangen würde. Regulierung ist willkommen, solange sie gewisse Forscher:innen nicht in ihrem aktuellen Schaffen behindert.
Denn der Gefahrenfokus von Open AI und Konsorten liegt nicht auf dem Hier und Jetzt. In aktuellen Anwendungen gibt es bereits gravierende ethische Probleme wie Überwachung, Diskriminierung, Copyright-Verletzungen und so weiter. Viele Menschen, aber offensichtlich nicht die Briefeschreiber:innen selber, erleben diese Probleme bereits real. Oder warum würden sie sonst ihren Fokus auf einen willkürlichen Punkt in der Zukunft legen?
Die Absender:innen jagen der Öffentlichkeit Angst vor dem Ende der Menschheit durch eine böswillige Super-KI ein – eben indem sie von einem nicht näher bestimmten Risiko des «Aussterbens durch KI» reden –, nur um sich selbst dabei als die gutherzigen Experten zu präsentieren, die uns vor hypothetischen Schäden bewahren. Aber damit sie das tun können, erwarten sie, dass man ihnen die Macht, das Geld und ihre marktbeherrschende Stellung überlässt. Die Frage ist: Wollen wir wirklich den Bock zum Gärtner machen?
Wie würden wir reagieren, wenn die Erdölindustrie plötzlich Warnbriefe zum Klimawandel publizieren und sich als Retterin für die Krise präsentieren würde, die sie massgeblich mitverursacht hat? Und was würden wir davon halten, wenn sie sich dabei nicht auf das Hier und Jetzt konzentrieren würde, sondern auf einen Zeithorizont, der mehrere Dekaden in der Zukunft liegt? Was würden wir tun, wenn sie Forderungen nach Einschränkungen des aktuellen CO2-Ausstosses nicht nur ignorieren, sondern aktiv bekämpfen würde, mit dem Argument, dass diese nicht existenziell seien und sie in ihrer Rettungsmission behindern würden? Wir würden wohl nur den Kopf schütteln.
Auch künstliche Intelligenz ist vom Klimawandel bedroht
Ausserdem: Wenn die Unterzeichner:innen der KI-Warnbriefe wirklich glauben, dass die bestehenden KI-Systeme oder ihre unmittelbaren Nachfolger uns alle auslöschen werden, warum schliessen sie dann nicht konsequenterweise ihre Rechenzentren? Warum geben sie nicht alles in die Hände von demokratisch legitimierten Regierungen mit Gewaltmonopol?
Und überhaupt: Wie realistisch ist es, dass künstliche Intelligenz uns alle auslöscht? Sie ist weit davon entfernt, ein Bewusstsein zu haben. Sie ist kein überirdisches Wesen mit einem heimtückischen Masterplan, auf den wir keinen Einfluss haben. Im Gegenteil: Künstliche Intelligenz ist hochgradig vulnerabel, denn sie ist abhängig von einer intakten physischen Infrastruktur. Und diese Infrastruktur wird von Menschen geschaffen und zur Verfügung gestellt.
Künstliche Intelligenz wird nicht eines Tages aus einem Cloudserver ausbrechen und sich in den Minen dieser Welt mit Silizium, Kupfer, Gold, seltenen Erden und anderen Rohstoffen versorgen, aus welchen ihre Hardware aufgebaut ist. Ihre Abhängigkeit von der physischen Infrastruktur macht KI potenziell endlich. Deshalb ist auch KI – und hier verschmelzen die Apokalypsen – vom Klimawandel bedroht. Datenzentren können überflutet werden, Wasser für die Kühlung von Servern kann knapp werden, und extreme Hitze oder Waldbrände können Leitungen beschädigen.
Also, bleiben wir cool. Retten wir den Planeten, geben wir ihm Sorge. KI ist Teil davon und steht nicht darüber. Im Hier und Jetzt – und in der Zukunft.