36 Prozent der Forschenden befürchten eine nukleare KI-Katastrophe

Vor den Gefahren von KI für Arbeitsplätze, Gesellschaft und Individuum wird dieser Tage alle Nase lang gewarnt. Oft liegen diesen Warnungen mitunter abstruse Annahmen und auch Missverständnisse zugrunde. Vor allem, wenn sich Personen zu Wort melden, die sich mit der Materie nicht beschäftigen und eher weniger auskennen. Doch eine aktuelle Studie aus Stanford hat gezeigt, dass selbst die Wissenschafts-Community rund um Natural Language Processing (NLP), also der Computerlinguistik, grosse Sorgen bezüglich der aktuellen KI-Entwicklung umtreibt.
Umfrageergebnisse
Die im Rahmen der Studie erhobene Umfrage zeigt, dass mehr als ein Drittel der glaubwürdigen KI-Experten und -Expertinnen der Meinung ist, dass künstliche Intelligenz noch in diesem Jahrhundert eine Katastrophe nuklearen Ausmasses verursachen wird. Diese Ergebnisse sind Teil des Stanford 2023 Artificial Intelligence Index Report, der im April 2023 veröffentlicht wurde.
In den Monaten Mai und Juni 2022, also sogar noch bevor ChatGPT die Medien eroberte. befragte ein amerikanisches Team aus Stanford die NLP-Gemeinschaft zu einer Reihe von Themen, darunter der Stand der Allgemeinen Künstlichen Intelligenz (AGI oder AKI), NLP und ethischen Fragen in dem Feld.
NLP ist ein Zweig der künstlichen Intelligenz, der sich damit beschäftigt, Computern die Fähigkeit zu verleihen, geschriebene und gesprochene Worte ähnlich wie Menschen zu verstehen. Wobei verstehen zu viel gesagt ist. Es geht in der Computerlinguistik, wie das Fach hierzulande heisst, darum, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann.
An der Umfrage nahmen 480 Personen teil, von denen 68 Prozent zwischen 2019 und 2022 mindestens zwei Beiträge für die Association for Computational Linguistics (ACL) verfasst haben. Die ACL ist eine der bedeutendsten wissenschaftlichen Gesellschaften im Feld weltweit und Beiträge, die in deren Peer-Reviewed Journals, Computational Linguistics und Transactions of the ACL erscheinen, haben entsprechend auch Gewicht in der Community. Die Umfrage bietet eine der umfassendsten Perspektiven, wie die KI-Forschung selbst die Entwicklung der KI einschätzt.

Fachleute der Uni Stanford und von zwei weiteren Universitäten baten die Teilnehmenden aus der KI-Forschung, den Aussage zuzustimmen und fragten:
“Es ist möglich, dass Entscheidungen, die von KI oder maschinellen Lernsystemen getroffen werden, in diesem Jahrhundert eine Katastrophe auslösen könnten, die mindestens so schlimm ist wie ein kompletter Atomkrieg.”
Mehr als ein Drittel der Befragten, ganze 36 Prozent, stimmte der Aussage zu oder zumindest stimmte schwach zu. Die Zahl ist indes mit einer wichtigen Einschränkung verbunden: Sie bezieht sich ausschliesslich auf autonome KI-Entscheidungen. Das heisst, auf eine KI, die eine Entscheidung trifft, ohne das Menschen eingreifen. Diese Entscheidung würde dann letztendlich zu einer Katastrophe führen.
Trotz dieser Bedenken sind nur 41 Prozent der NLP-Forschungs-Community der Meinung, dass KI reguliert werden sollte. Eine wichtige Übereinstimmung unter den Befragten war, dass “KI bald zu einem revolutionären gesellschaftlichen Wandel führen könnte”. 73 Prozent der KI-Experten stimmten dieser Aussage zu.
Vor einem Monat sagte Geoffrey Hinton, der als “Pate der künstlichen Intelligenz” gilt, gegenüber CBS News, dass die potenziellen Auswirkungen der sich schnell entwickelnden Technologie mit “der industriellen Revolution, der Elektrizität oder vielleicht dem Rad” vergleichbar seien.
Auf die Frage, ob es möglich sei, dass die Technologie die Menschheit auslöscht, warnte Hinton: “Es ist nicht undenkbar”.

Moratorium für fortgeschrittene KI-Systeme
Im Februar schrieb Sam Altman, der CEO von OpenAI, in einem Blogbeitrag des Unternehmens: “Die Risiken könnten ausserordentlich sein. Eine fehlgeleitete superintelligente AGI könnte der Welt schweren Schaden zufügen.”
Altman gehört zu den mehr als 25.000 Personen, die einen vor über einem Monat veröffentlichten offenen Brief unterzeichnet haben. Darin wird gefordert, sechs Monate Pause für das Training von KI-Systemen einzulegen, die über die Fähigkeiten von OpenAIs jüngstem Chatbot GPT-4 hinausgeht.
“Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind”, heisst es in dem Brief vom Future of Life Institute.
Elon Musk, der CEO von Tesla und Twitter, der die Moratoriumsforderung ebenfalls unterzeichnet hat, soll laut einem kürzlich erschienenen Artikel in der Financial Times ein eigenes KI-Unternehmen gründen, das mit OpenAI konkurrieren soll. Obschon er als Mitgründer von OpenAI seine Geschichte hat.
Die gleiche Stanford-Studie ergab auch, dass 77 Prozent der AI-Researcher entweder zustimmten oder schwach zustimmten, dass private KI-Firmen zu viel Einfluss haben.
Erhebliche Veränderungen stehen bevor
Die Stanford-Studie bietet einen interessanten Einblick in das kollektive Denken der Branche, das im Allgemeinen eine gewisse Unsicherheit über die Richtung der Technologie erkennen lässt.
Es ist immer noch unklar, wohin sich die KI entwickelt, ob sie zu revolutionären Veränderungen in unserem täglichen Leben führt, die das Wohlergehen der Menschheit exponentiell verbessern werden, oder ob sie für viele Menschen nur mehr Probleme bringt.
Überschätzte und unterschätzte KI
Was bei der ganzen Diskussion auch schnell vergessen geht, dass die Fähigkeiten von KI-Systemen überschätzt werden. Nur, weil ChatGPT schreiben kann, dass es einem Menschen ähnelt, ist die generative KI noch weit entfernt von menschlich. Sie versteht nicht, was sie schreibt, sondern reiht wahrscheinlich passende Worte aufeinander. Gleichzeitig ist jedoch auch schon klar: Die Entwicklung sogenannter fortschrittlicher KI-Systeme wird noch in diesem Jahrhundert massive Veränderungen bewirken. Ob es ein iPhone-Moment ist oder sogar darüber hinaus, bleibt derzeit noch abzuwarten.
Quellen: Stanford 2023 Artificial Intelligence Index Report (PDF, Englisch), Future Of Life Institute (Englisch), Atlas (Englisch) , CBS News (Englisch), Financial Times (Englisch), RND RedaktionsNetzwerk Deutschland
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.