banner
Heim / Blog / KI-Experten lehnen Musk ab
Blog

KI-Experten lehnen Musk ab

Nov 27, 2023Nov 27, 2023

(Diese Geschichte vom 31. März wurde in Absatz 6 korrigiert, um zu zeigen, dass die Musk Foundation ein wichtiger und nicht der Hauptspender des FLI ist.)

Von Martin Coulter

LONDON (Reuters) – Vier Experten für künstliche Intelligenz haben ihre Besorgnis geäußert, nachdem ihre Arbeit in einem offenen Brief – mitunterzeichnet von Elon Musk – zitiert wurde, in dem sie eine dringende Pause der Forschung forderten.

Der Brief, datiert auf den 22. März und mit mehr als 1.800 Unterschriften bis Freitag, forderte eine sechsmonatige Unterbrechung der Entwicklung von Systemen, die „leistungsstärker“ sind als das von Microsoft unterstützte neue GPT-4 von OpenAI, das menschenähnliche Gespräche führen kann , Lieder komponieren und längere Dokumente zusammenfassen.

Seit der Veröffentlichung des Vorgängers von GPT-4, ChatGPT, letztes Jahr, beeilen sich konkurrierende Unternehmen, ähnliche Produkte auf den Markt zu bringen.

In dem offenen Brief heißt es, dass KI-Systeme mit „Mensch-Wettbewerbs-Intelligenz“ erhebliche Risiken für die Menschheit darstellen. Dabei werden zwölf Forschungsergebnisse von Experten zitiert, darunter Universitätswissenschaftler sowie aktuelle und ehemalige Mitarbeiter von OpenAI, Google und seiner Tochtergesellschaft DeepMind.

Zivilgesellschaftliche Gruppen in den USA und der EU haben seitdem die Gesetzgeber dazu gedrängt, die Forschung von OpenAI einzudämmen. OpenAI reagierte nicht sofort auf Anfragen nach Kommentaren.

Kritiker warfen dem Future of Life Institute (FLI), der Organisation hinter dem Brief, vor, eingebildeten apokalyptischen Szenarien Vorrang vor unmittelbareren Bedenken hinsichtlich KI wie rassistischen oder sexistischen Vorurteilen zu geben. Die Musk Foundation ist ein wichtiger Spender des FLI.

Zu den zitierten Forschungsergebnissen gehörte „On the Dangers of Stochastic Parrots“, ein bekannter Artikel, der von Margaret Mitchell mitverfasst wurde, die zuvor die ethische KI-Forschung bei Google leitete.

Mitchell, jetzt leitender Ethikwissenschaftler beim KI-Unternehmen Hugging Face, kritisierte den Brief und sagte Reuters, es sei unklar, was als „leistungsstärker als GPT4“ gelte.

„Indem der Brief viele fragwürdige Ideen als gegeben betrachtet, legt er eine Reihe von Prioritäten und eine Darstellung der KI fest, die den Unterstützern des FLI zugute kommt“, sagte sie. „Aktive Schäden im Moment zu ignorieren, ist ein Privileg, das einige von uns nicht haben.“

Ihre Co-Autoren Timnit Gebru und Emily M. Bender kritisierten den Brief auf Twitter, wobei letztere einige seiner Behauptungen als „aus den Fugen geraten“ brandmarkte.

FLI-Präsident Max Tegmark sagte gegenüber Reuters, die Kampagne sei kein Versuch, den Unternehmensvorteil von OpenAI zu behindern.

„Es ist ziemlich witzig. Ich habe Leute sagen sehen: ‚Elon Musk versucht, die Konkurrenz auszubremsen‘“, sagte er und fügte hinzu, dass Musk bei der Ausarbeitung des Briefes keine Rolle gespielt habe. „Hier geht es nicht um ein einzelnes Unternehmen.“

RISIKEN JETZT

Auch Shiri Dori-Hacohen, Assistenzprofessorin an der University of Connecticut, hatte Einwände gegen die Erwähnung ihrer Arbeit in dem Brief. Letztes Jahr war sie Mitautorin eines Forschungspapiers, in dem sie argumentierte, dass der weit verbreitete Einsatz von KI bereits ernsthafte Risiken mit sich bringe.

Ihre Forschung argumentierte, dass der heutige Einsatz von KI-Systemen die Entscheidungsfindung in Bezug auf Klimawandel, Atomkrieg und andere existenzielle Bedrohungen beeinflussen könnte.

Sie sagte gegenüber Reuters: „KI muss nicht die menschliche Intelligenz erreichen, um diese Risiken zu verschärfen.“

„Es gibt nicht-existentielle Risiken, die wirklich, wirklich wichtig sind, aber nicht die gleiche Aufmerksamkeit auf Hollywood-Niveau erhalten.“

Als Tegmark vom FLI gebeten wurde, sich zu der Kritik zu äußern, sagte er, dass sowohl die kurzfristigen als auch die langfristigen Risiken der KI ernst genommen werden sollten.

„Wenn wir jemanden zitieren, bedeutet das nur, dass wir behaupten, dass er diesen Satz unterstützt. Das bedeutet nicht, dass er den Brief unterstützt, oder wir unterstützen alles, was er denkt“, sagte er gegenüber Reuters.

Dan Hendrycks, Direktor des in Kalifornien ansässigen Center for AI Safety, der ebenfalls in dem Brief zitiert wurde, blieb zu dessen Inhalt und sagte Reuters, es sei vernünftig, über Black-Swan-Ereignisse nachzudenken – solche, die unwahrscheinlich erscheinen, aber verheerende Folgen hätten.

Der offene Brief warnte auch davor, dass generative KI-Tools dazu genutzt werden könnten, das Internet mit „Propaganda und Unwahrheit“ zu überschwemmen.

Dori-Hacohen sagte, es sei „ziemlich reich“ für Musk gewesen, es unterzeichnet zu haben, und verwies auf einen gemeldeten Anstieg von Fehlinformationen auf Twitter nach seiner Übernahme der Plattform, der von der zivilgesellschaftlichen Gruppe Common Cause und anderen dokumentiert wurde.

Twitter wird demnächst eine neue Gebührenstruktur für den Zugriff auf seine Forschungsdaten einführen, was die Forschung zu diesem Thema möglicherweise behindern könnte.

„Das hat direkte Auswirkungen auf die Arbeit meines Labors und auf die Arbeit anderer, die sich mit Fehl- und Desinformation befassen“, sagte Dori-Hacohen. „Wir operieren mit einer auf dem Rücken gefesselten Hand.“

Musk und Twitter reagierten nicht sofort auf Anfragen nach Kommentaren.

(Berichterstattung von Martin Coulter; Redaktion von Philippa Fletcher)