Es besteht die Gefahr der „Superintelligenz“

Altman sagte auch, es bestehe die Gefahr einer „Superintelligenz, die nicht wirklich gut aufeinander abgestimmt ist“. Dies sei „etwas, mit dem wir uns möglicherweise im nächsten Jahrzehnt auseinandersetzen müssen“. Für die relevanten Institutionen weltweit ist dies kein langer Anpassungszeitraum. Bei einem Treffen mit dem israelischen Präsidenten Isaac Herzog betonte Altman, dass ein Weg gefunden werden müsse, „mit dem wir diese enormen Risiken eindämmen können“.

Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman, hat sich gegen eine sofortige „starke Regulierung“ der künstlichen Intelligenz (KI) ausgesprochen. „Ich denke, es wäre ein Fehler, den Bereich sofort stark zu regulieren oder zu versuchen, die unglaubliche Innovation zu bremsen“, sagte der 38-Jährige am Montag an der Universität Tel Aviv. Eine starke staatliche Regulierung könnte die derzeit rasante Entwicklung der KI-Technologie behindern.

OpenAI hat seinen Chatbot ChatGPT, der als Reaktion auf Benutzeranfragen in Sekundenschnelle komplexe Inhalte generieren kann, im November der Öffentlichkeit zugänglich gemacht. Dies beschleunigte den Wettlauf in der IT-Branche um generative KI-Systeme.

Sam Altman, Unternehmer und Gründer von OpenAI, spricht an der Universität Tel Aviv.Jack Guez/AFP

Erst im Mai sprach sich Sam Altman für eine Regulierung aus. Nun schlägt der Unternehmer eine langfristige institutionelle Aufsicht vor, um Risiken einzudämmen.

Erst Mitte Mai hatte sich Altman im US-Senat für mehr staatliche Regulierung ausgesprochen. In seiner Rede am Montag in Israel betonte er jedoch, dass er bei der Anhörung in den USA nicht die Regulierung „der heutigen Systeme“ meinte, sondern eine langfristige institutionelle Aufsicht.

Die öffentlichen Reaktionen schwanken zwischen Begeisterung und großer Angst. Experten warnen davor, dass künstliche Intelligenz missbraucht werden könnte, um Falschinformationen zu verbreiten und Arbeitsplätze im großen Stil zu zerstören.

Der Gründer von OpenAI bekräftigte seinen Vorschlag, eine „globale Organisation“ zu gründen, um die Sicherheit der KI zu überwachen. Ein ähnliches Modell gibt es bereits bei der Internationalen Atomenergiebehörde, die weltweit für die nukleare Sicherheit sorgt.

Altman gehörte zu einer Reihe von Experten, die Ende Mai vor der „Gefahr der Auslöschung“ durch KI warnten. In der kurzen Erklärung heißt es, dass die Bewältigung der von der KI ausgehenden Risiken „neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg“ globale Priorität haben sollte.