13. Mai, 2025

KI

Pionier pflügt neues Feld: OpenAI-Mitgründer startet Safe Superintelligence

Pionier pflügt neues Feld: OpenAI-Mitgründer startet Safe Superintelligence

Einer der visionären Köpfe hinter der Künstlichen Intelligenz von OpenAI, Ilya Sutskever, hat den Schritt in die Selbstständigkeit gewagt und ein neues KI-Start-up namens Safe Superintelligence gegründet. Dieses Unternehmen hat sich einer außergewöhnlichen Mission verschrieben: einer sicheren und fortschrittlichen Künstlichen Intelligenz. Laut Sutskever wird Safe Superintelligence vorerst keinerlei andere Produkte veröffentlichen und sich vollständig auf dieses Ziel konzentrieren.

In einem Gespräch mit Bloomberg erläuterte Sutskever, dass die Fokussierung auf ein einziges Produkt das Start-up davor bewahre, unter kommerziellen Druck zu geraten oder in einen Wettlauf mit anderen KI-Firmen einzusteigen. Durch diese strategische Ausrichtung soll der Visionär möglichen Risiken präventiv begegnen und eine sicherheitsbewusste Entwicklung vorantreiben.

Sutskever hat sich zwei renommierte Mitstreiter ins Boot geholt: Daniel Gross, ehemals Entwickler Künstlicher Intelligenz bei Apple, und Daniel Levy, der ebenfalls mit Sutskever bei OpenAI gearbeitet hat. Diese Zusammenarbeit verstärkt den Eindruck, dass Safe Superintelligence von Experten mit tiefgehender Erfahrung und gemeinsamen Idealen getragen wird.

Die Risiken leistungsstarker und eigenständiger KI-Systeme beschäftigt die Tech-Branche seit Jahren. Experten warnen regelmäßig vor möglichen Gefahren, und Regierungen versuchen durch strikte Regelungen und Berichtspflichten, diesen Bedrohungen Herr zu werden. In diesem Kontext könnte Safe Superintelligence zu einem Vorreiter beim Management von KI-Risiken werden.

Interessanterweise war Sutskever, der zuletzt die Rolle des Forschungschefs bei OpenAI innehatte, in eine schlagzeilenträchtige interne Kontroverse involviert. Im letzten Jahr war er maßgeblich am kurzfristig erfolgten Rauswurf des OpenAI-Chefs Sam Altman beteiligt, der jedoch bald rückgängig gemacht wurde. Sutskever zog sich anschließend aus den öffentlichen Diskussionen zurück und verließ OpenAI im Mai.

Seine neue Firma könnte als eine Art Rückkehr zu den Wurzeln von OpenAI betrachtet werden, als ein nicht primär auf Profit ausgerichtetes Forschungslabor. OpenAI musste jedoch rasch erkennen, dass kommerzielle Produkte unerlässlich sind, um nachhaltig operieren zu können. Ein bedeutender Pakt mit Microsoft und die Einführung von ChatGPT waren die Folgen. Wie Safe Superintelligence seine Finanzierung sicherstellen wird, ist bis dato allerdings ungeklärt geblieben.