Ilya Sutskever verliess Open AI wegen Sicherheitsbedenken. Nun gründete er seine eigene KI-Firma
Er hat die Firma hinter Chat-GPT mitgegründet und leitete die Forschung für langfristige Sicherheit. Doch seine Ziele und die von Sam Altman gingen immer weiter auseinander.
Ilya Sutskever bei einer Präsentation an der Tel Aviv University im Sommer 2023.
Amir Cohen / Reuters
Ilya Sutskever und Sam Altman haben nie so richtig zusammengepasst. Sutskever ist ein nerdiger Forscher, der sich vor allem um die langfristige Sicherheit der Menschheit sorgt. Sam Altman ist ein selbstbewusster Investorenliebling, der die Gefahren künstlicher Intelligenz (KI) zwar erwähnt, aber immer nur um im nächsten Satz zu beruhigen, dass Open AI sehr verantwortungsvoll vorgehe. Er warnt vor der Macht der KI, setzt sich aber gegen strenge Regulierung ein.
Im Jahr 2015 schienen die beiden noch dieselben Ziele zu haben. Sutskever und Altman gründeten Open AI gemeinsam mit anderen KI-Experten und Unternehmern als gemeinnütziges Startup, weil sie künstliche Intelligenz für zu wichtig hielten, um ihre Entwicklung allein den großen Tech-Unternehmen zu überlassen. Oberstes Ziel sollte nicht Profite, sondern das Wohlergehen der Menschheit sein.
Nun gründet Sutskever ein Unternehmen, das Open AI mit einer sehr ähnlichen Zielkonkurrenz machen könnte. Die neue Firma mit dem Namen Safe Superintelligence wolle eine ungefährliche hochentwickelte künstliche Intelligenz bauen, kündigte Ilya Sutskever am Mittwoch an.
Ilya Sutskever beteiligte sich erst am Rauswurf vom Altman
Open AI hat sich von seinem ursprünglichen Ziel über die Jahre schrittweise verabschiedet. Die Forschung war teurer und das Geld knapper geworden, weswegen man sich 2019 dafür entschied, mit einem profitorientierten Tochterunternehmen neue Investoren an Bord zu holen. Microsoft stieg mit einer Milliarde Dollar ein. Der Rest ist Geschichte: 2022 wurde Open AI mit der Veröffentlichung des Chatbots Chat-GPT weltbekannt und hält die Öffentlichkeit seitdem mit immer neuen Produkten in Bann.
Doch während CEO Sam Altman sich auf die Entwicklung vorbereitet, wachsen bei jenen Bedenken, die immer noch am ursprünglichen Ziel des Startups interessiert waren: nicht nur Sprach-KI zu entwickeln, sondern eine künstliche Intelligenz, die menschliche Fähigkeiten herausragend und selbständig forschen und sich weiterentwickeln kann.
Diese Vision nennt man auch allgemeine künstliche Intelligenz oder Superintelligenz. Die große Frage, wie man so ein System bauen und dabei garantieren kann, dass es der Menschheit nicht schadet, beschäftigt Sutskever seit je.
Der Konflikt eskalierte im vergangenen Herbst mit dem Rauswurf von Sam Altman, an dem auch Ilya Sutskever beteiligt war. Er äusserte sich aber bald danach reumütig, was auch bei Sam Altmans Wiedereinstellung nach wenigen Tagen eine Rolle gespielt haben dürfte. Was genau hinter alldem steckte, ist bis heute nicht klar, wobei sich die Anzeichen für einen schlechten Führungsstil von Altman mehren.
Ilya Sutskever blieb zunächst in seiner Position als Co-Leiter des Teams für Superalignment, dessen Zweck es war, innerhalb von vier Jahren herauszufinden, wie man KI-Systeme, die „intelligenter als wir“ sind, „lenken und kontrollieren“ kann.
Die neue Firma will sich kommerziellen Druck entziehen
Die Frage, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Manche Experten, unter ihnen der KI-Pionier Geoffrey Hinton, nehmen sie sehr ernst. Hinton war Ilya Sutskevers Doktorvater. Andere halten diese Bedenken für sehr futuristisch und überbewertet und setzen sich dafür ein, mehr auf konkrete Schäden durch KI, wie Desinformation oder Diskriminierung, zu achten.
Open AI wollte immerhin 20 Prozent der Rechen-Power in diesen Bereich investieren, hiess es bei der Ankündigung des Superalignment-Teams vor einem Jahr. Doch offenbar waren die Forscher dort nicht zufrieden. Sutskever kündete vor etwa einem Monat, andere Sicherheitsforscher folgten. Unter ihnen Sutskevers Kollege Jan Leike, der öffentlich beklagte, bei Open AI muss Sicherheitsdenken glitzernden Produkten weichen.
Sutskever gründet seine neue Firma Safe Superintelligence gemeinsam mit Daniel Gross, der bei Apple zu KI gearbeitet hat und heute Investor und Unternehmer ist, und Daniel Levy, der wie Sutskever bei Open AI tätig war.
Die Gründer wollen vermeiden, dass sich die Geschichte von Open AI wiederholt. Sutskever sagte dem Finanzdienst Bloomberg: „Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird – und es davor nichts anderes herausbringen wird.“ So werde man sich geschäftlichem Druck und einem Wettlauf mit anderen KI-Laboren entziehen, argumentiert der Forscher. Wie sich Sutskevers neues Superintelligenz-Labor finanzieren wird, ist bis dahin unklar.
Mit Agenturmaterial