Ilya Sutskever erklärt Open AI wegen Sicherheitsbedenken. Nun gründet er seine eigene KI-Firma
Er hat die Firma hinter Chat-GPT mitgegründet und leitete die Forschung für langfristige Sicherheit. Doch seine Ziele und die von Sam Altman gingen immer weiter auseinander.
Ilya Sutskever bei einer Präsentation an der Tel Aviv University im Sommer 2023.
Amir Cohen / Reuters
Ilya Sutskever und Sam Altman haben nie so richtig zusammengepasst. Sutskever ist ein nerdiger Forscher, der sich vor allem um die langfristige Sicherheit der Menschheit sorgt. Sam Altman ist ein selbstbewusster Investorenliebling, der die Gefahren künstlicher Intelligenz (KI) zwar erwähnt, aber immer nur um im nächsten Satz zu beruhigen, dass Open AI sehr verantwortungsvoll vorgehe. Er warnt vor der Macht der KI, setzt sich aber gegen strenge Regulierung ein.
Im Jahr 2015 schienen die beiden noch dieselben Ziele zu haben. Sutskever und Altman gründeten Open AI gemeinsam mit anderen KI-Experten und Unternehmern als gemeinnütziges Startup, weil sie künstliche Intelligenz für wichtig hielten, um ihre Entwicklung allein den großen Tech-Unternehmen zu überlassen. Oberstes Ziel sollte nicht der Profit, sondern das Überleben der Menschheit sein.
Nun gründet Sutskever ein Unternehmen, das Open AI mit einem sehr ähnlichen Ziel konkurrieren könnte. Die neue Firma mit dem Namen Safe Superintelligence wolle eine ungefähr hochentwickelte künstliche Intelligenz aufbauen, kündigte Ilya Sutskever am Mittwoch an.
Ilya Sutskever beteiligte sich erst am Rauswurf vom Altman
Open AI hat sich von seinem ursprünglichen Ziel über die Jahre hinweg verabschiedet. Die Forschung wurde teurer und das Geld knapper geworden, weshalb man sich 2019 dafür entschied, mit einem profitorientierten Tochterunternehmen neue Investoren an Bord zu holen. Microsoft stieg mit einer Milliarde Dollar ein. Der Rest ist Geschichte: 2022 wurde Open AI mit der Veröffentlichung des Chatbots Chat-GPT weltbekannt und hält die Öffentlichkeit mit immer neuen Produkten im Bann.
Doch während CEO Sam Altman sich auf die Entwicklung vorbereitet, wachsen bei jenen Bedenken, die immer noch am ursprünglichen Ziel des Startups interessiert waren: nicht nur Sprach-KI zu entwickeln, sondern eine künstliche Intelligenz, die menschliche Fähigkeiten herausragend und selbständig forschen und sich weiterentwickeln kann.
Diese Vision nennt man auch allgemeine künstliche Intelligenz oder Superintelligenz. Die große Frage ist, wie man ein System aufbauen und dabei sicherstellen kann, dass es der Menschheit nicht schadet, sondern dass man es schafft, erfolgreich zu sein.
Der Konflikt eskalierte im vergangenen Herbst mit dem Rauswurf von Sam Altman, an dem auch Ilya Sutskever beteiligt war. Er äusserte sich aber bald danach reumütig, was auch bei Sam Altmans Wiedereinstellung nach wenigen Tagen eine Rolle gespielt haben dürfte. Was genau hinter alldem steckte, ist bis heute nicht klar, wobei sich die Anzeichen für einen schlechten Führungsstil von Altman mehren.
Ilya Sutskever blieb zunächst in seiner Position als Co-Leiter des Teams für Superalignment, dessen Zweck es war, innerhalb von vier Jahren zu untersuchen, wie man KI-Systeme, die „intelligenter als wir“ sind, „lenken und kontrollieren“ kann.
Die neue Firma wird sich kommerziellen Druck entziehen
Die Frage ist, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Einige Experten, darunter der KI-Pionier Geoffrey Hinton, nehmen sie sehr ernst. Hinton war Ilya Sutskevers Doktorvater. Andere halten diese Bedenken für sehr futuristisch und überbewertet und setzen sich dafür ein, mehr auf konkrete Schäden durch KI, wie Desinformation oder Diskriminierung, zu achten.
Open AI wollte immerhin 20 Prozent der Rechenleistung in diesen Bereich investieren, heißt es bei der Ankündigung des Superalignment-Teams vor einem Jahr. Doch offenbar waren die Forscher dort nicht zufrieden. Sutskever kündigte vor etwa einem Monat an, dass andere Sicherheitsforscher folgten. Unter ihnen Sutskevers Kollege Jan Leike, der öffentlich beklagte, bei Open AI wesentliche Sicherheitsdenken glitzernden Produkten weichen.
Sutskever gründet seine neue Firma Safe Superintelligence gemeinsam mit Daniel Gross, der bei Apple an KI gearbeitet hat und heute Investor und Unternehmer ist, und Daniel Levy, der wie Sutskever bei Open AI tätig war.
Die Gründer wollen vermeiden, dass sich die Geschichte von Open AI wiederholt. Sutskever sagte dem Finanzdienst Bloomberg: „Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird – und es davor nichts anderes herausbringen wird.“ So werde man sich kommerziellen Druck und einen Wettlauf mit anderen KI-Laboren entziehen, irgendeinem der Forscher. Wie sich Sutskevers neues Superintelligenz-Labor organisieren wird, ist bis dahin unklar.
Mit Agenturmaterial