„Er redet wie Chat-GPT-4“: Was der KI-Pionier Sam Altman in München zur Regulierung sagt
Im Rahmen seiner World-Open-AI-Tour stellte sich der Erfinder von Chat-GPT den Fragen von Professoren und Studenten an der Technischen Universität München vor. Vor dem US-Kongress sprach er sich für Regulierung aus, in London dann dagegen. Und in München?
Sam Altman ist CEO von Open AI.
Lennart Preiss
Nahezu unbemerkt vom Publikum schlüpft Sam Altman, Gründer von Open AI, in den prall gefüllten Hörsaal der Technischen Universität München (TUM). Altmans neuster Coup, die künstliche Intelligenz Chat-GPT, sorgt seit Monaten in der breiten Öffentlichkeit ebenso wie bei Experten oder Politikern für Schnappatmung und ehrfürchtiges Staunen. Doch sein Gesicht kennen offenbar nur wenige.
Als er aufs Podium hüpft, wirkt er wie das Klischee des jungen, smarten, amerikanischen Techies: dunkle Skinny-Hose, fliederfarbenes, leicht abgenutztes T-Shirt unter einer dünnen blauen Jacke. Nur die knallbraunen, sehr edel aussehenden Schnürschuhe zeigen, dass sich hier keiner verstecken will.
Jetzt erst brandet der Applaus auf, Altman lächelt kurz. Noch ihm gehen die Rockstarqualitäten eindeutig ab, keine Verbeugung, keine Kusshände, er nimmt den Jubel nicht entgegen, sondern eilt zu seinem Sessel. Und während ihn nun Reinhard Heckel, Professor für maschinelles Lernen an der TUM, befragt, sitzt Altman ganz vorne auf der Sesselkante, die Knie zusammengepresst, und wirkt nervös.
Doch bereits nach einer halben Stunde entspannt er sichtlich, lehnt sich lässig nach hinten, spricht langsamer. Das mag auch daran liegen, dass die Fragen des Hochschullehrers nicht wirklich bohrend sind.
«Altman redet wie Chat-GPT: diplomatisch»
Ob Chat-GPT und künstliche Intelligenz (KI) generell die Welt verändern werden? Na klar, sagt Altman, „bessere Algorithmen werden das Leben verbessern“. Man muss nur noch den Leuten beibringen, wie sie in der neuen KI-Welt denken sollen. Auswirkungen auf die Arbeitswelt? „In zehn Jahren wird die große Mehrheit der Berufe, welche KI einsetzen, besser sein als heute und die Menschheit insgesamt produktiver sein.“ Welche Jobs denn wie verändert werden oder ob es zu der von manchen Kritikern befürchteten Massenarbeitslosigkeit kommen wird, darüber will Altman nicht spekulieren.
Elegant umschifft er auch das große Feld der Regulierung. Regulierung sei für neue Technologien immer gut und wichtig, so Altman. Aber bitte nicht zu viel, es wäre doch viel besser, nur die äußersten Grenzen zu definieren und dann den Spielraum im Inneren zu nutzen. Von der geplanten EU-Regelung von KI war er eindeutig nicht begeistert, aber er wolle sich erst endgültig äußern, wenn er eine endgültige Fassung kennt. Konkreter wird nicht sein.
Welche Werte sollen gelten?
Auf der Welt gibt es keine zwei Menschen, die darin übereinstimmten, was nun voreingenommen sei und was nicht, so Altman weiter. Daher wird es vermutlich in Zukunft Länder mit unterschiedlichen Regulierungen geben. „Er redet wie Chat-GPT-4: immer sehr diplomatisch und unverbindlich“, meint später eine Informatikerin, die in der IT-Sicherheit arbeitet.
Sam Altman spricht an dem Podium der Technischen Universität München.
Lennart Preiss
Gleichzeitig plädiert Altman aber dafür, dass es weltweit einheitliche Standards geben muss. Der neben ihm sitzende Informatiker, der laut seinen Angaben bei Open AI an Sicherheitscodes arbeitet, springt dem Chef zu Hilfe: Man könnte sich doch auf die allgemeinen Menschenrechte als Werte einigen. Auch eine Gruppe von Informatikstudenten hinter mir hofft sehr auf weltweit einheitliche Regeln. Denn sonst würden die Länder mit den schärferen Gesetzen in puncto Forschung und Entwicklung abgehängt, fürchten sie.
Von dem besorgten KI-Entwickler Sam Altman, der in der Anhörung vor dem US-Kongress vor wenigen Tagen noch meinte, da könnte auch ganz viel schiefgehen, wenn man nicht aufpasse, davon ist an diesem Donnerstagnachmittag in München kaum etwas zu spüren.
Die Gesellschaft muss entscheiden, wie sie mit KI umgeht
Altman präsentierte sich auf Nachfrage aus dem Publikum als derjenige, der ein neues technisches Wunderkind erschaffen und der Welt übergeben hat. Die Gesellschaft muss entscheiden, was sie denn wollen und was sie verbieten. Er reiste auf seiner aktuellen World-Tour herum, um zu erfahren, was die Menschen von einer KI erwarteten und wozu sie sie nutzen wollten.
Aber man sei sich bei Open AI durchaus der Gefahren von KI bewusst, versichert er. Man mache sich viele Gedanken dazu. Man weiß, dass Chatbots wie Chat-GPT zum Beispiel Hass verbreiten oder Wahlen manipulieren könnten. Ebenso habe man im Blick, dass KI helfen kann, Krankheiten zu heilen – aber auch, neue Pathogene zu erschaffen. Und man wird das System bald unbedingt dahingehend trainieren, dass es jedem Nutzer klarmache, dass es kein Mensch sei und keine Therapeuten.
Zum Abschluss plaudert ein nach wie vor sehr konzentrierter Altman noch ein bisschen aus dem Nähkästchen: Erst als man Chat-GPT-4 vor sich gehabt habe, erst dann sei die ganze Firma überzeugt gewesen, dass dies ein echter Wurf sei. Von da an habe sich das ganze Team auf dieses Produkt konzentriert. Den auch für ihn überraschenden, großen Hype erklärt er damit, dass es so ungemein einfach sei, mit dem Computermodell zu interagieren. Es reagiere auf Sprache, es komme zu einem ganz normalen Gespräch zwischen Mensch und Maschine. Zudem könnte Letztere auf das Gegenüber reagieren.
Der Nachmittag mit Sam Altman hat gezeigt, dass Open AI ohne Zweifel etwas Beeindruckendes erzeugt hat. Aber auch, dass er und sein Team nicht die Heilsbringer sind, die auf jede bange Frage nach den Auswirkungen eine Antwort haben. Das dürfte ihnen auch schwerfallen, sie sind Techies, Informatiker, Unternehmer, Wissenschaftler. Mit den Fragen von Regulierung oder Ethik müssen sich alle befassen – Unternehmen, Nutzer und Politiker – und demokratisch darüber entscheiden.