Früher arbeitete sie in der Reinigung der Eltern, heute steht Fei-Fei Li an der Spitze der KI-Revolution
Die Stanford-Professorin Fei-Fei Li brachte einst Computern das Sehen bei. Heute kämpft die KI-Pionierin dafür, dass die Technologie menschlich bleibt. «Wir befinden uns an einem Wendepunkt.»
Im Dezember löste ein Artikel der «New York Times» im Silicon Valley Stirnrunzeln aus: Die Zeitung veröffentlichte eine Liste mit den führenden Köpfen im Bereich der modernen künstlichen Intelligenz. Die zwölf Pioniere waren alles Männer – doch vor allem eine Frau hätte nicht fehlen dürfen: Fei-Fei Li. Der 48-Jährige ist als «Patin der KI» legendär. Ihre Forschung trug maßgeblich dazu bei, dass Computer Objekte erkennen können, und bereitete den Boden für das neue Zeitalter der künstlichen Intelligenz.
In China wurde sie für ihr Interesse an Naturwissenschaften diskriminiert
Besonders schwer wiegt der Fauxpas der Zeitung, weil Li schon ihr ganzes Leben lang in den Naturwissenschaften diskriminiert wurde. In Südchina in den späten 1970er Jahren, wo sie aufwuchs, trichterten die Lehrer ihr und den Klassenkameraden ein, dass Physik, Chemie, Biologie und Mathematik Jungs vorbehalten seien, weil diese «biologisch klüger» seien.
Bei Li hatte das nicht den gewünschten Effekt, im Gegenteil, ihre Begeisterung für die Fächer wuchs, wie sie in ihrer Autobiografie „The Worlds I See“ schreibt. Doch die Geschlechterdiskriminierung im kommunistischen China wuchs und war letztlich der Auslöser dafür, dass Lis Eltern in den 1990er Jahren in die USA auswanderten. Sie wollte ihrer Tochter alle Möglichkeiten bieten.
Allerdings war das neue Leben im ländlichen New Jersey für die Familie zunächst ein Rückschritt. Ihre Eltern sprachen kaum Englisch und konnten nur einfache Jobs annehmen. Hatten sie in China der Mittelklasse angehört, wuchs Li nun in Armut auf. In der Schule kämpft die 15-Jährige mit der neuen Sprache und Rassismus; Sie musste mit ansehen, wie Mitschüler asiatischstämmige Kinder verprügelten.
Li fand erneut Halt in den Naturwissenschaften – und bei einem Mathelehrer, der ihre Begabungen erkannte und förderte. Ihre schulischen Leistungen waren so gut, dass ihr die Universität Princeton einen Studienplatz mit einem Vollstipendium anbot. Unter der Woche studierte Li an der Elitehochschule Physik, am Wochenende fuhr sie zum Haus ihrer Eltern und halb in deren Reinigung mit.
Das Wandeln zwischen den Welten erstreckte sich auch auf Lis Forschungsinteressen, die von Elektrotechnik über Neurologie bis zur Kunst reichten. Sie lernte, die Dinge aus verschiedenen Perspektiven zu sehen. Das sollte sich bald auszahlen. Li hatte sich einer relativ akademischen Disziplin verschrieben, der Computer-Vision – auch der Idee, den Maschinen das Sehen beizubringen.
In den frühen 2000er Jahren konnte Computer nicht einmal zuverlässig eine Katze als solche identifizieren. Die meisten Forscher versuchen, das mit immer komplexeren Algorithmen zu lösen. Li hatte jedoch die Idee, dass Computer das Sehen so lernen sollten, wie es Kleinkinder tun: anhand großer Mengen von Beispielen.
Statt bei den Modellen legten sie auch bei den Trainingsdaten an. Li und ihr Team zogen schnell eine Milliarde Bilder aus dem Internet und zahlten 49 000 Arbeiter weltweit dafür, diese zu säubern, zu beschriften und in 22 000 Kategorien einzuteilen – von allgemein (Säugetier) bis zu ganz konkret (Sternnasenmaulwurf).
„Die Idee, Computer-Algorithmen mit Big Data zu trainieren, mag heute ganz offensichtlich scheinen“, sagte sie in einem TED-Talk 2015. „Aber im Jahr 2007 war es nicht so offensichtlich. Wir waren ziemlich allein auf dieser Reise.» Viele Kollegen belächelten das Vorgehen. „Einer schlug mir vor, dass ich für meine Professur doch lieber etwas anderes versuchen sollte“, sagt Li.
Nach gut zwei Jahren war das Projekt abgeschlossen und die Datenbank Imagenet geboren. Li stellte sie anderen Wissenschaftlern kostenlos zur Verfügung, die ihre Algorithmen damit trainierten. Die Durchbrüche waren bemerkenswert: Fehlerquoten bei der Bilderkennung sanken plötzlich. Li hatte geholfen, den Computern das Sehen beizubringen. Die Fortschritte flossen in der Entwicklung selbstfahrender Autos bis hin zu heutigen Bildgeneratoren wie Dall-e und Stable Diffusion.
2013 erhielt sie eine Professur an der Universität Stanford und gründete dort unter anderem das Labor für künstliche Intelligenz. Doch Li wollte auch sehen, wie ihre Forschung in der Praxis genutzt wurde. 2017 legte sie ein Sabbatical bei Google ein und wurde dort Chefwissenschaftlerin für KI. Es war gerade die Zeit, in der Google eine der größten Kontroversen der Firmengeschichte erlebte: Kurz nach Lis Ankunft wurde bekannt, dass Google eine Partnerschaft mit dem Verteidigungsministerium eingegangen war, bei der Aufnahmen von Drohnen mithilfe von KI ausgewertet werden sollten. Die Nachricht löste Empörung unter Googles KI-Belegschaft aus; Vielen war die Idee zuwider, dass ihre Arbeit in der Kriegsführung eingesetzt werden würde.
Vor genau einem solchen Aufschrei hatte Li zuvor intern gewarnt: „Vermeidet um Preis jegliches Erwähnen oder Andeuten von KI“, riet sie ihren Google-Kollegen in E-Mails, welche später die „New York Times“ veröffentlichte. „KI in der Kriegsführung ist eines der heikelsten Themen, wenn nicht das heikelste überhaupt.“
Die Empörung flachte erst ab, als Google ankündigte, die Kooperation mit dem Pentagon nicht zu verlängern. In der anderen Hälfte sind die KI-Ethikrichtlinien des Konzerns zu erarbeiten.
«Eine künstliche Intelligenz ist nichts künstliches»
Die Frage, wie KI möglichst für «das Gute» eingesetzt wird, prägt seit Jahren ihre Arbeit – auch bereits vor dem Sabbatical bei Google. „Li bringe Menschlichkeit in die KI“, schrieb das Magazin „Wired“ einmal. 2017 gründete Li die Organisation „AI4ALL“, die mehr Frauen und Minderheiten für die KI-Forschung gewinnen will. Denn sie selbst sieht eine der größten Gefahren der KI darin, dass die Forscher hinter den Modellen ihre eigenen unbewussten Vorurteile in die Algorithmen einbauen.
„An künstlicher Intelligenz ist nichts künstlich“, sagte Li bei einer Kongressanhörung 2018. „Menschen haben sie sich ausgedacht, sie gebaut, und vor allem aber hat sie einen Einfluss auf Menschen.“ In Stanford eröffnete und leitet die zweifache Mutter unter anderem das Zentrum für Human-Centered Artificial Intelligence. „Uns Wissenschaftern kommt mehr Verantwortung zu, als nur die Technologie zu bauen“, sagte sie in einem Interview mit dem Fernsehsender CBS. Firmen wie Twitter beriefen Li in ihrem Aufsichtsrat als Stimme der Vernunft.
Sie fordert, sich genau anzuschauen, was KI kann – und was noch nicht
Die derzeitigen rasanten Fortschritte in ihrem Forschungsfeld KI sehen sie durchaus kritisch. Die Technologie sei „etwas so Grosses, so Mächtiges und so Launenhaftes, dass sie ebenso leicht zerstören wie inspirieren kann“, schreibt sie in ihrer Biografie.
Trotz ihres bemerkenswerten Aufstiegs wirkt Li enorm bodenständig und tiefsinnig. Das zeigte sich auch bei einer Podiumsdiskussion auf der Fachmesse CES in Las Vegas vor wenigen Wochen. Li – schwarzer Hosenanzug, weiße Converse-Turnschuhe und kein Make-up – schaut ihren Gesprächspartnern in die Augen, vor ihren Antworten denkt sie sorgfältig nach.
Als ihr Stanford-Kollege, der KI-Pionier Andrew Ng, in der gemeinsamen Diskussion Program wie Chat-GPT beiläufig als «autonome Assistenten» beschreibt, schüttelte Li den Kopf. „Ich widerspreche dem respektvoll“, sagt sie. „Für mich sind es unterstützende Assistenten, keine autonomen, weil das Programm in vielerlei Hinsicht bis jetzt nur zuarbeiten könnte.“ Ng räumt ein, dass das tatsächlich der bessere Ausdruck sei.
Auch an Firmenchefs appelliere sie immer wieder, die KI trotz allem Hype kritisch zu sehen, erzählt sie auf dem Podium. „Entscheidend ist es, zu verstehen, was die Technologie heute schon kann – und was noch nicht.“ Gerade im Gesundheitswesen oder an den Finanzmärkten dürfe man sich abschließend keine Fehler erlauben.
Geht von KI eine existenzielle Bedrohung für die Menschheit aus? Über die Frage denkt Li einen Moment nach. «Nicht zurzeit. Es gibt durchaus katastrophale gesellschaftliche Risiken – von Bias in den Modellen bis hin zum Arbeitsmarkt. Aber keine existenzielle Bedrohung. Nicht zurzeit.»