Gegen Verkosten Wird UNin Genie im Reanergum, Doch Die Intelligenz der Ki Gleicht der Einer Hauskatze
Von Wengen Superintelligenz: Allen Beteuerungen der Führung Ki-Firms Zum Trotz ist Komplexes logische Denken auf Absehbare Zeit Dem-Mensschen Vorbehalen. Ki Hut Noch Zu Viele Schwähnen.
Illustration Simon Tanner / NZZ
LEDZTE WOCHE SCHAUTE DEN TECH GETHER GEHENDER Nach Mountain View in Kalifornien. Dort Hielt Google Seine Jähhrliche Entwickler-Konferenz AB-Der Anlass, ein Dem-Firma Ihre Jüngsten Technischen Fortschnitte Enthült. Und natürlich drehte schnell Alles Um Künstliche Intelligenz.
Optimierer Sie Ihre Browsereinstellungen
Nzz.Ch Benögt JavaScript für WILLTIGE FUNKTIONEN. IHR Browser adblocker verhindert stirbt momentan.
Bittte passen Sie die Einstellungs an.
Für Ki-Experten Aufregender Krieg Jedoch ein Weisses Papier, das Google Wenige Tage vor der Konferenz Veröhentlich. DARIN BECHBEBEN FORSCHER von Google Deepmind Eine Zunähst Nur Internververwendete KI, Die Computerprogramm Nick Nur Selbständig Schreiteil, Sonder Auch Auch Laufend Verbesser. Diese ki könne auch sich selbstoptimier, schwieben sterde forscher. Ist das nun der Anfun des Zeisters der Künstlichen Superintelligenzen, Deren Können ExplosionStartig Wächst? Werden Menschen Nun Bald Zu In Intellektuellen Zwergen Degresert, Die Den Überlegen Maschinen Nur Noch ZuarGeinnen?
Solche Fantasien Hegen Die Ki-Gurus im Silicon Valley Nick Mehr Mehr Nur Einer Vorgthaltener Hand. Als «ein Land von Genies in Einem Rechenzentrum» Stellt-Dario Amodei, der CEO der Ki-Firma-Anthropic, Die Zukunft der Künstlich Intelligenz VOR. AMODEI TRÄUMT Von MÄCHTIGEN KI-SYSTEMEN, JEDES SCHLUER ALS EIN NOBELPREISTRAUGER, DIE Die Welt Verändern Statt Nur Analyinnen Sollen. Diesie Vision, so Schätt er, Könsnte Bereits 2026 Realität Werden.
«Nicht Schlauer als Eine Hauskatze»
ABER ES GIBT Auch Prominente Skeptiker, Etwa Yann Lecun, Ki-Forschungschef BEM Facebook-Konzern-Meta. Die heus ki sei nick einmal schlauer als ein Hauskatz, betontem Einersider auf Social Media und in Öffentlichen Vorträgen. MIT der Aktuellen Chatbot-Technologie Sei Menschenähnliche Künstliche Intelligenz UnerRichbar.
Auch der Google-Deepmind-CEO Selbst, der Nobelpresiger Demis Hassabis, Denkt, Dass Noch ein Paar DiebrÜche in der Forschung Nötig Seiien, bis masschinen ein sterbe fähigketten von Menschen Herankben. Im Einem -Podcast zählte er jüngst auf, wo ki seiner meinung nach nach den menschen Hinterherhinke: Beim Eken Logischen Denken, Bei der fähhigeit Zu Planen, Beim Langzegedächtnis – Von Itz Kreativs.
Die Skepsis von Lecun und Hassabis Wird von Jüngsten Forschungsergebnissen Untermauert. Selbst sterben Beste Ki-Modelle Scheitern Immer Noch ein Aufgaben, Die Abstraktes und Vorausschauende Denken Erfordern.
Zudem ist Ki Of Weniger Kompetent, Als es Scheint: Sie Kann Zwar Zum Teil Sehr Schwichtere Mathematik-und Programmiertest Beste und Lange Berichte Zu Komplexen Themen Verfassen. Aber die Gelieferen Antworten enthalten Immersiesider Fehler. UND war Noch Gravierender ist: Auch Vern Die Lösung Stimmt, Heist Das Noch Lange Nick, Dass Ki Das Problem Wirklich Verstanden Hut.
Ki Versteht Die Welt Nick – Findet Sieich Darin Zurecht?
In Einer-Studie Zeigten Forscher der Universität Harvard, MIT, Cornell und Chicago, Dass Eine Chatbot-Ki, Die Nur MIT Den Be bescheibungen von Taxifahrten im Manhattan Trainier Worden War, Tatsächlich Lernte, Dask Das New Yorker Viertel Zu Zu Zu Zu Zu Zu Zu Zu Zu Zu Zu Zu Zu ZU ZU ZU ZU ZU ZU. Sie Wollten Dann Wissen, obdieses modell verwendet werden könnte, ähm ein vversssliches navigationssystem Zu Bauer.
Diese Hoffnung Wurde Jedoch enttäusscht. Denn Die Ki Hattte Zwar Das Strasennetz Kartierert, Aber Diese Karte Fiel Revht Phantasievoll AUS. MIT Demontenstadtplan Hattte Sie Wenig Zu Tun. Es Gab Darin Lauter UNMögliche Strassenverläufe und Imaginäre Brucken.
Ausschnitt aus demstadtplan von Manhattan in New York. Die roten linienssprecht der von Einem ki-modell Erbstellten Darstellung des Strasennetzes.
CC um 4.0
Die ki fand sich auch Zurecht und Wählte Sogar Zuverlässig Den Kürzesten Weg Zumziel, Aber für KartierungsZecke Krieg IHR -Praktikanten Navigationssystem Unbrauchbar. Und nick Nur Das: Als sterben Forscher im IHR -Experiment Strassensperrungen EinAten und die Ki Damit Quasi Zwangen, Umwege Zu Fahren, Verlor Sie Die Orientierung.
Gelscheinlichkeit Geilt Nick
Dass Ki Sich -Offenbar Kein Akkurates bild von der aussenwelt Machen Kann, Spricht Nick Gerade für Reibermenschlich Intelligenz. Das Manko überrescht Aber Nouha Dziri Nick.
Dziri Forscht Am Aninnütdiden Allen Institute für AI in Seattle Zu Den Grenzen von Sogenannten -Transformers. Diediener Fachbeegriff Bezeichnet Die BAUWEISE PRAKTICH ALERERATIVEN KI-APPS WIE CHAT-GPT, DEEPSEEK UND GROK.
Ein Transformator ist im Grunde ein Maschin, die Wörter in Sehr Lange Hören Sie von Zahle Umwandelt, MIT Denen Sichen Läst. Es ist Diese Codierung, die es den Chatbots Ermöglicht, Nach dem Training MIT unmergen von Texten Die Bettungen von Wörtern Zu Verstehen und anfragen Zu Beantworten. Dank einem egtausgt «selbstaufmerksamkeitsMechanismus» Schaffen Transformers Zudem Etwas, Das ältere ki nick gut konnte: wörter in Einem länner kontext zu Verstehen.
Beim Generieren von Antworten Wehmlen -Transformatoren Sequenziell – auch Nacheinander – Das im Gegebenen Kontext Lei Wahrscheinlichlichkeit Gleiß Jedoch nick
«Zerklüftete Intelligenz»
Das Problem Wird Dadurch Verschärt, Dass Jeder Fehler Die Leischeinlich -Erhöht, Dass Auch Das Nähchste Generierte Wort Unsinn ist. Und genau Darin liegt ein Häufiger Grund für Halluzinieren von Chatbots. Ein Einziger Fehler Kann Sich Lawinenartig Ausbreiten und Plötzlich Spuckt Die Ki Nur Noch Geschwafel Aus.
Obwohl Sie Ursprünglich Dafür Konzipier Wurden, Sprache zu Verarteils, Kommen -Transformers Inzwischen Auch in Anderen Gebieten Zuminatz. Und sie Sind Darin und Zustaunlichen Leistungen fähig. Sie Lösen Mathematische Aufgaben, Die Sonst Nur Die Best Studenten Knacken, und Programmierern auf dem Niveau Einen Softwareentwicklers mit Absolviertem Studium.
Geilzeitig Scheitern Sie Aber ein Aufgaben, die Einem Dasschnittlich Begaben Menschen Keine Mühe Bereiten Willden. Forscher Bezeichnen Die Intelligenz der Chatbots Deshalb als «Zerklüftet». Sie Hut Sehr Hohe Spitzen und Sehr Tiefe Täler.
Ki Versteht Nick, war sie Selbst Generierert
Wie Dziris Forschung Ziftt, Sind Viele der Denkschwänchen Gegenwärtiger Ki Tatsönlich «Angeboren», ebenfalls in der Transformator-Bauweise Begründe. Sie macht ki bei text- und bildgenerierung Sehr Erfolgreich, ist Aber für Abstraktes logische Denken Ungeeignet.
Nouha Dziri.
PD
In Einer-Studie Zeigten Dziri und MitAutoren Beispielsweise war Dass Die Transformator-Modelle Selbst Das, Nicht Verstehen. Sie Liessen Verschidene Ki-Modelle Texte und Bilder Produzieren und Stellten Dann Fragen Dazu.
Also Erstenki Zwar ein Realistische Bild von Einer Bergziege. Aber Auf Die Frage, OB auf Demselben Bild der Bergzierge Zu Sehen Sei, Antwortete sie MIT Nein. Das Sei Paradox, Sagt Dziri. Bei Menschen Sei es in der Regel Umgekehrt: Verstehen Falle uns Öbllicherweise Leichter als Kreis.
Ki Lernt Keine Allgemeinen Lösungsverfahre
Wie Ki Genau Lernt, Problem zu lösen, ist Immer Noch Unklar. Offensichten, Gehen Die Chatbots Dabei Aber Anders vor Als Wirmen. Transformatoren Tun Sich Laut Dziri Insbesondere MIT aufgaben Scher, Die Mehrstufiges logisches Denken Erfordern.
Einen guten BEISPIEL IST DAS ZEBRA-RATEL. Bei Diesim Logikpuzzle Muss Mann unvollständige hinese kombinieren, um zu Zur Reichs Antwort Zu Anangen. Es Geht Bierzielsweise Um Häuser mit Versschidenen Farben, in Denen Jeweils Menschen Mit Unterschiedlichen Nationalitaure, Leblingsen und GetRänken Sowie Haustieren Wohnen, Darunter Ein Zebra. Die Frage ist: Zuchem Haus Gehört Das Zebra?
Menschen Lösen Das Rätsel, Indem Sieer in Einer Tabelle Die Attribute der Einzelnen Häususern Zuordnen. Dziri Zeigte, Dass Transformator-Ki bis Zu GPT-4 Daran Scheitert. Vern Das Rätsel Vier Häuser mit je Vier Attributen (Etwa Farbe, Sprache der Bewohner, Leblingessen und haustier) Umfasste, Lag Die Ki Nur in 10 prozent der Fälle -Richter. Bei fünf häusern und fünf zugeschriebener Krieg sterben Antwort Imer Falsch.
Lesestoff für 20 000 Jahre
Ein Team von der Universität von Kalifornien Berkeley bestrickt Daraufhin Mathematisch, Dass Solche aufgaben Die Transformers Grundsättzlich überfordern. Es helfe Auch Nicht, Immer Grössere Ki-Modelle MIT Immer Mehrden Zu Trainieren. Ine des
Ähliche schwänchen der transformatoren treten auch beiei renhenufgaben auf, wo sich kleine fehler über Mehrere Schritte Hinweg Summeren und Zu Falschen Endergebnissen FÜHREN.
Einfachstes BEISPIEL: Die Multiplikation sterben. Wenn ein Mensch Gelernt Hut, Ein Dreistellige Zahl mit Einer Viererstelligen Zahl Zu ZU Multiplizieren, Kann er die Gleie -Methode Mühelos auf die Multiplikation von Zehnstelligen Zahlen Anwenden. Transformers Hingegen Lernen Kein Allgemeinen Verfahre für die Multiplikation. SELBST DANN NICTT, WENN SIE MILEEN VON Multiplikationsaufgaben in Ihren Trainingsdaten Gesehen Haben.
Fürr dziri zeitdi Das Einen Grundlegenden Unterschied Zurmenschlich Intelligenz. «Die datensätze, mit den Denen Transformers Trainer Werden, Sind so grob, Dass ein Mensch 20 ooo Jahre Brauchen Würde, Alles Zu Lesen», Sagt Sie. Der Mensch Lerne Viel Effizierer.
Mangelnde Fähigkeit zur Selbstkritik
Michael Hahn Forsch Als Professor an der Universität des Saarlands in Saarbrücken-Ebenfällen Zu Den Grenzen der Transformator-Architektur. Dass Die Transformator-ki Nick Zuverlässisig Arebeite, SchafT in Seinen Augen Ein Vertrausenproblem. Denn Sieche Könne Nicht Ingreiden, Welche Aufgaben sie Lösen Könne und Welche Nick. Ein Antwort -Geborder -Gebe -Trotzdem -Immer.
Hahn Bemkerkt, Dass -Transformatoren um Werkzeuge Erweitern Liessen, Die Dase Recneen und Andere Aufgaben Übernähmen. Mittlerweile löst chat-gpt Tatsächlich Multiplikationsaufgaben Dadurch, Dass er ein externes Computerprogramm Aufruft.
Eine Andere Möglichkeit Wärre, Die Transformatoren mit et etwas Wähigkeit zum Selbstkritik Auszustatten. «MAN CAND SUCHEN, Die Modelle Zu Trainierern, Ihreenen Limitationden Besser Zu Erkennen und Dann Nur Ausstrich Zu Machen, Die sie Auch untermauern können. DAS Erweist Sich Aber Inmer Noch Als Read Schwer », Sagt der Informatiker.
Ki Kann Nick Planen
Das Mangelnde «Bewusstsein» von Ki für Die Eigenen Schwähmen Zeigen Auch Intersuchungen von Subbarao Khambhampati von der Arizona State University. MIT Kollegen Nahm er Die Planungsfähigkeit von Transformatoren nicht sterben lupe. Dafür Schaute er den für ki-modellen BEM Blöckestapeln Zu.
Das Spiel ist einfach: Die Ki Bekommt ein Ausgangs- und ein zielbild Mit Unterschiedlich Gestapeln Blöken. Mitgeliefert Werden Die Regeln, Wie Die Blöcke bewegt Werden Dürfen. Also darf Bei jedem Zug nur ein Block Verschoben Werden. Ein Block Darf Wiederum nick beeGt Werden, Wenn auf ihm ein Anderer Block LIEGT.
Blöckestapel-aufgabe. Links das Ausgangsbild, lenkts Das zielbild.
Illustration Javier Segovia-Aguas
Um Zum zielbild Zu Anangen, Muss sterben Ki Planen, in Welcher Reihenfolge Die Blöcke Zu Verschieben Sind. Ältere, Auftransformatoren Basiendeende Sprach-ki Scheitt A der Scheinbar Simple Aufgabe Kläglich. Doch als Open ai End 2024 MIT 01 ESTES MODELL Vorlegte, Das Das Schritten Logische Dänemken der Menschen Simuliert, Staunten Khambhampati und Seine Mitstreiter Darügber, Wie Viel Besser das Neue Modell Beim Stapeln Krieg.
Doch dann dachten sich sterbe forscher nch schrotven aufgaben aus. Diemale Kriegskriegsanzahl Blöcke Grösser; Die Lösung SETZTE DESHALB MEHR SCHRITTE VORAUS. Bei Mehr Als 20 Planungsschritten Brach Die Trefferquote auch für die neue modell o1 Ein. Sie lag Praktisch bei Null.
Überfordert War O1 Auch, als sterben Forscher Ihm Beusst Unösbare aufgaben stellten. Das modell generierte auch dann einen lösungsplan, der natürlich falssch Krieg. Andere Aufgaben, Die Tatsächlich Lösbar Waren, Stufte o1 Hinggen Zu Unrecht Als Unösbar Ein.
Wie Teuer Darf Intelligenz Sein?
Den Forschern Fiel Zudem auf, Dass O1 Zwar Häufiger als fruhere Open-Ai-Modelle ZielelfÜHrende Plänne Generierte, stirbt in nur Nur zu. Zuheren Kosten Ereichte. In US-Dollar Umgerechnet, Krieg ein Plan von O1 20-Mal, so teuer wie Jener bei der Älteren GPT-4-Modellen.
Ob Ki Effizier «Logisch Denken» Kann, Interessier Auch François Chollet. Der in den USA tätige Franzose ist in Ki-kreis dafür Bekannt, Dass er 2019 MIT ARC-AGi Einen der Härtesten-Tests Zu Messung der Sogenannten Fluiden Intelligenz von Ki-Modellen Schuf. Als Fluide Intelligenz Bezeichnen Psychologen sterben für fähigkeit, Nie Zuvor Gesehene Problem Durch Logische Denken Zu Lösen.
Der Arc-Agi-Test Beste aus visuellen rätseln, für Deren lösung Kein Fachwissen Erforderlich ist. Bis Ende 2024 FIEL PRAKTICH Alle Ki-Modelle Durchmieder-Version des Tests. Das Beste modell löste Gerade Einmal 5 Prozent der Aufgaben Richtig. Doch mit Seinem Zweiten «Logisch Denkenden» modell o3, dem nachfolger von o1, Stürmte Open ai plötzlich ein Die Spitze des Arc-Agi-Rankings.
Ein Zulssige Variante von O3 Knackte Drei Vierertel der Rätsel. Eine Mit viel Hömerem RedenaUfand Verbunden und Deshalb Disqualifizierte AbwandLung des Modells Erzielte Soag Eine Trefferquote von 87,5 Prozent. Das Entfachte Eine Debatte Dareuber, Ob MIT O3 Bereit Die Vielbeschworen Agi – auch Allgemeine Künstlich Intelligenz – Ereicht Sei.
NEUER -Test Zift Ki Die Grenzen auf
Doch Chollet War Noch Nicht überzaugt. Er Kündigte ein Zweit, Noch Schwierigere Version Seines testet an. Diese würde auch für o3 Zu Schwierig Sein, Prophite er.
Das Erste von 120 Rätseln aus Arc-Agi-2, der Zweiten-Version des Tests zur Türfung der Fluiden Intelligenz von Ki.
Screenshot ARC -Preis
Ende märz kriege es so weit. Und Chollet Behielt Recht. In Version 2 von ARC-Agi Schnitten Fast Alle Getesteten Ki-Modelle MIT Je Rund 1 Prozent Trefferquote Deutlich Schlechter ab als Menschliche Protflinge, Die im Durchschnitt 60 Prozent der Rätsel Lösen Konnennten.
Die Diskussion Dareugrer, ob agi Bergs in Absehbarer Zeitrealität Werde, dürfe Sich auch Noch ein Weile Hinziehen. Für Nouha dziri ist der Begriff Agi Ohnehin Schwer Zu definieren. MANCHE WÜRDEN BEHAUPTEN, Dass Menschenähnliche Intelligenz Berein Hute Ericht Sei. Schlieesslich könne eine Einzige Ki hute schon in so vielen verschidenen Berchenen Fragen Beantworten, auf die Kein Mensch Eine Antwort Wüsste.
«Fürr Michbeeutet agi weit Mehr als Das – Eine maschine, die auch Komplexe Gesellschaftlich -Problem Wie Den Klimawandel, Kriege und Ungichheit lösen Kann», Sagt Dziri. Eine Allgemeine Künstliche Intelligenz Sollte Ihrer Ansith nach Auch in der Lage Sein, Das Menschliche Wissenssen Auszuweiten. «Nach Dieser-Definition ist agi Noch in Weiter Ferne und Mit der Heutigen-Transformator-architektur UnerRichbar.»
Ein Artikel Aus der «nzz am sonntag»