
- Andrej Karpathy sagt, die Menschen müssten die KI „an der Leine halten“.
- Der OpenAI-Mitbegründer weist auf die Tendenz hin, zu halluzinieren und Fehler zu machen, die „kein Mensch machen würde“.
- Karparthy fordert die Entwickler auf, langsamer vorzugehen und sich auf konkrete Aufforderungen an die KI zu konzentrieren.
Andrej Karpathy ist der Meinung, dass wir es mit der künstlichen Intelligenz (KI) viel zu eilig haben, vor allem wenn es um den Einsatz von KI-Agenten geht, die ohne menschliche Aufsicht handeln.
In einer Keynote Anfang dieser Woche sagte der Informatiker, man müsse „KI an der Leine halten“. Der OpenAI-Mitbegründer sagte, dass große Sprachmodelle aktuell immer noch Fehler machen, die ein Mensch niemals machen würde.
Karpathy verglich LLMs mit „menschlichen Geistern“ – unheimlichen Simulationen menschlicher Intelligenz, die Fakten halluzinieren, keine Selbsterkenntnis haben und an „Amnesie“ leiden.
KI macht Fehler, „die kein Mensch machen würde“
„Die KI wird in einigen Bereichen übermenschlich sein, in anderen dann aber Fehler machen, die im Grunde kein Mensch machen würde“, sagte Karpathy in dem Vortrag.
Auch wenn LLMs 10.000 Zeilen Code in Sekundenschnelle erstellen können, sollten sich die Entwickler nicht zurücklehnen und ihnen freien Lauf lassen, sagte er. „Ich bin immer noch der Flaschenhals“, sagte er. „Ich muss dafür sorgen, dass dieses Ding keine Fehler einführt“, fügte er hinzu.
Karparthy forderte die Entwickler auf, die Sache langsamer anzugehen und konkretere Anweisungen zu schreiben. „Ich gehe immer in kleinen Abschnitten vor. Ich möchte sicherstellen, dass alles richtig ist“, sagte er.
Lest auch
„Es macht viel mehr Sinn, etwas mehr Zeit zu investieren, um die Aufforderungen konkreter zu formulieren, was die Wahrscheinlichkeit einer erfolgreichen Überprüfung erhöht“, fügte er hinzu.
Karparthy reagierte nicht auf eine Anfrage von Business Insider.
KI braucht immer noch Aufsicht, sagt Ex-Forschungsleiter von OpenAI
Bob McGrew, der frühere Forschungsleiter von OpenAI, sagte Anfang dieser Woche in einer Folge des Podcasts „Training Data“ von Sequoia Capital, dass Menschen nach wie vor unverzichtbar sind. Nicht nur, um die KI anzuleiten, sondern auch, um einzugreifen, wenn Dinge durcheinander geraten.
Wenn etwas schiefgeht oder ein Projekt „zu kompliziert für die KI wird“, kann ein Mensch dabei helfen, das Problem in Teile zu zerlegen, die die KI dann lösen kann.
KI-Agenten sind wie „Flaschengeister“, so Kent Beck, einer der Autoren des bahnbrechenden „Agilen Manifests“. Sie würden oft eure Wünsche erfüllen, aber nicht immer so, wie ihr es euch wünscht.
KI beim Programmieren zu nutzen fühle sich wie Glücksspiel an
„Sie werden nicht das tun, was ihr meint. Sie haben ihre eigene Agenda“, sagte Beck kürzlich in einer Folge des Podcasts „The Pragmatic Engineer“. „Und die beste Analogie, die ich finden konnte, ist ein Flaschengeist. Er gewährt euch Wünsche, dann wünscht ihr euch etwas, und bekommt es – allerdings nicht das, was man eigentlich wollte.“
Beck sagte auch, dass die Ergebnisse so uneinheitlich sind, dass sich der Einsatz von KI beim Programmieren manchmal wie ein Glücksspiel anfühlen kann.
Trotz der Beschränkungen setzen selbst die größten Technologieunternehmen auf KI, wenn es um die Zukunft des Programmierens geht. KI schreibt mehr als 30 Prozent des neuen Codes von Alphabet. Im letzten Jahr waren es 25 Prozent, sagte CEO Sundar Pichai auf der jüngsten Bilanzkonferenz des Unternehmens.
Lest auch