AI and I

Ein Blog über KI, Implikationen und Experimente von Karlheinz Agsteiner

AGI? Eher AGU - Artificial General Unintelligence

Kürzlich habe ich einige Zeit damit verbracht, ein Venn-Diagramm der Fähigkeiten von aktuellen LLMs und Menschen zu zeichnen. Es kam anders heraus, als ich dachte:

Venn-Diagramm von LLMs und Menschen

In Bezug auf die Fähigkeiten gibt es markante Unterschiede zwischen LLMs und Menschen. Aktuelle LLMs verfügen mittlerweile über ein Kontextfenster von einer Million Token – das sind ungefähr 2.500 Seiten eines Buches. Und sie kennen diesen Inhalt auswendig. Unvorstellbar für einen Menschen.

Außerdem, egal wie viele dumme Fragen man stellt, LLMs werden niemals müde oder genervt. Sie können dieselbe Frage eine Million Mal beantworten, ohne die Geduld zu verlieren.

Ein weiteres bemerkenswertes Merkmal aktueller Chain-of-Thought-LLMs ist ihre Fähigkeit, (wenn man es sich leisten kann) parallel in mehrere Richtungen zu schlussfolgern.

Menschen hingegen haben die unglaubliche Fähigkeit, Werkzeuge wie Whiteboards zu benutzen, um ihr Gedächtnis und ihre Denkfähigkeit zu verbessern. Das steigert unsere bescheidene Intelligenz ganz fundamental – kein großer Fortschritt in der Wissenschaft wäre vorstellbar, wenn sich die Wissenschaftler allein auf ihr eigenes Gedächtnis hätten verlassen müssen.

Und Menschen haben ein grundlegendes Verständnis davon, wie die Welt funktioniert, welche Regeln sie bestimmen. Sie verstehen, dass die Zahlen auf einer Anzeige oder einer analogen Uhr kontinuierlich ansteigen und dass der gleiche Abstand auf einer solchen Anzeige immer die gleiche Distanz darstellt. Es sei denn, es ist wegen einer logarithmischen Skala oder etwas Ähnlichem nicht der Fall. KIs sind darin notorisch schlecht. Glaube mir. Ich habe immer wieder versucht, Uhren zu erstellen.

Interessanterweise fand ich es viel schwieriger, coole Eigenschaften zu finden, die Menschen und LLMs gemeinsam haben, als Probleme zu finden, die wir gemeinsam haben (und die normale, algorithmische Software nicht hat):

Fazit

Es scheint, dass das, was uns eint, unsere Fehler sind. Und unsere Fähigkeiten sind so grundverschieden, dass es vielleicht eine schlechte Idee ist, zu versuchen, LLMs zu einer AGI zu entwickeln, d.h. nach künstlicher allgemeiner Intelligenz zu streben, indem man die menschliche Kognition nachahmt. Stattdessen sollten wir uns vielleicht darauf konzentrieren, die einzigartigen Stärken von Menschen und LLMs zu nutzen und sie so zu kombinieren, dass sie sich gegenseitig in ihren Fähigkeiten ergänzen. Dieser Ansatz könnte zu effektiveren und zuverlässigeren Systemen führen, anstatt ein schwer fassbares Ziel menschenähnlicher Intelligenz in Maschinen zu verfolgen.

Okay, das war, was das LLM schlussfolgerte (ich schreibe in VS Code mit Copilot an). Was ich eigentlich schreiben wollte: Vielleicht ist es eine schlechte Idee, nach einer AGI zu streben, einer KI mit einer Obermenge unserer Fähigkeiten und Fertigkeiten. Wie Ray Kurzweil in "The Singularity is Nearer" schrieb, sind KIs sehr fremde Intelligenzen. Versuchen wir nicht, sie menschlicher zu machen. Entwickeln wir sie zu Partnern, die unsere Fähigkeiten und Fertigkeiten ergänzen.

Coding

Nehmen wir das Programmieren als Beispiel. Inzwischen sind LLMs ziemlich gut darin, Code zu schreiben, aber wiederum auf eine ganz andere Weise als Menschen. Sie können Code viel schneller produzieren als wir, und auf einer niedrigen Ebene ist dieser Code typischerweise korrekter als unserer. Ich habe zum Beispiel noch nie gesehen, dass ein LLM vergisst, einen Schleifenzähler zu inkrementieren. Und sie werden nicht müde, große Codestücke zu schreiben. Das macht "KI-Programmierung" zu einem anderen Problem, das anders gelöst werden muss als "menschliche Programmierung", wo jede Zeile eine mentale Anstrengung ist, die einen auslaugt, und wo die Erfahreneren unter uns im Voraus Zeit damit verbringen, ein mentales Modell davon zu bekommen, wie das Ganze funktionieren sollte und warum dies das Problem lösen wird.

Ein guter Weg, mit LLMs zu programmieren, ist also, einen riesigen Satz automatisierter Tests zu haben, um den Code zu verifizieren. Dann kann man den LLM-Agenten Code ändern, ihn testen, darüber nachdenken, was falsch ist, ihn wieder ändern lassen, und so weiter, bis es funktioniert. Und wenn es fehlschlägt, ändert man die Spezifikation, kehrt zum letzten Git-Zustand zurück und fängt von vorne an. Man könnte sich auch eine IDE ausdenken, in der 5 LLMs unabhängig voneinander an einer Aufgabe arbeiten, und nach jedem Schritt wird die Lösung ausgewählt, die am schnellsten vorankommt, um fortzufahren. Nichts davon würde für einen Menschen sinnvoll sein.

Die optimale Art, mit und ohne LLMs zu programmieren, ist unterschiedlich, und ich prognostiziere, dass sie in Zukunft noch weiter auseinanderdriften wird. Zu versuchen, einen LLM-Programmierer zu schaffen, der langsam und methodisch wie ein Mensch arbeitet, ist nicht unbedingt der beste Weg.

Und mehr

Ich bin kein Physiker. Ich bin auch kein Chemiker. Aber ich kann mir vorstellen, dass dasselbe für diese und andere Wissenschaftsbereiche gilt. Der Versuch, auf eine AGI hinzuarbeiten, ist verschwenderisch; der Versuch, die Fähigkeiten der KI in Richtungen außerhalb der menschlichen Fähigkeiten zu erweitern, ist ein besserer Weg.

#AGI #LLM #MenschlicheIntelligenz #KognitiveVerzerrung