Ist die gesamte KI-Forschung auf ein Ziel ausgerichtet, das sich weder klar definieren noch zuverlässig messen lässt? Diese Frage steht im Mittelpunkt eines neuen Papers von Yann LeCun und seinem Team. Die Forscher argumentieren, dass der Begriff „Artificial General Intelligence“ (AGI) mittlerweile überladen ist und in der akademischen Welt sowie in der Industrie auf inkonsistente Weise verwendet wird.
Laut dem Forschungsteam mangelt es AGI an einer stabilen, operationalen Definition. Dies mache AGI zu einem ungeeigneten wissenschaftlichen Ziel, um Fortschritte zu bewerten oder die Forschung zu lenken. Kurz gesagt: Die aktuelle Definition von AGI ist zu vage, um als sinnvoller Wegweiser für die Weiterentwicklung der künstlichen Intelligenz zu dienen.
Ein zentraler Punkt des Papers ist die Infragestellung der Annahme, dass menschliche Intelligenz ein sinnvolles Modell für „generelle“ Intelligenz darstellt. LeCun und sein Team argumentieren, dass die vermeintliche Allgemeingültigkeit menschlicher Intelligenz lediglich eine Folge unserer Perspektive ist. Wir bewerten Intelligenz innerhalb des Rahmens der Aufgaben, die durch unsere Biologie und unser Überleben vorgegeben sind.
Wir sind gut in den Bereichen, die für unser Überleben wichtig waren: Wahrnehmung, motorische Steuerung, Planung und soziales Denken. Unsere Fähigkeiten sind also stark auf die spezifischen Anforderungen unserer evolutionären Vergangenheit zugeschnitten. Das bedeutet aber nicht, dass menschliche Intelligenz die optimale oder einzig mögliche Form von „genereller“ Intelligenz darstellt.
Das Team schlägt als Alternative zu AGI den Begriff „Superhuman Adaptable Intelligence“ (SAI) vor. SAI soll den Fokus auf die Entwicklung von Systemen legen, die in der Lage sind, sich an neue und unvorhergesehene Umgebungen und Aufgaben anzupassen – und das idealerweise besser als der Mensch. Der Schwerpunkt liegt also auf der Anpassungsfähigkeit und der Fähigkeit, Probleme zu lösen, die außerhalb des menschlichen Erfahrungshorizonts liegen.
Die Implikationen dieser Argumentation sind weitreichend. Wenn AGI tatsächlich ein schlecht definiertes Ziel ist, müssen wir möglicherweise unsere Forschungsstrategien überdenken. Statt uns auf die Nachbildung menschlicher Intelligenz zu konzentrieren, sollten wir uns auf die Entwicklung von Systemen konzentrieren, die in der Lage sind, eigenständig zu lernen und sich anzupassen. SAI könnte ein sinnvollerer Wegweiser für die zukünftige Entwicklung der KI sein, der uns zu Systemen führt, die nicht nur intelligent, sondern auch extrem flexibel und anpassungsfähig sind. Das Paper von LeCun und seinem Team liefert wichtige Denkanstöße für die KI-Community und könnte eine Neubewertung der aktuellen Forschungsziele anstoßen.
Yann LeCun: Ist AGI falsch definiert?
8.3.2026
ia
Español
English
Français
Português
Deutsch
Italiano