Jedes Mal, wenn OpenAI, Google oder Anthropic ein neues Large Language Model (LLM) vorstellen, hält die KI-Community den Atem an. Erst wenn METR, eine gemeinnützige KI-Forschungsorganisation (Model Evaluation & Threat Research), ein mittlerweile ikonisches Diagramm aktualisiert, atmet die Community wieder aus. Dieses Diagramm spielt seit seiner ersten Veröffentlichung im März letzten Jahres eine wichtige Rolle in der KI-Diskussion. Das Diagramm legt nahe, dass sich bestimmte KI-Fähigkeiten exponentiell entwickeln, und neuere Modellversionen haben diesen bereits beeindruckenden Trend noch übertroffen. Dies war sicherlich bei Claude Opus 4.5 der Fall, der neuesten Version des leistungsstärksten Modells von Anthropic, das Ende November veröffentlicht wurde. Im Dezember gab METR bekannt, dass Opus 4.5 offenbar in der Lage ist, eine Aufgabe selbstständig zu erledigen, die einen Menschen etwa fünf Stunden gekostet hätte. Diese Fähigkeit zur autonomen Aufgabenbewältigung hat zu lebhaften Diskussionen über die Fortschritte und potenziellen Risiken von KI geführt. Viele interpretieren das METR-Diagramm als Beweis für eine rasante und unaufhaltsame Entwicklung hin zu einer Superintelligenz. Doch das Diagramm birgt auch Missverständnisse. Es ist wichtig zu verstehen, dass es sich um eine Momentaufnahme bestimmter Fähigkeiten handelt und nicht um eine umfassende Darstellung der gesamten KI-Landschaft. Die Auswahl der Aufgaben, die bewertet werden, und die Art und Weise, wie die Ergebnisse gemessen werden, können die Interpretation des Diagramms beeinflussen. Darüber hinaus ist es entscheidend, die ethischen und gesellschaftlichen Auswirkungen der KI-Entwicklung zu berücksichtigen. Die Konzentration auf Leistungskennzahlen darf nicht dazu führen, dass wir die potenziellen Risiken wie Voreingenommenheit, Missbrauch und den Einfluss auf den Arbeitsmarkt vernachlässigen. Das METR-Diagramm ist zweifellos ein wertvolles Werkzeug, um die Fortschritte in der KI zu verfolgen. Es ist jedoch wichtig, es kritisch zu betrachten und im Kontext der breiteren Diskussion über die Zukunft der KI zu interpretieren. Nur so können wir sicherstellen, dass die Entwicklung von KI-Systemen verantwortungsvoll und zum Wohle der Menschheit erfolgt.