Chez IAExpertos, nous suivons de près l'évolution fulgurante des grands modèles de langage (LLM). Ces derniers ont réalisé des progrès si impressionnants que les benchmarks, eux-mêmes, ont dû évoluer pour proposer des défis plus complexes et mettre à l'épreuve les capacités des modèles les plus récents.

Cependant, cette progression n'est pas uniforme. Un domaine spécifique reste un défi majeur pour les LLM : les jeux vidéo. Malgré quelques succès anecdotiques – on peut citer un modèle, une version améliorée de Gemini, qui a réussi à terminer Pokémon Blue en mai 2025 – ces exceptions ne font que confirmer la règle. Les LLM, même lorsqu'ils parviennent à gagner, le font avec une lenteur déconcertante comparée à un joueur humain moyen. De plus, ils commettent des erreurs étranges et répétitives, et nécessitent souvent un logiciel personnalisé pour gérer leurs interactions avec le jeu.

Julian Togelius, directeur du Game Innovation Lab de l'Université de New York et co-fondateur de Modl.ai, une entreprise spécialisée dans le test de jeux vidéo par l'IA, a récemment publié un article explorant les implications de ces limitations. Il a expliqué à IEEE Spectrum ce que ce manque de compétences vidéoludiques peut révéler sur l'état actuel de l'intelligence artificielle en 2026.

L'incapacité des LLM à maîtriser les jeux vidéo n'est pas un simple problème de performance. Elle met en lumière des limitations fondamentales dans leur compréhension du monde et leur capacité à agir de manière autonome dans des environnements complexes. Un jeu vidéo, même simple en apparence, exige une planification stratégique, une adaptation constante aux changements de l'environnement, et une capacité à apprendre de ses erreurs – autant de compétences qui font encore défaut aux LLM.

Contrairement aux tâches pour lesquelles ils sont optimisés, comme la génération de texte ou la traduction, les jeux vidéo nécessitent une interaction en temps réel avec un environnement dynamique. Les LLM, bien qu'excellents pour analyser et traiter de grandes quantités de données, ont du mal à réagir rapidement et efficacement aux situations imprévues. Ils manquent de ce qu'on pourrait appeler le « bon sens » nécessaire pour naviguer dans un monde virtuel et prendre des décisions éclairées en fonction des circonstances.

Cette lacune souligne également la différence fondamentale entre la simulation et la compréhension réelle. Un LLM peut imiter le comportement d'un joueur humain en se basant sur des données d'entraînement, mais il ne comprend pas réellement les objectifs du jeu ni les stratégies à adopter pour les atteindre. Il se contente de reproduire des schémas appris, sans être capable de s'adapter à de nouvelles situations ou de faire preuve de créativité.

En conclusion, les difficultés rencontrées par les LLM dans le domaine des jeux vidéo ne sont pas simplement anecdotiques. Elles révèlent des limitations profondes dans leur capacité à comprendre et à interagir avec le monde réel. Comprendre ces limitations est essentiel pour orienter les recherches futures et développer des IA plus robustes et plus polyvalentes. L'avenir de l'IA ne se limite pas à la performance brute, mais aussi à la capacité à comprendre et à s'adapter aux environnements complexes et dynamiques qui nous entourent.