OpenAI, le géant de l'intelligence artificielle, a annoncé son objectif le plus ambitieux à ce jour : la création d'un chercheur scientifique entièrement automatisé. L'entreprise voit ce projet comme une "étoile polaire", un but ultime vers lequel tendre, et prévoit même de disposer d'un prototype d'interne de recherche d'ici septembre. L'objectif final, la mise en place d'un système multi-agent complet, est, quant à lui, prévu pour 2028.

L'idée maîtresse derrière ce projet colossal est simple : si une IA peut résoudre des problèmes de programmation complexes de manière autonome, elle peut potentiellement résoudre n'importe quel problème formulé en texte ou en code. Pour ce faire, OpenAI s'appuie sur son outil existant, Codex, déjà capable de gérer des tâches de programmation conséquentes sans intervention humaine. Codex sert ainsi de modèle initial, de preuve de concept, démontrant le potentiel de l'IA à automatiser des processus intellectuels de haut niveau.

Cependant, un tel système, doté d'une autonomie aussi poussée, soulève des questions éthiques et de sécurité majeures. Jakub Pachocki, scientifique en chef chez OpenAI, reconnaît lui-même les risques inhérents à un tel projet. De la possibilité de piratage et de détournement de l'IA à la création d'armes biologiques, les dangers potentiels sont réels et nécessitent une réflexion approfondie. Pour l'instant, la surveillance de la chaîne de pensée de l'IA (chain-of-thought monitoring) est considérée comme la meilleure solution de protection disponible, mais elle est loin d'être parfaite.

La concentration d'un tel pouvoir entre les mains d'un nombre restreint d'acteurs, en l'occurrence OpenAI, est également une source d'inquiétude. Pachocki souligne que la définition des limites et des règles d'utilisation de cette technologie ne peut pas incomber uniquement à OpenAI. Les gouvernements du monde entier doivent s'impliquer activement dans ce processus afin de garantir que cette technologie révolutionnaire soit utilisée de manière responsable et bénéfique pour l'humanité.

La création d'un chercheur scientifique entièrement automatisé représente un saut qualitatif majeur dans le domaine de l'intelligence artificielle. Si OpenAI réussit son pari, cela pourrait accélérer considérablement la découverte scientifique et résoudre des problèmes complexes auxquels l'humanité est confrontée. Cependant, les risques potentiels sont considérables et nécessitent une vigilance constante et une collaboration internationale pour encadrer son développement et son utilisation. L'avenir nous dira si cette ambition audacieuse se transformera en une révolution bénéfique ou en une menace existentielle. La question reste ouverte, et le débat ne fait que commencer.