L'annonce a fait l'effet d'une bombe dans le monde de l'intelligence artificielle : OpenAI remplace Anthropic comme fournisseur de technologie IA pour le département de la Défense américain. Au-delà du simple contrat, cette décision soulève des questions fondamentales sur l'éthique, la démocratie et le rôle des entreprises technologiques dans la sécurité nationale.

La semaine précédant ce revirement a été marquée par une forte pression des plus hauts responsables du gouvernement américain sur les géants de la tech. L'enjeu ? Les risques existentiels potentiels posés par une technologie si puissante que le Pentagone lui-même la considère comme essentielle à la sécurité du pays. Au cœur du débat, les réserves d'Anthropic quant à l'utilisation de ses modèles par le département de la Défense (DoD). L'entreprise souhaitait s'assurer que ses outils ne seraient pas utilisés pour de la « surveillance de masse » ou pour le développement d'« armes entièrement autonomes ». Des exigences que le secrétaire à la Défense, Pete Hegseth, a qualifiées de « wokistes ».

La situation a culminé lorsqu'un ordre a été émis, sommant les agences fédérales de cesser d'utiliser les modèles d'Anthropic. Quelques heures plus tard, OpenAI s'est positionné pour potentiellement rafler des centaines de millions de dollars de contrats gouvernementaux. Cette rapidité d'exécution pose question. Doit-on y voir une simple opportunité commerciale saisie au vol, ou un alignement plus profond avec la vision du Pentagone ?

La véritable leçon à tirer de cet épisode n'est pas de déterminer quelle entreprise d'IA est la plus éthique. Il s'agit plutôt de remettre en question nos structures démocratiques face à une technologie en évolution constante. Comment garantir que l'intérêt public soit réellement pris en compte dans les décisions stratégiques concernant l'IA, en particulier lorsqu'elles touchent à la sécurité nationale ? Le simple fait qu'une entreprise puisse être écartée pour des considérations qualifiées de « wokistes » par certains, et remplacée par une autre, soulève des inquiétudes quant à la transparence et à la responsabilité.

L'IA est une arme à double tranchant. Elle peut être utilisée pour le bien, mais aussi pour le mal. Il est donc crucial que son développement et son utilisation soient encadrés par des principes éthiques clairs et des mécanismes de contrôle démocratiques robustes. La récente décision du Pentagone nous rappelle que la vigilance est de mise, et que le débat public sur l'avenir de l'IA ne fait que commencer. Il est impératif d'impliquer tous les acteurs de la société, des experts aux citoyens, pour façonner un avenir où l'IA sert véritablement l'intérêt de tous, et non les intérêts particuliers de quelques-uns.