Coup de théâtre chez OpenAI : Caitlin Kalinowski, qui dirigeait la division robotique de l'entreprise, a annoncé sa démission, exprimant de vives inquiétudes quant à la récente collaboration d'OpenAI avec le Département de la Défense (DoD) des États-Unis. Cette démission met en lumière les tensions internes croissantes concernant l'éthique et la gouvernance des technologies d'intelligence artificielle, en particulier lorsqu'elles sont appliquées dans le domaine militaire.

Kalinowski, qui avait rejoint OpenAI fin 2024 après un passage chez Meta, a exprimé ses préoccupations sur X (anciennement Twitter). Elle a souligné que la "surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des lignes qui méritaient plus de délibération qu'elles n'en ont reçu." En d'autres termes, elle estime qu'OpenAI n'a pas suffisamment réfléchi aux implications éthiques et aux risques potentiels de son partenariat avec le DoD, en particulier en ce qui concerne la protection des libertés individuelles et le contrôle de l'utilisation des armes autonomes.

Dans un autre message, elle a précisé que l'annonce du partenariat avait été "précipitée sans que les garde-fous soient définis", soulignant qu'il s'agissait avant tout d'un "problème de gouvernance". Cette déclaration suggère que le processus de décision interne d'OpenAI n'a pas permis une évaluation adéquate des risques et des bénéfices de cette collaboration, et que des mesures de protection essentielles n'ont pas été mises en place avant de s'engager avec le DoD.

OpenAI a confirmé le départ de Kalinowski et a déclaré, dans un communiqué relayé par Engadget, qu'elle comprenait que les gens avaient des "opinions tranchées" sur ces questions et qu'elle continuerait à dialoguer avec les parties prenantes concernées. L'entreprise a également insisté sur le fait qu'elle prenait ces préoccupations au sérieux et qu'elle s'engageait à développer et à déployer l'IA de manière responsable.

Cette démission est un signal d'alarme pour l'industrie de l'IA. Elle rappelle l'importance cruciale de l'éthique et de la gouvernance dans le développement et l'application des technologies d'IA, en particulier lorsque celles-ci sont susceptibles d'être utilisées à des fins militaires ou de surveillance. Elle souligne également la nécessité pour les entreprises d'IA de mettre en place des processus de décision robustes et transparents, qui permettent une évaluation approfondie des risques et des bénéfices de leurs collaborations, et qui garantissent la protection des droits et des libertés individuelles. L'avenir d'OpenAI, et plus largement de l'IA, dépendra de sa capacité à répondre à ces défis et à gagner la confiance du public.