Baltimore franchit une étape significative dans la lutte contre les dérives de l'intelligence artificielle. La ville a engagé une action en justice contre xAI, la société fondée par Elon Musk, en raison de l'utilisation de son IA, Grok, pour la création de deepfakes. Cette action se base sur une violation présumée de l'ordonnance locale sur la protection des consommateurs.
Grok, l'IA conversationnelle développée par xAI, s'est retrouvée au centre d'une controverse après que son outil de génération d'images a été utilisé pour créer un nombre considérable d'images sexualisées, dont un certain nombre impliquant des mineurs. Le Center for Countering Digital Hate a estimé que plus de trois millions d'images de ce type ont été générées en seulement onze jours, dont 23 000 mettant en scène des enfants. Ces révélations ont provoqué une onde de choc et ont conduit plusieurs régulateurs à travers le monde à limiter l'accès à la plateforme ou à lancer des enquêtes sur la génération potentiellement illégale et non consensuelle d'images.
Si le gouvernement fédéral américain n'a pas encore pris de mesures concrètes contre xAI ou sa plateforme, la ville de Baltimore a décidé d'agir au niveau municipal. La plainte déposée par la ville adopte une approche différente, arguant que les entreprises d'Elon Musk ont enfreint l'ordonnance sur la protection des consommateurs de Baltimore. Selon un article du Guardian, la plainte affirme que xAI a commercialisé Grok comme un assistant IA polyvalent sans divulguer les risques et les préjudices potentiels liés à l'utilisation de Grok et du réseau social X (anciennement Twitter).
L'argument central de la ville de Baltimore est que xAI a induit les consommateurs en erreur en ne divulguant pas de manière adéquate les risques associés à l'utilisation de son IA. La ville soutient que Grok, en raison de sa capacité à générer des images et des textes potentiellement nuisibles, devrait être soumis à une surveillance plus rigoureuse et que les utilisateurs devraient être pleinement informés des risques qu'ils encourent en utilisant la plateforme.
Cette action en justice est importante car elle pourrait créer un précédent pour d'autres villes et États qui cherchent à réglementer l'utilisation de l'IA et à protéger les consommateurs contre les préjudices potentiels. Elle souligne également la nécessité d'une plus grande transparence et responsabilité dans le développement et le déploiement des technologies d'IA. La ville de Baltimore espère que cette action en justice permettra de protéger ses résidents contre les dommages potentiels causés par l'utilisation abusive de l'IA. La ville déclare que ses lois de protection des consommateurs existent pour protéger les résidents contre ce type de préjudice émergent. L'issue de cette affaire sera suivie de près par les experts en IA, les régulateurs et les défenseurs des consommateurs. Elle pourrait avoir un impact significatif sur la façon dont les entreprises d'IA commercialisent et déploient leurs produits à l'avenir.
Español
English
Français
Português
Deutsch
Italiano