La reciente controversia pública entre el Departamento de Defensa de los Estados Unidos y la empresa de inteligencia artificial Anthropic ha desatado una pregunta fundamental y aún sin respuesta clara: ¿Permite realmente la legislación estadounidense que el gobierno lleve a cabo vigilancia masiva sobre sus propios ciudadanos utilizando inteligencia artificial?
Sorprendentemente, la respuesta no es tan sencilla como podría parecer. Más de una década después de que Edward Snowden revelara la recopilación masiva de metadatos de las llamadas telefónicas de ciudadanos estadounidenses por parte de la NSA (Agencia de Seguridad Nacional), el país sigue navegando por una ambigüedad legal que separa la percepción pública de lo que la ley realmente permite.
El punto de fricción en el desacuerdo entre Anthropic y el Pentágono fue el deseo de este último de utilizar Claude, la IA desarrollada por Anthropic, para analizar grandes cantidades de datos comerciales pertenecientes a ciudadanos estadounidenses. Anthropic, consciente de las implicaciones éticas y legales, exigió que su tecnología no se utilizara para la vigilancia doméstica masiva, ni tampoco para el desarrollo de armas autónomas (es decir, máquinas capaces de seleccionar y eliminar objetivos sin supervisión humana directa).
Tras el fracaso de las negociaciones, apenas una semana después, el Pentágono designó a Anthropic como un "riesgo para la cadena de suministro", una etiqueta que generalmente se reserva para empresas extranjeras que suponen una amenaza para la seguridad nacional. Esta decisión, sin duda, levanta interrogantes sobre las motivaciones reales detrás del interés del Pentágono en la tecnología de Anthropic y su disposición a comprometer principios éticos fundamentales.
Este incidente pone de manifiesto la urgente necesidad de un debate público y una revisión exhaustiva del marco legal que regula el uso de la inteligencia artificial por parte de las agencias gubernamentales, especialmente en lo que respecta a la recopilación, análisis y uso de datos personales. La tecnología avanza a un ritmo vertiginoso, y las leyes deben adaptarse para garantizar que se respeten los derechos fundamentales de los ciudadanos y que se eviten abusos de poder.
La controversia entre Anthropic y el Pentágono sirve como un recordatorio de que la inteligencia artificial, si bien ofrece un enorme potencial para mejorar la vida de las personas, también plantea serios desafíos éticos y legales que deben abordarse de manera proactiva y transparente. El futuro de la privacidad y las libertades civiles en la era de la inteligencia artificial depende de ello.
¿Puede el Pentágono espiar a estadounidenses con IA?
7/3/2026
ia
Español
English
Français
Português
Deutsch
Italiano