En un giro que plantea serias preguntas sobre la ética y el control en el desarrollo de la inteligencia artificial, informes recientes sugieren que el Departamento de Defensa de los Estados Unidos (el Pentágono) probó la tecnología de OpenAI, el creador de ChatGPT, a través de Microsoft, incluso cuando OpenAI mantenía una política que prohibía explícitamente su uso con fines militares.

La información, proveniente de fuentes internas, indica que el Pentágono accedió a la tecnología de OpenAI a través de la infraestructura de Microsoft, que ofrece acceso a varios modelos de IA, incluyendo los de OpenAI. Este acceso se habría producido antes de que OpenAI modificara su política para permitir, bajo ciertas condiciones, el uso de su tecnología en aplicaciones militares.

La controversia radica en que, durante el periodo en que OpenAI prohibía el uso militar, cualquier experimentación o evaluación de sus modelos por parte del Departamento de Defensa podría considerarse una violación de los términos de servicio y, más importante aún, una falta de transparencia y responsabilidad en el desarrollo y despliegue de la IA.

Microsoft, como proveedor de servicios en la nube y socio estratégico de OpenAI, se encuentra ahora en una posición delicada. La compañía ha invertido fuertemente en OpenAI y ofrece acceso a sus modelos a través de su plataforma Azure. La pregunta clave es si Microsoft tenía conocimiento del uso que el Pentágono estaba dando a la tecnología de OpenAI durante el periodo de prohibición, y si tomó alguna medida para garantizar el cumplimiento de las políticas de OpenAI.

Este incidente subraya la creciente preocupación sobre el control y la supervisión del uso de la IA, especialmente en aplicaciones sensibles como la defensa y la seguridad nacional. A medida que la IA se vuelve más poderosa y ubicua, es crucial establecer marcos éticos y regulatorios claros que garanticen que se utiliza de manera responsable y que se respetan los derechos y valores fundamentales.

La modificación posterior de la política de OpenAI para permitir el uso militar, aunque con ciertas restricciones, no exime a las partes involucradas de la responsabilidad por las acciones realizadas durante el periodo de prohibición. La transparencia y la rendición de cuentas son esenciales para generar confianza en la IA y evitar que se convierta en una herramienta de opresión o conflicto.

Este caso seguramente generará un debate intenso sobre la necesidad de una mayor supervisión y regulación en el desarrollo y despliegue de la IA, así como sobre la responsabilidad de las empresas tecnológicas y los gobiernos en garantizar su uso ético y responsable. La confianza del público en la IA depende de ello.