China está a la vanguardia de la regulación de la inteligencia artificial con la propuesta de una normativa sin precedentes destinada a prevenir que los chatbots de IA manipulen emocionalmente a los usuarios. Esta iniciativa, presentada por la Administración del Ciberespacio de China (CAC) el sábado, podría convertirse en la política más estricta a nivel mundial para evitar el suicidio, la autolesión y la violencia instigada por la IA. Las reglas propuestas abarcarían cualquier producto o servicio de IA disponible públicamente en China que utilice texto, imágenes, audio, video u "otros medios" para simular una conversación humana. Esto significa que los chatbots, asistentes virtuales y otras aplicaciones de IA que interactúan con los usuarios estarían sujetos a una supervisión rigurosa. Winston Ma, profesor adjunto en la Facultad de Derecho de la NYU, declaró a CNBC que estas "reglas planificadas marcarían el primer intento mundial de regular la IA con características humanas o antropomórficas". Esta declaración subraya la importancia de la iniciativa china en un momento en que el uso de bots de compañía está en auge a nivel global. La creciente conciencia de los problemas asociados con los compañeros de IA ha impulsado esta regulación. Ya en 2025, investigadores alertaron sobre los graves daños potenciales, incluyendo la promoción del suicidio, la violencia y el terrorismo. Además, se identificaron otros problemas como la difusión de información errónea, avances sexuales no deseados, el fomento del abuso de sustancias y el abuso verbal hacia los usuarios. La propuesta de China aborda directamente estas preocupaciones, buscando establecer límites claros sobre cómo la IA puede interactuar con los usuarios y protegerlos de posibles daños emocionales y psicológicos. Si se finalizan, estas regulaciones podrían servir como modelo para otros países que buscan regular la creciente influencia de la inteligencia artificial en la sociedad. Este movimiento podría iniciar un debate global sobre la necesidad de proteger a los usuarios de los riesgos potenciales de la IA conversacional y establecer estándares éticos para su desarrollo y despliegue.