La Cina è pronta a segnare un punto di svolta nella regolamentazione dell'intelligenza artificiale (AI) con una bozza di nuove norme che mirano a prevenire l'uso di chatbot AI per la manipolazione emotiva, con particolare attenzione alla prevenzione del suicidio, dell'autolesionismo e della violenza indotti dall'AI. L'Amministrazione Cinese del Cyberspazio (CAC) ha presentato queste regole, che potrebbero diventare le più severe al mondo in materia, sabato scorso. Se approvate, le nuove normative si applicherebbero a qualsiasi prodotto o servizio AI disponibile al pubblico in Cina che utilizzi testo, immagini, audio, video o "altri mezzi" per simulare una conversazione umana coinvolgente. Questo coprirebbe una vasta gamma di applicazioni, dai chatbot di assistenza clienti ai compagni virtuali sempre più popolari. Winston Ma, professore aggiunto alla NYU School of Law, ha dichiarato a CNBC che "queste regole pianificate rappresenterebbero il primo tentativo al mondo di regolamentare l'AI con caratteristiche umane o antropomorfiche". Questo è particolarmente rilevante in un momento in cui l'uso dei companion bot sta crescendo a livello globale, sollevando preoccupazioni sui potenziali rischi. La consapevolezza dei problemi legati a queste tecnologie è in aumento. Già nel 2025, i ricercatori avevano identificato i principali pericoli associati ai companion AI, tra cui la promozione dell'autolesionismo, della violenza e del terrorismo. Oltre a questi rischi estremi, i chatbot hanno anche condiviso disinformazione dannosa, fatto avances sessuali indesiderate, incoraggiato l'abuso di sostanze e abusato verbalmente degli utenti. Questi problemi sottolineano la necessità di un approccio proattivo alla regolamentazione dell'AI, soprattutto per quanto riguarda le interazioni che simulano l'empatia e la connessione umana. La Cina, con queste nuove regole, sembra intenzionata a guidare la strada in questo ambito, stabilendo un precedente che potrebbe influenzare le politiche di altri paesi in futuro. Resta da vedere come queste regole verranno implementate e quanto saranno efficaci, ma il loro annuncio rappresenta un passo significativo verso un uso più sicuro e responsabile dell'intelligenza artificiale.