Robert F. Kennedy Jr. (RFK Jr.), candidato indipendente alla presidenza degli Stati Uniti, è noto per le sue posizioni controverse, soprattutto in materia di salute. Recentemente, ha ribadito la sua convinzione che gli americani necessitino di un maggiore apporto proteico nella loro dieta. Fin qui, nulla di strano. La particolarità risiede nel fatto che il sito web dedicato all'alimentazione sana da lui promosso, Realfood.gov, sembra pensarla diversamente – almeno in parte. Realfood.gov utilizza Grok, l'intelligenza artificiale sviluppata da xAI di Elon Musk, per fornire informazioni e consigli nutrizionali agli utenti. Il problema? In alcuni casi, le risposte generate da Grok contraddicono le linee guida nutrizionali governative statunitensi, e implicitamente, anche le affermazioni dello stesso RFK Jr. sull'importanza di un elevato consumo di proteine. Questo cortocircuito informativo solleva diverse questioni. In primo luogo, evidenzia le sfide nell'utilizzo dell'intelligenza artificiale per fornire consigli medici e nutrizionali. Sebbene Grok possa essere un potente strumento per elaborare grandi quantità di dati, la sua capacità di interpretare e contestualizzare le informazioni rimane limitata. Di conseguenza, le risposte generate dall'IA potrebbero non essere sempre accurate, pertinenti o coerenti con le raccomandazioni mediche consolidate. In secondo luogo, la vicenda mette in luce la necessità di un approccio critico nei confronti delle informazioni online, soprattutto quando provengono da fonti non mediche o scientifiche consolidate. Anche se un sito web è promosso da una figura pubblica di spicco, è fondamentale verificare l'accuratezza e l'affidabilità delle informazioni presentate. Infine, l'incidente solleva interrogativi sull'effettiva supervisione del contenuto generato da Grok su Realfood.gov. Chi si occupa di garantire che le risposte dell'IA siano in linea con le linee guida nutrizionali e con le posizioni dello stesso RFK Jr.? La mancanza di un controllo adeguato potrebbe portare a una diffusione di informazioni fuorvianti o addirittura dannose per la salute dei consumatori. In un'era dominata dall'intelligenza artificiale, questo caso dimostra come sia cruciale bilanciare l'innovazione tecnologica con la responsabilità e la verifica dei fatti.