## Anthropic accusa: AI cinesi usano Claude illegalmente per migliorare i propri modelli L'intelligenza artificiale continua a essere al centro di intense competizioni e, a volte, anche di pratiche non proprio ortodosse. Anthropic, una delle aziende leader nel settore dell'IA, ha recentemente puntato il dito contro alcune società cinesi, accusandole di aver utilizzato in modo fraudolento il suo modello linguistico Claude per potenziare i propri sistemi. Secondo quanto riportato da Anthropic in un comunicato, e ripreso dal Wall Street Journal, sarebbero state create circa 24.000 identità fittizie per interagire con Claude, generando oltre 16 milioni di conversazioni. L'obiettivo? Distillare le conoscenze e le capacità di Claude in modelli di intelligenza artificiale più piccoli e gestibili, sviluppati dalle aziende cinesi incriminate. Tra queste, figurano nomi come DeepSeek, MiniMax e Moonshot, tutte realtà impegnate nello sviluppo di soluzioni AI. La tecnica di "distillazione" consiste nell'addestrare un modello di AI di dimensioni ridotte utilizzando l'output di un modello più grande e complesso. In sostanza, il modello più piccolo impara ad imitare il comportamento del modello più grande, acquisendo così una parte delle sue capacità. Anthropic riconosce che la distillazione è un metodo di addestramento legittimo, ma sottolinea che può essere facilmente sfruttato per scopi illeciti, soprattutto quando si basa sull'accesso non autorizzato e su larga scala a un modello proprietario come Claude. Le accuse di Anthropic sollevano questioni importanti sull'etica e la sicurezza nello sviluppo dell'IA. L'utilizzo di modelli altrui, ottenuto tramite pratiche fraudolente, non solo viola i termini di servizio e il diritto d'autore, ma rischia anche di compromettere l'integrità e l'affidabilità dei modelli risultanti. Inoltre, tali azioni possono creare un terreno di gioco iniquo, in cui le aziende che rispettano le regole si trovano svantaggiate rispetto a chi ricorre a metodi scorretti. Questo caso evidenzia la necessità di una maggiore vigilanza e di standard più rigorosi nel settore dell'IA. Le aziende devono proteggere i propri modelli da abusi e garantire che vengano utilizzati in modo etico e responsabile. Allo stesso tempo, è fondamentale promuovere la trasparenza e la collaborazione per evitare che pratiche scorrette minaccino l'innovazione e la fiducia nel futuro dell'intelligenza artificiale. Resta da vedere quali saranno le conseguenze legali e commerciali per le aziende coinvolte in questa vicenda, ma è chiaro che l'episodio rappresenta un campanello d'allarme per l'intero settore. L'evoluzione dell'IA continua a sorprenderci, ma è essenziale che questa crescita avvenga nel rispetto delle regole e dei principi etici, per garantire un futuro in cui l'intelligenza artificiale sia una forza positiva per la società.