A startup de inteligência artificial Anthropic, conhecida por seu modelo de linguagem Claude, iniciou uma batalha legal contra o governo dos Estados Unidos. O motivo? A designação da empresa como um risco para a cadeia de suprimentos nacional, uma medida que pode restringir significativamente sua capacidade de operar e colaborar com entidades governamentais.

A ação judicial, noticiada pela Reuters, surge após o Departamento de Defesa (DoD) dos EUA comunicar formalmente à Anthropic sobre sua inclusão em uma lista de vigilância relacionada a riscos de segurança. O CEO da Anthropic, Dario Amodei, já havia sinalizado a intenção de contestar essa classificação por meio de medidas legais, e a promessa foi cumprida.

A alegação central da Anthropic é que a designação é injusta, arbitrária e viola seus direitos constitucionais, incluindo a liberdade de expressão e o devido processo legal. Em um comunicado divulgado pela Reuters, a empresa declarou: “Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por sua expressão protegida.”

Em outras palavras, a Anthropic argumenta que o governo está usando sua influência para silenciar ou punir a empresa por suas opiniões ou atividades, algo que, segundo a startup, é inconstitucional. Embora os detalhes específicos que levaram à designação de “risco” não tenham sido totalmente divulgados, a Anthropic parece acreditar que a medida está relacionada a posições ou declarações públicas da empresa sobre temas sensíveis.

Um porta-voz da Anthropic, em declarações obtidas pelo Engadget, enfatizou que a busca por revisão judicial não altera o compromisso da empresa com o uso da IA para proteger a segurança nacional. No entanto, a ação é vista como um passo necessário para proteger os interesses da empresa, seus clientes e parceiros. “Buscar revisão judicial não muda nosso compromisso de longa data de aproveitar a IA para proteger nossa segurança nacional, mas este é um passo necessário para proteger nossos negócios, nossos clientes e nossos parceiros. Continuaremos a seguir todos os caminhos”, disse o porta-voz.

Essa disputa legal levanta questões importantes sobre o equilíbrio entre a segurança nacional e a liberdade de expressão, especialmente no contexto do rápido desenvolvimento e crescente importância da inteligência artificial. A decisão final do tribunal poderá ter um impacto significativo não apenas para a Anthropic, mas também para outras empresas de tecnologia que operam em áreas sensíveis e que podem ser consideradas potenciais riscos à segurança nacional. Resta aguardar o desenrolar do processo para entender completamente as implicações dessa batalha legal.