Qual artigo você está procurando?

Anthropic revela uso massivo do Claude por empresas chinesas de IA

Anthropic revela uso massivo do Claude por empresas chinesas de IA

A empresa de inteligência artificial Anthropic revelou ter identificado operações organizadas conduzidas por três companhias de IA sediadas na China: DeepSeek, Moonshot AI e MiniMax. Segundo a empresa, essas organizações executam campanhas de grande escala para extrair capacidades do modelo de linguagem Claude e utilizá-las no aprimoramento de seus próprios sistemas.

De acordo com a análise divulgada, a atividade envolveu um processo conhecido como “distillation” (destilação). Essa técnica de aprendizado de máquina consiste em treinar um modelo menor utilizando as respostas geradas por um modelo mais avançado. Embora o método possua usos legítimos na pesquisa em IA, a empresa afirma que, nesse caso, ele foi aplicado de maneira não autorizada. 

Mais de 16 milhões de consultas e milhares de contas falsas

A investigação aponta que os grupos teriam criado aproximadamente 24 mil contas fraudulentas para interagir com o Claude. Por meio dessas contas, foram geradas mais de 16 milhões de solicitações ao sistema, o que violaria tanto os termos de serviço quanto restrições geográficas de acesso.

Essas interações foram usadas para coletar grandes volumes de respostas do modelo e, posteriormente, empregar esse material no treinamento de outras plataformas de IA. Como resultado, os concorrentes teriam acelerado o desenvolvimento de seus próprios sistemas sem arcar com o mesmo custo ou tempo de pesquisa normalmente necessário.

Os ataques de destilação geraram mais de 16 milhões de trocas com seu modelo de linguagem amplo (LLM) por meio de cerca de 24.000 contas fraudulentas, em violação de seus termos de serviço e restrições de acesso regional. Todas as três empresas estão sediadas na China, onde o uso de seus serviços é proibido devido a “riscos legais, regulatórios e de segurança”.

 Anthropic afirma que empresas chinesas de inteligência artificial realizaram milhões de consultas ao Claude para coletar respostas e acelerar o treinamento de novos modelos.
Anthropic afirma que empresas chinesas de inteligência artificial realizaram milhões de consultas ao Claude para coletar respostas e acelerar o treinamento de novos modelos.

Diferenças na escala das operações

Os dados analisados indicam que as empresas não atuaram com a mesma intensidade.

  • A MiniMax teria realizado mais de 13 milhões de consultas ao Claude, focando principalmente em habilidades avançadas como raciocínio e programação.
  • A Moonshot AI teria conduzido cerca de 3,4 milhões de interações, tentando inclusive reconstruir o processo de raciocínio do modelo.
  • Já a DeepSeek foi associada a aproximadamente 150 mil trocas, usadas para gerar dados de treinamento e desenvolver respostas capazes de contornar mecanismos de censura.

Além disso, a Anthropic afirmou ter observado ajustes rápidos nas estratégias utilizadas por essas campanhas sempre que alterações eram feitas no sistema Claude, indicando monitoramento constante das atualizações do modelo.

Preocupações com segurança e uso indevido

A empresa alerta que modelos treinados dessa forma podem ser disponibilizados sem mecanismos adequados de segurança. Caso isso aconteça, as tecnologias resultantes poderiam ser utilizadas em atividades problemáticas, incluindo vigilância em massa, campanhas de desinformação, operações cibernéticas ofensivas ou outras aplicações sensíveis.

Outro ponto levantado envolve riscos à segurança nacional. Segundo a empresa, a replicação acelerada de capacidades avançadas de IA pode facilitar o desenvolvimento de ferramentas potencialmente perigosas se não houver controles adequados.

Respostas e medidas adotadas

Como reação às descobertas, a Anthropic informou ter implementado novos mecanismos de detecção e proteção. Entre eles estão sistemas de identificação comportamental destinados a reconhecer padrões de uso suspeitos. Além disso, a companhia afirma estar colaborando com outras empresas do setor e defendendo políticas mais rígidas relacionadas ao acesso a tecnologias avançadas de computação, incluindo chips utilizados em treinamento de IA.

A empresa também defende maior cooperação entre indústria, provedores de nuvem e formuladores de políticas públicas para reduzir abusos envolvendo técnicas de destilação e outras formas de extração de modelos.

Contexto no setor de inteligência artificial

O episódio ocorre em meio ao aumento das tensões tecnológicas entre Estados Unidos e China na área de IA. Discussões sobre exportação de hardware avançado, proteção de propriedade intelectual e governança internacional de sistemas de inteligência artificial vêm ganhando destaque no debate global.

Casos semelhantes já haviam sido levantados anteriormente por outras empresas do setor, indicando preocupação crescente com a utilização de respostas de modelos comerciais para treinar sistemas concorrentes. 

Fonte: The Hacker News — https://thehackernews.com/2026/02/anthropic-says-chinese-ai-firms-used-16.html

Clique aqui e teste por 30 dias grátis nossos serviços de hospedagem de sites

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *