Modelo poderoso de IA da Anthropic dispara alarme global e corrida por segurança
Redação
Quando a Anthropic informou ao mundo, neste mês, que havia criado um modelo de inteligência artificial tão poderoso que era perigoso demais para ser amplamente disponibilizado, a empresa nomeou 11 organizações como parceiras para ajudar a montar uma defesa. Todas eram dos Estados Unidos.
Em duas semanas, o modelo, chamado Mythos, desencadeou uma corrida global como nada visto até agora na era da IA. O Mythos, que a Anthropic afirmou ser extraordinariamente capaz de encontrar e explorar falhas ocultas nos softwares que operam os bancos, redes elétricas e governos do mundo, tornou-se uma peça geopolítica — e uma empresa americana a detinha.
Leia também: EUA enfrentam risco militar ao depender de empresas privadas para usar IA na defesa
Líderes mundiais têm tentado dimensionar o alcance dos riscos de segurança e como mitigá-los, com a Anthropic compartilhando o Mythos apenas com o Reino Unido fora dos Estados Unidos.
O presidente do Banco da Inglaterra alertou publicamente que a Anthropic pode ter encontrado uma forma de “abrir completamente o universo dos riscos cibernéticos”. O Banco Central Europeu passou a questionar discretamente os bancos sobre suas defesas. O ministro das Finanças do Canadá comparou a ameaça ao fechamento do Estreito de Ormuz.
Para rivais dos Estados Unidos, como China e Rússia, o Mythos evidenciou as consequências de segurança de ficar para trás na corrida da IA. Um veículo pró-Kremlin chamou o modelo de “pior do que uma bomba nuclear”.
As respostas ilustraram uma realidade sobre a qual pesquisadores de IA vêm alertando há muito tempo, em grande parte de forma teórica: quem liderar a criação dos modelos de IA mais poderosos obterá vantagens geopolíticas desproporcionais.
Grandes avanços em IA começam a se comportar menos como lançamentos de produtos e mais como testes de armas, e a maioria dos países quer entender como essas tecnologias funcionam e quais proteções são necessárias.
À medida que os “modelos” fundamentais de IA se tornam mais relevantes, o acesso passa a ter implicações geopolíticas maiores, disse Eduardo Levy Yeyati, ex-economista-chefe do Banco Central da Argentina e assessor regional de crescimento e IA no Banco Interamericano de Desenvolvimento. “Eu interpretaria este episódio como um alerta para políticas públicas. Os governos não podem mais ignorar o tema.”
Até mesmo o governo dos Estados Unidos, que tem se envolvido em um embate com a Anthropic sobre o uso de IA em guerra, voltou sua atenção ao Mythos.
Dario Amodei, CEO da Anthropic, reuniu-se com autoridades da Casa Branca depois que integrantes do governo Trump apontaram o potencial do novo modelo de causar grandes danos a sistemas de computador.
A Anthropic, sediada em San Francisco, disse ao The New York Times que está mantendo o acesso ao Mythos restrito por preocupações com segurança.
A empresa tem priorizado compartilhar o modelo com mais de 40 organizações que fornecem tecnologias usadas na manutenção de infraestruturas globais críticas, como a internet ou redes elétricas.
A Anthropic citou 11 dessas organizações, incluindo Amazon, Apple e Microsoft, que se comprometeram a ajudar a desenvolver correções de segurança para vulnerabilidades identificadas pelo modelo.
A empresa afirmou que não há um cronograma imediato para ampliar significativamente o acesso, mas que trabalhará com o governo dos Estados Unidos e parceiros da indústria para definir os próximos passos.
Também disse que foi inundada por pedidos de governos, empresas e outras organizações em busca de acesso e informações, mas que esses grupos podem ter diferentes níveis de capacidade técnica para avaliar com segurança um modelo de IA tão poderoso.
A Anthropic acrescentou que espera que outros grupos lancem modelos de IA com capacidades cibernéticas semelhantes de forma mais ampla em até 18 meses, dando às organizações um prazo limitado para realizar as correções de segurança necessárias.
A Anthropic informou que estava investigando um relato de que usuários não autorizados obtiveram acesso a uma versão do Mythos.
A corrida em torno do Mythos ocorre em um momento de cooperação internacional mínima em IA. Governos veem uns aos outros com desconfiança enquanto empresas correm para superar rivais.
Não há um equivalente ao Tratado de Não Proliferação Nuclear, nem inspeções compartilhadas, nem regras acordadas sobre como lidar com algo como o Mythos.
Quando a Anthropic anunciou o modelo, muitos especialistas elogiaram a cautela da empresa em limitar quem pode testá-lo, mas expressaram preocupação com a falta de coordenação internacional para lidar com o risco.
O Reino Unido foi o único outro país a obter acesso. Seu Instituto de Segurança em IA, uma organização apoiada pelo governo, testou o Mythos e publicou uma avaliação independente, confirmando que ele é capaz de realizar ataques cibernéticos complexos que nenhum modelo de IA anterior havia conseguido executar.
“Isso representa um avanço nas capacidades cibernéticas da IA”, disse Kanishka Narayan, ministro de IA do Reino Unido, nas redes sociais, afirmando que o país está tomando medidas para proteger a “infraestrutura nacional crítica”.
Outros receberam menos informações. A Comissão Europeia, braço executivo da União Europeia, com 27 países, reuniu-se com a Anthropic pelo menos três vezes desde o lançamento do Mythos, disse um funcionário da UE.
Mas a empresa não forneceu acesso ao modelo porque as duas partes ainda não chegaram a um acordo sobre como compartilhá-lo com a comissão, afirmou o funcionário.
Em nota, a comissão disse estar “avaliando possíveis implicações” do Mythos, que “apresenta capacidades cibernéticas sem precedentes”.
Claudia Plattner, presidente da agência de cibersegurança da Alemanha, conhecida como BSI, afirmou que não recebeu acesso ao Mythos, mas se reuniu recentemente com funcionários da Anthropic em San Francisco para obter “insights relevantes” sobre seu funcionamento.
As capacidades apontam para “uma mudança de paradigma na natureza das ameaças cibernéticas”, disse Plattner em comunicado.
Entre os rivais dos Estados Unidos, a reação tem sido mais discreta. Apesar do recente embate da Anthropic com o governo Trump, Amodei deixou claro que a IA deve ser usada para defender os Estados Unidos e outras democracias e superar adversários autocráticos.
O Mythos é o mais recente sinal de uma crescente divisão global em IA. Países sem infraestrutura computacional robusta e sem modelos avançados de IA correm o risco de se tornarem dependentes de empresas como Anthropic, Google e OpenAI, tendo pouca influência sobre como seus produtos são projetados e protegidos, disse Yeyati.
“A ideia de que o acesso à IA de ponta pode ser unilateralmente restringido por uma empresa, com base em critérios opacos e sem possibilidade de contestação, deve ser motivo de grande preocupação”, afirmou.
c.2026 The New York Times Company
The post Modelo poderoso de IA da Anthropic dispara alarme global e corrida por segurança appeared first on InfoMoney.
source https://www.infomoney.com.br/business/global/modelo-poderoso-de-ia-da-anthropic-dispara-alarme-global-e-corrida-por-seguranca/