‘Big techs’ terão avaliação do governo dos EUA

Os Estados Unidos examinarão as implicações de segurança nacional dos novos modelos de inteligência artificial (IA) da Microsoft, da xAI e da DeepMind, pertencente ao Google, antes de sua liberação ao grande público, em meio aos esforços das autoridades para ter maior supervisão sobre a poderosa tecnologia.

O Centro de Padrões e Inovação de IA (Caisi, na sigla em inglês), pertencente ao Departamento de Comércio dos EUA, informou ter assinad um acordo com as empresas de tecnologia para “realizar análises direcionadas e avaliações pré-lançamento”.

As revisões permitirão ao governo “ter melhor acesso às capacidades de ponta da IA e melhorar o estado da segurança da IA”, acrescentou a agência.

O anúncio se dá enquanto a Casa Branca considera mais medidas para avaliar os modelos de ponta antes de seu lançamento geral, segundo fontes a par do assunto.

Assessores do presidente dos EUA, Donald Trump, cogitam a possibilidade de um decreto presidencial que tornaria obrigatório esse tipo de avaliação, embora as discussões estejam em estágio inicial.

Funcionários de alto escalão do governo EUA ficaram assustados com versões iniciais do novo modelo Mythos, da Anthropic, que, segundo a empresa, tem capacidade muito maior de identificar e explorar vulnerabilidades de cibersegurança.

O executivo-chefe (CEO) da Anthropic, Dario Amodei, encontrou-se com a chefe de gabinete da Casa Branca, Susie Wiles, em abril, em sinal de um abrandamento das tensões entre o laboratório de IA e o governo.

A startup havia sido classificada como ameaça à segurança nacional por se recusar a permitir que o Pentágono usasse sua tecnologia sem restrições. A Anthropic processou o governo por essa classificação.

Trump depois adotou um tom conciliatório, dizendo à rede de TV americana CNBC, em entrevista, que a Anthropic “está entrando em forma”. “Acho que vamos nos dar bem com eles”, acrescentou.

O acordo é similar a um assinado com a Anthropic e a OpenAI durante o governo de Joe Biden há dois anos, quando o Caisi era conhecido como Instituto de Segurança em Inteligência Artificial dos EUA. Naquele acordo, que espelhava a política do Reino Unido, o governo podia ganhar acesso aos modelos dessas empresas antes da liberação pública para avaliar e mitigar riscos de segurança.

https://valor.globo.com/empresas/noticia/2026/05/06/big-techs-terao-avaliacao-do-governo-dos-eua.ghtml

Deixe um comentário