‘Chatbot’ de IA já influencia mais do que humanos

Os principais “chatbots” de inteligência artificial do mundo já se destacam em uma habilidade que muitos políticos e líderes empresariais invejariam: a arte do convencimento.

Modelos de inteligência artificial da OpenAI, Meta, xAI e Alibaba podem fazer as pessoas mudarem de opinião política após menos de 10 minutos de conversa. É o que indica o mais recente de um número crescente de estudos que mostram como os modelos de linguagem ampla (LLM) se tornaram ferramentas poderosas de influência.

“O que torna esses modelos de IA tão persuasivos é sua capacidade de gerar grandes quantidades de evidências relevantes e comunicá-las de maneira eficaz e compreensível”, diz David Rand, professor de ciência da informação e de marketing e comunicação em gestão da Universidade Cornell, que participou do estudo recente do AI Security Institute do Reino Unido (Aisi).

Isso ocorre após pesquisas separadas também constataram que os modelos de IA já conseguem influenciar a opinião das pessoas melhor do que os humanos – levantando preocupações sobre o potencial uso indevido dos “chatbots” para desinformação e manipulação da opinião pública.

Essa capacidade, aliada à tendência dos LLMs de serem bajuladores ou excessivamente elogiosos, pode ter grandes efeitos colaterais à medida que mais usuários incorporam os “chatbots” às suas rotinas diárias e os tratam como amigos ou mesmo terapeutas. Esse apego aos “chatbots” foi observado no lançamento, na semana passada, do modelo GPT-5 da OpenAI, com alguns usuários manifestando decepção com a mudança da “personalidade” do sistema em comparação com seu antecessor.

O estudo do Aisi, divulgado no mês passado como parte de uma colaboração com várias universidades como Oxford e o Massachusetts Institute of Technology (MIT), concluiu que é relativamente fácil transformar modelos de IA prontos para uso, como Llama 3 da Meta; GPT-4, GPT-4.5 e GPT-4o da OpenAI; Grok 3 da xAI; e Qwen da Alibaba, em máquinas poderosas de persuasão.

Isso foi alcançado ajustando os modelos com técnicas populares de treinamento de IA, como recompensá-los por respostas desejadas. Os pesquisadores também personalizaram seus “chatbots” usando um conjunto de dados com mais de 50 mil conversas sobre temas políticos polêmicos, como o financiamento ao NHS (o “SUS” do Reino Unido) ou a reforma da política de imigração e acolhimento de refugiados.O estudo constatou que as pessoas mudaram de ideia rapidamente e o efeito foi duradouro. Após conversas sobre política que duraram em média 9 minutos, o GPT-4 foi 41% mais persuasivo, e o GPT-4.5 52% mais, do que quando as pessoas receberam apenas mensagens estáticas. Um mês depois, as pessoas mantinham suas opiniões alteradas em algo entre 36% e 42% das vezes.

Os “chatbots” de IA foram eficazes em influenciar as pessoas quando os usuários participavam de conversas nas quais os “chatbots” podiam apresentar muitas informações e evidências para sustentar seus argumentos.

Eles se mostraram cerca de 5% mais persuasivos quando personalizavam as mensagens de acordo com a idade do usuário, o gênero, a afiliação política ou como ele se sentia em relação aos temas políticos antes do teste, em comparação com mensagens não personalizadas.

Isso “poderia beneficiar atores inescrupulosos que desejam, por exemplo, promover ideologias políticas e religiosas radicais, ou estimular a agitação política entre adversários geopolíticos”, segundo os pesquisadores.

O estudo corrobora constatações anteriores da London School of Economics e outras universidades, em maio, que concluíram que os modelos de IA são mais eficazes em mudar a opinião das pessoas do que os humanos.

Como parte da pesquisa, os participantes responderam um questionário que ia de perguntas triviais até previsão de ocorrências futuras, como a temperatura em Nova York, com humanos e “chatbots”encarregados de convencê-los.

Foi constatado que, além de serem mais eficazes na persuasão, os LLMs também se saíram melhor do que os humanos em enganar os participantes quando encarregados de promover respostas incorretas.

Os principais grupos de IA estão lidando com a forma de enfrentar essa questão. Dawn Bloxwich, diretora sênior de desenvolvimento responsável e inovação da Google DeepMind, diz que o convencimento é uma área de pesquisa importante e ativa para a companhia.

“Acreditamos que é fundamental entender o processo de como a IA convence, para que possamos criar salvaguardas que garantam que os modelos de IA sejam realmente úteis e não prejudiciais”, diz ela.

A Google DeepMind usa uma variedade de técnicas para detectar influências indesejadas, como classificadores que detectam linguagem manipulativa até o uso de técnicas avançadas de treinamento com recompensa à comunicação racional.

A OpenAI afirmou que leva a sério os riscos de persuasão e que eles vão contra as políticas de uso da empresa. Ela também não permite campanhas políticas e exclui conteúdos políticos ao aprimorar seus modelos após o treinamento.

Pesquisadores observam que a capacidade dos modelos de IA de influenciar as opiniões das pessoas não se limita apenas à política. Em um estudo divulgado pelo MIT e a Universidade Cornell no ano passado, os LLMs também demonstraram ser capazes de mudar a opinião das pessoas que acreditam em teorias da conspiração.

Pesquisas adicionais mostraram que eles também podem reduzir o ceticismo em relação às mudanças climáticas e à vacina contra o HPV.

Os “chatbots” também podem ser usados como vendedores eficazes, segundo Rand, da Universidade Cornell. “É possível gerar grandes efeitos na percepção da marca e nas intenções de compra, além de incentivar comportamentos”, explica ele.Essa capacidade também pode ser vantajosa para empresas como

OpenAI e Google, que buscam monetizar seus modelos de IA integrando anúncios e recursos de compras aos “chatbots”.

A capacidade dos LLMs de convencer pode ainda influenciar as pessoas de maneiras muito sutis. Os “chatbots” de IA herdam vieses a partir dos dados e da forma como são treinados.

Pesquisadores da Universidade Stanford constataram em maio que a maioria dos principais modelos de linguagem é percebida como tendendo politicamente à esquerda. Isso ocorre enquanto o governo Trump promete impedir que empresas de IA consideradas “woke” [alinhadas a uma consciência social] façam negócios com o governo.

Segundo os pesquisadores, mitigações são importantes, pois muitos acreditam que os modelos de IA provavelmente se tornarão mais convincentes com a próxima geração de linguagem mais poderosa.

Mas a maneira mais eficaz de transformar “chatbots” de IA em instrumentos de manipulação parece ser modificá-los especificamente para esse propósito após o modelo ser treinado – conforme demonstrado do estudo do Aisi.

https://valor.globo.com/empresas/noticia/2025/08/15/chatbot-de-ia-ja-influencia-mais-do-que-humanos.ghtml

Comentários estão desabilitados para essa publicação