Com a rápida melhoria da IA, a clonagem de voz só tem se tornado mais convincente. Isso é um problema

Quando alguns eleitores de New Hampshire atenderam o telefone em janeiro, ouviram uma voz muito familiar.

“Que absurdo”, disse o Presidente Joe Biden, instando os residentes a “guardarem seu voto para a eleição de novembro” e a ignorar a primária presidencial do estado em 23 de janeiro.

Se você está pensando que isso não soa como algo que Biden diria de fato, você está certo. Agora, as autoridades de New Hampshire acreditam que as chamadas automáticas que os residentes receberam foram geradas por IA, imitando a voz do presidente em uma “tentativa ilegal de… suprimir os eleitores de New Hampshire”, disse o gabinete do procurador-geral do estado em um comunicado.

É o exemplo mais recente de alto perfil da tecnologia de IA que está melhorando rapidamente e que pode gerar clones de áudio convincentes para fins potencialmente nefastos. E não está sendo usado apenas para clonar as vozes de celebridades e figuras públicas: pessoas comuns podem se encontrar como as vítimas — ou alvos — de uma campanha de chamadas automáticas clone.

Tornou-se uma preocupação suficiente para que a Comissão Federal de Comunicações anunciasse na quinta-feira que votou para tornar ilegal o uso de vozes artificiais em chamadas automáticas.

E na primavera passada, a CNN detalhou a experiência aterrorizante de uma mãe do Arizona com uma chamada que clonou a voz de sua filha para forjar um sequestro e realizar um esquema de extorsão (que falhou quando a adolescente ligou para a mãe e assegurou que estava tudo bem).

O Tech Brew conversou recentemente com a plataforma de chamadas TNS sobre quanto áudio é necessário para criar um clone de voz de alta qualidade e como se defender contra golpes baseados em áudio. As fontes comuns de áudio incluem mensagens de prompt de correio de voz e respostas a chamadas automáticas de phishing, de acordo com Greg Bohl, diretor de dados da TNS.

“São necessários apenas três segundos da sua voz para duplicá-la”, disse ele. “A situação ideal é um pouco mais de tempo… Quando você começa a dizer, ‘Este é o meu endereço’, ou ‘Eu não marquei essa consulta’, quando você começa a falar frases, eles têm você.”

Anatomia de um clone de voz

A TNS ofereceu-se para clonar a minha voz para demonstrar o quão fácil é fazê-lo. Eu disse OK – desde que a minha mãe não pense que estou a ser raptado.Começamos com uma pequena amostra de voz – um clipe de áudio simulando como você poderia interagir com um suposto robocaller: “Hello? Yes, this is her. No, I’m not interested. Goodbye!”

Bohl enfatizou que as capacidades de clonagem de voz estão melhorando rapidamente, incluindo a habilidade de digitar em tempo real strings de texto para uma voz clonada repetir (permitindo spoofing ao vivo durante as chamadas) e simular ambientes barulhentos.

“Eles podem trazer o som de uma estação de metrô, um aeroporto”, disse ele. “Você está no aeroporto; você é o executivo viajando. Você esteve em um acidente de carro, e você tem aquele barulho de rua acontecendo atrás de você. Soa exatamente como o que está acontecendo.”

Outra reviravolta preocupante? “Os golpistas passaram a ter a capacidade de adicionar sotaques e adicionar faixas etárias”, disse ele.

Isso pode se provar particularmente útil para aqueles que tentam enganar alguém para acreditar que estão falando com outra pessoa, mesmo que não consigam obter uma amostra de voz do suposto falante. Por exemplo, vamos dizer que minha irmã mais nova está morando no exterior e ela adquiriu um sotaque francês. Bohl explicou que um mau ator poderia pegar minha voz, ajustar a faixa etária, adicionar um sotaque e esperar convencer uma potencial vítima de que estão falando com ela em vez disso.

Mantenha-se seguro lá fora

A principal dica de Bohl para frustrar golpes de áudio? Não use uma mensagem de correio de voz personalizada, que pode dar a atores mal-intencionados fácil acesso ao som da sua voz.

Em vez disso, “use a ferramenta automática que é oferecida em celulares onde você pode basicamente fazer uma gravação para você”, disse ele.

Vivendo em um mundo hiperconectado, porém, é provavelmente irrealista presumir que os clips da sua voz sejam difíceis de encontrar. Se você já postou um vídeo no TikTok com a sua voz, conversou nas histórias do Instagram ou falou em um podcast, a sua voz está lá fora.

É por isso que Bohl incentiva as pessoas a estabelecerem uma palavra segura com os membros da família. Usar uma senha verbal que somente você e seus entes queridos conhecem pode ajudar a determinar se um chamado suspeito de ajuda está realmente vindo de você, disse ele.

Enquanto isso, a presidente da FCC, Jessica Rosenworcel, alertou que os consumidores devem estar vigilantes, mesmo que pensem que reconhecem a voz do outro lado da linha.

“A clonagem de voz e imagens geradas por IA já estão semeando confusão ao enganar os consumidores, fazendo-os pensar que golpes e fraudes são legítimos. Não importa qual celebridade ou político você prefere, ou qual é o seu relacionamento com seus parentes quando eles pedem ajuda, é possível que todos nós possamos ser alvo dessas ligações falsas”, disse ela em uma declaração em 31 de janeiro.

https://www.emergingtechbrew.com/stories/2024/02/02/ai-voice-cloning-robocalls-biden

Comentários estão desabilitados para essa publicação