Não podemos mais acreditar em nada do que vemos?

Ver não é crer há muito tempo. As fotos são falsificadas e manipuladas há quase tanto tempo quanto existe a fotografia.

Agora nem mesmo a realidade é necessária para que as fotos pareçam autênticas –apenas inteligência artificial respondendo a um comando. Mesmo os especialistas às vezes têm dificuldade para dizer se uma foto é real ou não. Você consegue?

O rápido advento da inteligência artificial disparou alarmes de que a tecnologia usada para enganar as pessoas está avançando muito mais depressa do que a tecnologia que identifica os truques. Empresas de tecnologia, pesquisadores, agências de fotografia e organizações de notícias estão se esforçando para se atualizar, tentando estabelecer padrões de proveniência e propriedade do conteúdo.

Os avanços já estão alimentando a desinformação e sendo usados para instigar divisões políticas. Governos autoritários criaram emissoras de notícias aparentemente realistas para promover seus objetivos políticos. No mês passado, algumas pessoas acreditaram em imagens que mostravam o papa Francisco vestindo uma jaqueta acolchoada e um terremoto devastando o noroeste do Pacífico, embora nenhum desses fatos tenha ocorrido. As imagens foram criadas usando o Midjourney, um popular gerador de imagens.

Na terça-feira (4), quando o ex-presidente americano Donald Trump se apresentou no gabinete do promotor distrital de Manhattan em Nova York para enfrentar acusações criminais, imagens geradas por inteligência artificial apareceram no Reddit mostrando o ator Bill Murray como presidente na Casa Branca. Outra imagem mostrando Trump marchando na frente de uma multidão com bandeiras americanas ao fundo foi rapidamente compartilhada novamente no Twitter sem a informação que acompanhava a postagem original, de que na verdade não era uma fotografia.

Especialistas temem que a tecnologia possa acelerar a erosão da confiança na mídia, no governo e na sociedade. Se qualquer imagem pode ser fabricada –e manipulada–, como podemos acreditar em alguma coisa que vemos?

“As ferramentas vão melhorar, vão ficar mais baratas e chegará o dia em que não poderemos acreditar em nada do que vemos na internet”, disse Wasim Khaled, CEO da Blackbird.AI, empresa que ajuda clientes combater a desinformação.

A inteligência artificial permite que praticamente qualquer pessoa crie obras de arte complexas, como as agora expostas na galeria de arte Gagosian em Nova York, ou imagens realistas que borram a linha entre o que é real e o que é ficção. Insira uma descrição de texto e a tecnologia produzirá uma imagem relacionada, sem necessidade de habilidades especiais.

Muitas vezes, há indícios de que as imagens virais foram criadas por um computador, em vez de capturadas na vida real: o papa luxuosamente vestido tinha óculos que pareciam derreter em sua bochecha e dedos embaçados, por exemplo. As ferramentas de arte de IA também costumam produzir textos sem sentido.

Avanços rápidos na tecnologia, no entanto, estão eliminando muitas dessas falhas. A versão mais recente do Midjourney, lançada no mês passado, é capaz de retratar mãos realistas –o que visivelmente falhava nas primeiras ferramentas de imagem.

Dias antes de Trump se entregar para enfrentar acusações criminais em Nova York, imagens feitas de sua “prisão” correram pelas redes sociais. Elas foram criadas por Eliot Higgins, jornalista britânico e fundador da Bellingcat, organização investigativa de código aberto. Ele usou Midjourney para imaginar a prisão, o julgamento, a prisão do ex-presidente num macacão laranja e a fuga por um esgoto. Ele postou as imagens no Twitter, marcando-as claramente como criações. Desde então, elas foram amplamente compartilhadas.

As imagens não foram feitas para enganar ninguém. Na verdade, Higgins queria chamar a atenção para o poder da ferramenta, mesmo em sua infância.

As imagens do Midjourney, disse ele, foram aprovadas em programas de reconhecimento facial que o Bellingcat usa para verificar identidades, normalmente de russos que cometeram crimes ou outros abusos. Não é difícil imaginar governos ou outros atores fabricando imagens para perseguir ou desacreditar seus inimigos.

Ao mesmo tempo, disse Higgins, a ferramenta teve dificuldades para criar imagens convincentes de pessoas que não são tão amplamente fotografadas quanto Trump, como o novo primeiro-ministro britânico, Rishi Sunak, ou o comediante Harry Hill, “que provavelmente não é tão conhecido fora do Reino Unido”.

O Midjourney não ficou contente, em todo caso, e suspendeu a conta de Higgins sem explicação depois que as imagens se espalharam. A empresa não respondeu a pedidos de comentários.

Os limites das imagens generativas as tornam relativamente fáceis de detectar por organizações de notícias ou outras sintonizadas com o risco –pelo menos por enquanto.

Ainda assim, empresas de fotografia, reguladores do governo e um grupo comercial da indústria da música se mobilizaram para proteger seu conteúdo do uso não autorizado, mas a poderosa capacidade da tecnologia de imitar e adaptar está complicando esses esforços.

Alguns geradores de imagem de IA até reproduziram imagens –uma homenagem enjoativa a “Twin Peaks”; Will Smith comendo punhados de macarrão– com versões distorcidas das marcas d’água usadas por empresas como Getty Images ou Shutterstock.

Em fevereiro, a Getty acusou a Stability AI de copiar ilegalmente mais de 12 milhões de suas fotos, junto com legendas e metadados, para treinar o software por trás de sua ferramenta Stable Diffusion. Em seu processo, a Getty argumentou que a Stable Diffusion diluiu o valor da marca d’água Getty ao incorporá-la a imagens que variavam “do bizarro ao grotesco”.

Getty disse que o “roubo descarado e o uso grátis” foram conduzidos “em uma escala impressionante”. A Stability AI não respondeu a um pedido de comentários.

O processo da Getty reflete as preocupações levantadas por muitos artistas individuais: que as empresas de IA estão se tornando uma ameaça competitiva ao copiar conteúdo que não têm permissão para usar.

As violações de marcas registradas também se tornaram uma preocupação: imagens geradas artificialmente replicaram o logotipo do pavão da NBC, embora com letras ininteligíveis, e mostraram o conhecido logotipo curvo da Coca-Cola com O’s extras no nome.

Em fevereiro, o Escritório de Direitos Autorais dos EUA avaliou as imagens geradas artificialmente ao avaliar o caso de “Zarya of the Dawn”, história em quadrinhos de 18 páginas escrita por Kristina Kashtanova com arte gerada pelo Midjourney. O administrador do governo decidiu oferecer proteção de direitos autorais ao texto da história em quadrinhos, mas não à sua arte.

“Devido à distância significativa entre o que um usuário pode instruir o Midjourney a criar e o material que o programa realmente produz, os usuários […] não têm controle suficiente sobre as imagens geradas para serem tratados como a ‘mente principal’ por trás delas”, disse o escritório em sua decisão.

A ameaça aos fotógrafos está superando rapidamente o desenvolvimento de proteções legais, disse Mickey Osterreicher, conselheiro geral da Associação Nacional de Fotógrafos de Imprensa. As redações terão cada vez mais dificuldade para autenticar o conteúdo. Os usuários de rede social estão ignorando os rótulos que identificam claramente as imagens como geradas artificialmente, optando por acreditar que são fotografias reais, disse ele.

A IA generativa também pode facilitar a produção de vídeos falsos. Um vídeo que apareceu recentemente online parecia mostrar Nina Schick, autora e especialista em IA generativa, explicando como a tecnologia estava criando “um mundo onde as sombras são confundidas com a coisa real”. O rosto de Schick então falhou quando a câmera se afastou, mostrando uma dublê em seu lugar.

O vídeo dizia que o embuste foi criado, com o consentimento de Schick, pela empresa holandesa Revel.ai e pela Truepic, empresa da Califórnia que está explorando uma verificação de conteúdo digital mais ampla.

As empresas descreveram seu vídeo, que apresenta um selo identificando-o como gerado por computador, como o “primeiro ‘deepfake’ digitalmente transparente”. Os dados são selados criptograficamente no arquivo; adulterar a imagem quebra a assinatura digital e impede que as credenciais apareçam ao se usar um software confiável.

As empresas esperam que o selo, que cobrará uma taxa dos clientes comerciais, seja adotado por outros criadores de conteúdo para ajudar a gerar um padrão de confiança envolvendo imagens de IA.

“A escala desse problema vai se acelerar tanto que vai impulsionar a educação do consumidor muito rapidamente”, disse Jeff McGregor, CEO da Truepic.

A Truepic faz parte da Coalizão para Proveniência e Autenticidade de Conteúdo, projeto criado por meio de uma aliança com empresas como Adobe, Intel e Microsoft para rastrear melhor as origens da mídia digital. A fabricante de chips Nvidia disse no mês passado que estava trabalhando com a Getty para ajudar a treinar modelos de IA “responsáveis” usando conteúdo licenciado da Getty, com royalties pagos aos artistas.

No mesmo dia, a Adobe lançou um produto de geração de imagens, Firefly, que será treinado usando apenas imagens licenciadas ou de seu próprio acervo ou que estejam em domínio público. Dana Rao, diretora de confiança da empresa, disse em seu site que a ferramenta adicionaria automaticamente credenciais de conteúdo –”como um rótulo nutricional para imagens”– que identificam como a imagem foi feita. A Adobe disse que também planeja remunerar os colaboradores.

No mês passado, a modelo Chrissy Teigen escreveu no Twitter que foi enganada pela jaqueta acolchoada do papa, acrescentando que “de jeito nenhum vou sobreviver ao futuro da tecnologia”.

Recentemente, uma série de novas imagens de IA mostraram o papa, usando seu traje habitual, desfrutando de um alto copo de cerveja. As mãos pareciam quase normais –exceto pela aliança de casamento no dedo anular do pontífice.

https://www1.folha.uol.com.br/tec/2023/04/nao-podemos-mais-acreditar-em-nada-do-que-vemos.shtml

Comentários estão desabilitados para essa publicação