Inteligência artificial: Microsoft, Amazon e Google demitem equipes de ética

As gigantes tecnológicas têm cortado funcionários das equipes encarregadas de avaliar questões éticas no desenvolvimento da inteligência artificial (IA), despertando receios sobre a segurança de uma nova tecnologia cujo uso está cada vez mais disseminado nos produtos de consumo. 

Microsoft, Meta, Google, Amazon e Twitter estão entre as companhias que encolheram suas “equipes de IA responsável”, encarregadas de assessorá-las sobre a segurança dos produtos de consumo que usam inteligência artificial. 

O número de funcionários afetados está na faixa das dezenas e representa apenas uma pequena parte entre dezenas de milhares de demissões na área de tecnologia anunciadas em resposta à desaceleração geral do setor. 

As empresas sustentam que continuam empenhadas em lançar produtos seguros de IA. Especialistas, contudo, dizem que os cortes são preocupantes, já que possíveis abusos da tecnologia vêm sendo descobertos no momento em que milhões de pessoas começam a experimentar as ferramentas de IA. 

O receio ficou ainda maior depois do sucesso do “chatbot” ChatGPT, lançado pelo laboratório de pesquisas OpenAI, financiado pela Microsoft, que levou outras empresas de tecnologia a lançar produtos rivais, como o Bard, do Google, e o Claude, da Anthropic. 

“É chocante como muitos membros de IA responsável estão sendo mandados embora no momento em que, possivelmente, nunca se precisou mais dessas equipes”, disse Andrew Strait, que foi pesquisador das áreas de ética e estratégia na DeepMind, da Alphabet, e é diretor-associado no centro de pesquisas Ada Lovelace Institute. 

Em janeiro, a Microsoft desfez toda a sua equipe de ética e sociedade, que havia encabeçado o trabalho inicial da empresa na área. A gigante tecnológica informou que foram menos de dez cortes e que ainda tinha centenas de pessoas que foram mantidas. 

“Aumentamos significativamente nossos esforços em IA responsável e temos trabalhado arduamente para institucionalizá-los em toda a empresa”, disse Natasha Crampton, diretora do setor na Microsoft. 

O Twitter demitiu mais da metade de seu quadro de funcionários sob o novo proprietário, o bilionário Elon Musk, incluindo a pequena equipe ética de IA. O trabalho anterior da equipe incluía corrigir um viés no algoritmo do Twitter, que parecia favorecer rostos brancos ao escolher como recortar imagens na rede de relacionamento social on-line. O Twitter não respondeu a um pedido para comentar o assunto. 

Há poucos dias, o Twitch, plataforma de streaming de propriedade da Amazon, cortou sua equipe de IA ética, e todas as equipes que trabalham em produtos de IA se tornaram responsáveis por questões relacionadas a viés nos algoritmos, de acordo com uma fonte a par da mudança. O Twitch não quis comentar as informações. 

Em setembro, a Meta dissolveu a equipe de inovação responsável, formada por cerca de 20 engenheiros e especialistas em ética no Instagram e no Facebook. A Meta não respondeu a um pedido para se manifestar. 

“Equipes de IA responsável estão entre os únicos bastiões internos que as ‘Big Tech’ têm para certificar que as pessoas e comunidades afetadas por sistemas de IA sejam uma preocupação para os engenheiros que os criam”, disse Josh Simons, ex-pesquisador de ética de IA do Facebook e autor do livro “Algorithms for te People” (Algoritmos para o povo). “A velocidade com que elas estão sendo desfeitas deixa os algoritmos das Big Tech à mercê dos imperativos publicitários, afetando o bem-estar das crianças, das pessoas vulneráveis e da nossa democracia.” 

Outra preocupação é que os grandes modelos de linguagem, que servem de base a chatbots como o ChatGPT, são conhecidos por “alucinar” — fazer declarações falsas como se fossem fatos — e podem ser usados para fins nocivos, como disseminar desinformação e trapacear em provas. 

“O que estamos começando a ver é que não podemos prever totalmente todas as coisas que vão acontecer com essas novas tecnologias, e é crucial que prestemos atenção a elas”, disse Michael Luck, diretor do Instituto de Inteligência Artificial do King’s College London. 

O papel das equipes internas de ética em IA ficou sob os holofotes diante do debate quanto à necessidade ou não de maior transparência em qualquer intervenção humana na elaboração dos algoritmos, com contribuições do público e das autoridades supervisoras. 

Em 2020, o aplicativo de fotos Instagram, de propriedade da Meta, criou uma equipe para cuidar da “justiça algorítmica” em sua plataforma. A equipe “IG Equity” foi formada após o assassinato de George Floyd por policiais, com a intenção de fazer ajustes no algoritmo do Instagram para incentivar discussões sobre raça e destacar perfis de pessoas marginalizadas. 

“Eles são capazes de intervir e mudar esses sistemas e predisposições [e] explorar intervenções tecnológicas que promoverão a equidade […], mas os engenheiros não deveriam decidir como a sociedade é moldada”, disse Simons. 

No Google, alguns funcionários encarregados da supervisão ética da IA também foram demitidos como parte de um grande programa de demissões na Alphabet, de mais de 12 mil funcionários, de acordo com uma fonte próxima à empresa. 

O Google não especificou quantos cargos foram cortados, mas destacou que a IA responsável continua sendo de “alta prioridade na empresa” e que continua “investindo nessas equipes”. 

A tensão entre o desenvolvimento de tecnologias de IA dentro das empresas e seu impacto e segurança já havia emergido no Google. Dois líderes de pesquisa ética em IA, Timnit Gebru e Margaret Mitchell, saíram em 2020 e 2021, respectivamente, após brigas com a empresa que foram altamente noticiadas. 

“É problemático quando as práticas de IA responsáveis perdem prioridade para a competição ou para uma iniciativa de mercado”, disse Strait, do Ada Lovelace Institute. “E, infelizmente, o que estou vendo agora é que exatamente isso está ocorrendo.” (Colaborou Hannah Murphy, de São Francisco) 

https://valor.globo.com/eu-e/noticia/2023/04/03/inteligencia-artificial-microsoft-amazon-e-google-demitem-equipes-de-etica.ghtml

Comentários estão desabilitados para essa publicação