A INTELIGÊNCIA ARTIFICIAL dificilmente fica confinada às fronteiras internacionais, à medida que empresas, universidades e governos exploram um conjunto global de ideias, algoritmos e talentos. No entanto, os programas de IA que resultam dessa corrida do ouro global ainda podem refletir profundas divisões culturais.
Uma nova pesquisa mostra como a censura governamental afeta os algoritmos de IA – e pode influenciar os aplicativos desenvolvidos com esses algoritmos.
Margaret Roberts, professora de ciência política na UC San Diego, e Eddie Yang, aluno de doutorado lá, examinaram algoritmos de linguagem de IA treinados em duas fontes: a versão em chinês da Wikipedia, que está bloqueada na China; e Baidu Baike, um site semelhante operado pelo mecanismo de pesquisa dominante da China, Baidu, que está sujeito à censura do governo. O Baidu não quis comentar.
Os pesquisadores estavam curiosos para saber se a censura de certas palavras e frases poderia ser aprendida por algoritmos de IA e encontrar seu caminho em softwares que usam esses algoritmos. Isso pode influenciar o idioma que um chatbot ou assistente de voz usa, o fraseado de um programa de tradução ou o texto das ferramentas de preenchimento automático.
O tipo de algoritmo de linguagem que eles usaram é aprendido ao analisar a maneira como as palavras aparecem juntas em grandes quantidades de texto. Ele representa palavras diferentes como nós conectados em um espaço físico; quanto mais próximas as palavras aparecem, mais semelhantes são seus significados.
Um programa de tradução pode inferir o significado de uma palavra desconhecida examinando essas relações em dois idiomas diferentes, por exemplo.
Os pesquisadores da UCSD encontraram diferenças importantes nos algoritmos de IA resultantes que, segundo os pesquisadores, parecem refletir as informações censuradas na China. Por exemplo, aquele treinado na Wikipedia chinesa representava “democracia” mais perto de palavras positivas, como “estabilidade”. O algoritmo treinado no Baike Baidu representou “democracia” mais próxima do “caos”.
Roberts e Yang então usaram os algoritmos para construir dois programas para avaliar o sentimento – o significado positivo versus negativo – das manchetes de notícias. Eles descobriram que um treinado na Wikipédia chinesa atribuiu pontuações mais positivas às manchetes que mencionavam termos como “eleição”, “liberdade” e “democracia”, enquanto o outro treinado no Baidu Baike atribuiu pontuações mais positivas às manchetes com “vigilância”, “ controle social ”e“ CCP ”. O estudo será apresentado na Conferência de 2021 sobre Responsabilidade e Transparência Equitativa (FAccT) em março.
Nos últimos anos, pesquisadores destacaram como preconceitos de raça e gênero podem se esconder em muitos sistemas de inteligência artificial. Algoritmos treinados em texto extraído da web ou de livros antigos, por exemplo, aprenderão a replicar os preconceitos exibidos pelos autores humanos desse texto. Em 2018, pesquisadores do Google demonstraram preconceitos culturais em algoritmos de reconhecimento de imagem, que podem, por exemplo, reconhecer apenas cenas de casamento ocidentais.
Roberts observa que as diferenças vistas em seu estudo podem não ser devidas inteiramente à censura do governo. Alguns podem ser o resultado de autocensura ou simplesmente diferenças culturais entre aqueles que escrevem os artigos da enciclopédia. Mas ela diz que é importante reconhecer que a política do governo pode causar outras formas de preconceito nos sistemas de IA. “Vemos isso como um ponto de partida para tentar entender como os dados de treinamento moldados pelo governo aparecem no aprendizado de máquina”, diz Roberts.
Roberts diz que pesquisadores e formuladores de políticas precisam considerar como os governos no futuro podem influenciar a forma como os sistemas de IA são treinados para tornar a censura mais eficaz ou exportar valores específicos.
Graeme Hirst, professor da Universidade de Toronto, especializado em linguística computacional e processamento de linguagem natural, tem algum receio com a metodologia deste estudo. Sem pesquisar cuidadosamente as diferenças entre a Wikipedia chinesa e o Baidu Baike, diz Hirst, é difícil atribuir variações nos algoritmos à censura. Também é possível que a Wikipedia chinesa contenha conteúdo anti-chinês ou abertamente pró-democracia, diz ele. Hirst acrescenta que não está claro como a análise de sentimento foi feita e se o viés pode ter sido introduzido lá.
Outros vêem isso como uma contribuição bem-vinda para o campo.
“Em certo sentido, isso não é surpreendente”, diz Suresh Venkatasubramanian, professor da Universidade de Utah que estuda ética em IA e foi cofundador da conferência FAcct.
Venkatasubramanian aponta que algoritmos de IA treinados em artigos de notícias ocidentais podem conter seus próprios preconceitos anti-China. “Mas acho que ainda é importante fazer o trabalho para mostrar que isso está acontecendo”, diz ele. “Então você pode começar a perguntar como ele aparece, como você mede, como é e assim por diante.”
Fonte: traduzido de https://www.wired.com/story/guide-artificial-intelligence/