Dano real e não risco imaginário é o melhor caminho para regular IA

THE NEW YORK TIMES – Quando o presidente americano Joe Biden assinou sua ampla ordem executiva sobre inteligência artificial (IA) na semana passada, ele brincou sobre a estranha experiência de assistir a uma deep fake de si mesmo, dizendo: “Quando diabos eu disse isso?”

A anedota é significativa, pois vinculou a ordem executiva a um dano real de IA que todos podem entender: a imitação humana. Outro exemplo é o recente boom de imagens falsas de nudez que têm arruinado a vida de meninas do ensino médio. Esses episódios cotidianos ressaltam uma verdade importante: o sucesso dos esforços do governo para regulamentar a IA dependerá de sua capacidade de manter o foco em problemas concretos, como deep fakes, em vez de se deixar levar por riscos hipotéticos, como o domínio das máquinas sobre humanos.

A ordem executiva de Biden supera até mesmo os europeus ao considerar praticamente todos os riscos potenciais que se possa imaginar, desde fraudes cotidianas até o desenvolvimento de armas de destruição em massa. A ordem desenvolve padrões de segurança e confiabilidade da IA, estabelece um programa de segurança cibernética para desenvolver ferramentas de IA e exige que as empresas que desenvolvem sistemas de IA que possam representar uma ameaça à segurança nacional compartilhem os resultados de seus testes de segurança com o governo federal.

Ao dedicar tanto esforço à questão da IA, a Casa Branca está determinada, com razão, a evitar o fracasso desastroso de regulamentar as mídias sociais na década de 2010. Com o governo à margem, a tecnologia as redes sociais evoluíram de uma ferramenta aparentemente inocente para compartilhar atualizações pessoais entre amigos para uma manipulação psicológica em larga escala, com um modelo de negócios invasivo à privacidade e um histórico preocupante de danos a adolescentes, promovendo a desinformação e facilitando a disseminação de propaganda.Mas se as redes sociais eram um lobo em pele de cordeiro, a inteligência artificial é mais parecida com um lobo vestido como um cavaleiro do apocalipse. No imaginário do público, a IA está associada ao maléfico mau funcionamento do HAL 9000 em “2001: Uma Odisseia no Espaço”, de Stanley Kubrick, e à vilania autoconsciente da Skynet nos filmes “Exterminador do Futuro”. Mas, embora a IA certamente apresente problemas e desafios que exigem ação governamental, as preocupações apocalípticas – seja o desemprego em massa decorrente da automação ou uma IA superinteligente que busca exterminar a humanidade – permanecem no campo da especulação.

Se fazer pouco e tarde demais com as mídias sociais foi um erro, agora precisamos ter cuidado com ações governamentais prematuras que não tratam de danos concretos.

A tentação de reagir de forma exagerada é compreensível. Ninguém quer ser aquele funcionário do governo sem noção no filme de desastre que despreza os primeiros sinais de um cataclisma no horizonte. A Casa Branca não está errada em querer testes padronizados de IA e supervisão independente de riscos catastróficos. A ordem executiva exige que as empresas que desenvolvem os sistemas de IA mais poderosos mantenham o governo informado sobre os testes de segurança e que o secretário do trabalho estude os riscos e as soluções para o desemprego causado pela tecnologia.

Mas a verdade é que ninguém sabe se algum desses desenvolvimentos revolucionários se concretizará. As previsões tecnológicas não são como as da ciência climática, com um número relativamente limitado de parâmetros. A história da tecnologia está repleta de projeções confiantes e “inevitabilidades” que nunca aconteceram, desde as semanas de trabalho de 30 e 15 horas até o fim da televisão. Testemunhar em tom grave sobre possibilidades aterrorizantes é um bom programa de televisão. Mas também foi assim que o mundo acabou gastando centenas de bilhões de dólares para se preparar para o bug do milênio.

Regulamentar riscos especulativos, em vez de danos reais, seria insensato por dois motivos. Primeiro, reguladores excessivamente ansiosos podem se fixar de forma míope no alvo errado da regulamentação. Por exemplo, para lidar com os perigos da pirataria digital, o Congresso, em 1992, regulamentou amplamente a fita de áudio digital, um formato de gravação que agora é lembrado apenas pelos nerds do áudio, graças ao surgimento posterior da internet e dos MP3s. Da mesma forma, os formuladores de políticas atuais estão preocupados com grandes modelos de linguagem como o ChatGPT, que pode ser o futuro de tudo – ou, dada sua grande falta de confiabilidade decorrente de falsificação e fabricação crônicas, pode acabar sendo lembrado como o Hula Hoop da era da IA.

Em segundo lugar, a regulamentação preventiva pode criar barreiras à entrada de empresas interessadas em entrar em um setor. Os participantes estabelecidos, com milhões de dólares para gastar com advogados e especialistas, podem encontrar maneiras de obedecer a um conjunto complexo de novas regulamentações, mas as empresas iniciantes menores normalmente não têm os mesmos recursos. Isso promove a monopolização e desestimula a inovação. O setor de tecnologia já é demasiadamente dominado por um punhado de grandes empresas. A regulamentação mais rigorosa da IA faria com que apenas empresas como GoogleMicrosoftApple e seus parceiros mais próximos competissem nessa área. Pode não ser uma coincidência o fato de essas empresas e seus parceiros terem sido os maiores defensores da regulamentação da IA.

O dano real, e não o risco imaginário, é um guia muito melhor para saber como e quando o Estado deve intervir. Os danos existentes mais claros da IA são aqueles relacionados à falsificação de identidade humana (como os falsos nudes), à discriminação e ao vício dos jovens. Em 2020, ladrões usaram uma voz humana falsa para roubar US$ 35 milhões de uma empresa japonesa em Hong Kong. A tecnologia de reconhecimento facial levou a detenções e prisões injustas. Resenhas falsas de consumidores minaram a confiança do consumidor, e as perfis falsos em redes sociais geram propaganda. Algoritmos acionados por IA são usados para aprimorar as propriedades de formação de hábito da mídia social.

Esses exemplos não são tão arrepiantes quanto o alerta emitido este ano pelo Center for AI Safety, que insistiu que “mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerras nucleares”. Mas os exemplos menos empolgantes apresentam vítimas reais.

É preciso dar crédito a Biden, pois sua ordem executiva não se prende excessivamente ao hipotético: A maior parte do que ela sugere é uma estrutura para ações futuras. Algumas de suas recomendações são urgentes e importantes, como a criação de padrões para a marca d’água de fotos, vídeos, áudio e texto criados com IA.

Mas o poder executivo, é claro, é limitado em seu poder. O Congresso americano precisa seguir o exemplo do Poder Executivo e ficar de olho em problemas hipotéticos e, ao mesmo tempo, agir de forma decisiva para nos proteger contra a falsificação de identidade humana, a manipulação algorítmica, a desinformação e outros problemas urgentes da IA – sem mencionar a aprovação de leis de privacidade online e de proteção à criança que, apesar das repetidas audiências no Congresso e do apoio popular, continuam não sendo aprovadas.

A regulamentação, ao contrário do que se ouve em debates políticos estilizados, não está intrinsecamente alinhada a um ou outro partido político. É simplesmente o exercício do poder do Estado, que pode ser bom ou ruim, usado para proteger os vulneráveis ou reforçar o poder existente. Aplicada à IA, com vistas ao futuro desconhecido, a regulamentação pode ser usada para auxiliar os poderosos, ajudando a preservar monopólios e sobrecarregando aqueles que se esforçam para usar a tecnologia da computação para melhorar a condição humana. Se for feita corretamente, com os olhos voltados para o presente, ela poderá proteger os vulneráveis e promover inovações mais amplas e salutares.

A existência de um dano social real tem sido, há muito tempo, a pedra fundamental da ação legítima do Estado. Mas esse ponto é válido para ambos os lados: O Estado deve agir com cautela na ausência de danos, mas também tem o dever de agir, se houver evidência de danos. Por essa medida, com a IA, corremos o risco de fazer muito e pouco ao mesmo tempo.

https://www.estadao.com.br/link/cultura-digital/o-dano-real-e-nao-o-risco-imaginario-e-o-melhor-caminho-para-regular-a-ia-leia-analise/

Comentários estão desabilitados para essa publicação