A União Europeia (UE) deu ontem um passo rumo a uma maior regulamentação das ferramentas de inteligência artificial (IA) como o ChatGPT, da OpenAI, e o Bard, do Google, com o bloco avançando na promulgação do regime mais restritivo do mundo sobre o desenvolvimento da tecnologia.
Os membros das comissões de Justiça e de Mercado Interno do Parlamento europeu decidiram ontem que as empresas criadoras de modelos de IA “fundacionais” precisarão fazer avaliações de risco e mostrar uma lista do material com direitos autorais usado para treinar os modelos, além de garantir que os usuários saibam quando estão interagindo com IA ou vendo um conteúdo “deepfake” [que parece real, mas é criado artificialmente]. Também votaram pela proibição do uso de IA em tempo real para identificar pessoas em lugares públicos.
A maioria dos parlamentares, 84, votou a favor dos controles adicionais, em votação sobre a Lei de IA da UE, sendo que 7 votaram contra e 12 se abstiveram.
A votação de ontem ainda está longe de ser o fim da história. O plenário do Parlamento Europeu votará a proposta da lei em junho e, depois, negociará um texto final com a Comissão Europeia e os 27 Estados-membros da UE. Ainda assim, os autores da lei pretendem influenciar outros governos a incluir certas proteções contra tecnologias com potencial desestabilizador.
Dragos Tudorache, eurodeputado que liderou o desenvolvimento das propostas, disse na quarta-feira que o texto acordado estava entre os mais negociados na história do parlamento, com mais de 1.000 emendas. “[A Lei de IA] é a primeira legislação desse tipo em todo o mundo”, disse Tudorache. “A UE pode liderar globalmente, tornando a IA centrada no ser humano, confiável e segura.”
“Esta abordagem pode exercer um certo efeito UE, em termos não apenas de influenciar as práticas de regulamentação do mundo, mas também de fazer o resto do mundo iniciar a discussão”, disse Brando Benifei, que desenvolveu a proposta junto com Tudorache.
Autoridades pelo mundo estão empenhadas em descobrir como mitigar os riscos da onda de crescimento das ferramentas de IA generativa, que permitem às pessoas criar conteúdo, como textos e desenhos, com simples comandos de texto.
Na semana passada, a Comissão Federal de Comércio dos EUA disparou um alerta para a indústria, dizendo que estava “focando intensamente em como as empresas podem optar por usar a tecnologia de IA, incluindo novas ferramentas de IA generativas, de maneiras que possam ter um impacto real e substancial nos consumidores”. O órgão regulador da concorrência do Reino Unido também está lançando uma revisão do mercado de IA.
Na próxima semana, o executivo-chefe da OpenAI, Sam Altman, deverá depor perante o Senado dos EUA na subcomissão encarregada de regulamentar os desenvolvimentos na IA, uma vez que a casa começa a estudar possíveis padrões para o setor. Altman tem defendido que as autoridades reguladoras lidem com os possíveis danos à sociedade que poderiam ser provocados pela corrida das grandes empresas de tecnologia para desenvolver e lançar versões mais avançadas de modelos de IA.
O debate quanto à necessidade de a UE regulamentar especificamente ou não a IA generativa em sua Lei de IA começou depois de a versão atualizada do ChatGPT ter sido lançada neste ano, realizando tarefas humanas de forma convincente, como provas, e-mails e códigos de computador. A tecnologia gerou receios de que a IA generativa poderia espalhar desinformação e infringir leis de direitos autorais e de proteção de dados.
Em março, especialistas em IA e líderes do setor, como Elon Musk, o professor Stuart Russell, de ciência da computação na Universidade da Califórnia, Berkeley, e Steve Wozniak, cofundador da Apple, fizeram um apelo aos desenvolvedores para fazer uma pausa de seis meses no treinamento dos modelos mais potentes para permitir a elaboração de protocolos de segurança compartilhados. (Com agências internacionais)