IA avança em pós-graduação e regulação deve acelerar o processo 

Antes restritas às grandes corporações, as ferramentas de inteligência artificial (IA) se popularizaram com os algoritmos das playlists de streamings musicais, de redes sociais, feeds de notícias e efeitos de imagem que usam recursos de reconhecimento de rostos. Com o lançamento do ChatGPT, no fim do ano passado, teve início um verdadeiro boom, que hoje ultrapassa a área da computação, e preocupa a ponto de se discutir uma regulamentação no Congresso. Além de tudo isso, a IA já revoluciona o setor educacional, incluindo a pós-graduação em todo o País.

Os últimos dois anos têm sido de aumento da demanda por cursos da área em muitas universidades. Na USP, o MBA em Inteligência Artificial e Big Data teve um aumento na procura de 38% da segunda para a terceira turma matriculada, que iniciou as aulas este mês. Já na Universidade Presbiteriana Mackenzie (UPM) o interesse de profissionais da área jurídica resultou na criação de disciplinas focadas em IA.

Professor de Direito Digital da Faculdade de Direito da UPM, Diogo Rais relata que o número de trabalhos de conclusão de curso e dissertações de mestrado sobre a tecnologia é cerca de 30 vezes maior em 2023 do que há três anos. Para ele, muito da atenção recente se deve à transversalidade da matéria, além do caráter de incerteza sobre os limites e potencialidades da IA. “Quem descobriu como distribuir e armazenar eletricidade não imaginava que a gente ia carregar um iPhone. Partindo dessa ideia, é importante tratar a inteligência artificial como um tema que afeta todas as áreas do conhecimento.”

Nas aulas, conta, discute-se a regulação do uso da tecnologia, assim como efeitos positivos e negativos – algo importante para não “formar pessoas desconectadas do próprio tempo”. “Não adianta ficar falando de Código de Hamurabi ou de Direito Romano se a gente não olhar também para as relações entre a tecnologia e a inteligência artificial nos fenômenos sociais. É um tema que não é do futuro, mas do presente.”

A advogada Bruna Azzari, professora e doutoranda em Direito Político e Econômico, relata que a popularidade da IA fez com que buscasse aprofundamento. Além do aspecto da ética, considera que a tecnologia já tem transformado a atuação jurídica. Os trabalhos mais repetitivos, afirma, estão sendo aos poucos substituídos, o que só não acontece mais rápido pelo desconhecimento sobre a melhor utilização. “Meu maior interesse hoje é entender como a IA está transformando a sociedade como um todo, a prática jurídica e, por fim, a necessidade de se adaptar o ensino do Direito para preparar os profissionais para atuar.”

Uso da tecnologia vai da área de negócios ao Agro

Felipe Furtado, diretor nacional de ensino do Ibmec, concorda que a disciplina passou a fazer parte de qualquer área de formação. O MBA em Liderança, Inovação e TecnologIA é um lançamento que terá a primeira turma no próximo semestre letivo, mas a IA já faz parte da ementa de outros programas, como a do MBA em Negócios. De acordo com ele, isso tem a ver com o processo de transformação digital vivenciado por grande parte das empresas, que criam volumes de dados cada vez maiores – e precisam, portanto, de tecnologias com maior capacidade para suportá-los e para executar mecanismos de visualização e análise. “Passou a ser problema de todo mundo.”

O cenário torna natural o crescimento da demanda por cursos de especialização por parte de profissionais de áreas como Agro e Saúde. O uso de sistemas de inteligência artificial baseados em machine learning em empreendimentos de agronegócio, por exemplo, pode reduzir custos ao prever quando determinado equipamento precisará passar por manutenção. Já no caso de exames como a mamografia, algoritmos de análise de imagens podem reconhecer padrões já identificados. O processo possibilita decisões médicas mais informadas, capazes de salvar vidas e, em larga escala, permite a análise de mais exames em um tempo menor.

Nesse contexto, Felipe ressalta que cabe às instituições de ensino acompanhar as demandas. “A gente vê que existe essa preocupação, não só para criar novas formações específicas em inteligência artificial, mas também para rever as formações atuais.”

O processo tem seus desafios, principalmente relacionados a questões mais técnicas. É importante, não apenas para quem é da área da tecnologia, adquirir alguns conhecimentos de lógica, programação e entender linguagens como Python. “Não dá para querer ir direto aprender o que é IA. Tem algumas competências digitais anteriores necessárias para entender o que é machine learning, o que é inteligência artificial generativa, o que é um ChatGPT e por aí vai”, afirma o diretor de ensino.

Conhecimento da ferramenta deve ser plural

Para o advogado Diogo Rais, o esforço de trazer essas habilidades para quem é de outras áreas pode ser facilitado pelo aumento do interesse recente. Mas é fundamental ter em mente uma visão plural. “O conhecimento necessário para operar e para entender os desafios que a inteligência artificial coloca não é exclusivamente jurídico, computacional ou ético, e sim, talvez, um pouco de tudo.”

Aleida Lafuente é analista de segurança da informação em uma fintech de pagamentos e cursa, atualmente, uma especialização em Inteligência Artificial Aplicada. Ela optou pela pós-graduação com esse foco por considerar importante entender usos de IA que podem ser aproveitados no mercado de forma imediata. “A gente não está tentando desenvolver um robô que sente emoções, mas sim, por exemplo, um sistema que consegue selecionar os melhores grãos de um plantio, levando em consideração a composição genética deles, ou classificar se um tipo de acesso é ofensivo.”

Apesar de possibilidades mais mirabolantes ganharem destaque nas especulações quando o assunto é inteligência artificial, para Aleida, atender ao mercado no momento implica saber mais do que apenas aplicar códigos e algoritmos. Nas aulas, alguns dos usos mais estudados são a classificação e a previsão de informações. “Eu acredito que o nível de desenvolvimento da IA hoje ainda é embrionário, muito por causa também da capacidade de processamento dos computadores e quanto eles custam. Talvez a parte mais importante de estudar isso hoje seja a parte de interpretação de dados que a estatística proporciona, que é um fator crucial para compreender o uso de inteligências artificiais.”

Senado analisa projeto para regular IA

Segundo Solange Rezende, professora e coordenadora do MBA em Inteligência Artificial e Big Data da USP, trata-se, ainda, de algo quase intangível para boa parte da sociedade. “Muita gente passou a saber que ela existe e a usar alguns recursos e aplicativos, mas sem muita noção ainda do que é e como utilizar bem.” O mesmo vale para empresas dos mais diversos segmentos: “O mercado já está percebendo que, para desenvolver algum sistema, para usar inteligência artificial nos negócios, é preciso ter clareza do que existe”, diz.

Isso porque, explica ela, a falta de conhecimento também alimenta inseguranças e desconfianças, por exemplo no que diz respeito ao uso de dados pessoais, tratamento e critérios dos algoritmos. “É muito importante que gestores e líderes de equipe de outras áreas busquem se informar mais sobre o que pode ser feito, quais os benefícios e como resolver problemas de forma ética e segura, que não prejudique as pessoas que vão utilizar essas tecnologias.”

Vem daí a preocupação com a regulamentação. Em maio, o Senado anunciou que vai analisar um projeto de lei para regulamentar o uso da IA. Apresentado pelo presidente da Casa, Rodrigo Pacheco (PSD-MG), ele foi formulado por uma comissão de juristas e consolida em uma só proposta pelo menos outros quatro projetos sobre o tema. O texto do projeto de marco regulatório contempla cinco eixos: princípios, direitos dos afetados, classificação de riscos, obrigações e requisitos de governança. O objetivo, informa, é estabelecer os direitos da população que tem seus dados utilizados para alimentar os sistemas de IA e criar segurança jurídica para a inovação e o desenvolvimento tecnológico.

Estão previstos direitos como a possibilidade de contestar decisões tomadas com base no uso de inteligência artificial; a obrigatoriedade de que essas decisões sejam explicadas; de informar os consumidores previamente quando houver interações com esses sistemas e a adoção de medidas para evitar discriminação.

Há, também, uma listagem de atividades consideradas de alto risco quando realizadas por IA. Entre essas estão a classificação de crédito; a identificação de pessoas; a implementação de veículos autônomos; diagnósticos e procedimentos médicos; tomada de decisões sobre acesso a emprego, a ensino, ou a serviços públicos e privados essenciais; avaliação de estudantes e trabalhadores e avaliação individual de risco de cometimento de crimes e de traços de personalidade e de comportamento criminal.

Seriam exigidos, no caso de sistemas classificados como de alto risco, a documentação de todo o processo de desenvolvimento da tecnologia; registro automático das operações do sistema; testes de robustez, acurácia, precisão e cobertura; garantia de diversidade na equipe responsável pelo desenvolvimento e promover supervisão humana do uso da tecnologia. Na Europa, uma Lei de Inteligência Artificial – o “EU AI Act” – foi aprovada há um mês. Ela começou a ser redigida em 2020 e tem aspectos que também aparecem na proposta brasileira, como a abordagem baseada em risco, a previsão de um ambiente experimental (sandbox) para testes de serviços e produtos, e a restrição do reconhecimento facial em espaços públicos.

Variedade de sistemas e formatos é desafio para regulamentação

De acordo com Solange Rezende, a variedade de sistemas e formas de funcionamento das inteligências artificiais representa uma complicação para propor regulamentação efetiva. “Esses sistemas aprendem de forma completamente diferente. Você não sabe a partir de quais dados foi aprendido o conhecimento utilizado, qual o mecanismo interno que se usou para descobrir aquele conhecimento ou qual o mecanismo de inferência utilizado para gerar a resposta”, afirma a professora e pesquisadora da USP.

Além disso, para áreas diversas, surgem obstáculos diferentes. Para o setor da Saúde, seria preciso entender a responsabilidade em casos de erros médicos; no Direito, lidar com o viés do algoritmo, que pode aprender por histórico e perpetuar falhas; em análise de seguros, seria preciso buscar transparência e evitar a discriminação contra grupos de pessoas com perfis de dados específicos. Por fim, nos negócios, ela aponta que haveria questões como privacidade dos dados de consumidores e vantagens desproporcionais por parte das empresas com acesso aos sistemas.

Mais eficaz, considera, poderia ser pensar em regulamentação por setores. “Tem segmentos que precisam de um olhar mais cuidadoso, métricas mais precisas de avaliação de resultados e de validação desses resultados.” O formato, empregado nos Estados Unidos, também é considerado interessante pelo presidente da Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da Ordem dos Advogados do Brasil – seção São Paulo (OAB-SP), Solano de Camargo. “O Banco Central teria possibilidade de acessar com muito mais profundidade o impacto da IA quando utilizada por bancos e financeiras, por exemplo. Seria mais preciso do que uma lei que tenta colocar em uma mesma panela todas as possibilidades dessa tecnologia que, aparentemente, é de utilização ilimitada.”

Para o especialista, um marco regulatório que proteja os interesses e direitos da população é importante, mas a formulação desse dispositivo deve observar características do uso real da IA — entre elas, seu potencial de rápida mudança. “O projeto de lei se baseia na escala de riscos da tecnologia, mas esses riscos podem desaparecer, podem aumentar, podem mudar do dia para a noite. Praticamente todos os dias a gente tem uma nova aplicação.”

Outro ponto de atenção seria uma possível precipitação da parte do Brasil, que, segundo ele, está longe de ser um celeiro de grandes plataformas de inteligência artificial. A previsão de uma multa de até R$ 50 milhões por infração ou até 2% do faturamento da empresa, por exemplo, poderia “afugentar pesquisadores, startups e desenvolvedores”.

Aprovação de marco regulatório levaria a aumento de formações em IA

A aprovação futura de um marco regulatório no Brasil poderia, na opinião de muitos, intensificar a crescente demanda por formações com foco em IA, seu funcionamento e aplicações. Seria algo semelhante ao que ocorreu na esteira da Lei Geral de Proteção de Dados (LGPD), cujas sanções passaram a ser exigíveis em agosto de 2021. Com o dispositivo, cresceu a procura por cursos na área de proteção de dados. No Instituto Daryus de Ensino Superior Paulista (Idesp), o aumento da demanda de pós-graduação foi de 15% para o curso de Gestão e Tecnologia em Segurança da Informação, 61% em Cybersecurity e de 122% em Gestão de Riscos e Continuidade de Negócios – do primeiro semestre de 2022 para o mesmo período de 2023.

“Sempre que tem algo de alto impacto no mercado, tem um aumento tremendo na busca em um primeiro momento, mas essa demanda no caso da IA ainda está mais no institucional do que no prático”, afirma Lucas Oggiam, diretor executivo do PageGroup. Faz parte do processo, de acordo com ele, um tempo de adaptação às realidades que se apresentam. A previsão para os próximos meses e anos, especula, é de que novas carreiras dedicadas 100% à área possam aparecer. “É como quando teve o boom das mídias sociais; você começou a ter redatores de redes sociais, community managers e outras posições.”

Onde se usa a IA hoje

– Combate a spam, por meio de sistemas que aprendem a distingui-lo entre outros conteúdos

– Planejamento logístico, em que ferramentas criam planos para diminuir o custo e o tempo de implementação de decisões e resolver problemas de transporte, além de possibilitar entregas inteligentes e armazenamento otimizado

Continua após a publicidade

– Robótica, na forma, por exemplo, de drones semiautônomos

– Tradução automática, que usa redes neurais que substituem métodos estatísticos (empregada a partir de 2014 em ferramentas como o Google Tradutor)

Riscos que preocupam os legisladores

– Sigilo dos dados captados

– Produção de algoritmos que reforcem em suas respostas e resultados vieses de discriminação

– Falta de transparência quanto aos critérios levados em consideração por algoritmos usados para substituir tarefas repetitivas

https://www.estadao.com.br/educacao/inteligencia-artificial-avanca-em-pos-e-regulacao-deve-acelerar-o-processo/

Comentários estão desabilitados para essa publicação