Não esqueçamos o conselho de Isaac Asimov sobre o desenvolvimento da IA ética

Por décadas, líderes intelectuais anteciparam uma revolução em inteligência artificial. Voltando aos anos 1950, escritores como Isaac Asimov imaginaram sistemas de computador criados pelo homem que poderiam executar tarefas humanas melhor do que os próprios humanos. Muitos viram as formas pelas quais essa tecnologia poderia elevar a humanidade – mas também viram o potencial prejudicial de uma ferramenta tão poderosa.

Essa percepção desencadeou uma conversa sobre ética em IA que durou 70 anos e levou a diretrizes como as três leis de robótica de Asimov – a primeira e mais alta das quais nos diz que nenhum robô deve prejudicar um ser humano ou permitir que um ser humano seja prejudicado. As leis de robótica de Asimov foram projetadas para garantir que a IA seja construída em benefício e avanço da humanidade.

Agora que a revolução em IA chegou – e tão importante, foi disponibilizada ao público – houve uma explosão de IA generativa que pode escrever ensaios, pintar quadros e até mesmo contar piadas. Também sabemos que ela tem a capacidade de hackear sistemas, espalhar desinformação e infringir a privacidade e a propriedade intelectual.

A corrida frenética para explorar as possibilidades apresentadas por uma ferramenta tão poderosa deixou a ética em IA para trás. Sete décadas de pensamento, planejamento e desenvolvimento de regras foram jogados fora praticamente num instante – e agora nos encontramos em uma posição perigosa. Muitos desses programas populares têm infraestrutura lamentavelmente inadequada para ajudá-los a avaliar dados e processá-los eticamente.

Isso está criando alguns problemas sistêmicos. A IA está sujeita a alucinação, na qual os modelos consomem tanta informação não diferenciada que não conseguem distinguir fatos da ficção. Eles são propensos a infringir direitos autorais, o que é ainda mais provável por um sistema de IA que não mostra suas fontes ou se protege contra plágio. E porque esses modelos raramente têm infraestrutura para manter barreiras entre onde a informação vem e para onde ela vai, eles tendem a ingerir e compartilhar informações proprietárias.

Estes problemas são graves. No entanto, talvez o mais preocupante seja que, em um momento em que estamos vendo o dano potencial que pode resultar quando a IA é mal utilizada ou desenvolvida de forma irresponsável e implantada, estamos também vendo algumas das maiores organizações do mundo decidirem cortar suas equipes e orçamentos de ética em IA. É como se uma companhia aérea fosse alertada para questões de segurança com um novo jato – e em vez de investir em correções e melhores controles, demitiu suas equipes de segurança e intensificou a produção do mesmo avião defeituoso em taxas ainda mais rápidas.

Os riscos que enfrentamos decorrem da falta de regras – e embora ainda não tenhamos sentido todas as consequências dessas falhas, as repercussões são enormes. Sem regras, a IA pode ser usada para influenciar eleições e espalhar desinformação que engana os eleitores. Sem regras, esses modelos podem ser usados para roubar informações proprietárias e minar a propriedade intelectual. Sem regras, esses modelos podem ser usados para corroer o consenso mais fiel e preciso sobre o que é e o que não é verdade.

É claro que, ao avançarmos coletivamente em uma tecnologia transformadora sem um forte senso de como usá-la de forma responsável, perdemos o controle de nossa responsabilidade ética coletiva. É por isso que líderes de tecnologia de ponta pediram uma paralisação desse tipo de desenvolvimento de AI, com mais líderes soando o alarme diariamente. E com o líder amplamente respeitado em inteligência artificial, Geoffrey Hinton, recentemente deixando o Google para falar abertamente sobre os perigos da IA, o alarme atingiu um volume ensurdecedor.

A boa notícia é que há uma maneira melhor de abordar esse desafio: criando modelos de IA com um conjunto central de ética. Qualquer criador de IA deve começar definindo princípios centrais e construindo estruturas em torno desses princípios em vez de construir o programa primeiro e lidar com as ramificações posteriormente. Ao pensar em limites antes de implantar a tecnologia, podemos mitigar ou prevenir os usos e abusos mais problemáticos desses sistemas.

Podemos impor limites aos nossos modelos de IA por meio de regras para torná-los mais seguros e responsáveis. Em vez de usar sistemas abertos que buscam informações de todos os lugares, podemos usar sistemas fechados que apenas utilizam as informações que alimentamos, e, em seguida, citam suas fontes. Isso ajuda a evitar alucinações de IA mantendo o controle sobre o que o sistema aprende e ajuda a evitar o plágio tornando claro o que é e o que não é linguagem original. Ao mesmo tempo, ajuda a proteger informações proprietárias colocando guardrails em torno de onde essas informações podem ir.

A realidade é que a inteligência artificial vai mudar o mundo, gostemos ou não. Refletindo sobre os perigos que a IA representa, alguns disseram que enquanto os softwares estão comendo o mundo, a IA é seus dentes. A verdade é que a IA sempre foi pensada para ser o coração. A IA foi originalmente idealizada para aumentar a acessibilidade para pessoas em nossas comunidades que enfrentam desvantagens, unir culturas mundiais com tradução automática e criar experiências sem as mãos enquanto dirige para reduzir acidentes.

Com a infraestrutura adequada, pode ser uma força para elevar a humanidade a novas alturas – mas se deixado para desenvolver sem regras ou considerações éticas, poderia ser desastroso. Nos primeiros dias dos computadores, Asimov apresentou um mandato claro e simples para os campos da robótica e inteligência artificial: não causar mal. Devemos honrar essa regra e otimizar nossos esforços para fazer o bem.


Igor Jablokov é fundador e CEO da [Pryon] (https://pryon.com/), uma empresa de IA focada em gestão de conhecimento empresarial.

https://www.fastcompany.com/90902503/pov-we-cant-forget-isaac-asimovs-advice-on-developing-ai

Comentários estão desabilitados para essa publicação