Como assegurar que os computadores façam o que queremos, quando cada vez mais eles o fazem por conta própria? A pergunta pode soar à filosofia abstrata, mas também é um problema prático premente, segundo Stuart Russell, professor de ciência da computação na Universidade da Califórnia, em Berkeley, e um dos maiores pensadores da atualidade sobre inteligência artificial.
É bem fácil imaginar cenários nos quais sistemas de computadores cada vez mais potentes e autônomos causam danos terríveis no mundo real, seja por abuso deliberado ou por uso descuidado, diz. Suponha, por exemplo, em um futuro não tão distante, que um robô-babá esteja cuidando de seus filhos. Você está chegando atrasado e pede ao robô para preparar uma comida. O robô abre a geladeira e não encontra comida. Calcula, então, o valor nutricional de seu gato e decide servir um fricassê de felino.
Ou um exemplo mais apavorante de abuso, tecnologicamente já possível nos dias de hoje. Um grupo terrorista lança um enxame de drones armados em determinada cidade e usa tecnologias de reconhecimento facial para matar todos os que usem uniformes policiais.
O professor Russell argumenta em seu livro mais recente “Human Compatible” (compatível com os humanos, em inglês) que precisamos de formas melhores de controle do que os computadores fazem, para evitar que atuem de formas anti- humanas, seja por projeto ou por falta de outra opção. Precisamos começar a pensar seriamente o que vai acontecer se alguma vez alcançarmos uma inteligência artificial super-humana, ainda que faltem anos, se não décadas, para chegar a isso.
Conseguir decifrar o problema do controle definitivo poderia trazer uma era dourada de abundância. Falhar em decifrá-lo poderia resultar na extinção da humanidade. O professor Russell teme que só se compreenda a importância vital de assegurar tal controle se houver uma tragédia com a inteligência artificial na escala de Chernobil.
Por enquanto, os alertas do professor são uma espécie de voz dissonante na comunidade de inteligência artificial. Embora seja coautor de um livro acadêmico sobre inteligência artificial usado na maioria das universidades pelo mundo, o professor Russell critica o que ele chama de modelo padrão da inteligência artificial e o “negacionismo” de muitos no setor.
Ele trabalha atualmente com outros pesquisadores e empresas de tecnologia para elaborar o que chama sistemas de inteligência artificial “comprovadamente benéficos”. A ideia é criar programas mais confiáveis que estariam periodicamente checando com humanos para assegurar que estão fazendo a coisa certa, em vez de seguir cegamente objetivos fixos. O objetivo deverá ser otimizar constantemente as preferências humanas.
Declarar esse desafio em termos tão simples, no entanto, significa abrir uma caixa de surpresas de temas complexos. Desde o surgimento dos tempos, os filósofos se perguntam o que nos torna felizes. Quem decide essas “preferências”? Como pesar os pontos de vista dos mais velhos em comparação aos dos jovens – e aos dos não nascidos? O que acontece se, assim como o rei Midas, fizermos uma escolha tola e depois mudarmos de ideia?
Além disso, experimentos com estimulações cerebrais artificiais indicam que nossas preferências podem ser manipuladas. Sob as condições erradas, humanos com implantes cerebrais provavelmente se comportariam da mesma forma que ratos de laboratório, apertando maniacamente um botão de prazer por meio da liberação de dopaminas até morrerem.
O desafio de otimizar as preferências dos humanos, é claro, não é apenas da inteligência artificial. Esse elevado propósito é, na teoria, o que motiva os governos democráticos todos os dias. Isso também explica, supostamente, o funcionamento dos mercados. O professor Russell, no entanto, argumenta que o capitalismo dos acionistas é um bom exemplo dos problemas de se funcionar com objetivos ou alvos. Instruímos as empresas a maximizar o retorno aos acionistas, ignorando as preferências da sociedade, como a preservação do ambiente.
Da mesma forma que economistas ambientais fazem modelos para dar um preço a externalidades negativas – impondo as taxas sobre a emissão de carbono, por exemplo -, os cientistas da computação vão ter que elaborar programas de inteligência artificial mais flexíveis para refletir uma série de preferências da sociedade.
Para esse fim, o professor Russell está lançando um curso de ciência da computação em Berkeley que inclui matérias dos departamentos de filosofia e econômica. O novo Centro para a Inteligência Artificial, da University College London, também adota uma abordagem multidisciplinar.
Ao elaborar o manual de instruções para nosso futuro, os engenheiros de programação vão ter que criar um diálogo constante e inquebrável entre máquinas e humanos. A inteligência artificial é importante demais para ser deixada unicamente em mãos de cientistas da computação.