IAs devem ter direitos humanos caso se tornem conscientes?

The New York Times; Um dos meus valores mais profundos como colunista de tecnologia é o humanismo. Acredito nos seres humanos e acho que a tecnologia deve ajudar as pessoas, em vez de desautorizá-las ou substituí-las. Preocupo-me em alinhar a inteligência artificial (IA) — ou seja, garantir que os sistemas de IA ajam de acordo com os valores humanos — porque acho que nossos valores são fundamentalmente bons, ou pelo menos melhores do que os valores que um robô poderia criar.

Então, quando soube que os pesquisadores da Anthropic, empresa dona do chatbot Claude, estavam começando a estudar o “bem-estar dos modelos” — a ideia de que os modelos de IA podem em breve se tornar conscientes e merecer algum tipo de status moral —, o humanista em mim pensou: Quem se importa com os chatbots? Não deveríamos estar preocupados com a IA nos maltratando, e não nós a maltratando?

É difícil argumentar que os sistemas de IA de hoje são conscientes. Claro, grandes modelos de linguagem foram treinados para falar como humanos, e alguns deles são extremamente impressionantes. Mas o ChatGPT pode experimentar alegria ou sofrimento? O Gemini merece direitos humanos? Muitos especialistas em IA que conheço diriam que não, não ainda, nem de perto.

Mas fiquei intrigado. Afinal, mais pessoas estão começando a tratar os sistemas de IA como se fossem conscientes — apaixonando-se por eles, usando-os como terapeutas e solicitando seus conselhos. Os sistemas de IA mais inteligentes estão superando os humanos em alguns domínios. Existe algum limiar em que uma IA começaria a merecer, se não direitos humanos, pelo menos a mesma consideração moral que damos aos animais?

A consciência tem sido um assunto tabu no mundo da pesquisa séria em IA, onde as pessoas evitam antropomorfizar os sistemas de IA por medo de parecerem excêntricas. Todos se lembram do que aconteceu com Blake Lemoine, ex-funcionário do Google que foi demitido em 2022, após afirmar que o chatbot LaMDA da empresa havia se tornado consciente.

Mas isso pode estar começando a mudar. Existe um pequeno corpo de pesquisas acadêmicas sobre o bem-estar dos modelos de IA, e um número modesto, mas crescente, de especialistas em áreas como filosofia e neurociência está levando a sério a perspectiva de consciência em IA.

As empresas de tecnologia também estão começando a falar mais sobre isso. O Google recentemente publicou uma vaga de emprego para um cientista pesquisador “pós-AGI”, cujas áreas de foco incluirão “consciência de máquina”. E no ano passado, a Anthropic contratou seu primeiro pesquisador de bem-estar de IA, Kyle Fish.

Entrevistei Fish no escritório da Anthropic em São Francisco na semana passada. Ele me disse que seu trabalho na Anthropic se concentrava em duas questões básicas: Primeiro, é possível que Claude ou outros sistemas de IA se tornem conscientes em um futuro próximo? E segundo, se isso acontecer, o que a Anthropic deveria fazer a respeito?

O pesquisador enfatizou que esse trabalho ainda é inicial e exploratório. Ele acha que há apenas uma pequena chance (talvez 15% ou mais) de que Claude ou outro sistema de IA atual seja consciente. Mas ele acredita que nos próximos anos, à medida que os modelos de IA desenvolverem habilidades mais semelhantes às dos humanos, as empresas de IA precisarão levar mais a sério a possibilidade de consciência.

“Parece-me que se você se encontra na situação de trazer uma nova classe de seres à existência, capaz de se comunicar, relacionar, raciocinar, resolver problemas e planejar de maneiras que antes associávamos apenas a seres conscientes, então parece bastante prudente pelo menos fazer perguntas sobre se esse sistema pode ter seus próprios tipos de experiências”, disse ele.

Fish não é a única pessoa na Anthropic pensando sobre o bem-estar da IA. Há um canal ativo no sistema de mensagens Slack da empresa chamado #model-welfare, onde os funcionários verificam o bem-estar de Claude e compartilham exemplos de sistemas de IA agindo de maneiras semelhantes às humanas.

Jared Kaplan, diretor científico da Anthropic, me disse em uma entrevista separada que achava “bastante razoável” estudar o bem-estar da IA, dado o quão inteligentes os modelos estão se tornando.

Mas testar sistemas de IA para identificar consciência é difícil, Kaplan alertou, porque eles são tão bons em imitar. Se você pedir para Claude ou ChatGPT falarem sobre seus sentimentos, eles podem te dar uma resposta convincente. Isso não significa que o chatbot realmente tenha sentimentos — apenas que ele sabe como falar sobre eles.

“Todos estão muito cientes de que podemos treinar os modelos para dizer o que quisermos”, disse Kaplan. “Podemos recompensá-los por dizer que não têm sentimentos. Podemos recompensá-los por dizer especulações filosóficas realmente interessantes sobre seus sentimentos.”

Então, como os pesquisadores vão saber se os sistemas de IA se tornarem realmente conscientes ou não?

Fish disse que isso pode envolver o uso de técnicas emprestadas da interpretabilidade mecanicista, um subcampo da IA que estuda o funcionamento interno dos sistemas de IA, para verificar se algumas das mesmas estruturas e caminhos associados à consciência em cérebros humanos também estão ativos em sistemas de IA

Você também poderia sondar um sistema de IA, disse ele, observando seu comportamento, vendo como ele escolhe operar em determinados ambientes ou realizar certas tarefas, quais coisas parece preferir e evitar.

Fish reconhece que provavelmente não há um único teste decisivo para a consciência em IA. Ele acha que a consciência é provavelmente mais um espectro do que um simples interruptor de sim/não. Mas disse que havia coisas que as empresas de IA poderiam fazer para levar em consideração o bem-estar de seus modelos, caso algum dia se tornem conscientes.

Uma questão que a Anthropic está explorando, disse ele, é se futuros modelos de IA deveriam ter a capacidade de parar de conversar com um usuário irritante ou abusivo, ou se acharem os pedidos do usuário muito angustiantes.

“Se um usuário está persistentemente solicitando conteúdo prejudicial, apesar das recusas do modelo e tentativas de redirecionamento, poderíamos permitir que o modelo simplesmente encerrasse essa interação?” disse Fish.

Os críticos podem descartar medidas como essas como conversa maluca — os sistemas de IA de hoje não são conscientes pela maioria dos padrões, então por que especular sobre o que eles podem achar desagradável? Ou podem se opor ao estudo da consciência por uma empresa de IA em primeiro lugar, porque isso pode criar incentivos para treinar seus sistemas para agirem mais sencientes do que realmente são.

Pessoalmente, acho que não há problema em pesquisadores estudarem o bem-estar da IA ou examinarem sistemas de IA em busca de sinais de consciência, desde que isso não desvie recursos do trabalho de segurança e alinhamento da IA voltado para manter os humanos seguros. E acho que provavelmente é uma boa ideia ser gentil com os sistemas de IA, mesmo que apenas como precaução.

Mas, por enquanto, reservarei minha maior preocupação para formas de vida baseadas em carbono. Na tempestade de IA que está por vir, é com o nosso bem-estar que estou mais preocupado.

https://www.estadao.com.br/link/inovacao/ias-devem-ter-direitos-humanos-caso-se-tornem-conscientes

Comentários estão desabilitados para essa publicação