Eu realmente nunca me preocupei com o fato de os computadores estarem de olho no meu trabalho. Para dizer a verdade, muitas vezes, rezo por isso. Quão melhor seria minha vida – e do meu editor, para não falar dos pobres leitores – se eu pudesse pedir a uma máquina onisciente que sugerisse a melhor maneira de iniciar esta coluna? Isso acabaria com meu processo habitual de escrita, que envolve arrebentar meu cérebro com uma picareta enferrujada, na vaga esperança de que alguns flocos de sabedoria e discernimento possam, como caspa, cair na página.
Entendeu o que eu quis dizer? Um computador pode ter ajudado ali. (Como caspa? É isso que você vai escolher, Farhad?) Mas nós, escritores, podemos ser um grupo arrogante. Escrever é uma habilidade inexplicável e parece, como contar uma piada ou fazer um suflê, como uma empreitada inviolavelmente humana.
Nunca me preocupei realmente que um computador pudesse aceitar meu trabalho, porque nunca pareceu remotamente possível. Não é raro o meu telefone achar que eu pretendia escrever a palavra “esquivar”. Um computador escrevendo uma coluna de jornal? No dia de São Nunca.
Bem, amigos escritores, este dia está próximo. Neste mês, a OpenAI, uma instituição de pesquisa de inteligência artificial com sede em São Francisco, começou a permitir acesso limitado a um software que é, ao mesmo tempo, incrível, assombroso, humilhante e mais do que um pouquinho assustador.
O novo software da OpenAI, chamado GPT-3, é de longe o mais poderoso “modelo de linguagem” já criado. Um modelo de linguagem é um sistema de inteligência artificial que foi treinado com um enorme corpus de texto; com texto e processamento suficientes, a máquina começa a aprender conexões probabilísticas entre as palavras. Mais claramente: o GPT-3 pode ler e escrever. E não é nada mal.
Um software como o GPT-3 pode ser extremamente útil. Máquinas que podem entender e responder a humanos em nosso próprio idioma podem criar assistentes digitais mais úteis, personagens de videogame mais realistas ou professores virtuais personalizados para o estilo de aprendizagem de cada aluno. Em vez de escrever códigos para programar, um dia talvez possa criar um software apenas dizendo às máquinas o que fazer.
A OpenAI concedeu acesso ao GPT-3 a poucas centenas de desenvolvedores de software, e muitos vêm preenchendo o Twitter nas últimas semanas com demonstrações de seus recursos surpreendentes, que variam do mundano ao sublime, até o possivelmente bastante perigoso.
Para apreciar o potencial perigo, é interessante entender como o GPT-3 funciona. Os modelos de linguagem geralmente precisam ser treinados para usos específicos – um bot de atendimento ao cliente usado por um varejista pode precisar ser ajustado com dados a respeito de produtos, enquanto um bot usado por uma companhia aérea precisaria aprender sobre voos. Mas o GPT-3 não precisa de muito treinamento extra. Dê ao GPT-3 um tema em linguagem natural – “Eu, por meio deste, me demito da Dunder-Mifflin” ou “Caro John, estou deixando você” – e o software preencherá o resto com um texto assustadoramente próximo ao que um humano escreveria.
E não são respostas automáticas. O GPT-3 é capaz de gerar prosa inteiramente original, coerente e, às vezes, até factual. E não apenas prosa – pode escrever poesia, diálogo, memes, código-fonte e quem sabe o que mais.
A flexibilidade do GPT-3 é um avanço fundamental. Matt Shumer, o CEO de uma empresa chamada OthersideAI, está usando o GPT-3 para criar um serviço que responde a e-mails em seu nome – você escreve a essência do que gostaria de dizer e o computador cria um e-mail completo, diferenciado e educado a partir de uma lista de tópicos a serem abordados.
Outra empresa, a Latitude, está usando o GPT-3 para construir personagens realistas e interativos em jogos de aventura baseado em texto. Funciona surpreendentemente bem – o software não é apenas coerente, mas também pode ser bastante criativo, absurdo e até engraçado. Stew Fortier, um escritor, criou uma sátira boba usando o software como uma espécie de musa.
Fortier deu um tema estranho ao GPT-3: “Abaixo está uma transcrição de uma entrevista em que Barack Obama explicou por que foi banido do Golden Corral para sempre”. O sistema então preencheu o resto da entrevista, escrevendo tudo com a ideia de que Obama havia sido banido de um buffet em que se pode comer o tanto que se deseja pagando um preço único.
Obama: Sim. É verdade. Não tenho mais permissão para entrar no Golden Corral.
Entrevistador: Isso é por causa de seu consumo excessivo de camarão e caranguejo?
Obama: Com certeza.
Entrevistador: Fale-me mais acerca do seu consumo excessivo de camarão e caranguejo.
Obama: Oh, bem, em resumo, eles estavam oferecendo um bufê de camarão e caranguejo à vontade e eu não hesitei. Depois de comer tanto camarão e caranguejo, meu estômago começou a doer, eu sorrateiramente coloquei mais camarão e caranguejo no meu prato. Fiz isso várias vezes até limpar o bufê e me empanturrar de camarões e caranguejos.
Ainda assim, softwares como o GPT-3 levantam a perspectiva assustadora de uso incorreto. Se os computadores podem produzir grandes quantidades de texto semelhante ao que um humano escreveria, como seremos capazes de distinguir os humanos das máquinas? Em um artigo de pesquisa detalhando o poder do GPT-3, seus criadores citam uma série de perigos, incluindo “informações equivocadas, spam, phishing, abuso de processos legais e governamentais, redação fraudulenta de ensaios acadêmicos e alegações de engenharia social”.
Existem outros problemas. Por ter sido treinado com textos encontrados on-line, é provável que o GPT-3 repita muitos preconceitos encontrados na sociedade. Como podemos ter certeza de que o texto que ele produz não é racista ou machista? O GPT-3 também não é bom em distinguir fatos de ficção. “Eu dei a ele três frases originais criadas com minhas palavras sobre baleias, e ele acrescentou texto criado – e a forma como eu poderia dizer que era inventivo é que estava muito errado”, disse Janelle Shane, que dirige um blog chamado AI Weirdness.
A seu favor, a OpenAI adotou muitas precauções. Por enquanto, a empresa está permitindo que apenas um pequeno número de pessoas use o sistema e está examinando cada aplicativo produzido com ele. A empresa também proíbe o GPT-3 de se passar por humanos – ou seja, todo texto produzido pelo software deve revelar que foi escrito por um bot. A OpenAI também convidou pesquisadores externos para estudar os preconceitos do sistema, na esperança de reduzi-los.
Essas precauções podem ser suficientes por agora. Mas o GPT-3 é tão bom em imitar a escrita humana que às vezes me dava calafrios. Daqui a pouco, seu humilde correspondente pode ser posto de escanteio por uma máquina – e você pode até sentir minha falta quando eu for embora.
Farhad Manjoo, The New York Times – Life/Style