OpenAI diz que seu novo modelo de IA é capaz de “raciocinar”
Financial Times; A OpenAI lançará um produto de inteligência artificial (IA) que diz ser capaz de raciocinar, permitindo solucionar problemas complexos de matemática, ciência e programação. Isso seria um passo crucial para que máquinas alcancem uma cognição similar à de seres humanos.
Esses modelos de IA, chamados de o1, são alardeados como um sinal do avanço das capacidades tecnológicas dos últimos anos, em meio à corrida das empresas para criar sistemas de IA cada vez mais complexos.
Em particular, há uma nova corrida entre as firmas de tecnologia, como Google DeepMind, OpenAI e Anthropic, para criar softwares capazes agir de forma independente, os chamados “agentes” — bots personalizados idealizados para ajudar as pessoas a trabalhar, a criar ou a se comunicar melhor e a interagir com o mundo digital.
Segundo a OpenAI, os modelos foram integrados ao ChatGPT Plus desde esta quinta-feira (12). Eles foram projetados para ajudar cientistas e desenvolvedores, em vez de usuários comuns. A empresa diz que os modelos o1 superaram de longe o desempenho dos modelos existentes, como o GPT-4o, em um exame qualificatório para a Olimpíada Internacional de Matemática, no qual teve 83% de acertos, em comparação aos 13% do GPT-4o.
De acordo com Mira Murati, diretora de tecnologia da empresa, os modelos também abrem caminhos para entender como a IA funciona. “Conseguimos visibilidade dentro do pensamento do modelo […] podemos observar seu processo de raciocínio, passo a passo”, disse ela ao “Financial Times”.
Os novos modelos valem-se de uma técnica chamada aprendizado por reforço para abordar os problemas. Demoram mais para analisar as consultas, o que os torna mais custosos que os modelos GPT, mas suas respostas são mais consistentes e refinadas.
“O que ele está fazendo durante esse tempo é […] explorar diferentes estratégias para responder à sua consulta”, disse Mark Chen, pesquisador principal do projeto. “Se perceber que cometeu erros, pode corrigi-los.”
Para usos como as pesquisas on-line — que a OpenAI está experimentando por meio de sua ferramenta SearchGPT —, Murati disse que esse conjunto de modelos poderia abrir um “novo paradigma para as buscas”, ao permitir uma melhor pesquisa e recuperação de informações.
Ensinar softwares de computador a realizar raciocínios passo a passo e a planejar com antecedência são marcos importantes na invenção de uma inteligência artificial geral (IAG) — máquinas com capacidades cognitivas semelhantes às humanas —, segundo especialistas da área.
Caso os sistemas de IA demonstrem, de fato, raciocínio genuíno, isso permitiria “consistência de fatos, argumentos e conclusões feitos pela IA, [e] avanços na agência e autonomia da IA, provavelmente os principais obstáculos à IAG”, disse Yoshua Bengio, cientista da computação da Universidade de Montreal e ganhador do prestigiado Prêmio Turing.
Houve progressos constantes nessa área, com modelos como o GPT, o Gemini, do Google, e o Claude, da Anthropic, exibindo algumas capacidades iniciais de raciocínio, de acordo com Bengio. No entanto, o consenso científico é que os sistemas de IA ainda não chegaram a um raciocínio verdadeiramente geral.
“A maneira correta de avaliar os avanços é ter avaliações independentes de cientistas e acadêmicos, sem conflitos de interesse”, acrescentou Bengio.
Gary Marcus, professor de ciências cognitivas na Universidade de Nova York e autor do livro “Taming Silicon Valley” (domando o Vale do Silício, em inglês), fez um alerta similar. “Temos visto uma e outra vez reivindicações sobre raciocínio que se desmoronam após inspeções meticulosas e pacientes da comunidade científica, então, eu veria com ceticismo qualquer nova reivindicação.”
Bengio também destacou que softwares com capacidades mais avançadas representam um risco maior de uso indevido nas mãos de pessoas mal-intencionados. A OpenAI informou ter “reforçado” seus testes de segurança para acompanhar os avanços, o que incluiu fornecer a institutos independentes de segurança de IA do Reino Unido e dos Estados Unidos acesso prévio a uma versão de pesquisa do modelo.
Nos próximos anos, progresso da IA será guiado pelos avanços nessa área, segundo tecnólogos.
De acordo com Aidan Gomez, executivo-chefe da startup de IA Cohere e um dos pesquisadores do Google que ajudou a criar a tecnologia de transformadores que dá sustentação a chatbots como o ChatGPT, ensinar modelos a trabalhar em problemas mostrou trazer melhorias “dramáticas” em suas capacidades.
“Também é consideravelmente mais caro, porque você gasta muito raciocínio, pensamento e planejamento computacional antes de realmente dar uma resposta”, disse em um evento do “Financial Times” no sábado. “Portanto, os modelos estão se tornando mais caros nesse aspecto, mas dramaticamente melhores na solução de problemas.”