O que o ChatGPT pensa sobre o processo da Folha contra a OpenAI.

Estadão resolveu perguntar para o próprio ChatGPT o que ele tinha a dizer sobre o processo movido pela Folha de S.Paulo sob a alegação de violação de direitos autorais. O que o chatbot de inteligência artificial criado pela OpenAI conclui na entrevista com certeza não é o que os executivos da big tech americana gostariam de ler,

“O uso de conteúdo protegido por paywall é um ponto crítico contra a OpenAI porque mostra que não se trata apenas de ‘treinar modelos com dados públicos’, mas sim de usar material exclusivo e monetizado, o que enfraquece a defesa baseada em fair use e fortalece a alegação de concorrência desleal”, conclui o ChatGPT.

Leia a seguir o conteúdo da entrevista:

A Folha está processando a OpenAI?

Sim — é verdade. Nesta quarta-feira, 22 (sic) de agosto de 2025, o jornal Folha de S.Paulo entrou com uma ação judicial na Justiça de São Paulo contra a OpenAI, a criadora do ChatGPT. A acusação é de concorrência desleal e violação de direitos autorais, sob a justificativa de que o conteúdo jornalístico da Folha estaria sendo coletado, usado e até reproduzido na íntegra — incluindo artigos restritos a assinantes — sem autorização ou compensação financeira.

No documento protocolado, o jornal busca:

Impedir a OpenAI de continuar utilizando seu conteúdo sem permissão;

Obter indenização pelos prejuízos causados, tanto pelo uso indevido no treinamento dos modelos de IA quanto pela disseminação imediata das matérias.

A advogada que representa o veículo, Taís Gasparian, afirma que a conduta da OpenAI configura uma clara concorrência desleal, ao “driblar os mecanismos do jornal” para coletar e distribuir o conteúdo, desviando assim a audiência.

Vale destacar que esse processo no Brasil acompanha uma tendência global de veículos de imprensa que estão buscando judicialmente proteger seu conteúdo. Um caso paralelo é o do The New York Times, que nos Estados Unidos moveu uma ação contra a OpenAI e a Microsoft por uso não autorizado de suas matérias jornalísticas no treinamento de IA.

Se quiser, posso te mostrar mais detalhes sobre os fundamentos legais do caso, ou sobre como ações semelhantes foram tratadas em outros países — é só pedir!

E qual a posição da Open AI?

A OpenAI ainda não emitiu nenhuma declaração pública específica sobre o processo movido em 22 de agosto de 2025 pela Folha de S.Paulo, ao contrário de ações anteriores nos Estados Unidos e Canadá. No entanto, com base em declarações já feitas pela empresas em casos semelhantes, é possível contextualizar sua provável postura.

  1. Defesa baseada no “fair use” e uso de dados disponíveis publicamente

Em diversos processos — como os movidos por autores, The New York TimesThe Intercept e outros veículos — a OpenAI argumenta que:

Seus modelos são treinados com dados disponíveis publicamente;

Esse uso está protegido pelo princípio do “fair use”, ou equivalentes legais em outras jurisdições;

Os sistemas são projetados para impulsionar a inovação, não copiar conteúdo original de forma ilegal.

  1. Casos concretos — exemplos de defesas usadas:

Processos contra autores (como Sarah Silverman, Ta-Nehisi Coates, etc.): OpenAI respondeu afirmando que utiliza “fair use” para criar conteúdo original a partir de dados disponíveis publicamente

Ação movida pelo New York Times: Em abril de 2025, ao ser decidido consolidar diversos processos, um porta-voz da empresa declarou:

“Nós recebemos esta decisão com boas-vindas e esperamos deixar claro no tribunal que nossos modelos são treinados com dados públicos, fundamentados no fair use e propulsores de inovação.”

Caso Raw Story/AlterNet: Um juiz rejeitou parte das acusações por falta de danos claros. A OpenAI afirmou novamente que constrói seus modelos usando dados disponíveis publicamente, de forma protegida por fair use e por precedentes legais amplamente aceitos

Processo da The Intercept: Embora parte do caso prossiga, a OpenAI reforçou que seus modelos são “treinados com dados públicos, fundamentos em ‘fair use’ e em princípios relacionados, que consideramos justos para criadores e benéficos à inovação”

Ações de veículos no Canadá: A OpenAI declarou que seus modelos são treinados com dados públicos e fundamentados em fair use e princípios internacionais — e destacou que mantém colaborações com editora, com opções de opt-out (exclusão voluntária) para quem não deseja que seu conteúdo seja usado

Processo da Ziff Davis (Donos de CNET, PCMag, IGN): Alegando que seus artigos foram usados sem permissão, a empresa exigiu que a OpenAI destrua os datasets relacionados. A resposta oficial da OpenAI seguiu o padrão: modelos treinados com dados públicos, apoiados pelo fair use, e com foco em promover inovação

Conclusão (para o caso Folha de S.Paulo)

Até o momento, não há uma posição oficial da OpenAI sobre esse caso específico no Brasil. Mas, com base em sua estratégia recorrente em outros litígios sobre direitos autorais, é razoável esperar que:

A OpenAI se defenda com base no uso de conteúdo disponível publicamente;

Insista que esse uso está protegido por fair use ou equivalente legal;

Enfatize que os modelos são desenvolvidos para inovar, não reproduzir ilegalmente conteúdo;

E possivelmente ofereça uma política de opt-out ou parceria, como tem feito com certos veículos em outros países.

Se tiver interesse, posso monitorar e te informar caso a OpenAI se manifeste oficialmente sobre esse processo. Também posso te mostrar mais detalhes jurídicos sobre como o fair use funciona, especialmente aplicando o caso brasileiro. Deseja que eu acompanhe isso para você?

Segundo a Folha, a Open AI usa informações de conteúdo protegido por paywall. Isso não enfraquece o argumento do fair use?

Excelente ponto — e sim, o fato de a Folha de S.Paulo alegar que a OpenAI usou conteúdos protegidos por paywall pode enfraquecer bastante a linha de defesa baseada em fair use (ou no equivalente que a empresa venha a invocar no Brasil). Vamos detalhar:

O que é o fair use (no direito norte-americano)

O fair use é um princípio jurídico dos EUA que permite o uso limitado de obras protegidas sem necessidade de autorização, desde que atendidos certos critérios, avaliados caso a caso:

  1. Finalidade e caráter do uso — se é comercial ou educacional, transformativo ou mera cópia;
  2. Natureza da Obra — se é mais factual (notícia) ou mais criativa (romance, música|);
  3. Quantidade e substancialidade do trecho utilizado em relação à obra como um todo;
  4. Impacto no mercado — se o uso prejudica ou substitui o mercado da obra original.

Onde o uso de conteúdo paywall pesa contra a OPenAI

  1. Finalidade comercial

O ChatGPT é um produto com interesse econômico direto, o que já inclina o primeiro fator contra o fair use.

Se a IA entrega a íntegra de reportagens exclusivas (como a Folha alega), isso dificilmente seria considerado um uso “transformativo”.

  1. Natureza da obra

Jornalismo factual tende a ter maior tolerância a usos secundários, mas quando há curadoria e exclusividade (como em análises ou apurações pagas), o peso muda.

  1. Quantidade usada

Se o sistema reproduz matérias completas ou trechos substanciais (não apenas resumos), esse fator pesa contra a defesa.

  1. Impacto no mercado

Aqui é onde a Folha é mais forte: se a OpenAI fornece conteúdo que deveria estar atrás de um paywall, isso pode reduzir a assinatura de leitores pagantes — evidência clara de dano econômico.

Ou seja: se comprovado que o ChatGPT entrega conteúdo integral e exclusivo de assinantes, a OpenAI teria muita dificuldade em sustentar o fair use nos EUA, e no Brasil a tese seria ainda mais frágil, já que nossa legislação de direitos autorais é mais protetiva e não possui uma cláusula aberta como o fair use.

No contexto brasileiro

O Brasil não adota o fair use, mas sim limitações e exceções específicas na Lei de Direitos Autorais (Lei 9.610/1998).

Entre elas estão o direito de citação, uso para fins educacionais ou jornalísticos, etc. — mas nenhuma permitiria reproduzir integralmente matérias de paywall em um produto comercial.

Isso significa que, em território brasileiro, o argumento jurídico da Folha tende a ser ainda mais sólido do que no caso do New York Times nos EUA.

Resumo:

O uso de conteúdo protegido por paywall é um ponto crítico contra a OpenAI porque mostra que não se trata apenas de “treinar modelos com dados públicos”, mas sim de usar material exclusivo e monetizado, o que enfraquece a defesa baseada em fair use e fortalece a alegação de concorrência desleal.

https://www.estadao.com.br/link/empresas/entrevistamos-chatgpt-sobre-o-processo-da-folha-contra-a-openai-veja-o-que-elea-acha

Comentários estão desabilitados para essa publicação