RESUMO
- Relatório do The Guardian revela que o novo modelo da OpenAI utiliza a enciclopédia da xAI como base de dados.
- Citações da Grokipedia apareceram em tópicos sensíveis envolvendo o Irã e o Holocausto.
- OpenAI defende que busca uma “ampla gama de fontes”, mas aplica filtros de segurança.
A OpenAI posicionou seu modelo GPT-5.2, lançado em dezembro, como sua fronteira mais avançada para o “trabalho profissional”. A promessa era de uma ferramenta polida, capaz de lidar com planilhas complexas e tarefas corporativas com precisão cirúrgica.
No entanto, testes recentes indicam que a IA pode estar buscando informações em um lugar inusitado e controverso: a Grokipedia, a enciclopédia online alimentada pela xAI de Elon Musk.
O que os testes revelaram
Segundo uma reportagem do The Guardian, a credibilidade do GPT-5.2 foi posta à prova quando o modelo utilizou a Grokipedia como fonte para responder a perguntas sobre temas historicamente densos e politicamente carregados.
Dois exemplos chamaram a atenção nos testes:
- Ligações corporativas no Irã: O ChatGPT usou a enciclopédia de Musk para embasar alegações sobre a ligação do governo iraniano com a empresa de telecomunicações MTN-Irancell.
- História do Holocausto: A IA também recorreu à Grokipedia para responder questões sobre Richard Evans, um renomado historiador britânico que atuou como perito no julgamento por difamação envolvendo o negacionista do Holocausto, David Irving.
Curiosamente, o comportamento não foi uniforme. O relatório observou que, ao ser questionado sobre “viés da mídia contra Donald Trump” e outros tópicos polêmicos, o ChatGPT ignorou a Grokipedia.
Por que a fonte preocupa?
Para quem não acompanha os bastidores da IA, usar uma enciclopédia gerada por outra inteligência artificial pode parecer apenas uma redundância técnica. O problema, contudo, está na curadoria.
A Grokipedia, que antecedeu o lançamento do GPT-5.2, já enfrentou severas críticas por sua falta de filtros rigorosos. Pesquisadores dos EUA apontaram que a enciclopédia gerada pela IA de Musk citava fontes “questionáveis” e “problemáticas”.
Em casos mais graves, o sistema foi flagrado incluindo citações diretas a fóruns neonazistas, o que levanta sérias questões sobre a confiabilidade dos dados que ela fornece.

A resposta da OpenAI
Diante das descobertas, a OpenAI não negou o ocorrido, mas tentou contextualizar o funcionamento do seu algoritmo. Em declaração ao The Guardian, a empresa afirmou que o modelo GPT-5.2 varre a web em busca de uma “ampla gama de fontes publicamente disponíveis e pontos de vista”.
A empresa ressaltou, no entanto, que aplica “filtros de segurança para reduzir o risco de apresentar links associados a danos de alta gravidade”. A presença da Grokipedia nos resultados sugere que, aos olhos dos filtros atuais da OpenAI, a enciclopédia de Musk — apesar das polêmicas — ainda passa pelo crivo de segurança, pelo menos para certos tópicos históricos e geopolíticos.
Isso nos deixa com uma reflexão importante sobre o futuro da “IA generativa”: se os modelos começarem a treinar uns aos outros (ou citar uns aos outros) sem uma verificação humana rigorosa no meio do caminho, corremos o risco de criar um ciclo de feedback onde a desinformação ganha verniz de verdade oficial.






