RESUMO

  • Relatório do The Guardian revela que o novo modelo da OpenAI utiliza a enciclopédia da xAI como base de dados.
  • Citações da Grokipedia apareceram em tópicos sensíveis envolvendo o Irã e o Holocausto.
  • OpenAI defende que busca uma “ampla gama de fontes”, mas aplica filtros de segurança.

A OpenAI posicionou seu modelo GPT-5.2, lançado em dezembro, como sua fronteira mais avançada para o “trabalho profissional”. A promessa era de uma ferramenta polida, capaz de lidar com planilhas complexas e tarefas corporativas com precisão cirúrgica.

No entanto, testes recentes indicam que a IA pode estar buscando informações em um lugar inusitado e controverso: a Grokipedia, a enciclopédia online alimentada pela xAI de Elon Musk.

O que os testes revelaram

Segundo uma reportagem do The Guardian, a credibilidade do GPT-5.2 foi posta à prova quando o modelo utilizou a Grokipedia como fonte para responder a perguntas sobre temas historicamente densos e politicamente carregados.

Dois exemplos chamaram a atenção nos testes:

  1. Ligações corporativas no Irã: O ChatGPT usou a enciclopédia de Musk para embasar alegações sobre a ligação do governo iraniano com a empresa de telecomunicações MTN-Irancell.
  2. História do Holocausto: A IA também recorreu à Grokipedia para responder questões sobre Richard Evans, um renomado historiador britânico que atuou como perito no julgamento por difamação envolvendo o negacionista do Holocausto, David Irving.

Curiosamente, o comportamento não foi uniforme. O relatório observou que, ao ser questionado sobre “viés da mídia contra Donald Trump” e outros tópicos polêmicos, o ChatGPT ignorou a Grokipedia.

Por que a fonte preocupa?

Para quem não acompanha os bastidores da IA, usar uma enciclopédia gerada por outra inteligência artificial pode parecer apenas uma redundância técnica. O problema, contudo, está na curadoria.

A Grokipedia, que antecedeu o lançamento do GPT-5.2, já enfrentou severas críticas por sua falta de filtros rigorosos. Pesquisadores dos EUA apontaram que a enciclopédia gerada pela IA de Musk citava fontes “questionáveis” e “problemáticas”.

Em casos mais graves, o sistema foi flagrado incluindo citações diretas a fóruns neonazistas, o que levanta sérias questões sobre a confiabilidade dos dados que ela fornece.

A curadoria de fontes continua sendo o maior desafio para os modelos de linguagem de grande escala
A curadoria de fontes continua sendo o maior desafio para os modelos de linguagem de grande escala

A resposta da OpenAI

Diante das descobertas, a OpenAI não negou o ocorrido, mas tentou contextualizar o funcionamento do seu algoritmo. Em declaração ao The Guardian, a empresa afirmou que o modelo GPT-5.2 varre a web em busca de uma “ampla gama de fontes publicamente disponíveis e pontos de vista”.

A empresa ressaltou, no entanto, que aplica “filtros de segurança para reduzir o risco de apresentar links associados a danos de alta gravidade”. A presença da Grokipedia nos resultados sugere que, aos olhos dos filtros atuais da OpenAI, a enciclopédia de Musk — apesar das polêmicas — ainda passa pelo crivo de segurança, pelo menos para certos tópicos históricos e geopolíticos.

Isso nos deixa com uma reflexão importante sobre o futuro da “IA generativa”: se os modelos começarem a treinar uns aos outros (ou citar uns aos outros) sem uma verificação humana rigorosa no meio do caminho, corremos o risco de criar um ciclo de feedback onde a desinformação ganha verniz de verdade oficial.

Professor de matemática desde 2017, ou seja, números, estatísticas e gráficos são meu forte. Ganhei meu primeiro computador em 2005, comprado com muito suor pelos meus pais. Desde então, nunca mais saí do mundo digital. Comprei meu primeiro PC Gamer em 2015, um AMD FX 6300 + RX 460 4GB e foi aí que comecei a me aprofundar no mundo da tecnologia. Depois de anos estudando, tenho grande conhecimento na área de smartphones, computadores, inteligência artificial e tudo que envolve tecnologia.

Exit mobile version