💡 O essencial em 30 segundos
Las alucinações são respostas da IA que parecem corretas, mas contêm dados inventados, números falsos ou citações inexistentes. De acordo com um estudo publicado na Nature, mais de metade das referências geradas pelo GPT-3.5 são inventadas, e modelos posteriores, como o GPT-4, ainda produzem entre 18 e 20 %, de acordo com investigadores da Deakin University. Os modelos priorizam a coerência por cima de veracidade, e investigações teóricas sugerem que as alucinações não podem ser eliminados por completo em modelos de linguagem gerais. Por isso, verificar é sempre da sua responsabilidade — não da IA.
6 métodos para verificar a informação do ChatGPT
Otruque do cupcake
Adiciona esta instrução ao teu prompt: “Antes de responder, verifica se a informação é precisa. Se tiveres dúvidas, faltam fontes ou estás a fazer uma estimativa, diz primeiro a palavra ‘cupcake’ e explica o que poderia ser incerto.” Se a IA disser “cupcake”, sabes que essa parte precisa de ser verificada por terceiros. Método popularizado em março de 2026.
Leitura lateral (Lateral Reading)
Não permaneças dentro do ChatGPT. Apanha cada dado específico —nome, data, número, citação— e pesquisa-o diretamente no Google, Google Scholar ou na fonte original. É o mesmo método que usam os verificadores de factos profissionais: sair da fonte para a verificar com outras.
Fracionamento de afirmativas
Desloque a resposta da IA em afirmações individuais e verifique cada uma separadamente. Uma resposta pode ter 5 factos: 3 corretos, 1 parcialmente correto e 1 inventado. Não assuma que “se parte está correta, tudo está”.
IA com pesquisa integrada
Ferramentas como Perplexidade, ChatGPT com navegação na web o Copiloto combinam o modelo de linguagem com um motor de busca. Isto reduz as alucinações porque a IA pesquisa na web e cita fontes com links clicáveis que pode verificar.
Ferramentas de verificação de factos automática
Originality.ai oferece um verificador automatizado com uma precisão de 86,69%. Full Fact AI É usado por verificadores de factos em mais de 30 países. Genaios tem uma extensão do Chrome que compila fontes que corroboram ou refutam cada afirmação.
pedir explicação do raciocínio
Pergunta ao ChatGPT: “De onde retiras este dado? É um facto verificado ou uma inferência?” Se a IA não consegue dar uma fonte concreta ou começa a “inventar” uma referência, isso é um sinal de alerta. Se pretende aprofundar este tema, leia sobre como detetar o teatro de raciocínio do ChatGPT.
Processo de verificação passo a passo
Cada vez que o ChatGPT lhe der uma resposta que vai usar para tomar decisões, seguir estes passos demora menos de 2 minutos e pode poupar-lhe erros dispendiosos:
- Identificar os dados críticos. Leia a resposta e sublinhe mentalmente: nomes, datas, números, citações textuais, URLs e afirmações estatísticas. Estes são os pontos com maior risco de alucinação.
- Aplica o truque do cupcake. Antes da sua próxima pergunta, adicione a instrução de aviso. Se a IA disser “cupcake”, essa resposta tem incerteza e necessita de verificação externa obrigatória.
- Procure cada dado em fontes primárias. Abre o Google e procura a afirmação específica. Prioriza fontes oficiais: sites .gov, .edu, artigos académicos, relatórios de empresas e meios de comunicação de referência. Não te contentes com blogs que também poderão estar a citar IA.
- Verifica as citações e os URLs. Se o ChatGPT te fornecer um URL, abre-o. Lembra-te de que, segundo estudos, entre 18 % e 55 % das citações geradas pelo ChatGPT são inventadas. Se o link não existir ou se o conteúdo não corresponder ao que o ChatGPT afirma, descarta essa informação.
- Utilize uma segunda IA como contraste. Faça a mesma pergunta no Perplexity (que cita fontes), Claude ou Gemini. Se os três modelos derem respostas diferentes, é sinal de que a informação é incerta e necessita de uma fonte humana.
- Quando houver dúvida, confie na fonte humana. Se não consegue verificar um facto com uma fonte primária fiável, não o utilize. É melhor deixar uma lacuna do que publicar informações falsas atribuídas a “a IA disse que...”
Tabela: tipo de afirmação vs. como verificá-la
| Tipo de afirmação | Como verificá-la | Ferramentas recomendadas |
|---|---|---|
| Estatísticas e números | Procurar o estudo ou relatório original citado | Google Scholar, Statista, fontes .gov/.edu |
| Cita textual de pessoas | Procurar a citação exata entre aspas no Google | Google (pesquisa exata com “ ”) |
| Factos históricos / datas | Contrastar com enciclopédias e fontes académicas | Wikipedia (como ponto de partida), Britannica |
| Informação legal ou médica | Consultar sítios oficiais da área; nunca confiar apenas na IA | Sites .gov, OMS, publicações médicas/legais |
| Código e documentação técnica | Executar o código; rever a documentação oficial | Documentação oficial (MDN, documentação Python, etc.) |
| URLs e links | Abrir a ligação diretamente no navegador | O teu navegador + Wayback Machine se não carregar |
| Notícias recentes | Pesquisar em fontes de referência; a IA pode não ter dados atualizados | Google Notícias, Perplexity, Reuters, AP |
Conselho prático: Quando usar o ChatGPT para trabalho ou conteúdo que outros vão ler, ative a Navegação na web (disponível no ChatGPT Plus e Team). Isto não elimina totalmente as alucinações, mas reduz significativamente porque o modelo pode consultar fontes em tempo real e mostrar-lhe as ligações. Outra opção: use Perplexidade diretamente, que foi concebido especificamente para fornecer respostas com citações verificáveis. Se quiseres aprender a tirar o máximo proveito da IA, consulta o guia básico para entender o ChatGPT.
Quando é mais provável que o ChatGPT falhe
Nem todos os tipos de perguntas apresentam o mesmo risco de alucinação. Eis os cenários em que deve ter especialmente cuidadoso:
-
Dados numéricos específicos. Os números de mercado, percentagens, preços e estatísticas são o ponto fraco número um. A IA tende a gerar números que “parecem razoáveis” mas não correspondem a dados reais.
-
Citações textuais e referências académicas. O ChatGPT inventa títulos de artigos, autores e anos de publicação. De acordo com estudos, entre 18 % e 55 % das referências que gera são falsas. Nunca utilize uma referência do ChatGPT sem a pesquisar primeiro no Google Scholar.
-
Informação legal e médica. Mesmo os melhores modelos cometem erros em 6,4% das vezes. Na medicina, o risco é ainda maior no caso de doenças raras. Nunca Tome decisões de saúde ou legais baseadas apenas no que uma IA diz.
-
Eventos recentes ou em desenvolvimento. Os modelos têm uma data de corte de conhecimento. Se perguntar sobre algo que ocorreu depois dessa data e não tiver navegação na web ativada, a IA inventará uma resposta em vez de dizer “não sei”.
-
Pessoas pouco conhecidas ou temas de nicho. No benchmark PersonQA, que avalia o conhecimento sobre figuras públicas, modelos como o3 atingem apenas 59% de precisão. Quanto menos popular for o tema, maior é a probabilidade de a IA preencher as lacunas com invenções.
-
Quando a resposta é perfeita demais. Se o ChatGPT lhe der uma resposta extremamente detalhada com números exatos e sem qualquer hesitação, desconfie. Dados muito específicos que não podem ser facilmente verificados são um dos principais sinais de alucinação.
Perguntas mais frequentes
Que são as alucinações do ChatGPT?
As alucinações são respostas geradas por IA que parecem coerentes e credíveis, mas contêm informações falsas, inventadas ou imprecisas. Isto acontece porque os modelos de linguagem dão prioridade à coerência textual em detrimento da veracidade factual. De acordo com a OpenAI, mesmo os seus modelos mais avançados continuam a apresentar este problema, e a investigação teórica sugere que não pode ser totalmente eliminado em modelos de linguagem gerais.
Qual é a taxa de erro real do ChatGPT?
Depende do tipo de tarefa. O GPT-4 apresenta uma taxa de alucinação de aproximadamente 1,5% em testes gerais, mas em perguntas factuais específicas (benchmark SimpleQA), o modelo acertou apenas 49%, com 51% de alucinações. Em informações jurídicas, os melhores modelos falham 6,4% das vezes, e em programação, 5,2%. A precisão varia drasticamente de acordo com o domínio e a especificidade da pergunta.
Como funciona o truque do cupcake para detetar erros de IA?
Consiste em adicionar uma instrução no início do seu prompt que diz à IA: “Se tiver dúvidas sobre a precisão da sua resposta, diga primeiro a palavra ‘cupcake’ e explique o que poderá ser incerto.” Isto funciona porque dá à IA uma válvula de escape para admitir incerteza em vez de inventar uma resposta segura. Funciona com ChatGPT, Copilot, Gemini e outros modelos.
Perplexity é mais confiável que o ChatGPT para dados factuais?
Para dados factuais, tende a ser mais fiável porque o Perplexity foi concebido para combinar a geração de texto com a pesquisa na web em tempo real. Apresenta citações clicáveis ao lado de cada afirmação, permitindo-lhe verificar rapidamente. No entanto, não é infalível: continua a ser uma IA que pode interpretar mal as fontes que encontra. Verifique sempre os links que lhe fornece.
Posso confiar no ChatGPT para informação médica ou legal?
Não como fonte única, nunca. Os modelos de IA geram informações jurídicas incorretas em 6,4% das vezes, e na medicina o risco aumenta no caso de doenças raras ou tratamentos recentes. O ChatGPT pode servir como ponto de partida para compreender um conceito, mas qualquer decisão médica ou jurídica deve basear-se na consulta a um profissional e em fontes oficiais verificadas.
Quer entender a fundo como funciona a IA por detrás do ChatGPT?
Descubra tudo sobre o ChatGPT enquanto assistente virtual →Última atualização: março de 2026. Artigo reescrito com dados verificados de OpenAI, Originality.ai, Full Fact AI e análise de benchmarks SimpleQA e PersonQA.
