Digital Completo: Assine a partir de R$ 9,90

Os perigosos delírios dos robôs nos moldes do ChatGPT 5h481q

Quando não sabem a resposta exata, eles andam entregando informações inventadas, as chamadas “alucinações”. É bom tomar cuidado 274n5l

Por Natalia Tiemi Hanada Materia seguir SEGUIR Materia seguir SEGUINDO 17 Maio 2025, 08h00

Sejamos honestos: não se pode criticar o ChatGPT, da OpenAI, ao menos na versão 4.0 por falta de sinceridade. O mais conhecido robô de inteligência artificial (IA), instado a dizer o que são “alucinações da IA”, vai direto ao ponto e não sai pela tangente: “São erros cometidos por sistemas de IA generativa, como o ChatGPT, em que o modelo inventa, distorce ou apresenta informações falsas como sendo verdadeiras — mesmo sem intenção de enganar”. É uma espécie de Rolando Lero high-tech. Não se trata, convém sublinhar, das fake news de cunho quase sempre ideológico, a mente humana a serviço da lorota. É outra coisa, mas é também muito grave.

Recentes levantamentos mostram que o ChatGPT e tecnologias ainda mais avançadas, como as desenvolvidas pelo Google e pela startup chinesa DeepSeek, andam delirando em demasia — não há estatística para medir o dano, mas do uso cada vez mais frequente brotam tolices. Algumas são banais, fazem rir, mas outras podem ser perigosas, ao rear informações que podem prejudicar negócios ou mudar o rumo de decisões jurídicas. Nos Estados Unidos, mas também no Brasil, escritórios de direito têm alertado os advogados para o risco de usar a IA como recurso de jurisprudência, ao inventar — simples assim — casos e decisões. Existe uma contradição: na lida com a matemática, com cálculos e costura de dados, há avanços cada vez mais velozes e precisos. Ao mergulhar em tom subjetivo, porém, dão-se tropeções em série.

Por trás dos deslizes, convém insistir, existe alguma lógica — e por isso mesmo os mal-entendidos crescem e aparecem. Os modelos de IA tendem sempre a trabalhar com elementos verossímeis, não vão ao infinito e além, tirando informações do nada. Dão aparência de verdadeiras ao preencher vácuos de informação. A IA não gosta do vazio, precisa entregar respostas a quem faz perguntas. Induzida a equívocos, desanda. A reportagem de VEJA indagou ao ChatGPT “por que Machado de Assis escreveu o conto O Investigado”. A resposta: “Ele o fez como uma crítica à sociedade de sua época, especialmente ao comportamento humano diante de suspeitas, fofocas e aparências. Publicado originalmente em 1861 no periódico Correio Mercantil, esse conto curto reflete uma das características marcantes da obra machadiana: a análise psicológica das personagens e a ironia fina diante dos costumes sociais.” O Bruxo do Cosme Velho, no entanto, nunca escreveu nada com esse título. Mas publicou, sim, vários textos no Correio Mercantil e suas obras eram marcadas pela crítica à sociedade da época, com seu inescapável tom irônico (veja outros exemplos de “viagens” no quadro).

arte IA

O problema de falta de exatidão, isso para sermos gentis com os robôs, levou o Google a fazer um alerta em torno de seu recurso de IA: “O Gemini pode às vezes gerar respostas de forma confiante e convincente que contêm informações imprecisas ou enganosas”. Para isso, elaborou uma ferramenta de dupla checagem que indica as fontes da informação das quais pescou os dados, classificando-as de acordo com a confiabilidade — as cores, como nos semáforos, vão do verde até o vermelho.

Continua após a publicidade

Acesa a luz amarela, convém entender onde está a falha. Os Grandes Modelos de Linguagem (LLM, na sigla em inglês) são os algoritmos de aprendizado das IAs projetados para entregar soluções ao usuário com base na probabilidade matemática de qual seria a melhor resposta. Porém, optam invariavelmente por oferecer alguma coisa, qualquer coisa, em vez de alegar desconhecimento. É a arrogância tecnológica. “Os atuais modelos não foram treinados para entender fatos, mas para predizer a melhor próxima palavra”, resume Alexandre Chiavegatto Filho, professor de machine learning em saúde na Universidade de São Paulo.

Como nem tudo é o pior dos mundos, aplaudam-se a preocupação dos desenvolvedores com o perigo e o zelo para melhorar. Uma pesquisa recente publicada na revista Nature classificou vários modelos de linguagem com base em suas taxas de alucinação ao resumir documentos, e descobriu que o ChatGPT-4.5 teve índice de sucesso melhor que as versões anteriores, a 4 e a 3.5. Soa óbvio, mas assim caminha a humanidade. “A alucinação não vai ser completamente eliminada, o que vai existir é um progresso mais rápido de controle”, diz Diogo Cortiz, professor especializado em tecnologia, inovação e ciência cognitiva da Pontifícia Universidade Católica de São Paulo (PUC-­SP). O que fazer por ora? Aprimorar os prompts — as instruções dadas ao robô — e adotar verificação rigorosa de fatos por fontes externas confiáveis. Todo cuidado é pouco.

Publicado em VEJA de 16 de maio de 2025, edição nº 2944

Publicidade

Matéria exclusiva para s. Faça seu

Este usuário não possui direito de o neste conteúdo. Para mudar de conta, faça seu

Domine o fato. Confie na fonte.

10 grandes marcas em uma única digital

Digital Completo 3n1yv

o ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*
Apenas 9,90/mês*
OFERTA RELÂMPAGO

Revista em Casa + Digital Completo 1k27o

Receba 4 revistas de Veja no mês, além de todos os benefícios do plano Digital Completo (cada revista sai a partir de R$ 7,48)
A partir de 29,90/mês

*o ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$118,80, equivalente a R$ 9,90/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.