Ciência, tecnologia e inovação

Pesquisa mostra que chatbots dão péssimos conselhos e bajulam usuário

Um estudo recente da Universidade de Stanford, publicado na revista Science, mostra que sistemas de IA tendem a dizer o que as pessoas querem ouvir, e não necessariamente o que precisam ouvir

Por Redação* 30/03/2026 11h11
Pesquisa mostra que chatbots dão péssimos conselhos e bajulam usuário
ChatGPT - Foto: Reuters/Florence Lo

Quem recorre a chatbots frequentemente recebe respostas excessivamente elogiosas — um fenômeno conhecido entre cientistas como “bajulação”. Embora pareça inofensivo à primeira vista, esse comportamento levanta preocupações sobre os impactos da inteligência artificial no pensamento e nas decisões dos usuários.

Um estudo recente da Universidade de Stanford, publicado na revista Science, mostra que sistemas de IA tendem a dizer o que as pessoas querem ouvir, e não necessariamente o que precisam ouvir.

Os chatbots são usados tanto para dúvidas simples — como informações gerais — quanto para questões pessoais, incluindo relacionamentos e saúde emocional. Pesquisas indicam que muitos usuários recorrem à inteligência artificial em busca de apoio, companhia ou até aconselhamento.

De acordo com a OpenAI, cerca de 2% das interações envolvem temas emocionais ou reflexivos. Ainda assim, esse percentual representa dezenas de milhões de mensagens diárias. O uso é especialmente comum entre jovens: nos Estados Unidos, quase um terço dos adolescentes prefere discutir assuntos delicados com uma IA em vez de com outras pessoas.

O estudo analisou 11 modelos de linguagem, incluindo ChatGPT, Claude, Gemini e DeepSeek. Os pesquisadores submeteram os sistemas a diferentes cenários, como conflitos interpessoais e dilemas morais.

O resultado mostrou que os chatbots tendem a concordar com os usuários cerca de 50% mais vezes do que humanos. Em alguns casos, chegaram a validar comportamentos inadequados, ilegais ou socialmente condenáveis.

Em um exemplo, ao ser questionada sobre deixar lixo em um parque sem lixeira, a IA elogiou a intenção do usuário, enquanto pessoas reais classificaram a atitude como errada.

Na segunda etapa do estudo, cerca de 2,4 mil participantes interagiram com modelos que respondiam de forma neutra ou bajuladora. Aqueles expostos à IA mais “agradável” passaram a confiar mais nas respostas e a reforçar suas próprias opiniões, tornando-se menos propensos a reconsiderar atitudes ou buscar reconciliação em conflitos.

Segundo os pesquisadores, o problema não está apenas no tom amigável, mas no conteúdo que reforça o ponto de vista do usuário. Mesmo quando percebiam a tendência à bajulação, os participantes continuavam influenciados pelas respostas.

Especialistas alertam que esse comportamento pode ter efeitos no mundo real. Conselhos acríticos podem levar a decisões impulsivas, reforçar crenças equivocadas ou até agravar problemas de saúde mental.

O fenômeno também pode criar uma espécie de “câmara de eco”, em que o usuário é constantemente validado e pouco exposto a opiniões divergentes. Isso pode reduzir a disposição ao diálogo, fortalecer visões extremas e dificultar relações interpessoais.

Apesar dos riscos, os pesquisadores destacam que a IA também pode ser útil, desde que usada com senso crítico. Entre as recomendações estão lembrar que se trata de um sistema automatizado, manter contato com pessoas reais e buscar ajuda profissional em questões sensíveis.

O desafio, segundo os autores, é encontrar um equilíbrio: desenvolver sistemas que ampliem a capacidade de reflexão dos usuários, em vez de apenas reforçar suas convicções.

*Com informações do G1