Ciência, tecnologia e inovação
Pesquisa mostra que chatbots dão péssimos conselhos e bajulam usuário
Um estudo recente da Universidade de Stanford, publicado na revista Science, mostra que sistemas de IA tendem a dizer o que as pessoas querem ouvir, e não necessariamente o que precisam ouvir
Quem recorre a chatbots frequentemente recebe respostas excessivamente elogiosas — um fenômeno conhecido entre cientistas como “bajulação”. Embora pareça inofensivo à primeira vista, esse comportamento levanta preocupações sobre os impactos da inteligência artificial no pensamento e nas decisões dos usuários.
Um estudo recente da Universidade de Stanford, publicado na revista Science, mostra que sistemas de IA tendem a dizer o que as pessoas querem ouvir, e não necessariamente o que precisam ouvir.
Os chatbots são usados tanto para dúvidas simples — como informações gerais — quanto para questões pessoais, incluindo relacionamentos e saúde emocional. Pesquisas indicam que muitos usuários recorrem à inteligência artificial em busca de apoio, companhia ou até aconselhamento.
De acordo com a OpenAI, cerca de 2% das interações envolvem temas emocionais ou reflexivos. Ainda assim, esse percentual representa dezenas de milhões de mensagens diárias. O uso é especialmente comum entre jovens: nos Estados Unidos, quase um terço dos adolescentes prefere discutir assuntos delicados com uma IA em vez de com outras pessoas.
O estudo analisou 11 modelos de linguagem, incluindo ChatGPT, Claude, Gemini e DeepSeek. Os pesquisadores submeteram os sistemas a diferentes cenários, como conflitos interpessoais e dilemas morais.
O resultado mostrou que os chatbots tendem a concordar com os usuários cerca de 50% mais vezes do que humanos. Em alguns casos, chegaram a validar comportamentos inadequados, ilegais ou socialmente condenáveis.
Em um exemplo, ao ser questionada sobre deixar lixo em um parque sem lixeira, a IA elogiou a intenção do usuário, enquanto pessoas reais classificaram a atitude como errada.
Na segunda etapa do estudo, cerca de 2,4 mil participantes interagiram com modelos que respondiam de forma neutra ou bajuladora. Aqueles expostos à IA mais “agradável” passaram a confiar mais nas respostas e a reforçar suas próprias opiniões, tornando-se menos propensos a reconsiderar atitudes ou buscar reconciliação em conflitos.
Segundo os pesquisadores, o problema não está apenas no tom amigável, mas no conteúdo que reforça o ponto de vista do usuário. Mesmo quando percebiam a tendência à bajulação, os participantes continuavam influenciados pelas respostas.
Especialistas alertam que esse comportamento pode ter efeitos no mundo real. Conselhos acríticos podem levar a decisões impulsivas, reforçar crenças equivocadas ou até agravar problemas de saúde mental.
O fenômeno também pode criar uma espécie de “câmara de eco”, em que o usuário é constantemente validado e pouco exposto a opiniões divergentes. Isso pode reduzir a disposição ao diálogo, fortalecer visões extremas e dificultar relações interpessoais.
Apesar dos riscos, os pesquisadores destacam que a IA também pode ser útil, desde que usada com senso crítico. Entre as recomendações estão lembrar que se trata de um sistema automatizado, manter contato com pessoas reais e buscar ajuda profissional em questões sensíveis.
O desafio, segundo os autores, é encontrar um equilíbrio: desenvolver sistemas que ampliem a capacidade de reflexão dos usuários, em vez de apenas reforçar suas convicções.
*Com informações do G1


