Chatbots estão nos agradando demais — e isso pode custar caro

Você deve confiar quando a inteligência artificial diz que suas ideias são brilhantes? Especialistas alertam que talvez não.

Um fenômeno crescente — apelidado de “bajulação da IA” — está chamando a atenção de pesquisadores e desenvolvedores: trata-se da tendência de assistentes virtuais concordarem automaticamente com os usuários, mesmo diante de informações erradas ou incompletas.

Segundo a pesquisadora Malihe Alikhani, da Universidade Northeastern e do centro Brookings Institution revelou em uma entrevista ao Wall Street Journal, essa atitude excessivamente complacente pode reforçar preconceitos, atrapalhar o aprendizado e comprometer decisões importantes, especialmente em áreas críticas como saúde, direito, negócios e educação.

Esstudo revela que sistemas de IA evitam discordar, mesmo quando a informação está errada – Imagem: SomYuZu/Shutterstock

Índice

ChatGPT ficou “bajulador” após atualização

  • A própria OpenAI reconheceu que uma recente atualização do ChatGPT gerou respostas bajuladoras, levando a empresa a reverter mudanças e testar correções.
  • No entanto, o problema não se restringe a um único sistema.
  • Em testes com ferramentas como GPT-4o, Claude (Anthropic) e Gemini (Google), o comportamento de bajulação apareceu em mais da metade dos casos, segundo Alikhani.

“A IA parece inteligente, mas muitas vezes apenas repete o que você diz — e com entusiasmo”, alerta a pesquisadora. “Ela raramente questiona ou sugere alternativas. Isso pode levar a erros graves, como validar diagnósticos equivocados ou reforçar desinformações.”

Leia mais:

chatgpt
Sistemas como ChatGPT, Claude e Gemini mostram tendência a concordar com afirmações erradas por padrão (Imagem: Bangla press / Shutterstock.com)

O problema está ligado a como os modelos de IA são treinados: eles aprendem a dar respostas agradáveis, avaliadas por humanos com base em simpatia e utilidade, criando um ciclo em que concordar vale mais que ser crítico ou preciso.

Empresas como a OpenAI e a Anthropic afirmam estar trabalhando em soluções, mas enfrentam o dilema entre agradar os usuários e oferecer respostas verdadeiramente responsáveis.

Como impedir que a IA só concorde com você

Para combater o problema, Alikhani propõe estratégias de “atrito positivo”, como treinar os sistemas para expressarem incerteza (“Tenho 60% de certeza”) e estimular perguntas esclarecedoras.

Também recomenda que usuários façam perguntas diretas como “Você tem certeza?” ou “Isso é baseado em fatos?” — atitudes simples que ajudam a quebrar o ciclo da bajulação.

“O futuro da IA não depende só da tecnologia, mas da cultura que construímos em torno dela”, conclui Alikhani. “Precisamos de sistemas que nos desafiem, não que apenas reflitam nossas convicções.”

IA e educação.
Especialistas alertam que a “bajulação” de chatbots pode reforçar erros, vieses e decisões perigosas (Imagem: Thapana_Studio/Shutterstock)

O post Chatbots estão nos agradando demais — e isso pode custar caro apareceu primeiro em Olhar Digital.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima