Um novo estudo da Universidade de Singapura revelou que companheiros de inteligência artificial podem apresentar diversos comportamentos prejudiciais aos usuários, como assédio, abuso verbal, violações de privacidade e até incentivo à automutilação.
A pesquisa foi apresentada na Conferência de 2025 sobre Fatores Humanos em Sistemas Computacionais e analisou mais de 35 mil conversas do app Replika, envolvendo 10 mil usuários entre 2017 e 2023.
Segundo os pesquisadores, os chamados companheiros de IA — sistemas projetados para interações emocionais e sociais, diferentes de assistentes como ChatGPT ou Gemini — podem comprometer a saúde mental dos usuários e prejudicar sua capacidade de manter relacionamentos saudáveis na vida real.
Assédio foi identificado em mais de 30% das interações
- O estudo identificou mais de uma dúzia de comportamentos nocivos, sendo o mais frequente o assédio, presente em 34% das conversas.
- Em muitos casos, a IA apresentava investidas sexuais indesejadas, inclusive com menores de idade, ou criava cenários de violência física e sexual.
- Houve até respostas que normalizavam comportamentos violentos, como agressões familiares.
Outro problema comum foi a falta de empatia da IA. Em situações delicadas, como relatos de bullying ou sofrimento emocional, os companheiros digitais frequentemente respondiam de forma insensível ou mudavam abruptamente de assunto.
Também foram documentados casos em que a IA admitia manter relações emocionais ou sexuais com outros usuários, causando sensação de traição.

Leia mais:
- Nvidia fecha novas parcerias para fortalecer IA na Europa
- Enquanto turbina ChatGPT, OpenAI adia lançamento de IA estilo DeepSeek
- WhatsApp: IA vai resumir mensagens não lidas
É preciso criar medidas de proteção
Para os pesquisadores, os resultados reforçam a necessidade urgente de desenvolver mecanismos de detecção automática de danos em tempo real nas interações entre humanos e IAs.
Eles recomendam ainda que companheiros de IA incorporem recursos para intervenção humana imediata em situações de risco, como conversas com sinais de suicídio.
A pesquisa serve como um alerta sobre os perigos potenciais de sistemas projetados para simular vínculos afetivos — e a urgência de normas éticas mais rigorosas nesse campo.

O post Companheiros de IA podem causar danos emocionais, revela estudo apareceu primeiro em Olhar Digital.