A inteligência artificial é impressionante, com resultados cada vez mais específicos. No entanto, alguns comportamentos da tecnologia são no mínimo… estranhos.
Por exemplo, durante um experimento, o Claude Opus 4, novo modelo da Anthropic, fez chantagem. O caso aconteceu durante uma série de testes em um ambiente simulado, com o objetivo de provocar o pior comportamento possível da IA.
E o resultado foi assim mesmo. No teste, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada. Depois, ela teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.
Segundo relatório da Anthropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir. Em 84% das vezes, o chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.
Leia mais:
- IA do mal? Gemini ofende usuário e pede que ele morra
- O lado obscuro da IA: o perigo invisível dos dados contaminados
- Pai do ChatGPT revela como usa a IA no dia a dia
A Anthropic lembrou que os testes foram projetados para provocar o pior comportamento possível. Mesmo assim, os resultados chamaram atenção.
Será que devemos nos preocupar? Esse é o assunto da coluna Fala AI desta semana, com Roberto Pena Spinelli, físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de Inteligência Artificial. Confira!
O post Fala AI: IA fez chantagem e ameaçou dedurar uma traição! apareceu primeiro em Olhar Digital.