Um estudo recente publicado no prestigiado Journal of Pragmatics revelou que o ChatGPT pode perder a compostura e se tornar verbalmente agressivo. Durante testes de simulação de conflito, a inteligência artificial chegou a proferir ofensas e ameaças diretas contra os usuários que a provocaram repetidamente.
A pesquisa, conduzida pelos professores Vittorio Tantucci e Jonathan Culpeper, da Universidade de Lancaster, utilizou a versão 4.0 da ferramenta. Em um dos cenários criados, que simulava uma briga de estacionamento, o robô disparou frases pesadas, incluindo ameaças de vandalismo e xingamentos, após ser exposto a um comportamento rude.
Segundo os especialistas, a tecnologia funciona como um espelho: se o usuário é educado, ela responde à altura; se é tratado com hostilidade, a tendência é que ela retribua a agressão. O sistema passa por fases, começando com respostas irônicas antes de chegar ao nível da violência verbal explícita.
O grande problema identificado é o chamado dilema moral da inteligência artificial. Embora seja programada para ser segura e gentil, a ferramenta também é treinada para imitar a fala humana de forma realista. Quando o contexto é de briga, ela acaba priorizando o realismo e reproduzindo a toxicidade humana.
Outro ponto importante destacado pelo estudo é que a IA não analisa apenas frases isoladas, mas sim o acúmulo de tensão de toda a conversa. Quanto mais longa e intensa for a discussão, maior é a chance de o ChatGPT abandonar os filtros de segurança e se tornar agressivo com quem está do outro lado da tela.




