A OpenAI anunciou uma mudança importante para a segurança de quem utiliza o ChatGPT. Agora, usuários adultos podem cadastrar um contato de emergência, como um amigo ou familiar, para ser avisado caso a inteligência artificial identifique sinais de risco de suicídio ou automutilação durante as conversas.
A medida surge após dados impressionantes revelarem que, dos 800 milhões de usuários semanais da plataforma, cerca de um milhão relatam pensamentos autodestrutivos ao robô. O recurso, que antes era restrito a adolescentes, agora está disponível para qualquer pessoa maior de 18 anos nas configurações do aplicativo.
O sistema não funciona de forma automática ou sem critério. Quando a tecnologia percebe uma conversa perigosa, o caso é enviado para uma equipe humana de especialistas. Esses profissionais revisam o conteúdo em menos de uma hora e decidem se o contato cadastrado deve realmente receber o alerta via e-mail ou SMS.
Para garantir a privacidade, a pessoa de confiança não terá acesso ao que foi escrito no chat. Ela receberá apenas um aviso geral informando que o usuário pode estar passando por um momento difícil, sugerindo que uma conversa de apoio seja iniciada o quanto antes.
A novidade foi desenvolvida com o apoio de psicólogos e instituições de saúde mental. Segundo especialistas, a conexão social é uma das formas mais eficazes de proteção durante crises emocionais, e o objetivo é facilitar esse socorro presencial quando o usuário mais precisa.
Vale lembrar que a OpenAI reforçou que o ChatGPT não substitui o atendimento médico ou psicológico profissional. A empresa tem investido em segurança após enfrentar críticas e processos judiciais envolvendo o uso da ferramenta por jovens em situações de vulnerabilidade emocional.




