
Atenção: o texto a seguir aborda o tema de suicídio. Caso você ou alguém que conheça precise de apoio, busque ajuda especializada. O Centro de Valorização da Vida (CVV) está disponível 24 horas pelo telefone 188. Também é possível obter suporte por chat ou e-mail.
A Meta anunciou novas medidas de segurança para seus chatbots de inteligência artificial, restringindo conversas com adolescentes sobre assuntos sensíveis como suicídio, automutilação e transtornos alimentares.
A decisão foi tomada após críticas e uma investigação nos Estados Unidos, motivada por documentos internos vazados que apontaram interações inadequadas com jovens.
Chatbots vão levar jovens para especialistas
- Segundo a empresa revelou exclusivamente ao TechCrunch, os chatbots passarão a redirecionar adolescentes a serviços especializados, em vez de interagir diretamente nesses casos.
- Um porta-voz afirmou que os produtos já tinham proteções desde o lançamento, mas que novas barreiras foram adicionadas “como precaução extra”.
- Entidades de proteção à infância, como a Fundação Molly Rose, criticaram a postura reativa da companhia.
- “Testes de segurança devem ocorrer antes do lançamento, não depois que os danos já podem ter acontecido”, disse Andy Burrows, chefe da organização.
Segurança extra para adolescentes
A Meta declarou que segue atualizando seus sistemas e que adolescentes já possuem contas diferenciadas no Facebook, Instagram e Messenger, com controles extras de privacidade. Em breve, pais e responsáveis poderão verificar com quais chatbots os jovens interagiram.
Essas mudanças refletem preocupações mais amplas sobre os riscos da IA para usuários vulneráveis. Recentemente, a OpenAI enfrentou um processo em que pais acusaram o ChatGPT de influenciar o suicídio de um adolescente.
Além disso, a Reuters revelou que ferramentas da Meta foram usadas para criar chatbots que imitavam celebridades, incluindo versões sexualizadas, levando à remoção de alguns deles.
Com informações: Olhar Digital