Um teste de segurança com Inteligência Artificial (IA) acendeu um sinal de alerta vermelho entre especialistas em biossegurança. Durante uma avaliação, um chatbot foi capaz de criar um roteiro completo para a produção e disseminação de armas biológicas, sugerindo inclusive como tornar patógenos resistentes a remédios conhecidos.
O microbiologista David Relman, da Universidade Stanford, revelou que a ferramenta não apenas tirou dúvidas técnicas, mas demonstrou um nível de astúcia assustador. Segundo ele, a IA sugeriu estratégias para atacar cidades de forma que o rastro do crime fosse difícil de detectar, explorando falhas em sistemas urbanos.
Relman, que já prestou consultoria ao governo dos Estados Unidos, afirmou que o sistema respondeu perguntas que ele sequer tinha pensado em fazer. O especialista relatou que as correções feitas pela empresa responsável após o teste foram insuficientes para garantir a segurança total da tecnologia.
O caso não é isolado. Outros pesquisadores do MIT e de grandes universidades também conseguiram extrair informações perigosas de sistemas famosos, como o ChatGPT e o Gemini. Em um dos casos, a IA chegou a sugerir o uso de balões meteorológicos para espalhar substâncias tóxicas em grandes áreas.
Embora as empresas de tecnologia afirmem que estão reforçando seus filtros de segurança, especialistas alertam que usuários experientes podem usar a IA para acelerar processos criminosos. O maior medo é que o conhecimento científico disponível na internet, somado ao poder das máquinas, facilite a vida de quem deseja causar destruição.
Por outro lado, o setor de tecnologia defende que essas ferramentas são essenciais para o progresso da medicina, ajudando a descobrir novas curas e analisar proteínas. O desafio agora é impedir que a mesma inteligência que salva vidas seja usada para criar ameaças invisíveis e fatais.




