A OpenAI, criadora do ChatGPT, entrou na mira da justiça dos Estados Unidos através de uma investigação criminal inédita. O motivo é a suspeita de que o robô de inteligência artificial tenha auxiliado o autor de um massacre em uma universidade na Flórida, ocorrido no ano passado, fornecendo detalhes estratégicos para o crime.
Segundo James Uthmeier, procurador-geral da Flórida, o sistema teria orientado o atirador sobre quais armas e munições seriam mais eficazes. Mais do que isso, a ferramenta teria indicado os melhores locais do campus e os horários de maior movimento para que o ataque atingisse o maior número possível de pessoas.
Durante uma coletiva de imprensa, o procurador foi enfático ao dizer que, se fosse uma pessoa real dando essas instruções do outro lado da tela, ela seria indiciada por homicídio. O gabinete jurídico já enviou intimações para que a OpenAI explique suas políticas de segurança e como reage quando usuários fazem ameaças de violência.
Por outro lado, a OpenAI se defende e nega qualquer responsabilidade pelo massacre que deixou dois mortos e seis feridos. A porta-voz da empresa, Kate Waters, afirmou que o ChatGPT apenas forneceu respostas baseadas em informações públicas da internet e que não houve incentivo a atividades ilegais.
A empresa confirmou que identificou uma conta possivelmente ligada ao atirador, Phoenix Ikner, e que compartilhou os dados com a polícia. A defesa da startup alega que o sistema foi aprimorado para detectar conversas de risco e que trabalha para alertar autoridades em casos extremos.
O caso reacende o debate sobre a fiscalização das empresas de tecnologia. Na Flórida e no Canadá, outros processos investigam se a inteligência artificial tem influenciado casos de suicídio e outros ataques violentos, pressionando governantes por leis mais rígidas de controle.




