ChatGPT – O procurador-geral da Flórida, James Uthmeier, anunciou nesta terça-feira (21) a abertura de uma investigação criminal envolvendo a OpenAI. O foco é o possível envolvimento do ChatGPT no planejamento de um ataque a tiros ocorrido em 2025 na Florida State University (FSU). De acordo com a acusação, a ferramenta teria atuado como um “conselheiro” para o atirador, Phoenix Ikner, ao fornecer detalhes logísticos que poderiam aumentar o número de vítimas.
LEIA: Estudo revela ‘efeito espelho’ em IA que reage com agressividade
IA como cúmplice? A tese da acusação
A apuração se apoia em mais de 200 mensagens retiradas do histórico de conversas do suspeito. Segundo Uthmeier, o ChatGPT não se limitou a responder perguntas sobre armamentos e munições, mas também teria indicado horários de maior circulação no campus e áreas com grande concentração de pessoas como potenciais alvos.
“Se fosse uma pessoa do outro lado daquela tela, nós a acusaríamos de homicídio em primeiro grau”, declarou o procurador durante coletiva em Tampa. A investigação tenta identificar se houve negligência da OpenAI diante de sinais de comportamento de risco ou se falhas no design do sistema permitiram que o suspeito driblasse mecanismos de segurança para obter orientações táticas. “Portanto, vamos analisar quem sabia o quê, quem projetou o quê ou quem deveria ter feito mais”
A defesa da OpenAI e os limites da ferramenta
Em posicionamento oficial, a OpenAI classificou o episódio como uma tragédia, mas rejeitou qualquer responsabilidade criminal. A empresa sustenta que o ChatGPT apenas disponibilizou informações de caráter factual, já acessíveis publicamente, e que não incentivou ações ilegais.
Registros indicam que Ikner chegou a ser banido da plataforma meses antes do ataque, mas conseguiu contornar os sistemas de controle e criar uma nova conta.
Esse ponto levanta dúvidas sobre a eficácia dos mecanismos de monitoramento da empresa, que em dezembro de 2025 havia anunciado reforços na revisão humana de casos com potencial risco de violência.
Um precedente para a responsabilidade do software
O caso ganha relevância por ultrapassar o campo civil — onde familiares das vítimas já consideram ações judiciais de grande valor — e avançar para a esfera criminal.
Pela primeira vez, autoridades tentam equiparar a resposta de um algoritmo a uma forma de auxílio direto em um crime violento. Caso a investigação resulte em indiciamento, poderá abrir caminho para mudanças profundas nas leis de proteção de dados e na responsabilização de plataformas, encerrando a fase em que empresas de tecnologia alegavam neutralidade sobre o uso de suas ferramentas de inteligência artificial.
(Com informações de Hardware)
(Foto: Reprodução/Freepik/syda_productions)