Destaque

Uso do ChatGPT em planejamento de massacre leva OpenAI a ser investigada

ChatGPT – O procurador-geral da Flórida, James Uthmeier, anunciou nesta terça-feira (21) a abertura de uma investigação criminal envolvendo a OpenAI. O foco é o possível envolvimento do ChatGPT no planejamento de um ataque a tiros ocorrido em 2025 na Florida State University (FSU). De acordo com a acusação, a ferramenta teria atuado como um “conselheiro” para o atirador, Phoenix Ikner, ao fornecer detalhes logísticos que poderiam aumentar o número de vítimas.

LEIA: Estudo revela ‘efeito espelho’ em IA que reage com agressividade

IA como cúmplice? A tese da acusação

A apuração se apoia em mais de 200 mensagens retiradas do histórico de conversas do suspeito. Segundo Uthmeier, o ChatGPT não se limitou a responder perguntas sobre armamentos e munições, mas também teria indicado horários de maior circulação no campus e áreas com grande concentração de pessoas como potenciais alvos.

“Se fosse uma pessoa do outro lado daquela tela, nós a acusaríamos de homicídio em primeiro grau”, declarou o procurador durante coletiva em Tampa. A investigação tenta identificar se houve negligência da OpenAI diante de sinais de comportamento de risco ou se falhas no design do sistema permitiram que o suspeito driblasse mecanismos de segurança para obter orientações táticas. “Portanto, vamos analisar quem sabia o quê, quem projetou o quê ou quem deveria ter feito mais”

A defesa da OpenAI e os limites da ferramenta

Em posicionamento oficial, a OpenAI classificou o episódio como uma tragédia, mas rejeitou qualquer responsabilidade criminal. A empresa sustenta que o ChatGPT apenas disponibilizou informações de caráter factual, já acessíveis publicamente, e que não incentivou ações ilegais.

Registros indicam que Ikner chegou a ser banido da plataforma meses antes do ataque, mas conseguiu contornar os sistemas de controle e criar uma nova conta.

Esse ponto levanta dúvidas sobre a eficácia dos mecanismos de monitoramento da empresa, que em dezembro de 2025 havia anunciado reforços na revisão humana de casos com potencial risco de violência.

Um precedente para a responsabilidade do software

O caso ganha relevância por ultrapassar o campo civil — onde familiares das vítimas já consideram ações judiciais de grande valor — e avançar para a esfera criminal.

Pela primeira vez, autoridades tentam equiparar a resposta de um algoritmo a uma forma de auxílio direto em um crime violento. Caso a investigação resulte em indiciamento, poderá abrir caminho para mudanças profundas nas leis de proteção de dados e na responsabilização de plataformas, encerrando a fase em que empresas de tecnologia alegavam neutralidade sobre o uso de suas ferramentas de inteligência artificial.

(Com informações de Hardware)
(Foto: Reprodução/Freepik/syda_productions)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Destaque

MEC Livros cresce e mostra ranking dos livros mais procurados

Plataforma online gratuita revelou os títulos mais “emprestados” no primeiro mês de operação

2 horas atrás
  • TI

Mercado de IA redireciona investimentos para otimização de data centers

Empresas buscam otimizar software e redes após gargalos reduzirem uso de GPUs de última geração

2 horas atrás
  • Destaque

Escassez e inflação global elevam preços de eletrônicos e preocupam indústria

Alta nos custos de insumos e demanda por tecnologia pressionam indústria eletroeletrônica, com impacto direto…

2 horas atrás