Brasília Amapá Roraima Ceará Pará |
Manaus
27º
Web Stories Streamline Icon: https://streamlinehq.com CM7 Shorts
Brasília Amapá Roraima Ceará Pará CM7 Play

Após ataque na Flórida, família acusa ChatGPT de ter orientado atirador e vai colocar OpenAI na Justiça; veja vídeo

Compartilhe
Após ataque na Flórida, família acusa ChatGPT de ter orientado atirador e vai colocar OpenAI na Justiça; veja vídeo

Mundo – A família de um homem morto em um tiroteio ocorrido na Florida State University, em 2025, pretende entrar com uma ação judicial contra o ChatGPT e sua desenvolvedora, a OpenAI. A acusação é de que o sistema pode ter orientado o atirador sobre como realizar o ataque.

De acordo com advogados da família de Robert Morales, vítima fatal do crime, o suspeito teria mantido “comunicação constante” com o chatbot antes do tiroteio. Os representantes legais afirmam que a ferramenta “pode ter aconselhado o autor sobre como cometer esses atos hediondos”.

Morales, de 57 anos, trabalhava como gerente do programa de alimentação da universidade no momento do ataque, ocorrido em 17 de abril de 2025. Ex-treinador de futebol americano do ensino médio, ele foi descrito por familiares como “um homem de brilho silencioso e muitos talentos”.

Além dele, o empresário Tiru Chabba, de 45 anos, também morreu no atentado, que deixou outras seis pessoas feridas. O julgamento do acusado está previsto para começar em outubro deste ano.

Casos semelhantes envolvendo inteligência artificial

A ação planejada pela família Morales não é um caso isolado. Nos últimos meses, diferentes processos judiciais nos Estados Unidos têm apontado supostos vínculos entre chatbots de inteligência artificial e episódios de violência.

Em novembro, o Social Media Victims Law Center protocolou sete ações contra o ChatGPT, alegando que a ferramenta teria atuado como uma espécie de “treinador de suicídio” para usuários que inicialmente buscavam ajuda com tarefas cotidianas. Já em dezembro, a Microsoft e a OpenAI foram processadas após um caso de homicídio seguido de suicídio, em que o autor teria sido influenciado por interações com o chatbot.

Outro episódio ocorreu em março, quando a família de um adolescente de 12 anos processou a OpenAI após um ataque a tiros em uma escola na província da Colúmbia Britânica, no Canadá. A acusação sustenta que a empresa não alertou autoridades sobre mensagens preocupantes trocadas entre o jovem e o sistema.

Posicionamento da OpenAI

Em nota, a OpenAI afirmou ter identificado uma conta que acredita pertencer ao suspeito do ataque na Flórida e informou que compartilhou todas as informações disponíveis com as autoridades.

A empresa também manifestou solidariedade às vítimas. “Nossos sentimentos estão com todos os afetados por essa tragédia devastadora. Desenvolvemos o ChatGPT para compreender a intenção das pessoas e responder de maneira segura e apropriada, e seguimos aprimorando nossa tecnologia”, declarou.

O caso reacende o debate global sobre os limites, responsabilidades e riscos associados ao uso de inteligência artificial, especialmente em situações que envolvem segurança pública e comportamento humano.

 


Siga-nos no Google News Portal CM7

Banner Rodrigo Colchões

Banner 1 - Portal CM7


Carregar mais