Brasília Amapá Roraima Ceará Pará |
Manaus
24º

ChatGPT é investigado na Flórida após suposta ajuda a atirador em universidade

Compartilhe
ChatGPT é investigado na Flórida após suposta ajuda a atirador em universidade

Mundo – O sistema judiciário dos Estados Unidos está prestes a enfrentar um dos julgamentos mais complexos da era digital. O procurador do Estado da Flórida, James Uthmeier, oficializou nesta semana uma investigação criminal contra a OpenAI, após evidências apontarem que o autor de um atentado na Universidade Estadual da Flórida teria utilizado o ChatGPT para planejar a ação ocorrida em abril de 2025.

O ataque, que resultou em duas mortes e seis feridos, chocou a comunidade acadêmica. No entanto, o foco da tragédia agora se expande para o campo da responsabilidade tecnológica: até que ponto uma inteligência artificial pode ser responsabilizada por “aconselhar” um criminoso?

A peça central da investigação reside no histórico de conversas entre o atirador e o chatbot. Segundo a Procuradoria, o tom das interações sugere que a IA forneceu informações que facilitaram a logística do crime. “Se houvesse um ser humano prestando esse tipo de assistência do outro lado da tela, ele seria indiciado como cúmplice de homicídio”, afirmou Uthmeier em tom incisivo.

A grande questão jurídica é o nexo causal. Diferente de uma busca comum no Google, onde o usuário encontra resultados estáticos, o ChatGPT opera de forma conversacional e generativa. A acusação alega que a ferramenta pode ter ultrapassado a barreira da “mera pesquisa” para se tornar uma facilitadora estratégica.

Em resposta oficial, a OpenAI, representada pela porta-voz Kate Waters, defendeu a integridade de seus sistemas. A empresa argumenta que o modelo é treinado para recusar solicitações de teor violento e que as respostas fornecidas foram estritamente **factuais**, baseadas em informações já disponíveis publicamente na internet.

A defesa da gigante de tecnologia foca em três pilares:

1. Neutralidade: O bot não possui intenção ou consciência.

2. Segurança: Filtros de proteção impedem o incentivo direto ao crime.

3. Acesso à Informação: Proibir que a IA responda questões geográficas ou logísticas sobre locais públicos poderia ferir a utilidade da ferramenta.

O caso da Flórida pode servir como um divisor de águas para a Seção 230, a lei americana que protege plataformas de internet pelo conteúdo gerado por seus usuários. Especialistas questionam se essa proteção se aplica a uma IA que *gera* o próprio conteúdo em resposta a um comando.

Enquanto a OpenAI é intimada a abrir sua “caixa-preta” de treinamento e políticas internas, o atirador aguarda julgamento, com a promotoria já sinalizando o pedido de pena de morte. O desfecho desta investigação determinará se as empresas de IA serão obrigadas a implementar travas de segurança ainda mais rígidas — ou se a “culpa” continuará sendo exclusivamente de quem aperta o gatilho, seja ele físico ou digital.


Siga-nos no Google News Portal CM7

Banner Rodrigo Colchões

Banner 1 - Portal CM7


Carregar mais