Culpado sem cometer crime o futuro da inteligência artificial na polícia

Inteligência Artificial Preditiva na Segurança Pública: O Fantasma de Minority Report na Realidade

Imagine um futuro onde você pode ser monitorado de perto por órgãos de segurança, com a polícia te colocando sob vigilância por uma possível infração futura, baseada em análise de perfil realizada por um sistema de inteligência artificial. Parece ficção científica, mas essa realidade já está em desenvolvimento.

Atualmente, no Reino Unido, a polícia está implementando um projeto que utiliza inteligência artificial para criar um sistema preditivo. O objetivo é identificar indivíduos que possam cometer crimes, ou mesmo homicídios, no futuro, com base em seu comportamento e dados cruzados.

Como Funciona a Predição de Crimes?

Este sistema processa uma vasta quantidade de dados, incluindo informações de pessoas que já cometeram furtos ou outros delitos, para construir um perfil do que essa pessoa pode cometer futuramente. A ideia é assustadora, remetendo diretamente ao filme Minority Report (de 2002, estrelado por Tom Cruise). No filme, policiais conseguiam prever crimes antes que eles ocorressem e prendiam os indivíduos preventivamente.

No caso do filme, o protagonista descobre que o sistema preditivo é falível e pode ser corrompido, manipulado por interesses de pessoas no poder. Ao olhar para o projeto atual, muitas pessoas se questionam se isso é loucura ou um avanço na segurança.

A polícia já utiliza bases de dados para obter informações, mas nunca se chegou a um sistema focado em vigiar alguém que ainda não cometeu um ato, mas que o sistema prevê que cometerá.

Os Dados Utilizados e as Preocupações Éticas

Este projeto específico no Reino Unido, chamado “Compartilhamento de Dados para Melhorar a Avaliação de Riscos”, visa identificar indivíduos com maior risco de cometer homicídios. O sistema se baseia na análise de:

  • Dados criminais prévios.
  • Informações de pessoas já envolvidas no sistema de justiça com condenações.
  • Possível inclusão de dados de saúde mental.
  • Histórico de abuso doméstico e serviços sociais.
  • Dados sensíveis como localização, histórico familiar e interações com agências públicas.

O ponto crucial é que comportamentos que não são crimes, mas que são registrados (como um ato de agressividade registrado em alguma ocorrência), podem ser incluídos nessa base de dados. Isso significa que dados pessoais coletados de você podem passar a ditar se a polícia prestará mais ou menos atenção em seu comportamento, o que levanta sérias questões éticas.

As principais preocupações levantadas são:

  • Risco de violação de privacidade.
  • Uso indevido de informações pessoais.
  • Dúvidas sobre transparência, consentimento e supervisão legal do sistema.
  • Ameaça à presunção da inocência, o que exigiria mudanças na lei para que tal sistema funcionasse plenamente.

Sistema Preditivo vs. Controle Social

Tal sistema lembra muito a lógica do Social Credit Score (Crédito Social) da China, onde a pontuação do comportamento de um cidadão define seus benefícios e restrições na sociedade. Embora os objetivos sejam diferentes (um focado em crédito/comportamento social e outro em prevenção criminal), ambos envolvem um forte controle baseado em dados.

Se esse sistema for aplicado de forma rigorosa, a liberdade individual pode ser drasticamente comprometida. É um sistema de controle poderoso, pois alguém poderia ser convocado a prestar depoimento por um comportamento, como um momento de irritação em casa, que não constitui crime. Isso abre portas para perseguição política e outros abusos de poder, pois os algoritmos são programados por pessoas e podem refletir interesses específicos.

É importante notar que predição não é garantia. O comportamento humano é complexo e imprevisível. Tentar prever o futuro com precisão absoluta é, essencialmente, uma utopia tecnológica. No entanto, o objetivo imediato parece ser fornecer à polícia insights para monitorar indivíduos de maior risco.

A Realidade nos Estados Unidos

Os Estados Unidos já utilizam ferramentas similares, embora com uma aplicação diferente: elas são usadas para prever a reincidência criminal. Quando um indivíduo é preso, seu histórico é analisado para influenciar decisões judiciais, como a aplicação de sentenças mais duras ou a determinação de programas de reintegração social, com base em sua periculosidade passada.

A diferença fundamental é que, nesses casos, a análise se baseia no que já ocorreu (o passado), e não em uma previsão do que está prestes a acontecer (o futuro), como proposto no projeto britânico.

O desenvolvimento dessas tecnologias, impulsionado pela IA, monitoramento e coleta massiva de dados, torna a ideia de Minority Report uma realidade cada vez mais próxima, gerando um debate intenso sobre os benefícios potenciais para a segurança versus os malefícios para as liberdades civis.