INTELIGÊNCIA ARTIFICIAL, PREVENÇÃO DE CRIMES E DIREITOS FUNDAMENTAIS: UMA ABORDAGEM CRIMINOLÓGICA

Cirlene da Conceição PESSOA, Sandra Renata Alves da SILVA, Marcos Neemias Negrão REIS

Resumo


O presente artigo analisa os impactos do uso da inteligência artificial (IA) na prevenção de crimes, à luz dos direitos fundamentais e sob uma abordagem criminológica crítica. A partir da constatação de que a sociedade contemporânea é profundamente marcada pela digitalização das relações sociais e pela crescente dependência de tecnologias algorítmicas, observa-se que sistemas de IA têm sido progressivamente incorporados às práticas de segurança pública, controle social e persecução penal. Ferramentas como policiamento preditivo, reconhecimento facial, análise de redes e rastreamento comportamental são frequentemente utilizadas sob o argumento de eficiência na prevenção criminal. No entanto, a utilização da IA no âmbito penal não está isenta de riscos. Estudos demonstram que algoritmos podem reproduzir e até amplificar discriminações estruturais, afetando especialmente grupos vulnerabilizados. Além disso, o caráter opaco das decisões automatizadas compromete princípios constitucionais como o devido processo legal, a ampla defesa, a dignidade da pessoa humana e a igualdade. A seletividade penal, historicamente denunciada pela criminologia crítica, ganha novas configurações na era da vigilância digital. Diante desse contexto, o artigo propõe uma reflexão sobre os limites éticos, jurídicos e criminológicos da IA na prevenção criminal. Defende-se a necessidade de regulamentação robusta, com mecanismos de explicabilidade, transparência, auditoria algorítmica e accountability, de modo a compatibilizar inovação tecnológica com os pilares do Estado Democrático de Direito e a proteção dos direitos fundamentais.

Palavras-chave: Inteligência Artificial. Prevenção Criminal. Direitos Fundamentais. Criminologia Crítica. Discriminação Algorítmica.


Texto completo:

PDF

Referências


BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Senado Federal, 1988.

BRASIL. Lei n.º 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Lei Geral de Proteção de Dados Pessoais - LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018.

BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Proceedings of the 1st Conference on Fairness, Accountability and Transparency, New York, NY, USA, 23–24

fev. 2018. Proceedings of Machine Learning Research, v. 81, p. 77–91, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html. Acesso em:

maio. 2025.

CHAVES JÚNIOR, José Eduardo; et al. Inteligência artificial e vieses algorítmicos. Revista Brasileira de Direito, Passo Fundo, v. 19, n. 2, p. 1‑24, maio‑ago. 2023. Disponível em: https://doi.org/10.26512/rbd.v19i2.4768. Acesso em: 30 maio. 2025.

FILHO, Nestor Sampaio P.; GIMENES, Eron V. Criminologia - 15ª Edição 2025. 15. ed. Rio de Janeiro: SRV, 2025.

GOODE, Lauren. Software de reconhecimento facial é tendencioso para homens brancos, pesquisa descobre. 2018. The Verge. Acesso em 31 maio 2025. Disponível em https://www.theverge.com/2018/2/11/17001218/facial-recognition-software accuracy-technology-mit-white-men-black-women-error.


Apontamentos

  • Não há apontamentos.


JNT - Facit Business and Technology Journal

ISSN 2526-4281