
El término predictive policing se refiere al uso de sistemas algorítmicos para anticipar lugares, tiempos y personas que podrían estar involucrados en delitos futuros. Aunque estos sistemas prometen eficiencia y precisión, su implementación en Alemania revela un panorama complejo y problemático, marcado por la falta de transparencia y un riesgo significativo de perpetuar discriminaciones estructurales.
Sistemas de predicción geográfica: focalizando recursos policiales
En Alemania, la policía ha adoptado sistemas que identifican lugares específicos supuestamente propensos al delito. Estos sistemas, como el "Kriminalitätsbelastete Orte (kbO)" utilizado por la policía de Berlín, identifican áreas consideradas "afectadas por el crimen" basándose en datos históricos y análisis estadísticos. Este enfoque permite a las autoridades realizar controles de identidad y registros sin sospecha concreta previa. Áreas como Alexanderplatz o Görlitzer Park en Berlín se clasifican bajo este esquema debido a delitos frecuentes como tráfico de drogas y robos.
Aunque en teoría parece razonable concentrar esfuerzos en zonas problemáticas, la realidad muestra consecuencias negativas importantes. Por ejemplo, personas pertenecientes a grupos minoritarios raciales o étnicos son frecuentemente objetivo de estas intervenciones policiales, derivando en situaciones recurrentes de racial profiling. Esto incrementa la estigmatización y deteriora la confianza de la comunidad hacia las autoridades.
Aunque en teoría parece razonable concentrar esfuerzos en zonas problemáticas, la realidad muestra consecuencias negativas importantes. Por ejemplo, personas pertenecientes a grupos minoritarios raciales o étnicos son frecuentemente objetivo de estas intervenciones policiales, derivando en situaciones recurrentes de racial profiling. Esto incrementa la estigmatización y deteriora la confianza de la comunidad hacia las autoridades.
Pre-Crime Observation System (PRECOBS): prevención o discriminación anticipada
Otra herramienta destacada es el PRECOBS, implementado por la policía de Baviera, el cual intenta predecir con precisión los lugares donde podrían ocurrir robos residenciales. Aunque las áreas marcadas por estos sistemas son dinámicas y no siempre se establecen como puntos críticos permanentes, existe el riesgo de que las intervenciones refuercen prejuicios existentes entre los oficiales hacia ciertos perfiles sospechosos.
Los críticos, como Matthias Monroy, advierten que bajo este sistema, es probable que ciertos individuos, particularmente aquellos que parecen "diferentes" por su vestimenta, etnicidad o apariencia, sean objeto de mayor vigilancia y control.
Los críticos, como Matthias Monroy, advierten que bajo este sistema, es probable que ciertos individuos, particularmente aquellos que parecen "diferentes" por su vestimenta, etnicidad o apariencia, sean objeto de mayor vigilancia y control.
Sistemas de predicción individual y la sombra del racismo institucional
El perfilado individual también está emergiendo con fuerza en Alemania. Herramientas como RADAR-iTE y RADAR-rechts, desarrolladas por la Oficina Federal de Policía Criminal (Bundeskriminalamt - BKA), se utilizan para evaluar el supuesto riesgo que individuos específicos podrían representar en el futuro. Estos sistemas asignan categorías como "riesgo medio" o "alto riesgo", especialmente en contextos de terrorismo islamista o extremismo de derecha.
Sin embargo, estos términos carecen de definiciones claras y bases científicas sólidas, facilitando interpretaciones arbitrarias que pueden alimentar prejuicios institucionalizados. Investigaciones recientes señalan cómo la islamofobia latente en las sociedades europeas se refleja en estas evaluaciones predictivas, generando sesgos racistas. Felix Hanschmann, académico legal, advierte que términos como "Gefährder" (persona peligrosa) siempre incluyen un componente racial.
Sin embargo, estos términos carecen de definiciones claras y bases científicas sólidas, facilitando interpretaciones arbitrarias que pueden alimentar prejuicios institucionalizados. Investigaciones recientes señalan cómo la islamofobia latente en las sociedades europeas se refleja en estas evaluaciones predictivas, generando sesgos racistas. Felix Hanschmann, académico legal, advierte que términos como "Gefährder" (persona peligrosa) siempre incluyen un componente racial.
Uso de Big Data y Palantir: riesgos para la privacidad y los derechos civiles
Una evolución particularmente preocupante en Alemania ha sido la adopción del software Palantir, especialmente a través de plataformas como hessenDATA en Hesse y DAR en Renania del Norte-Westfalia. Estos sistemas permiten a la policía analizar y vincular grandes volúmenes de información, incluidos datos personales extraídos de bases policiales, redes sociales y registros de comunicaciones.
El peligro radica en que estos sistemas combinan información inicialmente recolectada para propósitos completamente diferentes, creando perfiles altamente detallados que pueden usarse para vigilar incluso a personas sin antecedentes delictivos. La falta de transparencia y control legal sobre estas prácticas plantea preocupaciones serias respecto al respeto de los derechos fundamentales.
El peligro radica en que estos sistemas combinan información inicialmente recolectada para propósitos completamente diferentes, creando perfiles altamente detallados que pueden usarse para vigilar incluso a personas sin antecedentes delictivos. La falta de transparencia y control legal sobre estas prácticas plantea preocupaciones serias respecto al respeto de los derechos fundamentales.
La digitalización de las cárceles: prevención del suicidio con algoritmos
Alemania también ha comenzado a explorar el uso de inteligencia artificial en prisiones, particularmente para prevenir suicidios mediante vigilancia automatizada. No obstante, estas iniciativas, aunque bien intencionadas, muestran una eficacia cuestionable. Las pruebas indican errores frecuentes que podrían poner vidas en riesgo debido a falsos negativos o positivos.
Además, estos sistemas introducen problemas éticos relacionados con la privacidad y la dignidad humana, ya que implican una vigilancia intrusiva constante de los reclusos.
Además, estos sistemas introducen problemas éticos relacionados con la privacidad y la dignidad humana, ya que implican una vigilancia intrusiva constante de los reclusos.
Un panorama fragmentado: desafíos estructurales y de transparencia
La estructura federal de Alemania contribuye a una implementación desigual de tecnologías predictivas en distintos estados, lo que complica aún más la evaluación uniforme de su eficacia y ética. La falta de estudios independientes y evaluaciones públicas de estas herramientas obstaculiza la posibilidad de mejoras significativas y correcciones de prácticas discriminatorias.
A pesar de los esfuerzos iniciales como el programa "Police 20/20", que busca unificar y modernizar la infraestructura tecnológica policial para 2030, el progreso es lento, y muchos problemas estructurales persisten.
A pesar de los esfuerzos iniciales como el programa "Police 20/20", que busca unificar y modernizar la infraestructura tecnológica policial para 2030, el progreso es lento, y muchos problemas estructurales persisten.
Conclusión: un llamado a la responsabilidad tecnológica
El predictive policing en Alemania refleja claramente una tensión entre la innovación tecnológica y la protección de los derechos humanos fundamentales. Aunque el objetivo declarado es mejorar la seguridad pública mediante el uso eficiente de recursos, las consecuencias prácticas son ambiguas y, a menudo, dañinas.
Para avanzar de manera responsable, Alemania necesita mayor transparencia, controles independientes estrictos y mecanismos claros para prevenir la discriminación. Solo con un marco ético sólido y evaluaciones constantes podrá evitarse que la promesa de la predicción criminal automatizada se transforme en un vehículo más para la injusticia social.
algorithmwatch.org
Para avanzar de manera responsable, Alemania necesita mayor transparencia, controles independientes estrictos y mecanismos claros para prevenir la discriminación. Solo con un marco ético sólido y evaluaciones constantes podrá evitarse que la promesa de la predicción criminal automatizada se transforme en un vehículo más para la injusticia social.

Automating Injustice: “Predictive” policing in Germany - AlgorithmWatch
The police, criminal justice authorities, and prisons in Germany are increasingly exploring digital possibilities for "predicting" and "preventing" crimes. The report Automating Injustice gives an overview of such systems being developed and deployed in Germany.
