Los autores de un algoritmo capaz de anticipar con un 90% de acierto los puntos calientes del crimen alertan de que un mal uso de su modelo puede perpetuar sesgos racistas.
Coches patrulla del Departamento de Policía de Nueva York bloquean una calle j
unto a la escena de un crimen.
AMR ALFIKY (REUTERS)
El equipo de investigadores que firma el estudio
publicado en Nature Human Behaviour es consciente de ello. “En
un intento de evitar que el uso de su herramienta acabe siendo perjudicial para
algunos colectivos, los autores le dan la vuelta al concepto de policía
predictiva y prescriben que sus modelos se usen para monitorizar la propia
labor policial”, señala Andrew V. Papachristos, investigador del departamento
de Sociología de la Northwestern University (Evanston).
Hacia departamentos de ‘precrimen’
El académico, que revisó el artículo de Rotaru y sus colegas, cree que el matiz es importante y puede ayudar a desarrollar sistemas de intervención temprana y otros esfuerzos para identificar abusos policiales, un asunto especialmente sensible en el país desde la muerte de George Floyd en 2020. Opina también que puede ayudar a “enviar trabajadores sociales, equipos de respuesta y de ayuda a las víctimas a aquellos cuadrantes de 300 metros cuadrados en los que se haya detectado que habrá más disputas”.
Supongamos que una herramienta predictiva como la ideada por el equipo de Rotaru concluye que hay muchas probabilidades de que se cometa un crimen en una manzana determinada de Chicago dentro de tres días. ¿Qué se debe hacer con esa información? ¿Hay que activar una respuesta por parte de las autoridades? En caso afirmativo, ¿qué tipo de actuaciones se deben llevar a cabo y por quién? Todas estas preguntas, señala Papachristos, son tan importantes o más que la propia predicción.
“Una de nuestras preocupaciones centrales al elaborar este estudio fue su potencial para ser mal usado. Más importante que hacer buenas predicciones es cómo se van a usar estas. Enviar policía a una área no es el resultado óptimo en todos los casos, y puede suceder que buenas predicciones (e intenciones) lleven a sobrevigilancia o a abusos policiales”, escriben los autores en el artículo. “Nuestros resultados pueden ser malinterpretados como que hay demasiada policía en una zona de poca criminalidad, que normalmente será en comunidades predominantemente blancas, y demasiada poca en las de mayor criminalidad, en las que suele haber más diversidad cultural y étnica”, añaden.
“Concebimos nuestro modelo básicamente como una
herramienta de optimización de política policial”, abunda Ishanu
Chattopardhayay, colega de Rotaru en la Universidad de Chicago y coautor del
artículo. “Por eso insistimos tanto en que hay que ser muy cuidadosos en la
forma de aplicar el conocimiento que aporta”, añade. En su opinión, su
algoritmo puede servir para analizar las prácticas policiales actuales y ver,
por ejemplo, si se están dedicando demasiados recursos en barrios en los que a
fin de cuentas no se delinque tanto como en otros.
Sobrecriminalización de negros y latinos
El hecho de que la herramienta de Rotaru y sus colegas se haya probado en Chicago es significativo. Uno de los primeros sistemas de policía predictiva de los que se tiene constancia fue el que se puso en marcha precisamente en esa ciudad en 2013. La herramienta trataba de identificar a potenciales criminales analizando datos de arrestos, tanto de los presuntos autores de los crímenes como de sus víctimas, y cruzándolos con sus redes de relaciones personales. Fue un sonoro fracaso: no ayudó a que cayera la criminalidad y se demostró que la población negra quedaba sobrerrepresentada en las listas. El 56% de los hombres negros de entre 20 y 29 años figuraban en ellas, según detalló un estudio independiente unos años después.
En las grandes ciudades estadounidenses, hay barrios que suelen estar estrechamente asociados a una raza en particular. “La actividad policial desproporcionada en comunidades de color puede contribuir a los sesgos en los registros de incidentes, lo que puede causar que se propaguen a modelos inferidos”, reconocen los autores del artículo, para quienes no hay forma de controlar estadísticamente esas desviaciones. “Quien use este tipo de herramientas debe ser consciente de ello”, subrayan.
Una investigadora de otra universidad estadounidense consultada por EL PAÍS cuestiona los resultados del estudio de Rotaru y sus colegas. En su opinión, la alta efectividad del modelo (90%) desciende notablemente cuando los crímenes analizados son raros. Otro pero que le pone al modelo es que el algoritmo predictivo no será capaz de detectar las zonas con mayor criminalidad, sino con mayor criminalidad reportada.
Esa diferencia es importante, porque en EE UU las comunidades negras son menos proclives a denunciar delitos ante la policía. Rotaru y su equipo señalan que pretenden corregir ese sesgo teniendo en cuenta únicamente crímenes que, por su naturaleza (agresiones, asesinatos, robos de bienes), suelen ser reportados.
“Nuestra herramienta se basa en los delitos registrados. No podemos modelar sobre crímenes que no se hayan denunciado”, explica Chattopardhayay, del equipo de Rotaru.
La desigual relación con las fuerzas de seguridad en función de la raza es uno de los sesgos de entrada a los que se enfrentan los algoritmos aplicados a labores policiales. No son los únicos. Como las bases de datos con las que trabajan suelen ser de arrestos, las zonas con más detenciones son las que la máquina asocia con más necesidad de patrullas, lo que a su vez aumenta el número de detenciones. De ahí las protestas de muchas asociaciones de la sociedad civil por el uso generalizado de estas herramientas y las cautelas de Rotaru y sus colegas con su propio trabajo.
Fuente: El País
No hay comentarios:
Publicar un comentario