Una inteligencia artificial que rastrea los datos de la policía puede predecir la ubicación de los delitos en la próxima semana con una precisión de hasta el 90 por ciento. Pero existe preocupación de que sistemas como este puedan perpetuar el sesgos y prejuicios.
(Los programadores dicen que nada que ver, pero en AgendAR nos quedamos pensando en «Minority Report»).
Una inteligencia artificial ahora puede predecir la ubicación y la tasa de delincuencia en una ciudad con una semana de anticipación con una precisión de hasta el 90 por ciento. Pero se ha demostrado que sistemas similares perpetúan un sesgo racista en la vigilancia, y también podría ser cierto en este caso, pero los creadores de esta IA afirman que también se puede usar para exponer esos sesgos.
Ishanu Chattopadhyay de la Universidad de Chicago y sus colegas crearon un modelo de IA que analizó datos históricos de delincuencia de Chicago, Illinois, desde 2014 hasta finales de 2016, y luego predijeron los niveles de delincuencia para las semanas que siguieron a este período de capacitación.
El modelo predijo la probabilidad de que ocurrieran ciertos delitos en toda la ciudad, que se dividió en cuadrados de unos 300 metros de lado, con una semana de anticipación con una precisión de hasta el 90 %. También se entrenó y probó con datos de otras siete ciudades importantes de EE. UU., con un nivel de rendimiento similar.
Los esfuerzos anteriores para usar IA para predecir el crimen han sido controvertidos porque aparecían perpetuando el sesgo racial.
En los últimos años, el Departamento de Policía de Chicago probó un algoritmo que creó una lista de personas consideradas en mayor riesgo de estar involucradas en un tiroteo, ya sea como víctima o como perpetrador. Los detalles del algoritmo y la lista inicialmente se mantuvieron en secreto, pero cuando finalmente se publicó la lista, resultó que el 56 por ciento de los hombres negros de la ciudad de entre 20 y 29 años figuraban en ella.
Chattopadhyay admite que los datos utilizados por su modelo también estarán sesgados, pero dice que se han realizado esfuerzos para reducir el efecto del sesgo y que la IA no identifica a los sospechosos, solo a los sitios potenciales del crimen. “No es Minority Report”, dice.
“Los recursos de aplicación de la ley no son infinitos. Así que quieres usar eso de manera óptima. Sería genial si pudieras saber dónde van a ocurrir los homicidios”.
Chattopadhyay dice que las predicciones de la IA podrían usarse de manera más segura para diseñar políticas a un alto nivel, en lugar de usarse directamente para asignar recursos policiales. Ha hecho públicos los datos y el algoritmo utilizados en el estudio para que otros investigadores puedan investigar los resultados.
Los investigadores también usaron los datos para buscar áreas donde el sesgo humano está afectando la vigilancia. Analizaron el número de arrestos por crímenes en barrios de Chicago con diferentes niveles socioeconómicos. Esto mostró que los delitos en las áreas más ricas resultaron en más arrestos que en las áreas más pobres, lo que sugiere un sesgo en la respuesta policial.
Lawrence Sherman, del Centre for Evidence-Based Policing, de la Universidad de Cambridge, dice que le preocupa la inclusión de datos policiales reactivos y proactivos en el estudio: delitos que tienden a registrarse porque la gente los denuncia y delitos que tienden a registrarse porque la policía sale a buscarlos. El último tipo de datos es muy susceptible al sesgo, dice. “Podría estar reflejando discriminación intencional por parte de la policía en ciertas áreas”.