Si bien es posible que aún no exista un verdadero luchador contra el crimen robótico, los funcionarios encargados de hacer cumplir la ley federales, estatales y locales han recurrido de manera rutinaria a las tecnologías de análisis e inteligencia artificial para ayudar a prevenir el crimen y rastrear y arrestar a los delincuentes.
Hasta ahora, la inteligencia artificial en la aplicación de la ley se ha centrado principalmente en herramientas para identificar automáticamente a los sospechosos en las pruebas de video y predecir la posibilidad de que ocurra un delito en un área en particular mediante el uso de análisis y modelos de aprendizaje automático. La práctica ha tenido algunos éxitos, pero también ha suscitado algunas preocupaciones importantes.
En Baltimore, una ciudad con altos índices de criminalidad, los funcionarios encargados de hacer cumplir la ley confían en muchas herramientas y tecnologías diferentes impulsadas por la inteligencia artificial para detener el crimen. Las tecnologías son relativamente nuevas, según Kevin Davis, comisionado de policía de la ciudad de 2015 a 2018, pero han demostrado ser útiles.
IA, reconocimiento facial en Baltimore
«En la ciudad de Baltimore, hay cámaras de vigilancia, cámaras de vigilancia de la ciudad; tenemos reconocimiento facial, tenemos lectores de matrículas, tenemos Wi-Fi, todas estas cosas que recopilan datos que nunca antes habíamos tenido». Dijo Davis.
Sin embargo, Davis, hablando en la conferencia de AI World Government en Washington, DC en junio, señaló que la AI en la aplicación de la ley no puede automatizar completamente las funciones de oficiales bien entrenados y requiere supervisión humana.
Eso a veces puede crear problemas, dijo.
En Baltimore, que tiene unas 1.000 cámaras de vigilancia de la ciudad, «tenemos humanos que observan la tecnología», dijo Davis, quien ahora es director de seguridad de Armored Things, un proveedor de tecnología de seguridad con sede en Boston.
Kevin DavisJefe de seguridad, Armored Things
«Me gustaría llegar a un lugar donde tengamos tecnología observando la tecnología, entonces le quitas la subjetividad porque cuando los humanos están viendo la tecnología, él o ella está aplicando sus experiencias y discreción», dijo. .
«Ojalá podamos llegar a un lugar donde la tecnología pueda observar un entorno e identificar anomalías» por sí sola, continuó Davis.
Davis señaló que si bien esa situación sería ideal, sacar a los humanos del proceso sería casi imposible, incluso en el futuro, porque las leyes pueden tener componentes subjetivos.
Problemas de IA
La IA en las herramientas y tecnologías de aplicación de la ley también ha demostrado tener problemas. Los analistas han planteado sistemáticamente el sesgo inadvertido en los modelos de aprendizaje automático como una falla significativa en algunas tecnologías de inteligencia artificial utilizadas por las fuerzas del orden, especialmente el software de reconocimiento facial.
A principios de este año, por ejemplo, los accionistas de Amazon pidieron a la compañía que cesara las ventas de su plataforma de reconocimiento facial y de objetos Rekognition a los departamentos de seguridad pública de EE. UU. Después de estudios que demostraron que la plataforma aparentemente distinguir con menos precisión a mujeres y personas de piel más oscura.
Una encuesta reciente realizada por la plataforma de redes sociales profesionales anónimas Blind encontró que los empleados de los principales proveedores de tecnología estaban dispuestos a crear inteligencia artificial para los sistemas de aplicación de la ley, pero también estaban preocupados por el mal uso de esa tecnología.
La encuesta, que tuvo 3.826 respuestas únicas, encontró que más de la mitad de los que respondieron que trabajaban en Microsoft y Amazon y aproximadamente la mitad de los que trabajaron en Google y Salesforce dijeron que estarían dispuestos a desarrollar software de inteligencia artificial para las fuerzas del orden. Los encuestados también dijeron abrumadoramente que les preocupa que la inteligencia artificial y las tecnologías de reconocimiento facial puedan ser mal utilizadas.
Transcripción automatizada
Los organismos encargados de hacer cumplir la ley utilizan otras tecnologías impulsadas por IA además de las herramientas de reconocimiento facial.
VIQ Solutions, un proveedor de software de gestión y captura de audio y video, trabaja regularmente con los departamentos de aplicación de la ley de todo el mundo.
Con sede en Mississauga, Canadá, VIQ ofrece a sus clientes encargados de hacer cumplir la ley una gama de tecnologías, incluido un sistema de transcripción semiautomático que es independiente de la plataforma en la nube.
El software de transcripción utiliza el aprendizaje automático y el procesamiento del lenguaje natural para transcribir automáticamente el audio proporcionado por los oficiales, dijo Sebastien Pare, presidente y director ejecutivo de VIQ. El audio generalmente proviene de entrevistas grabadas y cámaras corporales.
Con transcriptores y editores humanos trabajando junto con el software, los tiempos de respuesta son rápidos, dijo Pare, y los niveles de precisión han superado constantemente el 90%.
«Hay una gran cantidad de datos fluyendo», dijo Pare.