Proporcionar a las fuerzas de seguridad las herramientas, los datos y la protección adecuada para que incorporen la Inteligencia Artificial (IA) en sus organismos es el objetivo de la iniciativa STARLIGHT (Sustainable Autonomy and Resilience for LEAs using AI against High priority Threats), en la que participa la spin-off Plus Ethics del Parque Científico de la Universidad Miguel Hernández (PCUMH) de Elche. Concretamente, el reto de esta spin-off dentro de este proyecto, financiado con 17 millones de euros, es analizar la aceptabilidad de la Inteligencia Artificial por parte de las agencias de seguridad europeas y gestionar los riesgos de discriminación y sesgos algorítmicos.

Esta iniciativa europea, que se enmarca en la convocatoria Horizon 2020, arrancará en octubre y tendrá una duración de dos años. Para su desarrollo, contará con la participación de 53 socios de múltiples nacionalidades, entre los que destacan entidades como diferentes departamentos de policía de varios estados miembro, el Ministerio del Interior o EUROPOL, entre otros. El proyecto estará coordinado por el comisariado para la energía atómica y las energías renovables (Commissariat à l´énergie atomique et aux énergies alternatives).

Tal y como señala el director ejecutivo de la spin-off Plus Ethics, profesor del área de Derecho Penal de la UMH e investigador del centro CRÍMINA de la Universidad Francisco Javier Castro Toledo, actualmente la complejidad en los retos de seguridad se ha visto incrementada, lo que exige un uso mejor y más generalizado de la Inteligencia Artificial por parte de los organismos encargados de la aplicación de la ley. “La IA puede aportar beneficios a las fuerzas de seguridad a todos los niveles si se les proporcionan las herramientas y los datos adecuados. Además, el aumento de la concienciación sobre el uso indebido por parte de los delincuentes está suponiendo una amenaza a la que hay que hacer frente rápidamente”, explica Castro Toledo.

Así, con la implementación de la Inteligencia Artificial en las fuerzas de seguridad se busca reforzar sus operaciones de investigación y ciberseguridad y proporcionarles soluciones fiables para sus trabajos operativos. También, garantizar que estos organismos puedan proteger sus propios sistemas de Inteligencia Artificial y hacer frente al uso indebido de esta tecnología, entre otros objetivos.