128 CIENCIAPOLICIAL Ediciones Universidad de Salamanca / CC BY-NC-SA Ciencia Policial, 183, 91-132 la parte afectada pueda impugnar la decisión judicial que ha sido adoptada a partir de dichos resultados. 6. Se precisa asegurar que todas las partes intervinientes en el proceso puedan comprender, analizar y cuestionar las evidencias generadas por sistemas de IA para mantener un proceso justo y equitativo. Debe asegurarse por la legislación y, para ello, debe regularse dentro del derecho a la asistencia jurídica gratuita la posible utilización de herramientas de IA para todas las partes del proceso. 7. Debe establecerse la obligación de que todo juez que adopta una decisión basada en IA predictiva informe de ello a las partes afectadas. 8. Debe regularse quién es el responsable en caso de resultados predictivos erróneos. 9. Debe preverse un sistema de límites y a su vez un régimen de responsabilidad y de sanciones en el caso de traspasarlos. Tan necesario como lo anterior, entendemos resulta imprescindible crear una cultura behaviour, tanto en el ámbito público como privado ‒behavioral compliance‒. Referencias bibliográficas Alpaydin, E. (2014). Introduction to Machine Learning. Massachusetts. 3.ª edición. Amnistía Internacional. https://www.amnesty.org/es/latest/ news/2022/02/usa-facial-recognition-technology-reinforcing-racist-stop-and-frisk-policing-in-new-york-new-research/ (Consultado 9/10/2024). Armenta Deu, T. (2021). Derivas de la justicia (p. 262). Madrid: Marcial Pons.
RkJQdWJsaXNoZXIy MzA5NDI2