Ciencia Policial nº183

100 CIENCIAPOLICIAL Ediciones Universidad de Salamanca / CC BY-NC-SA Ciencia Policial, 183, 91-132 de IA se volverá mejor al juego, aprendiendo a tomar decisiones más eficientes. 3 Los posibles errores y sesgos de la IA Desde esta perspectiva, la IA podría parecer una herramienta increíble, capaz de ahorrar tiempo y prevenir errores humanos, dando la impresión de ser infalible. Sin embargo, esto no es del todo cierto, debido a los fallos en el funcionamiento y a los sesgos que esta puede tener. Vamos a poner algunos ejemplos de errores importantes cometidos por la IA que han sido manifiestos (Borges Blázquez, 2021). Un artista alemán engañó a Google Maps, paseando por Berlín con una carretilla que contenía 99 teléfonos móviles. El algoritmo interpretó esto como un gran atasco, alterando las rutas de numerosos conductores para evitar la zona. Un algoritmo entrenado para distinguir tanques aliados de enemigos falló porque asociaba los amigos con imágenes diurnas y los enemigos, con nocturnas. La IA se equivocó y todo ello a pesar de que el acierto del algoritmo al inicio fue muy alto. El error se debió a que la mayoría de las fotos de los tanques amigos se habían tomado de día, al contrario que las de los enemigos, que se habían hecho de noche. Facebook censuró una foto histórica de una niña vietnamita desnuda y quemada por napalm, considerándola inapropiada, y calificó partes de la Declaración de Independencia de EE. UU. como discurso de odio por referencias a los amerindios. Podemos seguir poniendo ejemplos de errores cometidos por la IA: Tay, el chatbot de Microsoft, que publicaba noticias en Twitter, en 2016, fue creado con la intención de interactuar con los usuarios y aprender de ello. Sin embargo, en cuestión de horas, Tay comenzó a publicar mensajes ofensivos y discriminatorios, ya que los usuarios de Twitter lograron enseñarle

RkJQdWJsaXNoZXIy MzA5NDI2