Ciencia Policial nº183

102 CIENCIAPOLICIAL Ediciones Universidad de Salamanca / CC BY-NC-SA Ciencia Policial, 183, 91-132 Los sesgos en IA pueden ser los siguientes: • Sesgo de datos: este ocurre cuando los datos utilizados no son objetivos y han sido seleccionados de manera tendenciosa para favorecer a ciertas personas, grupos o soluciones. Este tipo de sesgo puede presentarse en la recolección de datos, si estos no reflejan una representación equilibrada de la realidad; en el etiquetado de datos, cuando los criterios utilizados son subjetivos o arbitrarios; al seleccionar un número insuficiente de variables, lo que puede llevar a conclusiones incorrectas al inferir relaciones inexistentes entre los datos; por desequilibrio en los datos, si se incluyen datos no representativos o discriminatorios hacia ciertas minorías, y, por último, al usar variables correlacionadas con otras sensibles, lo que genera sesgos indirectos, al influir en resultados de manera inadvertida. • Sesgo del algoritmo: se produce cuando las hipótesis o decisiones tomadas durante el diseño del algoritmo generan resultados sesgados. Por ejemplo, si un algoritmo utilizado para contrataciones considera que ciertas características, como el género o la etnia, están relacionadas con el desempeño laboral, podría llevar a discriminación injusta contra determinados grupos. • Sesgo de selección de características: acaece cuando se seleccionan características o variables específicas para el entrenamiento del modelo que introducen desviaciones buscadas en sus resultados. Por ejemplo, si un sistema de recomendación de empleo considera principalmente la experiencia laboral pasada como criterio de selección puede perpetuar desigualdades existentes en el mercado laboral. • Sesgo de evaluación: se produce cuando las características o variables elegidas para entrenar el modelo generan resultados intencionadamente sesgados. Por ejemplo, un sistema de concesión de préstamos que utiliza como criterio principal el historial crediticio de los solicitantes. Si el modelo se entrena únicamente con esta variable, podría excluir sistemáticamente a personas de comunidades marginadas que históricamente han tenido menos acceso a servicios financieros, perpetuando así la desigualdad en el acceso a créditos.

RkJQdWJsaXNoZXIy MzA5NDI2