¿Qué es el sesgo algorítmico?

Dos empresarias trabajando juntas usando una tablet digital en una oficina moderna

Autores

Alexandra Jonker

Staff Editor

IBM Think

Julie Rogers

Staff Writer

IBM Think

¿Qué es el sesgo algorítmico?

El sesgo algorítmico se produce cuando los errores sistemáticos en los algoritmos de machine learning producen resultados injustos o discriminatorios. A menudo refleja o refuerza los sesgos socioeconómicos, raciales y de género existentes.

Los sistemas de inteligencia artificial (IA) utilizan algoritmos para descubrir patrones y conocimientos en los datos, o para predecir valores de salida a partir de un conjunto determinado de variables de entrada. Los algoritmos sesgados pueden afectar a estos conocimientos y resultados de manera que conduzcan a decisiones o acciones perjudiciales, promuevan o perpetúen la discriminación y la desigualdad, y erosionen la confianza en la IA y en las instituciones que la utilizan. Estos impactos pueden crear riesgos legales y financieros para las empresas. Por ejemplo, según la Ley de IA de la UE, el incumplimiento de sus prácticas de IA prohibidas puede suponer multas de hasta 35 000 000 de EUR o el 7 % del volumen de negocios anual mundial, si esta cifra es superior.

El sesgo algorítmico es especialmente preocupante cuando se encuentra dentro de los sistemas de IA que respaldan decisiones que alteran la vida en áreas como la sanidad, la aplicación de la ley y los recursos humanos. El sesgo puede introducirse en los algoritmos de muchas maneras, como datos de entrada de entrenamiento sesgados o limitados, decisiones de programación subjetivas o interpretación de resultados.

La mitigación del sesgo algorítmico comienza con la aplicación de los principios de gobierno de la IA, incluidas la transparencia y la explicabilidad, en todo el ciclo de vida de la IA.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

¿Qué causa el sesgo algorítmico?

El sesgo algorítmico no lo causa el algoritmo en sí, sino la forma en que el equipo de ciencia de datos recopila y codifica los datos de entrenamiento. Las causas específicas incluyen:

  • Sesgos en los datos de entrenamiento
  • Sesgos en el diseño de algoritmos
  • Sesgos en los datos proxy
  • Sesgos en la evaluación

Sesgos en los datos

Los datos defectuosos se caracterizan por no ser representativos, carecer de información, estar sesgados históricamente o ser "malos" por cualquier otro motivo. Conduce a algoritmos que producen resultados injustos y amplifican cualquier sesgo en los datos. Los sistemas de IA que utilizan resultados sesgados como datos de entrada para la toma de decisiones crean un bucle de feedback que también puede reforzar el sesgo con el tiempo. Este ciclo, en el que el algoritmo aprende y perpetúa continuamente los mismos patrones sesgados, conduce a resultados cada vez más sesgados.

También pueden surgir sesgos durante la fase de entrenamiento si los datos se clasifican o evalúan incorrectamente. A veces, los algoritmos pueden "aprender" de la correlación de datos en lugar de la causalidad, ya que no poseen la capacidad de comprender la diferencia. Cuando esto sucede, el resultado del algoritmo puede estar sesgado, ya que el modelo no ha tenido en cuenta otros factores de los datos que pueden ser más importantes.

Un ejemplo comúnmente citado de sesgo de correlación es un modelo hipotético que determina una relación causal entre el aumento de los ataques de tiburones y el aumento de las ventas de helados. En realidad, ambas situaciones suelen darse durante el verano y sólo poseen una relación correlativa.

Sesgos en el diseño algorítmico

El diseño de algoritmos también puede introducir sesgos. Los errores de programación, como un diseñador de IA que pondera injustamente los factores en el proceso de toma de decisiones, pueden trasladarse al sistema sin saberlo. La ponderación suele ser una técnica para evitar el sesgo, ya que implica ajustes en los datos para que reflejen mejor la población real. Sin embargo, puede requerir suposiciones por parte de los diseñadores, lo que puede dar lugar a imprecisiones e introducir sesgos. Los desarrolladores también pueden integrar el algoritmo con reglas subjetivas basadas en sus propios sesgos conscientes o inconscientes.

Sesgos en los datos proxy

Los sistemas de IA a veces utilizan proxies como sustitutos de atributos protegidos, como la raza o el género. Sin embargo, los proxies pueden estar sesgados involuntariamente, ya que podrían tener una correlación falsa o accidental con los atributos sensibles que debían reemplazar. Por ejemplo, si un algoritmo utiliza los códigos postales como indicador de la situación económica, podría perjudicar injustamente a determinados grupos en los que los códigos postales están asociados a características demográficas raciales específicas.

Sesgos en la evaluación

Los sesgos en la evaluación se producen cuando los resultados del algoritmo se interpretan en función de las ideas preconcebidas de las personas implicadas, en lugar de los resultados objetivos. Incluso si el algoritmo es neutral y se basa en datos, la forma en la que un individuo o una empresa aplica el resultado del algoritmo puede conducir a resultados injustos dependiendo de cómo entienda los resultados.

AI Academy

Confianza, transparencia y gobierno en la IA

La confianza en la IA es sin duda el asunto más importante en este campo. También es comprensible que sea un tema abrumador. Desentrañaremos cuestiones como la alucinación, la parcialidad y el riesgo, y compartiremos los pasos a seguir para adoptar la IA de forma ética, responsable y justa.

Los riesgos del sesgo algorítmico

Cuando el sesgo algorítmico no se aborda, puede perpetuar la discriminación y la desigualdad, crear daños legales y de reputación y erosionar la confianza.

Discriminación y desigualdad

Las decisiones algorítmicas sesgadas refuerzan las disparidades sociales existentes que enfrentan los grupos marginados y estos sesgos humanos conducen a resultados injustos y potencialmente dañinos de los sistemas de IA. Aunque muchas de las aplicaciones de IA más comunes pueden parecer de bajo riesgo (como los motores de búsqueda, los chatbots y los sitios de redes sociales), otras aplicaciones de IA pueden influir en decisiones que alteran la vida. El uso de herramientas de inteligencia artificial sesgadas en áreas como la justicia penal, la sanidad y la contratación podría producir resultados devastadores.

Por ejemplo, la marginación de los afroamericanos en el pasado se refleja en los datos históricos de arrestos de Oakland, California en los Estados Unidos. Si estos datos se utilizan para entrenar un algoritmo policial predictivo (PPA) actual, es probable que las decisiones tomadas por el PPA reflejen y refuercen esos sesgos raciales del pasado.

Daños legales y reputacionales

Las organizaciones que utilizan sistemas de IA sesgados podrían enfrentarse a consecuencias legales y daños a su reputación, ya que las recomendaciones sesgadas pueden tener lo que se conoce como un impacto dispar. Se trata de un término jurídico que hace referencia a situaciones en las que políticas y prácticas aparentemente neutras pueden afectar de forma desproporcionada a personas de clases protegidas, como las susceptibles de sufrir discriminación por motivos de raza, religión, sexo y otras características.

Los grupos protegidos afectados negativamente por decisiones sesgadas de la IA podrían presentar demandas, lo que podría dar lugar a importantes responsabilidades financieras, daños a la reputación a largo plazo y la condena de las partes interesadas. Las organizaciones también podrían enfrentarse a sanciones económicas si se descubre que infringen las leyes antidiscriminatorias aplicables.

Erosión de la confianza

Los resultados sesgados de las herramientas de IA erosionan la confianza en la IA de múltiples maneras. Si se descubre que una organización tiene sistemas de IA sesgados, podría perder la confianza de las partes interesadas de la empresa que ya no confían en los procesos algorítmicos de toma de decisiones. Es posible que estas partes interesadas tampoco consideren que el valor de optimización de la IA supera su riesgo y pierdan la confianza en la tecnología en general.

El sesgo algorítmico también puede hacer perder la confianza de los clientes. Basta un solo caso de discriminación para arruinar la reputación de una marca, especialmente en la era de las noticias de rápida difusión. La confianza en la IA es especialmente importante para conservar a los grupos marginados, como las personas de color, que ya experimentan prejuicios y discriminación en el mundo físico.

Ejemplos reales de sesgo algorítmico

El sesgo algorítmico puede producirse en cualquier escenario o sector que utilice un sistema de IA para tomar decisiones. Estos son algunos posibles ejemplos reales de sesgo algorítmico:

  • Sesgo en el sistema de justicia penal
  • Sesgo en la sanidad
  • Sesgo en la contratación
  • Sesgo en los servicios financieros
  • Sesgo en los sistemas de reconocimiento facial
  • Sesgo en los precios

Sesgo en la justicia penal

Los tribunales estadounidenses utilizan la herramienta COMPAS (Perfil de gestión de delincuentes correccionales para sanciones alternativas) para evaluar el riesgo de reincidencia de los acusados. Un estudio de ProPublica reveló que el algoritmo de las herramientas podría haber clasificado de forma diferente a los acusados blancos y negros. Por ejemplo, en la evaluación de riesgos, los acusados negros tenían el doble de probabilidades que los acusados blancos de ser clasificados erróneamente como de mayor riesgo de reincidencia violenta. La empresa que creó la herramienta cuestiona este análisis; sin embargo, no revela los métodos utilizados para llegar a las puntuaciones de riesgo1.

Sesgo en la vigilancia predictiva

Los investigadores crearon su propio algoritmo de vigilancia predictiva entrenado con datos de informes de víctimas de Bogotá, Colombia. Cuando compararon las predicciones del modelo con conjuntos de datos reales sobre delincuencia, detectaron errores importantes. Por ejemplo, predijo un 20 % más de ubicaciones con un alto índice de delincuencia de lo que la realidad en distritos con un gran volumen de denuncias. Pero esto reflejaba un sesgo social: las personas negras tienen más probabilidades de ser denunciadas por un delito que las personas blancas2.

Sesgo en la sanidad

En sanidad, la infrarrepresentación de los grupos minoritarios en los datos puede sesgar los algoritmos predictivos de IA. Por ejemplo, se ha observado que los sistemas de diagnóstico asistido por ordenador (CAD) arrojan resultados de menor precisión para los pacientes negros que para los blancos.

Sesgo en la contratación

Amazon dejó de utilizar una herramienta de selección de personal basada en IA tras descubrir que discriminaba sistemáticamente a las mujeres que solicitaban empleo. Los desarrolladores entrenaron el algoritmo de contratación utilizando currículos de empleados anteriores, que eran predominantemente hombres. Como resultado, el algoritmo favoreció injustamente las palabras clave y las características que se encuentran en los currículos de los hombres3.

Sesgo en los servicios financieros

Los sesgos en los servicios financieros pueden tener graves consecuencias para la subsistencia de las personas, ya que los datos históricos pueden contener sesgos demográficos que afectan a la solvencia, la aprobación de préstamos y mucho más. Por ejemplo, un estudio de la Universidad de California en Berkeley demostró que un sistema de IA para hipotecas cobraba sistemáticamente a los prestatarios pertenecientes a minorías tipos más altos por los mismos préstamos en comparación con los prestatarios blancos4.

Sesgo en la generación de imágenes

Investigadores académicos descubrieron un sesgo de género en el generador de imágenes de IA Midjourney. Durante el análisis de más de 100 imágenes generadas, también encontraron casos de sesgo racial, de clase y de edad en los resultados. Por ejemplo, cuando se le pidió que creara imágenes de personas en profesiones especializadas, mostró tanto a personas jóvenes como mayores, pero los mayores siempre eran hombres, lo que reforzaba el sesgo de género con respecto a las mujeres en el lugar de trabajo5.

Sesgo en los sistemas de reconocimiento facial

Una investigación del MIT descubrió que algunos sistemas comerciales de reconocimiento facial de uso general, utilizados para emparejar caras en fotos, por ejemplo, eran incapaces de reconocer a personas de piel más oscura. El reconocimiento era aún peor para las mujeres de piel más oscura. Los datos de entrenamiento que tergiversaban la demografía real sesgaron los resultados6.

Sesgo en los precios

Después de que una ley de Chicago obligara a las empresas de transporte privado a revelar sus tarifas, los investigadores descubrieron que el algoritmo de tarificación de Uber y Lyft cobraba más por las entregas en barrios con una gran población no blanca7.

Cómo evitar el sesgo algorítmico

La mitigación del sesgo de los sistemas de IA comienza con el gobierno de la IA, que se refiere a las barreras de protección que garantizan que las herramientas y los sistemas de IA sean y sigan siendo seguros y éticos. Establece los marcos, reglas y normas que dirigen la investigación, el desarrollo y la aplicación de la IA para contribuir a garantizar la seguridad, la equidad y el respeto de los derechos humanos.

Las organizaciones podrían considerar los siguientes principios de gobierno de la IA para evitar posibles sesgos de la IA a lo largo del ciclo de vida del sistema:

  • Datos diversos y representativos
  • Detección y mitigación de sesgos
  • Transparencia e interpretabilidad
  • Diseño y desarrollo inclusivos

Datos diversos y representativos

El machine learning es tan bueno como los datos que lo entrenan. Para que la IA refleje mejor las diversas comunidades a las que sirve, es necesario representar en los modelos una variedad mucho más amplia de datos de seres humanos. Los datos introducidos en los modelos de machine learning y los sistemas de deep learning deben ser completos y equilibrados, representativos de todos los grupos de personas y reflejar la demografía real de la sociedad.

Detección y mitigación de sesgos

Ningún sistema informático está nunca completamente "entrenado" o "terminado". La monitorización y las pruebas continuas (a través de iniciativas como evaluaciones de impacto, auditoría algorítmica y pruebas de causalidad) pueden ayudar a detectar y corregir posibles sesgos antes de que creen problemas. Procesos como el sistema "humano en el circuito" requieren que las recomendaciones sean revisadas por humanos antes de tomar una decisión para proporcionar otra capa de garantía de calidad.

Transparencia e interpretabilidad

Los sistemas de IA pueden ser "cajas negras", lo que dificulta la comprensión de sus resultados. Los sistemas de IA transparentes documentan y explican claramente la metodología del algoritmo subyacente y quién lo entrenó. Cuanto más se entienda cómo se entrenan y ajustan los sistemas de IA y cómo toman sus decisiones, más podrán confiar las partes interesadas y la sociedad en general en la precisión e imparcialidad de la IA.

Diseño y desarrollo inclusivos

La IA inclusiva comienza con un equipo diverso e interdisciplinario de programadores de IA, desarrolladores, científicos de datos, ingenieros de ML y más que son variados racialmente, económicamente, por nivel educativo, por género, por descripción de trabajo y otras métricas demográficas. La diversidad dentro del diseño y el desarrollo aportará diferentes perspectivas para ayudar a identificar y mitigar sesgos que de otro modo podrían pasar desapercibidos.

Regulación del sesgo algorítmico

Los gobiernos y los responsables políticos están creando marcos y regulaciones de IA para ayudar a guiar, y en algunos casos, hacer cumplir, el uso seguro y responsable de la IA. Por ejemplo:

  • La Unión Europea introdujo la Ley de IA de la UE, que establece requisitos específicos para los sistemas de IA de alto riesgo, como medidas para prevenir y mitigar los sesgos.

  • El informe Algorithmic Impact Assessments del Instituto AI Now de la Universidad de Nueva York es un marco práctico. Al igual que una evaluación de impacto ambiental, guía a las agencias públicas en la evaluación de los sistemas de IA para garantizar la responsabilidad pública8.

  • El Plan para una Declaración de Derechos de la IA de la Casa Blanca tiene un principio dedicado a las protecciones contra la discriminación algorítmica. Incluye expectativas y orientación sobre cómo poner en práctica este principio.

  • La Orden Ejecutiva de la Administración Biden sobre el Desarrollo y Uso Seguro y Fiable de la Inteligencia Artificial establece directrices para el desarrollo y uso de la IA, incluida la lucha contra la discriminación algorítmica a través de la formación, la asistencia técnica y la coordinación entre el Departamento de Justicia de EE. UU. y las oficinas federales de derechos civiles.
Soluciones relacionadas
IBM watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.

Descubra watsonx.governance
Soluciones de gobierno de la IA

Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.

Descubra soluciones de gobierno de la IA
Servicios de consultoría sobre gobierno de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.

Descubra los servicios de gobierno de la IA
Dé el siguiente paso

Dirija, gestione y monitorice su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Solicite una demo en directo
Notas a pie de página

1. How We Analyzed the COMPAS Recidivism Algorithm”. ProPublica. 23 de mayo de 2016.

2. “Predictive policing is still racist—whatever data it uses”. MIT Technology Review. 5 de febrero de 2021.

3. Why Amazon’s Automated Hiring Tool Discriminated Against Women”. ACLU. 12 de octubre de 2018.

4. AI is Making Housing Discrimination Easier Than Ever Before”. The Kreisman Initiative for Housing Law and Policy. Universidad de Chicago. 12 de febrero de 2024.

5. Ageism, sexism, classism and more: 7 examples of bias in AI-generated images”. The Conversation. 9 de julio de 2023.

6. Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms”. Brookings. 22 de mayo de 2019.

7. Algorithmic Bias Explained”. The Greenlining Institute. Febrero de 2021.

8. Algorithmic Impact Assessments Report: A Practical Framework for Public Agency Accountability”. AI Now Institute. 9 de abril de 2018.