El sesgo de IA, también llamado sesgo de machine learning o sesgo de algoritmo, se refiere a la aparición de resultados con sesgo debido a sesgos humanos que distorsionan los datos de entrenamiento originales o el algoritmo de IA, lo que genera resultados con sesgo y resultados potencialmente dañinos.
Cuando no se aborda el sesgo de la IA, puede repercutir en el éxito de una organización y obstaculizar la capacidad de las personas para participar en la economía y la sociedad. El sesgo reduce la precisión de la IA y, por lo tanto, su potencial.
Las empresas tienen menos probabilidades de obtener beneficio de sistemas que producen resultados distorsionados. Y los escándalos derivados del sesgo de la IA podrían fomentar la desconfianza entre las personas de color, las mujeres, las personas con discapacidad, la comunidad LGBTQ u otros grupos marginados.
Los modelos en los que se basan los esfuerzos de IA absorben los sesgos de la sociedad que pueden estar silenciosamente incrustados en las montañas de datos con los que se entrenan. La recopilación de datos con sesgos históricos que reflejen la desigualdad social puede resultar perjudicial para los grupos históricamente marginados en casos de uso como la contratación, la policía, la calificación crediticia y muchos otros. Según The Wall Street Journal, "A medida que se generaliza el uso de la inteligencia artificial, las empresas siguen esforzándose por abordar la dirección de los prejuicios generalizados".1
Cuando la IA comete un error debido a un sesgo, como grupos de personas a las que se les niegan oportunidades, se identifican erróneamente en las fotos o se castiga injustamente, la organización infractora sufre daños en su marca y reputación. Al mismo tiempo, las personas de esos grupos y la sociedad en su conjunto pueden tener Experiencia de daño sin siquiera darse cuenta. Estos son algunos ejemplos destacados de disparidades y sesgos en la IA y el daño que pueden causar.
En la atención médica, la infrarrepresentación de datos de mujeres o grupos minoritarios puede sesgar los algoritmos predictivos de la IA.2 Por ejemplo, se ha observado que los sistemas de diagnóstico asistido por ordenador (CAD) ofrecen resultados de menor precisión para los pacientes afroamericanos que para los blancos.
Si bien las herramientas de IA pueden agilizar la automatización del escaneo de currículums durante una búsqueda para ayudar a identificar a los candidatos ideales, la información solicitada y las respuestas filtradas pueden generar resultados desproporcionados en todos los grupos. Por ejemplo, si un anuncio de empleo utiliza la palabra “ninja”, podría atraer a más hombres que mujeres, aunque eso no sea un requisito laboral.3
Como prueba de generación de imágenes, Bloomberg solicitó la creación de más de 5000 imágenes de IA y descubrió que "el mundo según Stable Diffusion está dirigido por directores ejecutivos (CEO) hombres blancos. Las mujeres rara vez son médicas, abogadas o juezas. Los hombres de piel oscura cometen delitos, mientras que las mujeres de piel oscura hacen hamburguesas".4 Midjourney realizó un estudio similar sobre la generación de arte mediante IA, solicitando imágenes de personas en profesiones especializadas. El resultado mostró tanto a personas más jóvenes como a mayores, pero los mayores eran siempre hombres, lo que refuerza el sesgo de género del papel de la mujer en el lugar de trabajo.5
Se supone que las herramientas policiales predictivas impulsado por IA que emplean algunas organizaciones del sistema de justicia penal identifican las zonas en las que es probable que se produzcan delitos. Sin embargo, a menudo se basan en datos históricos de arrestos, lo que puede reforzar los patrones existentes de elaboración de perfiles raciales y ataques desproporcionados a las comunidades minoritarias.6
Los resultados distorsionados pueden dañar a las organizaciones y a la sociedad en general. A continuación se presentan algunos de los tipos más comunes de sesgo de IA7.
Sesgo de homogeneidad fuera del grupo: se trata de un caso de no saber lo que uno no sabe. Las personas tienden a comprender mejor a los miembros de su propio grupo, el grupo al que uno pertenece, y a pensar que son más diversos que los miembros de grupos externos. El resultado puede ser que los desarrolladores creen algoritmos que sean menos capaces de distinguir entre individuos que no son parte del grupo mayoritario en los datos de entrenamiento, lo que genera sesgo racial, clasificación errónea y respuestas incorrectas.
El primer paso para evitar la trampa del sesgo es dar un paso atrás desde el principio y pensar un poco en un esfuerzo de IA. Como ocurre con casi cualquier desafío empresarial, los problemas son mucho más fáciles de arreglar por adelantado en lugar de esperar el choque de trenes y luego clasificar los resultados dañados. Pero muchas organizaciones tienen prisa: cuestan dinero y les cuesta.
Identificar y abordar el sesgo en la IA requiere una gobernanza de la IA, o la capacidad de dirigir, administrar y monitorear las actividades de IA de una organización. En la práctica, la gobernanza de la IA crea un conjunto de políticas, prácticas y marcos para guiar el desarrollo y uso responsables de las tecnologías de IA. Cuando se hace bien, la gobernanza de la IA ayuda a garantizar que haya un equilibrio de beneficios otorgados a las empresas, los clientes, los empleados y la sociedad en su conjunto.
La gobernanza de la IA suele incluir métodos que tienen como objetivo evaluar la imparcialidad, la equidad y la inclusión. Enfoques como la justicia contrafactual identifican el sesgo en la toma de decisiones de un modelo y garantizan resultados equitativos, incluso cuando se incluyen atributos sensibles como el género, la raza o la orientación sexual.
Debido a la complejidad de la IA, un algoritmo puede ser un sistema de caja negra con pocos insights sobre los datos utilizados para crearlo. Las prácticas y tecnologías de transparencia ayudan a garantizar que se utilicen datos sin sesgo para crear el sistema y que los resultados sean justos. Las empresas que trabajan en la protección de la información de sus clientes construyen confianza en la marca y tienen más posibilidades de crear sistemas de IA confiable.
Para ofrecer otra capa de garantía de calidad, instituya un sistema "humano en el bucle" que ofrezca opciones o haga recomendaciones que luego puedan ser aprobadas por decisiones humanas.
Aquí hay una lista de verificación de seis pasos del proceso que pueden mantener los programas de IA libres de sesgos.
1. Seleccionar el modelo de aprendizaje correcto:
2. Entrenar con los datos correctos: el machine learning entrenado con los datos incorrectos producirá resultados incorrectos. Cualquier dato que se introduzca en la IA debe ser completo y equilibrado para replicar la demografía real del grupo considerado.
3. Elegir un equipo equilibrado: cuanto más variado sea el equipo de IA (racial, económicamente, por nivel educativo, por género y por descripción del trabajo), más probable será que reconozca sesgos. Los talentos y puntos de vista de un equipo de IA completo deben incluir innovadores de negocios de IA, creadores de IA, implementadores de IA y una representación de los consumidores de este esfuerzo de IA en particular.9
4. Llevar a cabo el proceso de datos con atención: las empresas deben ser conscientes de los sesgos en cada paso del proceso de datos. El riesgo no está solo en la selección de datos: ya sea durante el preprocesamiento, el procesamiento interno o el posprocesamiento, el sesgo puede introducirse en cualquier momento e introducirse en la IA.
5. Monitorear continuamente: ningún modelo es nunca completo o permanente. El monitoreo y las pruebas continuos con datos del mundo real de toda una organización pueden ayudar a detectar y corregir el sesgo antes de que cause daño. Para evitar aún más sesgos, las organizaciones deben considerar evaluaciones realizadas por un equipo independiente dentro de la organización o de un tercero de confianza.
6. Evitar los problemas de infraestructura: además de las influencias humanas y de datos, a veces la propia infraestructura puede causar sesgos. Por ejemplo, al utilizar los datos recopilados de los sensores mecánicos, el propio equipo podría inyectar sesgos si los sensores no funcionan correctamente. Este tipo de sesgo puede ser difícil de detectar y requiere invertir en las últimas infraestructuras digitales y tecnológicas.
Descubra cómo la Ley en materia de IA de la UE afectará a las empresas, cómo prepararse, cómo puede mitigar el riesgo y cómo equilibrar la regulación y la innovación.
Conozca los nuevos desafíos de la IA generativa, la necesidad de gobernar los modelos de IA y machine learning (ML) y los pasos para crear una infraestructura de AI confiable, transparente y explicable.
Lea sobre cómo impulsar prácticas éticas y de cumplimiento con una cartera de productos de IA para modelos de IA generativa.
Obtenga una comprensión más profunda de cómo garantizar la equidad, administrar la deriva, mantener la calidad y mejorar la explicabilidad con watsonx.governance.
Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza de la IA responsable con la ayuda de IBM Consulting.
Simplifique la forma de gestionar el riesgo y el cumplimiento normativo con una plataforma de GRC unificada.
1 The Wall Street Journal: Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare
3 LinkedIn: Reducing AI Bias — A Guide for HR Leaders
4 Bloomberg: Humans Are Biased. Generative AI Is Even Worse
5 The Conversation US: Ageism, sexism, classism and more — 7 examples of bias in AI-generated images
6 Technology Review: Predictive policing is still racist—whatever data it uses
7 Tech Target: Machine learning bias (AI bias)
Chapman University AI Hub: Bias in AI
AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey: Tackling bias in artificial intelligence (and in humans)
9 Forbes: The Problem With Biased AIs (and How To Make AI Better)
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com