El desarrollo de la tecnología de machine learning nos ha facilitado la vida. Sin embargo, la implementación del machine learning en las empresas también ha suscitado una serie de preocupaciones éticas sobre las tecnologías de IA, entre las que se incluyen:
La singularidad tecnológica
Aunque este tema suscita mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo. La singularidad tecnológica también se conoce como IA sólida o superinteligencia. El filósofo Nick Bostrum define la superinteligencia como "cualquier intelecto que supere ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar de que la superinteligencia no es inminente en la sociedad, su idea plantea algunas cuestiones interesantes al considerar el uso de sistemas autónomos, como los coches autoconducidos. Es poco realista pensar que un coche sin conductor nunca tendrá un accidente, pero ¿quién es el responsable en esas circunstancias? ¿Debemos seguir desarrollando vehículos autónomos o limitar esta tecnología a vehículos semiautónomos que ayuden a las personas a conducir con seguridad? El jurado aún no se ha pronunciado al respecto, pero estos son los tipos de debates éticos que se producen a medida que se desarrolla la nueva e innovadora tecnología de IA.
Impacto de la IA en el empleo
Aunque gran parte de la percepción pública de la inteligencia artificial se centra en la pérdida de puestos de trabajo, esta preocupación debería replantearse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de funciones laborales específicas. Por ejemplo, si nos fijamos en la industria de la automoción, muchos fabricantes, como GM, están pasando a centrarse en la producción de vehículos eléctricos para alinearse con las iniciativas ecológicas. El sector energético no va a desaparecer, pero la fuente de energía está desplazándose de la economía de combustible a la eléctrica.
De forma similar, la inteligencia artificial desplazará la demanda de puestos de trabajo a otras áreas. Harán falta personas que ayuden a gestionar los sistemas de IA. Seguirá siendo necesario contar con personas que se ocupen de problemas más complejos en los sectores con más probabilidades de verse afectados por los cambios en la demanda de empleo, como el servicio de atención al cliente. El mayor reto de la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas a hacer la transición a las nuevas funciones que se demandan.
Privacidad
La privacidad tiende a debatirse en el contexto de la privacidad, la protección y la seguridad de los datos. Estas preocupaciones han permitido a los responsables políticos avanzar más en los últimos años. Por ejemplo, en 2016 se creó la legislación RGPD para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que se introdujo en 2018 y exige a las empresas que informen a los consumidores sobre la recopilación de sus datos. Este tipo de legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan la información de identificación personal (PII, por sus siglas en inglés). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ciberataques.
Prejuicios y discriminación
Los casos de sesgo y discriminación en una serie de sistemas de machine learning han planteado muchas cuestiones éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de formación pueden ser generados por procesos humanos sesgados? Aunque las empresas suelen tener buenas intenciones en sus esfuerzos de automatización, Reuters (enlace externo a ibm.com) destaca algunas de las consecuencias imprevistas de incorporar la IA a las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon discriminó involuntariamente a los candidatos por género para puestos técnicos, y la empresa tuvo que desechar finalmente el proyecto. Harvard Business Review (enlace externo a ibm.com) ha planteado otras cuestiones puntuales sobre el uso de la IA en las prácticas de contratación, como qué datos debería poder utilizar a la hora de evaluar a un candidato para un puesto.
El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; pueden encontrarse en diversas aplicaciones, desde el software de reconocimiento facial hasta los algoritmos de las redes sociales.
A medida que las empresas son más conscientes de los riesgos de la IA, también se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, IBM ha puesto al descubierto sus productos de reconocimiento y análisis facial de uso general. El CEO de IBM, Arvind Krishna, escribió: "IBM se opone firmemente y no aprobará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, la violación de los derechos humanos y las libertades fundamentales, o cualquier otro fin que no sea coherente con nuestros valores y Principios de Confianza y Transparencia."
Responsabilidad
Dado que no existe una legislación significativa que regule las prácticas de la IA, no hay ningún mecanismo de aplicación real que garantice que se practica una IA ética. Los incentivos actuales para que las empresas sean éticas son las repercusiones negativas de un sistema de IA poco ético en el balance final. Para colmar esta laguna, han surgido marcos éticos como parte de una colaboración entre especialistas en ética e investigadores para regir la construcción y distribución de modelos de IA en la sociedad. Sin embargo, de momento sOlo sirven para orientar. Algunas investigaciones (enlaces externos a ibm.com) demuestran que la combinación de responsabilidad distribuida y falta de previsión de las posibles consecuencias no favorece la prevención de daños a la sociedad.
Más información sobre la postura de IBM ante la ética de la IA