Mi IBM Inicie sesión Suscríbase

¿Qué es la ética de la IA?

17 de septiembre de 2024

¿Qué es la ética de la IA?

La ética es un conjunto de principios morales que nos ayudan a discernir entre el bien y el mal. La ética de la IA es un campo multidisciplinar que estudia cómo optimizar el impacto beneficioso de la inteligencia artificial (IA) a la vez que se reducen los riesgos y los resultados adversos.

Algunos ejemplos de cuestiones éticas de la IA son la responsabilidad y la protección de los datos, la imparcialidad, la explicabilidad, la robustez, la transparencia, la sostenibilidad medioambiental, la inclusión, la agencia moral, la alineación de valores, la responsabilidad, la confianza y el mal uso de la tecnología. Este artículo tiene como objetivo ofrecer una visión integral del mercado de la ética de la IA en el sector actual. Para obtener más información sobre el punto de vista de IBM, consulte nuestra página de ética de la IA aquí.

Con la aparición de big data, las empresas han aumentado su enfoque para impulsar la automatización y la toma de decisiones basada en datos en todas sus organizaciones. Aunque la intención suele ser, si no siempre, mejorar los resultados comerciales, las empresas están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, particularmente debido a un diseño de investigación inicial deficiente y conjuntos de datos sesgados.

A medida que han salido a la luz casos de resultados injustos, han surgido nuevas directrices, principalmente de las comunidades de investigación y ciencia de datos, para abordar las preocupaciones en torno a la ética de la IA. Las empresas líderes en el campo de la IA también se han interesado en dar forma a estas directrices, ya que ellas mismas han comenzado a experimentar algunas de las consecuencias de no mantener los estándares éticos dentro de sus productos. La falta de diligencia en esta área puede provocar una exposición reputacional, regulatoria y legal, lo que se traduce en costosas sanciones. Al igual que con todos los avances tecnológicos, la innovación tiende a superar la regulación gubernamental en nuevos campos emergentes. A medida que se desarrollen los conocimientos adecuados en la industria gubernamental, podemos esperar más protocolos de IA para que las empresas los sigan, permitiéndoles evitar cualquier infracción de los derechos humanos y las libertades civiles.

Establecimiento de principios para la ética de la IA

Mientras se desarrollan normas y protocolos para gestionar el uso de la IA, la comunidad académica ha aprovechado el Informe Belmont como medio para orientar la ética dentro de la investigación experimental y el desarrollo algorítmico. Hay tres principios fundamentales que se desprenden del Informe Belmont y que sirven de guía para el diseño de experimentos y algoritmos, que son:

  1. Respeto por las personas: este principio reconoce la autonomía de las personas y mantiene la expectativa de que los investigadores protejan a las personas con una autonomía reducida, lo que puede deberse a diversas circunstancias, como una enfermedad, una discapacidad mental o restricciones de edad. Este principio se refiere principalmente a la idea del consentimiento. Las personas deben ser conscientes de los riesgos y beneficios potenciales de cualquier experimento del que formen parte, y deben poder optar por participar o retirarse en cualquier momento antes y durante el experimento.

  2. Beneficencia: este principio se inspira en la ética sanitaria, donde los médicos hacen un juramento de "no hacer daño". Esta idea se puede aplicar fácilmente a la inteligencia artificial, donde los algoritmos pueden amplificar los sesgos en torno a la raza, el género, las inclinaciones políticas, etc., a pesar de la intención de hacer el bien y mejorar un sistema determinado.

  3. Justicia: este principio se refiere a cuestiones como la justicia y la igualdad. ¿Quién debería aprovechar los beneficios de la experimentación y el machine learning? El Informe Belmont ofrece cinco maneras de distribuir las cargas y los beneficios, las cuales son:
    • Participación equitativa
    • Necesidad individual
    • Esfuerzo individual
    • Contribución social
    • Mérito
Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Principales preocupaciones de la IA en la actualidad

Hay una serie de cuestiones que están a la vanguardia de las conversaciones éticas en torno a las tecnologías de IA en el mundo real. Entre las que se incluyen:

Modelos fundacionales e IA generativa

El lanzamiento de ChatGPT en 2022 marcó un verdadero punto de inflexión para la inteligencia artificial. Las capacidades del chatbot de OpenAI, desde la redacción de informes legales hasta la depuración de código, abrieron una nueva constelación de posibilidades sobre lo que puede hacer la IA y cómo se puede aplicar en casi todas las industrias.

ChatGPT y herramientas similares se basan en modelos fundacionales, modelos de IA que pueden adaptarse a una amplia gama de tareas posteriores. Los modelos fundacionales suelen ser modelos generativos a gran escala, compuestos por miles de millones de parámetros, que se entrenan con datos no etiquetados mediante autosupervisión. Esto permite a los modelos fundacionales aplicar rápidamente lo que han aprendido en un contexto a otro, lo que los hace altamente adaptables y capaces de realizar una amplia variedad de tareas diferentes. Sin embargo, hay muchos posibles problemas y preocupaciones éticas en torno a los modelos fundacionales que son comúnmente reconocidos en el sector tecnológico, como la parcialidad, la generación de contenido falso, la falta de explicabilidad, el mal uso y el impacto social. Muchos de estos problemas son relevantes para la IA en general, pero adquieren una nueva urgencia a la luz del poder y la disponibilidad de los modelos fundacionales.

La singularidad tecnológica

La singularidad tecnológica es un escenario teórico en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, culminando en cambios profundos e impredecibles para la civilización humana. Aunque este tema suscita mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo o inmediato.  

La IA sólida (IA que poseería inteligencia y conciencia iguales a las de los humanos) y la superinteligencia siguen siendo hipotéticas, las ideas plantean algunas preguntas interesantes a la hora de considerar el uso de sistemas autónomos, como los coches autónomos. Es poco realista pensar que un coche sin conductor nunca tendrá un accidente de coche, pero ¿quién es el responsable en esas circunstancias? ¿Deberíamos seguir apostando por los vehículos autónomos, o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad de los conductores? El debate aún no ha concluido, pero estos son los tipos de debates éticos que se producen a medida que se desarrolla la nueva e innovadora tecnología de IA.

Impacto de la IA en el empleo

Aunque gran parte de la percepción pública en torno a la inteligencia artificial se centra en la pérdida de puestos de trabajo, probablemente habría que replantear esta preocupación. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de funciones laborales específicas.

Por ejemplo, si nos fijamos en la industria de la automoción, muchos fabricantes, como GM, están cambiando su enfoque hacia la producción de vehículos eléctricos para ajustarse a las iniciativas ecológicas. El sector energético no va a desaparecer, pero la fuente de energía está desplazándose de la economía de combustible a la eléctrica.

La inteligencia artificial debe verse de manera similar, donde la inteligencia artificial desplazará la demanda de puestos de trabajo a otras áreas. Será necesario que haya personas que ayuden a administrar estos sistemas a medida que los datos crezcan y cambien todos los días. Seguirá siendo necesario contar con personas que se ocupen de problemas más complejos en los sectores con más probabilidades de verse afectados por los cambios en la demanda de empleo, como el servicio de atención al cliente. Lo importante de la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas en la transición a estas nuevas áreas de demanda del mercado.

Privacidad

La privacidad tiende a debatirse en el contexto de la privacidad, la protección y la seguridad de los datos, y estas preocupaciones han permitido a los responsables políticos avanzar más en este terreno en los últimos años. Por ejemplo, en 2016 se creó la legislación RGPD para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que se introdujo en 2018 y exige a las empresas que informen a los consumidores sobre la recopilación de sus datos.

Esta y otras leyes recientes han obligado a las empresas a replantearse cómo almacenan y utilizan los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ciberataques.

Prejuicios y discriminación

Los casos de sesgo y discriminación en una serie de sistemas de machine learning han planteado muchas cuestiones éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los conjuntos de datos de formación pueden prestarse al sesgo? Aunque las empresas suelen tener intenciones bien intencionadas en torno a sus esfuerzos de automatización, la incorporación de la IA en las prácticas de contratación puede tener consecuencias imprevistas. En su esfuerzo por automatizar y simplificar un proceso, Amazon sesgó involuntariamente a posibles candidatos por género para puestos técnicos abiertos y, en última instancia, tuvo que desechar el proyecto. A medida que surgen eventos como estos, Harvard Business Review ha planteado otras preguntas puntuales sobre el uso de la IA en las prácticas de contratación, como qué datos debería poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; pueden encontrarse en diversas aplicaciones, desde el software de reconocimiento facial hasta los algoritmos de las redes sociales.

A medida que las empresas son más conscientes de los riesgos de la IA, también se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado el CEO de IBM, Arvind Krishna, compartió que IBM ha puesto fin a sus productos de reconocimiento y análisis facial para uso general de IBM, haciendo hincapié en que "IBM se opone firmemente y no aprobará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia".

Responsabilidad

No existe una legislación universal y general que regule las prácticas de IA, pero muchos países y estados están trabajando para desarrollarlas e implementarlas localmente. Algunas normas de regulación de la IA ya están vigentes y muchas más están por venir. Para llenar este vacío, han surgido marcos éticos como parte de una colaboración entre éticos e investigadores para regir la construcción y distribución de modelos de IA en la sociedad. Sin embargo, por el momento solo sirven para orientar y las investigaciones demuestran que la combinación de responsabilidad distribuida y falta de previsión de las posibles consecuencias no es necesariamente propicia para evitar daños a la sociedad.

AI Academy

Confianza, transparencia y gobierno en la IA

La confianza en la IA es sin duda el asunto más importante en este campo. También es comprensible que sea un tema abrumador. Desentrañaremos cuestiones como la alucinación, la parcialidad y el riesgo, y compartiremos los pasos a seguir para adoptar la IA de forma ética, responsable y justa.

Cómo establecer la ética de la IA

La inteligencia artificial funciona de acuerdo con la forma en la que se diseña, desarrolla, entrena, ajusta y utiliza, y la ética de la IA consiste en establecer un ecosistema de normas éticas y barreras de protección a lo largo de todas las fases del ciclo de vida de un sistema de IA.

Las organizaciones, los gobiernos y los investigadores han comenzado a crear marcos para abordar las preocupaciones éticas actuales sobre la IA y dar forma al futuro del trabajo en este campo. Aunque cada día se incorporan más estructuras a estas pautas, existe cierto consenso en cuanto a incorporar lo siguiente:

Gobierno

El gobierno es el acto de una organización de supervisar el ciclo de vida de la IA a través de políticas y procesos internos, personal y sistemas. El gobierno ayuda a garantizar que los sistemas de IA funcionen según los principios y valores de una organización, como esperan los stakeholders y según lo requiera la regulación pertinente. Un programa de gobierno exitoso:

  • definirá las funciones y responsabilidades de las personas que trabajan con IA.

  • educará a todas las personas involucradas en el ciclo de vida de la IA sobre cómo construir la IA de manera responsable.

  • establecerá procesos para construir, gestionar, monitorizar y comunicar sobre la IA y los riesgos de la IA.

  • aprovechará las herramientas para mejorar el rendimiento y la fiabilidad de la IA a lo largo del ciclo de vida de la IA.

Un Consejo de Ética de la IA es un mecanismo de gobierno especialmente eficaz. En IBM, el Consejo de Ética de la IA está compuesto por diversos líderes de toda la empresa. Proporciona un proceso centralizado de gobierno, revisión y toma de decisiones para las políticas y prácticas éticas de IBM. Obtenga más información sobre el Comité de Ética de IA de IBM.

Principios y áreas de enfoque

La estrategia de una organización con respecto a la ética de la IA puede guiarse por principios que pueden aplicarse a productos, políticas, procesos y prácticas en toda la organización para ayudar a hacer posible una IA fiable. Estos principios deben estructurarse y apoyarse en áreas de enfoque, como la explicabilidad o la equidad, en torno a las cuales se puedan desarrollar las normas y alinear las prácticas.

Cuando la IA se construye con la ética en el centro, es capaz de tener un enorme potencial para impactar a la sociedad para bien. Hemos empezado a verlo en su integración en áreas de la atención médica, como la radiología. La conversación en torno a la ética de la IA también es importante para evaluar y mitigar adecuadamente los posibles riesgos relacionados con los usos de la IA, comenzando la fase de diseño.

Organizaciones que promueven la ética de la IA

Como las normas éticas no son la principal preocupación de los ingenieros y científicos de datos del sector privado, han surgido varias organizaciones para promover una conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos proporcionan recursos para promulgar la ética de la IA:

  • AlgorithmWatch: esta organización sin ánimo de lucro se centra en un algoritmo y un proceso de decisión explicables y trazables en los programas de IA. Haga clic aquí para obtener más información.

  • AI Now Institute: esta organización sin ánimo de lucro de la Universidad de Nueva York investiga las implicaciones sociales de la inteligencia artificial. Haga clic aquí para obtener más información.

  • DARPA: la Defense Advanced Research Projects Agency del Departamento de Defensa de EE. UU. se centra en promover la IA explicable y la investigación sobre la IA.

  • CHAI: el Center for Human-Compatible Artificial Intelligence es una cooperación de varios institutos y universidades para promover una IA fiable y sistemas beneficiosos demostrables.

  • NASCAI: la National Security Commission on Artificial Intelligence es una comisión independiente "que considera los métodos y los medios necesarios para avanzar en el desarrollo de la inteligencia artificial, el machine learning y las tecnologías asociadas a fin de abordar de manera integral las necesidades de seguridad y defensa nacionales de los Estados Unidos".

El punto de vista de IBM sobre la ética de la IA

IBM también ha establecido su propio punto de vista sobre la ética de la IA, creando Principios de Confianza y Transparencia para ayudar a los clientes a entender dónde se encuentran sus valores dentro de la conversación en torno a la IA. IBM tiene tres principios básicos que dictan su enfoque hacia el desarrollo de datos e IA, que son:

  1. El objetivo de la IA es potenciar la inteligencia humana. Esto significa que no buscamos reemplazar la inteligencia humana con IA, sino apoyarla. Dado que toda nueva innovación tecnológica implica cambios en la oferta y la demanda de determinados puestos de trabajo, IBM se compromete a apoyar a los trabajadores en esta transición invirtiendo en iniciativas globales para promover la formación de competencias en torno a esta tecnología.

  2. Los datos y el conocimiento pertenecen a quien los crea. Los clientes de IBM pueden estar seguros de que ellos, y solo ellos, son propietarios de sus datos. IBM no ha proporcionado ni proporcionará al gobierno acceso a los datos de los clientes para ningún programa de vigilancia, y sigue comprometido con la protección de la privacidad de sus clientes.

  3. Los sistemas de IA deben ser transparentes y explicables. IBM cree que las empresas de tecnología deben tener claro quién entrena sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos.

IBM también ha desarrollado cinco pilares para guiar la adopción responsable de las tecnologías de IA. Entre ellos figuran:

  • Explicabilidad: un sistema de IA debe ser transparente, especialmente en cuanto a lo que incluye las recomendaciones de su algoritmo, ya que es relevante para una variedad de stakeholders con diversos objetivos.

  • Equidad: se refiere al trato equitativo de individuos, o grupos de individuos, por parte de un sistema de IA. Cuando se calibra correctamente, la IA puede ayudar a los humanos a tomar decisiones más justas, contrarrestar los sesgos humanos y promover la inclusión.

  • Robustez: los sistemas con IA deben defenderse activamente de los ataques de los adversarios, lo que minimiza los riesgos de seguridad y permite confiar en los resultados del sistema.

  • Transparencia: para reforzar la confianza, los usuarios deben ser capaces de ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones.

  • Privacidad: los sistemas de IA deben priorizar y salvaguardar los derechos de privacidad y datos de los consumidores y proporcionar garantías explícitas a los usuarios sobre cómo se utilizarán y protegerán sus datos personales.

Estos principios y áreas de enfoque forman la base de nuestro enfoque de la ética de la IA. Para obtener más información sobre los puntos de vista de IBM en torno a la ética y la inteligencia artificial, lea más aquí.

Soluciones relacionadas

Soluciones relacionadas

IBM watsonx.governance™

Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.

Descubra watsonx.governance
Servicios de consultoría sobre gobierno de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.

Explore los servicios de gobierno de la IA
IBM OpenPages

Simplifique la gestión de riesgos y el cumplimiento normativo con una plataforma GRC unificada.

Explore OpenPages
Dé el siguiente paso

Dirija, gestione y supervise su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Solicite una demostración en directo