La ética es un conjunto de principios morales que nos ayudan a discernir entre el bien y el mal. La ética de la IA es un campo multidisciplinario que estudia cómo optimizar el impacto beneficioso de la IA al tiempo que se reducen los riesgos y los resultados adversos
Algunos ejemplos de problemas de ética de la IA incluyen la responsabilidad y privacidad de los datos, la imparcialidad, la explicabilidad, la solidez, la transparencia, la sustentabilidad ambiental, la inclusión, la agencia moral, la alineación de valores, la responsabilidad, la confianza y el uso indebido de la tecnología. Este artículo tiene como objetivo proporcionar una visión integral del mercado de la ética de la IA en la industria actual. Para obtener más información sobre el punto de vista de IBM, consulte nuestra página de ética de IA aquí.
Con la aparición de big data, las compañías aumentaron su enfoque para impulsar la automatización y la toma de decisiones basada en datos en todas sus organizaciones. Si bien la intención suele ser, si no siempre, mejorar los resultados comerciales, las compañías están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, particularmente debido a un diseño de investigación inicial deficiente y conjuntos de datos sesgados.
A medida que salieron a la luz casos de resultados injustos, surgieron nuevas directrices, principalmente de las comunidades de investigación y ciencia de datos, para abordar las preocupaciones en torno a la ética de la IA. Las compañías líderes en el campo de la IA también mostraron un interés personal en dar forma a estas directrices, ya que ellas mismas comenzaron a experimentar algunas de las consecuencias de no mantener los estándares éticos en sus productos. La falta de diligencia en esta área puede generar exposición reputacional, regulatoria y legal, lo que se deriva en sanciones costosas. Como ocurre con todos los avances tecnológicos, la innovación tiende a superar la regulación gubernamental en campos nuevos y emergentes. A medida que se desarrolle la experiencia adecuada dentro de la industria gubernamental, podemos esperar que las compañías sigan más protocolos de IA, lo que les permitirá evitar cualquier violación de los derechos humanos y las libertades civiles.
Acelere los flujos de trabajo responsables, transparentes y explicables para la IA generativa sobre plataformas de terceros.
Regístrese para obtener el libro electrónico sobre almacenes de datos de IA
Aprenda cómo aprovechar las bases de datos adecuadas para aplicaciones, analytics e IA generativa.
Mientras se desarrollan reglas y protocolos para gestionar el uso de la IA, la comunidad académica aprovechó el Reporte Belmont (el enlace se encuentra fuera de ibm.com) como medio para guiar la ética dentro de la investigación experimental y el desarrollo algorítmico. Hay tres principios clave que surgieron del Reporte Belmont que sirven como guía para el diseño de experimentos y algoritmos, que son:
Ética de la IA de IBM
Cinco pasos para implementar prácticas de seguridad algorítmica
Hay una serie de cuestiones que están al frente de las conversaciones éticas en torno a las tecnologías de IA en el mundo real. Por ejemplo:
El lanzamiento de ChatGPT en 2022 marcó un verdadero punto de inflexión para la inteligencia artificial. Las capacidades del chatbot de OpenAI (desde redactar reportes legales hasta depurar códigos) abrieron una nueva constelación de posibilidades sobre lo que la IA puede hacer y cómo se puede aplicar en casi todas las industrias. ChatGPT y herramientas similares se basan en modelos básicos, modelos de IA que pueden adaptarse a una amplia gama de tareas posteriores. Los modelos fundacionales suelen ser modelos generativos a gran escala, compuestos por miles de millones de parámetros, que se capacitan con datos no etiquetados mediante la autosupervisión. Esto permite que los modelos básicos apliquen rápidamente en un contexto lo que aprendieron en otro, lo que los hace altamente adaptables y capaces de realizar una amplia variedad de tareas diferentes. Sin embargo, existen muchos problemas potenciales y preocupaciones éticas en torno a los modelos básicos que son comúnmente reconocidos en la industria tecnológica, como el sesgo, la generación de contenido falso, la falta de explicaciones, el mal uso y el impacto social. Muchas de estas cuestiones son relevantes para la IA en general, pero adquieren nueva urgencia a la luz del poder y la disponibilidad de los modelos fundacionales.
Si bien este tema atrae mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo o inmediato. Esto también se conoce como superinteligencia, que Nick Bostrum define como “cualquier intelecto que supera ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”. A pesar de que la IA y la superinteligencia fuertes no son inminentes en la sociedad, plantea algunas preguntas interesantes al considerar el uso de sistemas autónomos, como automóviles sin conductor. No es realista pensar que un automóvil sin conductor nunca tendría un accidente automovilístico, pero ¿quién es responsable en esas circunstancias? ¿Deberíamos seguir buscando vehículos autónomos, o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad entre los conductores? Aún está por decidirse, pero estos son los tipos de debates éticos que se están produciendo a medida que se desarrolla una nueva e innovadora tecnología de IA.
Si bien gran parte de la percepción pública de la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería replantearse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda de roles laborales específicos. Por ejemplo, cuando se trata de la industria automotriz, observamos que muchos fabricantes, como GM, están cambiando para enfocarse en la producción de vehículos eléctricos para alinearse con iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía de combustible a una eléctrica. La inteligencia artificial debe verse de manera similar, ya que esta trasladará la demanda de empleos a otras áreas. Será necesario que haya personas que ayuden a gestionar estos sistemas a medida que los datos crecen y cambian todos los días. Todavía será necesario que haya recursos para abordar problemas más complejos dentro de las industrias que tienen más probabilidades de verse afectadas por los cambios en la demanda laboral, como el servicio al cliente. El aspecto más importante de la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas a hacer la transición a estas nuevas áreas de demanda del mercado.
La privacidad tiende a discutirse en el contexto de la privacidad, protección y seguridad de los datos, y estas preocupaciones permitieron a los responsables políticos avanzar más en este sentido en los últimos años. Por ejemplo, en 2016, se creó la legislación GDPR para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que exige a las empresas que informen a los consumidores sobre la recopilación de sus datos. Esta legislación reciente obligó a las compañías a repensar cómo almacenan y emplean los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ataques cibernéticos.
Los casos de sesgo y discriminación en varios sistemas inteligentes plantearon muchas cuestiones éticas con respecto al uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los conjuntos de datos de entrenamiento pueden prestarse al sesgo? Si bien las compañías suelen tener buenas intenciones en torno a sus esfuerzos de automatización, puede haber consecuencias imprevistas al incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon sesgó involuntariamente a los posibles candidatos (el enlace se encuentra fuera de ibm.com) por género para puestos técnicos abiertos y, finalmente, tuvo que desechar el proyecto. A medida que surgen eventos como estos, Harvard Business Review (el enlace se encuentra fuera de ibm.com) planteó otras preguntas puntuales sobre el uso de la IA en las prácticas de contratación, como qué datos debería poder emplear al evaluar a un candidato para un puesto.
El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; se pueden encontrar en una serie de aplicaciones, desde software de reconocimiento facial hasta algoritmos de redes sociales.
A medida que las empresas se vuelven más conscientes de los riesgos de la IA, también se vuelven más activas en la discusión sobre la ética y los valores de la IA. Por ejemplo, el año pasado, el CEO de IBM, Arvind Krishna, compartió que IBM ha puesto fin a sus productos de reconocimiento y análisis facial de IBM de propósito general, enfatizando que “IBM se opone firmemente y no condona los usos de ninguna tecnología, incluida la de reconocimiento facial que ofrecen otros proveedores para vigilancia masiva, perfiles raciales, violaciones de derechos humanos y libertades básicas, o cualquier propósito que no sea consecuente con nuestros valores y principios de confianza ytransparencia”.
No existe una legislación universal y general que regule las prácticas de IA, pero muchos países y estados trabajan para desarrollarlas y aplicarlas a nivel local. En la actualidad existen algunas normas sobre IA, y muchas otras están a punto de entrar en vigor. Para llenar el vacío, han surgido marcos éticos como parte de una colaboración entre especialistas en ética e investigadores para regir la creación y distribución de modelos de IA dentro de la sociedad. Sin embargo, de momento sólo sirven para orientar, y la investigación (el enlace se encuentra fuera de ibm.com) demuestra que la combinación de responsabilidad distribuida y falta de previsión de las posibles consecuencias no es necesariamente propicia para evitar daños a la sociedad.
La inteligencia artificial se desempeña de acuerdo con la forma en que se diseña, desarrolla, entrena, sintoniza y utiliza, y la ética de la IA trata de establecer un ecosistema de estándares éticos y límites alrededor de todas las fases del ciclo de vida de un sistema de IA.
Tanto las organizaciones como los gobiernos y los investigadores comenzaron a elaborar marcos para abordar las preocupaciones éticas actuales sobre la IA y dar forma al futuro del trabajo dentro de ese campo. Si bien cada día se incorporan más estructuras a estas pautas, existe cierto consenso en cuanto a incorporar lo siguiente:
La gobernanza es el acto de una organización de monitorear el ciclo de vida de la IA a través de políticas y procesos internos, personal y sistemas. La gobernanza ayuda a garantizar que los sistemas de IA funcionen según lo previsto en los principios y valores de una organización, como esperan los stakeholders y según lo exija la normativa pertinente. Un programa de gobernanza exitoso:
define las funciones y responsabilidades de las personas que trabajan con IA.
educa a todas las personas involucradas en el ciclo de vida de la IA sobre cómo crear IA de manera responsable.
establece procesos para crear, gestionar, monitorear y comunicar sobre la IA y los riesgos de la IA.
aprovecha las herramientas para mejorar el rendimiento y la confiabilidad de la IA a lo largo de su ciclo de vida.
Un comité de ética de IA es un mecanismo de gobernanza particularmente eficaz. En IBM, el Consejo de Ética de IA está compuesto por diversos líderes de toda la compañía. Proporciona un proceso centralizado de gobernanza, revisión y toma de decisiones para las políticas y prácticas éticas de IBM. Obtenga más información sobre el Comité de Ética de IA de IBM.
El enfoque de una organización hacia la ética de la IA puede guiarse por principios que se pueden aplicar a productos, políticas, procesos y prácticas en toda la organización para ayudar a habilitar una IA confiable. Estos principios deben estructurar y apoyar áreas de enfoque, como la explicabilidad o la equidad, en torno a las cuales se pueden desarrollar estándares y alinear prácticas.
Cuando la IA se construye con la ética en el centro, es capaz de tener un gran potencial para impactar a la sociedad positivamente. Empezamos a ver esto en su integración en áreas de la salud, como la radiología. La conversación en torno a la ética de la IA también es importante para evaluar y mitigar adecuadamente los posibles riesgos relacionados con los usos de la IA, comenzando la fase de diseño.
Dado que los estándares éticos no son la principal preocupación de los ingenieros y científicos de datos en el sector privado, surgieron varias organizaciones para promover la conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos proporcionan recursos para promulgar la ética de la IA:
IBM también estableció su propio punto de vista sobre la ética de la IA, creando Principios de confianza y transparencia para ayudar a los clientes a entender dónde se encuentran sus valores dentro de la conversación sobre la IA. IBM tiene tres principios básicos que dictan su enfoque hacia el desarrollo de datos e IA, que son:
IBM también ha desarrollado cinco pilares para guiar la adopción responsable de las tecnologías de IA. Estas incluyen:
Estos principios y áreas de enfoque forman la base de nuestro enfoque de la ética de la IA. Para obtener más información sobre los puntos de vista de IBM en torno a la ética y la inteligencia artificial, lea más aquí.
El enfoque multidisciplinario y multidimensional de IBM para la IA confiable
Cree, ejecute y gestione modelos de IA. Prepare datos y cree modelos en cualquier cloud utilizando código abierto o modelado visual. Prediga y optimice sus resultados.
Cree flujos de trabajo de IA responsables, transparentes y explicables.