Para las empresas pequeñas y grandes, la inteligencia artificial (IA) se asocia con varias palabras emocionantes como innovación, oportunidad y ventaja competitiva. Pero hay otra palabra que debe estar en esa lista: conformidad.
Alrededor del 73 % de las empresas ya utilizan IA analítica y generativa, y el 72 % de los CEO con mejor rendimiento afirman que la ventaja competitiva depende de quién utilice la IA más avanzada.1
Pero este auge del uso de la IA y su emocionante potencial vienen acompañados de una creciente preocupación por la ética y la seguridad de las tecnologías con IA. Si un desarrollo defectuoso conduce a algoritmos sesgados que perpetúan la discriminación (en la contratación, la aplicación de la ley o las decisiones financieras, por ejemplo), las consecuencias podrían ser nefastas y duraderas.
Como resultado, las empresas, los países y los responsables de las políticas están evaluando el gobierno de la IA y estableciendo nuevas reglas sobre cómo se puede utilizar y desarrollar la IA. Descubra qué es el cumplimiento en materia de IA, por qué es importante para las empresas y qué medidas pueden adoptar las empresas para cumplir con las normas en un panorama normativo en rápida evolución.
El cumplimiento de la IA se refiere a las decisiones y prácticas que permiten a las empresas cumplir con las leyes y reglamentos que rigen el uso de los sistemas de IA. Estos estándares incluyen leyes, regulaciones y políticas internas diseñadas para ayudar a garantizar que las organizaciones desarrollen modelos de IA y sus algoritmos de manera responsable.
Pero los procesos de cumplimiento de la IA van más allá de cumplir los requisitos legales. También se trata de generar confianza con las partes interesadas y promover la transparencia y la equidad en la toma de decisiones. También son esenciales para la seguridad. Dado que la IA puede ser explotada por actores maliciosos, las sólidas medidas de ciberseguridad y las estrategias de gestión de riesgos son el núcleo del cumplimiento de la IA.
Los procesos de cumplimiento de IA ayudan a las empresas a evitar los riesgos financieros, legales y de reputación asociados con el uso de herramientas de IA.
Cuanto más utilicen las empresas la IA, más podrían encontrarse con situaciones en las que la tecnología tome giros inesperados o erróneos. Por ejemplo, una empresa abandonó su herramienta de reclutamiento por IA tras descubrir que perpetuaba la discriminación de género debido a los materiales utilizados para entrenarla.2 Y las investigaciones han descubierto que algunas solicitudes de préstamos basadas en algoritmos pueden dar lugar a discriminación contra los solicitantes de color.3
La preocupación por estos problemas está impulsando una ola de esfuerzos para estandarizar la forma en que las empresas desarrollan y utilizan la IA. En 2024, la Unión Europea se convirtió en el primer mercado importante en imponer normas en torno a la IA con la puesta en marcha de la Ley de IA de la UE. Otras jurisdicciones, incluidos Estados Unidos y China, también están desarrollando sus propias regulaciones de IA.
Los costes de la falta de conformidad pueden ser elevados. En virtud del Reglamento General de Protección de Datos (RGPD) de la UE, las empresas pueden enfrentarse a multas de hasta 20 millones de euros o el 4 % de su facturación anual global, lo que sea mayor. En Estados Unidos, la Comisión Federal de Comercio (FTC) puede tomar medidas coercitivas contra las empresas por infracciones relacionadas con la IA, como el uso de algoritmos de machine learning sesgados.4
El cumplimiento también es esencial para proteger la reputación de la marca. Una encuesta de 2024 realizada por KPMG reveló que el 78 % de los consumidores cree que las organizaciones que utilizan la IA tienen la responsabilidad de ayudar a garantizar que se desarrolle de forma ética.5 De lo contrario, se puede perder la confianza de las empresas y los consumidores.
Al ayudar a garantizar que los sistemas de IA sean fiables, transparentes y responsables, las empresas pueden impulsar la innovación, mejorar la eficiencia y obtener una ventaja competitiva en el mercado.
Si el cumplimiento normativo consistiera en cumplir un conjunto claro de requisitos, el camino a seguir sería sencillo. Sin embargo, tan rápido como evolucionan las tecnologías de IA, también lo hacen las diversas directrices destinadas a regirlas.
La tecnología en sí misma complica las actividades de cumplimiento. Entender e interpretar los modelos de IA y algoritmos puede resultar un desafío técnico, sobre todo porque muchos sistemas de IA funcionan en tiempo real. Mantenerse al día con la evolución de las regulaciones a esta velocidad puede ser difícil y el rápido ritmo de avance de la IA requiere que las empresas adapten constantemente sus programas de cumplimiento.
Los países están en proceso de promulgar estándares de IA que podrían remodelar la forma en que se gobierna la tecnología a nivel mundial. Además de estas leyes y normativas específicas de la IA, las empresas y los proveedores de IA también deben cumplir con una creciente red de normas en torno a la protección de datos, la discriminación y la ciberseguridad. Para complicar aún más las cosas, estos requisitos a veces se aplican no solo a las empresas y proveedores de IA que operan en su región específica, sino también a cualquier persona que haga negocios en la región.
Algunas cuestiones y normativas clave son:
El RGPD europeo establece normas específicas para la protección de datos, el análisis de datos y el uso de datos personales. La Ley de IA de la UE, considerada el primer marco regulatorio integral del mundo para la IA, prohíbe ciertos usos de la IA e impone requisitos de gestión de riesgos y transparencia a otros. Sigue un enfoque basado en el riesgo para la regulación de la IA, con mandatos más estrictos para los sistemas de alto riesgo.
Estados Unidos aún no cuenta con una regulación completa, pero existen varios requisitos de cumplimiento a nivel federal y estatal. Por ejemplo, la orden ejecutiva sobre el mantenimiento del liderazgo estadounidense en inteligencia artificial establece directrices para el desarrollo y el uso de la IA. Las leyes específicas del sector, como la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) o la Ley de Informes Crediticios Justos (FCRA), también podrían aplicarse a la IA.
En agosto de 2023, China introdujo regulaciones específicas para la IA generativa, denominadas Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa. Estas medidas incluyen estándares de contenido y reglas para la protección de datos, el etiquetado y las licencias de IA generativa. China también cuenta con regulaciones específicas dirigidas a algoritmos de recomendación impulsados por IA y tecnologías de síntesis profunda, como deepfakes.
Si bien el cumplimiento de la IA es crucial en todos los sectores, es especialmente importante en industrias como:
Los casos de uso de la IA en el sector sanitario incluyen el diagnóstico de enfermedades, el descubrimiento de fármacos y la medicina personalizada. El incumplimiento de normativas como la Ley de Portabilidad y Responsabilidad del Seguro Médico de Estados Unidos (HIPAA), que protege la privacidad del paciente, podría dar lugar a multas o repercusiones legales. Y los algoritmos sesgados o mal entrenados pueden llevar a diagnósticos erróneos o planes de tratamiento inadecuados para los pacientes.
La IA tiene muchas aplicaciones financieras, desde la detección del fraude y la evaluación de riesgos hasta las actividades contra el blanqueo de capitales. Sin embargo, estas aplicaciones de IA deben cumplir normativas como la estadounidense Fair Credit Reporting Act (FCRA) y la Directiva sobre Mercados de Instrumentos Financieros (MiFID II) de la UE. Los esfuerzos de cumplimiento de la IA tienen como objetivo evitar que los algoritmos discriminen en las solicitudes de préstamos y otras tomas de decisiones clave.
Los profesionales de RR. HH. utilizan cada vez más herramientas con IA para la automatización de tareas rutinarias y para agilizar la selección de currículos, la evaluación de candidatos y la monitorización de empleados. Pero si los algoritmos se entrenan con datos sesgados o inadecuados, pueden dar lugar a un sesgo injusto y potencialmente ilegal. El cumplimiento de las leyes contra la discriminación y la normativa de protección de datos ayuda a garantizar la transparencia, la equidad y la privacidad.
Las empresas son cada vez más conscientes de la necesidad de cumplir los requisitos normativos vigentes en materia de IA y de prepararse para las normas futuras. Una encuesta a expertos internacionales en cumplimiento y riesgos encontró que más de la mitad de los encuestados tenían preocupaciones sobre la protección de datos, la transparencia algorítmica y el mal uso o los malentendidos en torno a la inteligencia artificial.6
Otro estudio del equipo directivo descubrió que el 80 % planean aumentar la inversión en un enfoque responsable de la inteligencia artificial para generar confianza en sus modelos.7 Como resultado, muchas empresas están tomando medidas proactivas para ayudar a garantizar el cumplimiento de la IA.
Algunas empresas están estableciendo marcos que describen las políticas, los procedimientos y las responsabilidades internas para el desarrollo y el uso éticos de la IA. Por ejemplo, Microsoft lanzó su Estándar de IA responsable, que incluye la realización de evaluaciones de riesgos periódicas, la implementación de medidas de protección de datos y la priorización de la transparencia y la responsabilidad en la toma de decisiones.8 Y los Principios de IA de Google, actualizados en 2023, enfatizan la importancia de la equidad, la transparencia y la privacidad en el desarrollo de la IA.9
Las empresas también colaboran activamente con los organismos reguladores y las partes interesadas del sector para mantenerse informadas sobre los cambios normativos y los problemas de cumplimiento. Una encuesta de IBM a líderes empresariales reveló que el 74 % tiene previsto unirse a las conversaciones con sus pares o colaborar con los responsables políticos en materia de inteligencia artificial. Estos esfuerzos ayudan a las empresas a prepararse para las nuevas regulaciones y a participar en el desarrollo de futuras directrices.
Para agilizar los esfuerzos de cumplimiento, las empresas están invirtiendo en diversas herramientas y tecnologías de cumplimiento de la IA. Por ejemplo, las herramientas de IA explicable (XAI) pueden ayudar a las empresas a comprender e interpretar las decisiones tomadas por los modelos de IA, mientras que las carteras de gobierno de la IA pueden proporcionar capacidades de monitorización y auditoría en tiempo real. Productos de gobierno, como IBM watsonx.governance ofrecen kits de herramientas para mantenerse alineado con las regulaciones, evaluar el riesgo y gestionar la evolución del modelo.
A medida que continúan surgiendo avances en la tecnología de IA, también lo hacen los riesgos y desafíos asociados con su uso. La clave es adoptar un enfoque proactivo, lo que significa invertir en los recursos, la experiencia y las tecnologías necesarios para desarrollar e implementar marcos sólidos de gobierno de la IA. También requiere fomentar una cultura de transparencia, responsabilidad y confianza en el desarrollo y uso de sistemas de IA. Priorizar el cumplimiento de la IA ayuda a las empresas a mitigar estos riesgos y les permite aprovechar todo el potencial de la IA.
1 PwC’s 2024 US Responsible AI Survey. PricewaterhouseCoopers. Abril de 2024
2 Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Octubre de 2018
3 The secret bias hidden in mortgage-approval algorithms. Associated Press. Agosto de 2021
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app. Federal Trade Commission. Enero de 2021
5 KPMG Generative AI Consumer Trust Survey. KPMG. Enero de 2024
6 How can Artificial Intelligence transform risk and compliance?. Moody’s. Febrero de 2024
7 From AI compliance to competitive advantage: Becoming responsible by design. Accenture. Junio de 2022
8 Microsoft's Responsible AI Standard. Microsoft. Junio de 2022
9 Google AI: Our Principles. Google. Marzo de 2023
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.
Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.