Accueil les sujets Gouvernance de l'IA Qu’est-ce que la gouvernance de l’IA ?
Découvrir IBM watsonx.governance
Graphique isométrique d’une boîte noire connectée à divers terminaux représentés par des cubes de couleurs différentes et un ordinateur portable, la boîte noire a une ouverture dans le haut et les cubes flottent

Publié : 28 novembre 2023
Contributeurs : Tim Mucci, Cole Stryker

Qu’est-ce que la gouvernance de l’IA ?

La gouvernance de l’intelligence artificielle (IA) désigne les garde-fous qui garantissent que les outils et systèmes d’IA sont et restent sûrs et éthiques. Elle établit les cadres, les règles et les normes qui dirigent la recherche, le développement et l’application de l’IA pour assurer la sécurité, l’équité et le respect des droits humains.

 

La gouvernance de l’IA englobe des mécanismes de surveillance qui traitent des risques tels que les préjugés, la violation de la vie privée et l’utilisation abusive tout en favorisant l’innovation et la confiance. Une approche de la gouvernance de l’IA centrée sur l’éthique nécessite l’implication d’un large éventail de parties prenantes, notamment les développeurs, les utilisateurs, les décideurs politiques et les éthiciens de l’IA, afin de garantir que les systèmes liés à l’IA sont développés et utilisés dans le respect des valeurs de la société.

La gouvernance de l’IA répond aux défauts inhérents à l’élément humain dans la création et la maintenance de l’IA. Étant donné que l’IA est un produit de code hautement conçu et de machine learning créé par les humains, elle est sensible aux erreurs et préjugés humains. La gouvernance offre une approche structurée pour atténuer ces risques, en veillant à ce que les algorithmes de machine learning soient surveillés, évalués et mis à jour pour éviter les décisions erronées ou nuisibles. 

Les solutions d’IA doivent être développées et utilisées de manière responsable et éthique. Cela signifie traiter les risques associés à l’IA : biais, discrimination et préjudice aux individus. La gouvernance traite ces risques grâce à une politique, des réglementations, une gouvernance des données et des ensembles de données bien entraînés et maintenus.

La gouvernance vise à établir la surveillance nécessaire pour aligner les comportements de l’IA sur les normes éthiques et les attentes sociétales et pour se protéger contre les impacts indésirables potentiels.

Voir IBM watsonx.governance en action

Découvrez comment watsonx.governance renforce votre capacité à atténuer les risques, à gérer les exigences réglementaires et à répondre aux préoccupations éthiques.

Contenu connexe

Gouvernance de l’IA : garantir la transparence, la conformité et la fiabilité de votre IA

IBM AI Governance : automatiser la gouvernance pour fournir une IA responsable, transparente et explicable

Pourquoi la gouvernance de l’IA est-elle importante ?

La gouvernance de l’IA est essentielle pour atteindre un état de conformité, de confiance et d’efficacité dans le développement et l’application des technologies d’IA. Avec l’intégration croissante de l’IA dans les opérations organisationnelles et gouvernementales, son potentiel d’impact négatif est devenu plus visible. Des faux pas très médiatisés comme l’incident du chatbot Tay (lien externe à ibm.com), lors duquel un chatbot d’IA de Microsoft a appris un comportement toxique à partir d’interactions publiques sur les réseaux sociaux, et les décisions biaisées du logiciel COMPAS (lien externe à ibm.com) en matière de détermination de peine, ont mis en évidence la nécessité d’une gouvernance saine pour prévenir les préjudices et maintenir la confiance du public.

Ces exemples montrent que l’IA peut entraîner des dommages sociaux et éthiques importants sans surveillance appropriée, mettant l’accent sur l’importance de la gouvernance dans la gestion des risques associés à l’IA avancée. En fournissant des directives et des cadres d’exigences, la gouvernance de l’IA vise à équilibrer l’innovation technologique avec la sécurité, garantissant que les systèmes d’IA ne violent pas la dignité ou les droits humains.

Prise de décision transparente et explicabilité sont essentielles pour garantir l’utilisation responsable des systèmes d’IA. Les systèmes d’IA prennent des décisions à tout moment, depuis le choix des publicités à diffuser jusqu’à l’approbation ou non d’un prêt. Il est essentiel de comprendre comment les systèmes d’IA prennent des décisions pour les tenir responsables de celles-ci et s’assurer qu’ils les prennent de manière équitable et éthique.

De plus, la gouvernance de l’IA ne consiste pas seulement à assurer une conformité ponctuelle, mais aussi à maintenir des normes éthiques au fil du temps. Les modèles d’IA peuvent dériver, entraînant des changements dans la qualité et la fiabilité des résultats. Les tendances actuelles en matière de gouvernance vont au-delà de la simple conformité légale et visent à garantir la responsabilité sociale de l’IA, ce qui permet de se prémunir contre les dommages financiers, juridiques et de réputation, tout en promouvant une croissance responsable de la technologie.

Exemples de gouvernance de l’IA

Des exemples de gouvernance de l’IA englobent une gamme de politiques, de cadres et de pratiques que les organisations et les gouvernements implémentent pour garantir l’utilisation responsable des technologies d’IA. Ces exemples montrent comment la gouvernance de l’IA se produit dans différents contextes :

Règlement général sur la protection des données (RGPD) : exemple de gouvernance de l’IA, en particulier dans le contexte de la protection et de la confidentialité des données personnelles. Bien que le RGPD ne soit pas exclusivement axé sur l’IA, bon nombre de ses dispositions sont très pertinentes pour les systèmes d’IA, en particulier ceux qui traitent les données personnelles des individus au sein de l’Union européenne.

Organisation de coopération et de développement économiques (OCDE) : principes de l’IA, adoptés par plus de 40 pays, soulignant la gestion responsable de l’IA digne de confiance, notamment la transparence, l’équité et la responsabilisation dans les systèmes d’IA.

Conseils d’éthique de l’IA professionnels : de nombreuses entreprises ont établi des conseils ou comités d’éthique pour superviser les initiatives d’IA, en s’assurant qu’elles respectent les normes éthiques et les valeurs sociétales. Par exemple, IBM a lancé un Conseil de l’éthique de l’IA pour examiner de nouveaux produits et services d’IA et s’assurer qu’ils respectent ses principes d’IA. Ces conseils mettent souvent à contribution des équipes transversales issues de milieux juridiques, techniques et politiques.

Qui supervise la gouvernance responsable de l’IA ?

Dans une organisation de niveau entreprise, le PDG et la haute direction sont chargés de s’assurer que leur organisation applique une bonne gouvernance de l’IA tout au long du cycle de vie de l’IA. Les conseillers juridiques jouent un rôle essentiel dans l’évaluation et l’atténuation des risques juridiques, en garantissant que les applications de l’IA sont conformes aux lois et réglementations en vigueur. Les équipes d’audit sont essentielles pour valider l’intégrité des données des systèmes d’IA et confirmer que les systèmes fonctionnent comme prévu sans introduire d’erreurs ou de biais. Le directeur financier supervise les implications financières, gère les coûts associés aux initiatives d’IA et atténue les risques financiers. 

Cependant, la responsabilité de la gouvernance de l’IA ne repose pas sur un seul individu ou service. Il s’agit d’une responsabilité collective dans le cadre de laquelle chaque leader doit prioriser la responsabilité et s’assurer que les systèmes d’IA sont utilisés de manière responsable et éthique au sein de l’organisation. Le PDG et la haute direction sont responsables de définir la culture et le ton globaux de l’organisation. En donnant la priorité à une gouvernance responsable de l’IA, on envoie à tous les employés un message clair selon lequel chacun doit utiliser l’IA de manière responsable et éthique. Le PDG et la haute direction peuvent également investir dans la formation à la gouvernance de l’IA des employés, développer activement des politiques et des procédures internes et créer une culture de communication et de collaboration ouvertes.

Principes d’une gouvernance responsable de l’IA

La gouvernance de l’IA est essentielle pour gérer les progrès rapides de la technologie d’IA, en particulier avec l’émergence de l’IA générative. L’IA générative, qui comprend des technologies capables de créer de nouveaux contenus et de nouvelles solutions, telles que du texte, des images et du code, présente un vaste potentiel dans de nombreux cas d’utilisation. De l’amélioration des processus créatifs dans la conception et les médias à l’automatisation des tâches de développement logiciel, l’IA générative transforme le fonctionnement des secteurs. Cependant, sa large applicabilité nécessite une gouvernance solide.

Les principes de la gouvernance de l’IA responsable sont essentiels pour que les organisations puissent se protéger et protéger leurs clients. Les principes suivants peuvent guider les organisations dans le développement et l’application éthiques des technologies d’IA :

  • Empathie : les organisations doivent comprendre les implications sociétales de l’IA, pas seulement les aspects technologiques et financiers. Elles doivent anticiper et traiter l’impact de l’IA sur toutes les parties prenantes.

  • Contrôle des biais : il est essentiel d’examiner rigoureusement les données d’entraînement pour éviter d’intégrer les préjugés du monde réel dans les algorithmes d’IA, afin de garantir des décisions équitables et impartiales.

  • Transparence : la manière dont les algorithmes d’IA fonctionnent et prennent des décisions doit être claire et ouverte, et les organisations doivent être prêtes à expliquer la logique et le raisonnement qui sous-tendent les résultats obtenus grâce à l’IA.

  • Responsabilité : les organisations doivent définir et respecter de manière proactive des normes élevées pour gérer les changements significatifs que l’IA peut apporter, en conservant la responsabilité des impacts de l’IA.

Fin 2023, la Maison-Blanche a publié un décret pour garantir la sûreté et la sécurité de l’IA. Cette stratégie complète fournit un cadre d’exigences pour établir de nouvelles normes afin de gérer les risques inhérents à la technologie d’IA. Les nouvelles normes du gouvernement étasunien en matière de sûreté et de sécurité de l’IA illustrent la manière dont les gouvernements abordent cette question très sensible.

  • Sûreté et sécurité de l’IA : exige que les développeurs de puissants systèmes d’IA partagent les résultats des tests de sécurité et des informations critiques avec le gouvernement des États-Unis. Nécessite le développement de normes, d’outils et de tests pour garantir la sécurité et la fiabilité des systèmes d’IA​.

  • Protection de la vie privée : priorise le développement et l’utilisation de techniques de préservation de la vie privée et renforce la recherche et les technologies de préservation de la vie privée. Elle définit également des directives pour les agences fédérales afin d’évaluer l’efficacité des techniques de préservation de la vie privée.

  • Équité et droits civiques : empêche l’IA d’exacerber la discrimination et les préjugés dans divers secteurs. Il s’agit notamment de guider les propriétaires et les programmes fédéraux, de lutter contre la discrimination algorithmique et de garantir l’équité du système de justice pénale​.

  • Protection des consommateurs, des patients et des étudiants : aide à faire progresser l’IA responsable dans les soins de santé et l’éducation, par exemple en développant des médicaments qui sauvent des vies et en soutenant des outils éducatifs basés sur l’IA​.

  • Soutien aux travailleurs : élaboration de principes visant à atténuer les effets néfastes de l’IA sur les emplois et les lieux de travail, notamment en ce qui concerne les suppressions d’emplois et l’équité sur le lieu de travail​.

  • Promotion de l’innovation et de la concurrence : catalyse la recherche sur l’IA aux États-Unis, encourage un écosystème d’IA équitable et concurrentiel et facilite l’entrée de professionnels de l’IA qualifiés aux États-Unis.​

  • Leadership mondial en matière d’IA : étend la collaboration internationale en matière d’IA et promeut l’élaboration et la mise en œuvre de normes essentielles en matière d’IA avec des partenaires internationaux​.

  • Utilisation de l’IA par les pouvoirs publics : garantit un déploiement responsable de l’IA par les pouvoirs publics en publiant des directives sur l’utilisation de l’IA par les agences, en améliorant l’approvisionnement dans le domaine de l’IA et en accélérant le recrutement de professionnels du domaine.

     

  • Alors que les réglementations et les forces du marché uniformisent de nombreux indicateurs de gouvernance, les organisations doivent toujours déterminer comment équilibrer au mieux les mesures de leur entreprise. La mesure de l’efficacité de la gouvernance de l’IA peut varier d’une organisation à l’autre ; chaque organisation doit décider des domaines d’intervention qu’elle doit privilégier. Avec des domaines d’intérêt tels que la qualité des données, la sécurité des modèles, l’analyse coût-valeur, la surveillance des biais, la responsabilité individuelle, l’audit continu et la capacité d’adaptation en fonction du domaine de l’organisation, il ne s’agit pas d’une décision identique pour toutes les entreprises.

Niveaux de gouvernance de l’IA

La gouvernance de l’IA n’a pas de « niveaux » suivant des normes universelles comme la cybersécurité peut par exemple avoir des niveaux définis de réponse aux menaces. Au lieu de cela, la gouvernance de l’IA possède des approches et des cadres structurés développés par diverses entités que les organisations peuvent adopter tels quels ou adapter à leurs besoins spécifiques.

Les organisations peuvent utiliser plusieurs cadres d’exigences et directives pour développer leurs pratiques de gouvernance. Parmi les cadres les plus utilisés, citons le cadre de gestion des risques liés à l’IA du NIST, les Principes de l’OCDE sur l’intelligence artificielle et les Lignes directrices en matière d’éthique pour une IA digne de confiance de la Commission européenne. Ces cadres fournissent des directives sur un éventail de sujets, notamment la transparence, la responsabilité, l’équité, la protection de la vie privée, la sécurité et la sûreté.

Les niveaux de gouvernance peuvent varier en fonction de la taille de l’organisation, de la complexité des systèmes d’IA utilisés et de l’environnement réglementaire dans lequel l’organisation opère.

Un aperçu de ces approches :

Gouvernance informelle

Il s’agit de l’approche la moins intensive de la gouvernance basée sur les valeurs et les principes de l’organisation. Il peut y avoir des processus informels, tels que des conseils d’examen éthique ou des comités internes, mais il n’existe pas de structure ou de cadre formel pour la gouvernance de l’IA.

Gouvernance ponctuelle

Elle est plus avancée par rapport à la gouvernance informelle et implique le développement de politiques et de procédures spécifiques pour le développement et l’utilisation de l’IA. Ce type de gouvernance est souvent développé en réponse à des défis ou des risques spécifiques et peut ne pas être complet ni systématique.

Gouvernance formelle

Il s’agit du plus haut niveau de gouvernance et implique le développement d’un cadre complet de gouvernance de l’IA. Ce cadre reflète les valeurs et les principes de l’organisation et s’aligne sur les lois et réglementations pertinentes. Les cadres de gouvernance formelle incluent généralement l’évaluation des risques, l’examen éthique et les processus de supervision.

Comment les organisations déploient la gouvernance de l’IA

Le concept de gouvernance de l’IA devient de plus en plus vital à mesure que l’automatisation, pilotée par l’IA, devient prépondérante dans des secteurs allant des soins de santé à la finance, en passant par les transports et les services publics. Les capacités d’automatisation de l’IA peuvent considérablement améliorer l’efficacité, la prise de décision et l’innovation, mais elles présentent également des défis liés à la responsabilité, à la transparence et aux considérations éthiques.

La gouvernance de l’IA consiste à établir des structures de contrôle robustes contenant des politiques, des directives et des cadres d’exigences pour relever ces défis. Elle consiste à configurer des mécanismes pour surveiller et évaluer continuellement les systèmes d’IA, en veillant à ce qu’ils respectent les normes éthiques établies et les réglementations légales.

Les structures de gouvernance efficaces dans l’IA sont multidisciplinaires et impliquent des parties prenantes de divers domaines, notamment la technologie, le droit, l’éthique et le commerce. À mesure que les systèmes d’IA deviennent plus sophistiqués et s’intègrent dans des aspects critiques de la société, le rôle de la gouvernance de l’IA dans l’orientation et la définition de la trajectoire du développement de l’IA et de son impact sociétal devient de plus en plus crucial.

Les bonnes pratiques de gouvernance de l’IA impliquent une approche allant au-delà de la simple conformité pour englober un système plus robuste de surveillance et de gestion des applications d’IA. Pour les entreprises, la solution de gouvernance de l’IA doit permettre une surveillance et un contrôle généraux des systèmes d’IA. Voici un exemple de feuille de route à envisager :

  1. Tableau de bord visuel : utilisez un tableau de bord qui fournit des mises à jour en temps réel sur l’intégrité et le statut des systèmes d’IA, offrant une vue d’ensemble claire pour des évaluations rapides.

  2. Indicateurs d’intégrité : mettez en place un score d’intégrité global pour les modèles IA en utilisant des indicateurs intuitifs et faciles à comprendre pour simplifier le suivi.

  3. Surveillance automatisée : utilisez des systèmes de détection automatique pour détecter les biais, les déviations, les performances et les anomalies afin de garantir que les modèles fonctionnent correctement et de manière éthique.

  4. Alertes de performance : configurez des alertes pour l’écart entre un modèle et ses paramètres de performance prédéfinis, ce qui permet des interventions rapides.

  5. Indicateurs personnalisés : définissez des indicateurs personnalisés qui s’alignent sur les indicateurs clés de performance (ICP) et les seuils de l’organisation pour vous assurer que les résultats de l’IA contribuent aux objectifs de l’entreprise.

  6. Pistes d’audit : conservez des journaux et des pistes d’audit facilement accessibles pour responsabiliser et faciliter les examens des décisions et comportements des systèmes d’IA.

  7. Compatibilité des outils open source : choisissez des outils open source compatibles avec diverses plateformes de développement de machine learning pour bénéficier de la flexibilité et du soutien de la communauté.

  8. Intégration fluide : assurez-vous que la plateforme de gouvernance de l’IA s’intègre parfaitement à l’infrastructure existante, y compris aux bases de données et aux écosystèmes logiciels, pour éviter les silos et permettre des workflows efficaces.

En adhérant à ces pratiques, les organisations peuvent établir un solide cadre de gouvernance de l’IA qui soutient un développement, un déploiement et une gestion responsables de l’IA, garantissant la conformité et l’alignement des systèmes d’IA avec les normes éthiques et les objectifs organisationnels.

Quelles réglementations nécessitent une gouvernance de l’IA ?

Les pratiques et réglementations de gouvernance de l’IA ont été adoptées par un certain nombre de pays pour prévenir les préjugés et la discrimination. Vous trouverez ci-dessous quelques exemples. Il est important de se rappeler que la réglementation est toujours en évolution et que les organisations qui gèrent des systèmes d’IA complexes devront rester attentives à l’évolution des cadres d’exigences régionaux.

SR-11-7 des États-Unis

La SR-11-71 est la norme réglementaire étasunienne de gouvernance des modèles pour une gouvernance efficace et solide des modèles dans le secteur bancaire. La réglementation exige que les responsables bancaires appliquent des initiatives de gestion des risques de modèles à l’échelle de l’entreprise et maintiennent un inventaire des modèles utilisés, en cours de développement ou récemment retirés. Les dirigeants des institutions doivent également prouver que leurs modèles atteignent l’objectif commercial pour lequel ils ont été conçus, qu’ils sont à jour et n’ont pas dérivé. Le développement et la validation d’un modèle doivent permettre à toute personne qui n’est pas familière avec ce modèle de comprendre son fonctionnement, ses limites et ses principales hypothèses.

Directive sur la prise de décisions automatisée du Canada

La Directive sur la prise de décisions automatisée du Canada2 décrit comment le gouvernement du pays utilise l’IA pour guider les décisions dans plusieurs services. La directive utilise un système de notation pour évaluer l’intervention humaine, l’évaluation par les pairs, le suivi et la planification d’urgence nécessaires à un outil d’IA conçu pour servir les citoyens. Les organisations qui créent des solutions d’IA ayant obtenu un score élevé doivent procéder à deux évaluations indépendantes par des pairs, informer le public dans un langage simple, mettre au point un dispositif de sécurité pour l’intervention humaine et mettre en place des cours de formation récurrents pour le système. Alors que la Directive canadienne sur la prise de décisions automatisée est un guide pour le développement de l’IA dans le pays, la réglementation n’affecte pas directement les entreprises de la même manière que la SR 11-7 aux États-Unis.

L’évolution de la réglementation européenne en matière d’IA

En avril 2021, la Commission européenne a présenté son train de mesures sur l’IA3, y compris des déclarations sur la promotion d’une approche européenne de l’excellence, de la confiance et d’une proposition de cadre juridique sur l’IA. Les déclarations précisent que si la plupart des systèmes d’IA entreront dans la catégorie des « risques minimes », les systèmes d’IA identifiés comme présentant un « risque élevé » devront se conformer à des exigences plus strictes et les systèmes considérés comme présentant un « risque inacceptable » seront interdits. Les organisations doivent prêter une attention particulière à ces règles sous peine d’amendes.

    Directives de gouvernance de l’IA dans la région Asie-Pacifique

    Dans la région Asie-Pacifique, certains pays ont publié plusieurs principes et directives pour gouverner l’IA. En 2019, le gouvernement fédéral de Singapour a publié un cadre avec des directives pour résoudre les problèmes d’éthique de l’IA dans le secteur privé. Le cadre de stratégie IA de l’Inde recommande de mettre en place un centre pour étudier comment résoudre les problèmes d’IA liés à l’éthique et à la confidentialité, et plus encore. La Chine, le Japon, la Corée du Sud, l’Australie et la Nouvelle-Zélande étudient également des directives de gouvernance de l’IA.4

    Solutions connexes
    watsonx

    Déployez et intégrez facilement l’IA au sein de votre entreprise, gérez toutes vos sources de données, et accélérez la mise en place de workflows d’IA responsable, le tout sur une seule et même plateforme.

    Découvrir watsonx

    IBM OpenPages

    Simplifiez la gouvernance des données, la gestion des risques et la conformité aux réglementations avec IBM OpenPages, une plateforme GRC unifiée, alimentée par l’IA et hautement évolutive.

    Découvrir OpenPages

    Ressources connexes Créez un workflow d’IA responsable

    Notre dernier eBook présente les principaux éléments constitutifs de la gouvernance de l’IA et partage un cadre de gouvernance de l’IA détaillé que vous pouvez appliquer dans votre organisation.

    Trois raisons principales pour lesquelles votre organisation a besoin d’une IA responsable

    Explorez le potentiel de transformation de l’IA responsable pour votre organisation et découvrez les facteurs essentiels à l’adoption de pratiques d’IA éthiques.

    Votre IA est-elle fiable ?

    Participez à la discussion sur les raisons pour lesquelles les entreprises doivent prioriser la gouvernance de l’IA pour déployer une IA responsable.

    Qu'est-ce que l'éthique IA ?

    L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables. Découvrez plus d’informations sur l’approche d’IBM en matière d’éthique de l’IA.

    Qu'est-ce que l'IA explicable ?

    L’IA explicable est cruciale pour une organisation, car elle permet d’instaurer un climat de confiance lors de la mise en production de modèles IA.

    Qu’est-ce que la gouvernance des données ?

    Découvrez comment la gouvernance des données permet aux entreprises de tirer le meilleur parti de leurs actifs de données.

    Passez à l’étape suivante

    Accélérez la mise en place de workflows d’IA responsables, transparents et explicables. Dirigez, gérez et surveillez les activités d’IA de votre organisation pour renforcer votre capacité à atténuer les risques.

    Découvrir IBM watsonx.governance
    Notes de bas de page

    1. « SR 11-7: Guidance on Model Risk Management. » (SR 11-7 : Directives sur la gestion des risques liés aux modèles) Conseil d'administration du Federal Reserve System, Washington, D.C, Division de supervision et réglementation bancaires, 4 avril 2011. 

    2. « Canada’s New Federal Directive Makes Ethical AI a National Issue. » (La nouvelle directive fédérale canadienne fait de l’IA éthique un enjeu national) Digital, 8 mars 2019.

    3. « Une approche européenne de l’intelligence artificielle. » Commission européenne, 14 décembre 2023

    4. « Wrestling With AI Governance Around The World. » (Affronter la gouvernance de l’IA dans le monde entier) Forbes, 27 mars 2019.