Développeurs

AI Explainability 360: Une boîte à outils logicielle open source pour comprendre comment les modèles d’apprentissage automatique produisent leurs prédictions

Share this post:

Par ANIMESH SINGH https://developer.ibm.com/open/projects/ai-explainability/

Traduit de l’anglais par Georges-Henri Moll

AI Explainability 360 (notée plus loin AIX 360) est une boîte à outils complète qui propose une API cohérente rassemblant:

  • des algorithmes à la pointe de la recherche pour aider à comprendre comment les algorithme d’apprentissage automatique produisent leurs prédictions,
  • des manuels, didacticiels et démonstrations, le tout au travers d’une interface unique

La version initiale d’AI Explainability 360 contient huit algorithmes différents, créés par IBM Research. Nous invitons la communauté scientifique à apporter ses propres algorithmes.

Les algorithmes embarquent des méthodes pour comprendre à la fois les données et les modèles. Certains algorithmes construisent directement des modèles que les utilisateurs peuvent interpréter et comprendre. D’autres algorithmes entraînent d’abord un modèle de type « boîte noire », puis l’expliquent ensuite à l’aide d’un autre modèle. Certains algorithmes expliquent les décisions individuelles; tandis que d’autres algorithmes expliquent le modèle dans son ensemble.

Pourquoi utiliser AI Explainability 360 ?

Qu’est-ce qu’une boîte noire en apprentissage automatique ?
Les modèles d’apprentissage automatique de type « boîte noire » sont des modèles complexes que les utilisateurs ne peuvent pas facilement comprendre, comme par exemple un réseau neuronal profond.

Voir notre glossaire des termes de l’IA

Les modèles d’apprentissage automatique de type « boîte noire » ne peuvent pas être compris directement par les utilisateurs.  Un exemple typique est celui des réseaux de neurones profonds ou celui et de grands ensembles de modèles collaborant à une prédiction : ils peuvent atteindre une très grande précision sur divers types de problèmes, de ce fait ils sont largement adoptés. À mesure qu’ils gagnent en popularité, les fonctions d’explicabilité et d’interprétabilité, qui doivent permettent à l’utilisateur humain de comprendre le processus décisionnel de la machine, deviennent cruciales. Plus concrètement, selon une enquête de l’IBM Institute of Business Value, 68% des dirigeants mondiaux interrogés estiment que les utilisateurs exigeront plus d’explication au cours des trois prochaines années.

La question de l’explicabilité pour l’apprentissage automatique n’est pas monolithique : Il existe de nombreuses façons d’expliquer comment un algorithme construit des prédictions, notamment :

  • Montrer les données réelles par rapport aux prédictions
  • Exposer des modèles directement interprétables (arbres de décision par exemple), ou au contraire construire une explication a posteriori
  • Donner des explications locales ou au contraire donner des explications globales
  • Proposer des explications statiques ou au contraire offrir une interface interactive pour explorer et comprendre les prédictions

Le choix approprié dépend de la fonction et de la culture de l’utilisateur, ainsi que du cahier des charge ayant conduit à la construction du pipeline d’apprentissage. AI Explainability 360 se distingue des autres offres open source d’explicabilité par la diversité de ses méthodes, par son objectif à servir une grande variété d’utilisateurs, et par son extensibilité, grâce à l’homogénéité de sa structure.

Exemple de deux algorithmes

Examinons deux algorithmes comme exemple.

  • Les règles de classification booléennes par génération de colonnes constituent une méthode précise et extensible d’interprétation de prédictions d’apprentissage automatique. Elle a remporté le premier challenge FICO d’apprentissage automatique explicable.
  • La méthode des explications contrastées est une méthode locale a posteriori qui aborde la question la plus importante de l’IA explicable mais en même temps la question la plus négligée jusque là par les chercheurs et les praticiens, à savoir: pourquoi un certain événement s’est produit au lieu d’un autre événement.

La boîte à outil interactive d’introduction à AIX 360 permet d’aborder en douceur les concepts et les fonctions d’équité. Les didacticiels et autres manuels offrent une introduction plus approfondie à destination des data scientists. La documentation complète de l’API est également disponible. Comme AIX 360 regroupe un ensemble riche et complet de fonctionnalités, il peut être déroutant de choisir quels algorithmes sont les plus appropriés pour un cas donné. Pour cela, nous avons créé des documents qui aident à s’orienter.

 Pourquoi contribuer ?

En tant que projet open source, la boîte à outils AI Explainability 360 bénéficie d’un écosystème dynamique de contributeurs, technologues industriels et chercheurs universitaires.

AIX 360 constitue la première boîte à outils d’explicabilité offrant une API unifiée et répondant à des spécifications de qualité industrielle. AIX 360 est munie de didacticiels conçus pour aborder l’ensemble des méthodes d’explication. Enfin, AIX 360 réunit les algorithmes et métriques d’explicabilité à la pointe de la recherche. Cette approche ouverte est destinée d’une part à accélérer la recherche scientifique du domaine, et d’autre part à promouvoir l’adoption de ces techniques pour les déploiements réels.

Nous vous encourageons à contribuer à AIX 360en y ajoutant vos métriques et vos algorithmes. Vous pouvez rejoindre la communauté et contribuer dès maintenant. Lisez nos consignes de participation pour commencer.

Pour de plus amples informations, démos, resources, code, visitez la page suivante : https://aix360.mybluemix.net/

Digital Developer Advocate - Data Scientist - Master Inventor - IDT Lead

More Développeurs stories
14 juin 2024

Gestion de l’obsolescence logicielle : véritable enjeu pour la DSI et le business

Dans le paysage numérique actuel, les applications logicielles sont le pilier des entreprises modernes. Cependant, avec l’évolution rapide de la technologie, l’obsolescence logicielle est devenue un défi majeur pour les organisations. Les logiciels obsolètes peuvent entraîner des vulnérabilités de sécurité, des crashes système et une productivité réduite, affectant ainsi la performance commerciale et la compétitivité. […]

Continue reading

12 juin 2024

Simplifier les déclarations liées à la CSRD grâce aux nouvelles fonctionnalités d’IBM®Envizi™

IBM a le plaisir d’annoncer la prise en compte de la directive européenne (CSRD) dans le module « sustainability reporting manager » d’IBM® Envizi™. Cette considération aidera les entreprises à répondre aux exigences de reporting de la directive européenne (CSRD). La CSRD impose aux entreprises de fournir des informations et des indicateurs définis via les […]

Continue reading

12 juin 2024

Comment bien préparer la migration d’un parc applicatif dans le cloud avec IBM Consulting (2/2) ?

Dans notre article « Comment bien préparer la migration d’un parc applicatif dans le cloud avec IBM Consulting (1/2) ? », nous avons présenté les différentes étapes du pré-assessment technique qui consiste à analyser l’ensemble des applications du patrimoine applicatif. Dans cette seconde partie, nous allons détailler l’assessment technique à réaliser pour chacune des applications.   Phase […]

Continue reading