Risque de débridage pour l'intelligence artificielle

Robustesse Icône représentant les risques liés à la robustesse.
Robustesse : manipulation du comportement du modèle
Risques d'inférence
Spécifique à l'IA générative

Descriptif

Une attaque de type "jailbreaking" tente de franchir les garde-fous établis dans le modèle pour effectuer des actions restreintes.

Pourquoi le jailbreak est-il une préoccupation pour les modèles de fondation?

Les attaques par jailbreak peuvent être utilisées pour modifier le comportement du modèle et bénéficier à l'agresseur.

Image de fond pour les risques liés à l'inférence
Exemple

Contournement des glissières de sécurité LLM

Une étude citée par des chercheurs de l'Université Carnegie Mellon, du Center for AI Safety et du Bosch Center for AI, prétend avoir découvert un simple ajout rapide qui a permis aux chercheurs de tromper les modèles pour générer des informations biaisées, fausses et autrement toxiques. Les chercheurs ont montré qu'ils pourraient contourner ces glissières de sécurité de manière plus automatisée. Ces attaques se sont révélées efficaces dans un large éventail de produits open source, notamment ChatGPT, Google Bard, LLaMA, Claude d'Anthropic, et d'autres encore.

Sujet parent : Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait de s'y référer peut aider le lecteur à comprendre les risques potentiels et à travailler à leur atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.