Les méthodes classiques de réglage fin intégral impliquent de légers ajustements de tous les paramètres des LLM préentraînés, afin de les adapter à des tâches spécifiques. Cependant, les progrès de l’intelligence artificielle (IA) et de l’apprentissage profond (DL) ont produit des modèles volumineux et plus complexes, si bien que le processus de réglage fin est devenu trop exigeant en ressources de calcul et en énergie.
De plus, chaque modèle ajusté a la même taille que l’original. Tous ces modèles occupent un espace de stockage important, ce qui augmente encore les coûts pour les entreprises qui les utilisent. Si le réglage fin permet d’améliorer l’efficacité du machine learning (ML), le processus appliqué aux LLM est devenu inefficace.
Le PEFT ajuste les quelques paramètres les plus pertinents par rapport au cas d’utilisation prévu du modèle afin de fournir des performances de modèle spécialisées tout en réduisant son poids, ce qui permet de réaliser des économies de temps et de coûts de calcul considérables.