L'intelligence artificielle (IA) forte, également appelée intelligence artificielle générale (IAG) ou IA générale, est une forme théorique d'IA utilisée pour décrire un certain état d'esprit dans le développement de l'IA. Si les chercheurs parviennent à développer une IA forte, la machine aura une intelligence égale à celle des êtes humains ; elle aura une conscience de soi capable de résoudre des problèmes, d'apprendre et de planifier l'avenir.
L'IA forte vise à créer des machines intelligentes qui ne se distinguent pas de l'esprit humain. Mais, à l'instar d'un enfant, la machine devra apprendre par le biais d'apports et d'expériences, en progressant constamment et en améliorant ses capacités au fil du temps.
Alors que les chercheurs en IA, tant dans le monde universitaire que dans le secteur privé, s'investissent dans la création d'une intelligence artificielle générale (IAG), celle-ci n'existe aujourd'hui qu'à l'état de concept théorique : elle n'est pas une réalité tangible. Bien que certaines personnes, comme Marvin Minsky, ont été citées comme étant excessivement optimistes quant à ce que nous pourrions accomplir dans quelques décennies dans le domaine de l'IA, d'autres diraient que des systèmes d'IA forts ne peuvent même pas être développés. Tant que les mesures du succès, telles que l'intelligence et la compréhension, ne sont pas explicitement définies, ils ont raison de le penser. Pour l'instant, beaucoup utilisent le test de Turing pour évaluer l'intelligence d'un système d'IA.
Alan Turing a mis au point le test de Turing en 1950 et en a parlé dans son article intitulé « Computing Machinery and Intelligence » (PDF de 566 Ko, lien externe à IBM). Appelé « Jeu d'imitation » à l'origine, ce test évalue si le comportement d'une machine peut être distingué de celui d'un humain. Il fait intervenir une personne appelée « interrogateur » qui cherche à identifier une différence entre les résultats générés par l'ordinateur et ceux générés par l'humain à travers une série de questions. Si l'interrogateur n'est pas capable de discerner correctement les machines des êtes humains, la machine réussit le test. Par contre, s'il peut identifier correctement les réponses fournies par l'humain, la machine ne pourra pas être qualifiée d'intelligente.
Bien que le test ne soit pas soumis à des règles d'évaluation précises, Turing a précisé qu'un évaluateur humain n'avait que 70 % de chances de distinguer correctement une conversation humaine d'une conversation générée par un ordinateur sur une période de 5 minutes. Le test de Turing a permis de faire accepter l'idée d'une intelligence artificielle.
Cependant, le test de Turing initial ne teste qu'un seul ensemble de compétences, par exemple le traitement d'un texte ou une partie d'échecs. Une IA forte doit pouvoir accomplir une variété de tâches avec la même efficacité, ce qui a conduit au développement du test de Turing étendu. Ce test évalue les performances textuelles, visuelles et auditives de l'IA et les compare aux résultats générés par l'homme. Cette version est utilisée dans le célèbre concours du prix Loebner, où un juge humain devine si le résultat a été créé par un humain ou un ordinateur.
L'argument de la pièce chinoise a été créé par John Searle en 1980. Dans cet article, il se penche sur la définition de la compréhension et de la réflexion et affirme que les ordinateurs ne seront jamais capables de telles capacités. Cet extrait de son article, tiré du site Web de Stanford (lien externe à IBM), résume bien son argument :
« Le calcul est défini de manière purement formelle ou syntaxique, alors que l'esprit a des contenus mentaux ou sémantiques réels, et nous ne pouvons pas passer du syntaxique au sémantique en ayant simplement les opérations syntaxiques et rien d'autre...Un système, moi, par exemple, n'acquerrait pas une compréhension du chinois simplement en passant par les étapes d'un programme informatique qui simule le comportement d'un locuteur chinois (p. 17) ».
L'argument de la pièce chinoise propose le scénario suivant :
Imaginez une personne qui ne parle pas chinois, assise, enfermée dans une pièce. Dans la pièce, il y a un livre avec des règles, des phrases et des instructions en chinois. Une autre personne, qui parle couramment le chinois, introduit des notes écrites en chinois dans la pièce. À l'aide du guide linguistique, la personne à l'intérieur de la pièce peut sélectionner la réponse appropriée et la transmettre à l'interlocuteur chinois.
Bien que la personne à l'intérieur de la pièce ait été en mesure de fournir la réponse correcte à l'aide du guide linguistique, elle ne parle ni ne comprend toujours pas le chinois. Il s'agissait simplement d'une simulation de la compréhension en faisant correspondre une question ou une affirmation à une réponse appropriée. Searle soutient que l'IA forte nécessiterait un esprit réel pour avoir une conscience ou une compréhension. L'argument de la pièce chinoise illustre les failles du test de Turing, en démontrant les différences de définition de l'intelligence artificielle.
L'IA faible, également appelée IA étroite, se concentre sur l'exécution d'une tâche spécifique, comme répondre à des questions sur la base d'une entrée utilisateur ou jouer aux échecs. Elle peut exécuter un type de tâche, mais pas les deux, alors que l'IA forte peut exécuter diverses fonctions, et éventuellement apprendre à résoudre de nouveaux problèmes. L'IA faible dépend de l'intervention humaine pour définir les paramètres de ses algorithmes d'apprentissage et fournir les données d'entraînement pertinentes pour garantir la précision. Si l'intervention humaine accélère la phase de croissance de l'IA forte, elle n'est pas nécessaire et, au fil du temps, elle développe une conscience semblable à celle de l'être humain au lieu de la simuler, comme l'IA faible. Les voitures autonomes et les assistants virtuels, comme Siri, sont des exemples d'IA faible.
Bien qu'il n'existe pas d'exemples clairs d'intelligence artificielle forte, le domaine de l'IA innove rapidement. Une autre théorie de l'IA, appelée superintelligence artificielle (SIA), super intelligence ou super IA, a émergé. Ce type d'IA dépasse l'intelligence et les capacités humaines de l'IA forte. Cependant, la superintelligence artificielle reste purement spéculative, car nous devons encore parvenir à des exemples d'IA forte.
Cela dit, il existe des domaines où l'IA joue un rôle de plus en plus important, par exemple :
Les termes intelligence artificielle, apprentissage automatique et apprentissage en profondeur sont souvent utilisés dans le mauvais contexte. Ces termes sont fréquemment utilisés pour décrire l'IA forte, et il est donc utile de les définir brièvement :
L'intelligence artificielle, selon John McCarthy (lien externe à IBM), est « la science et l'ingénierie qui consiste à fabriquer des machines intelligentes, en particulier des programmes informatiques intelligents ». Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux méthodes qui sont biologiquement observables ».
L'apprentissage automatique est un sous-domaine de l'intelligence artificielle. Les modèles classiques (non profonds) d'apprentissage automatique nécessitent une intervention humaine plus importante pour segmenter les données en catégories (c'est-à-dire par l'apprentissage de fonctions).
L'apprentissage en profondeur est également un sous-domaine de l'apprentissage automatique, qui tente d'imiter les interconnexions du cerveau humain à l'aide de réseaux de neurones. Ses réseaux de neurones artificiels sont constitués de couches de modèles qui identifient des modèles dans un ensemble de données. Ils s'appuient sur un grand volume de données d'entraînement pour apprendre avec précision, ce qui exige par la suite du matériel plus puissant, comme des GPU ou des TPU. Les algorithmes d'apprentissage en profondeur sont fortement associés à l'IA de dimension humaine.
Pour en savoir plus sur les nuances entre ces technologies, consultez « Différence entre l'IA, l'apprentissage automatique et l'apprentissage en profondeur ».
L'apprentissage en profondeur permet de bien gérer les problèmes complexes, ce qui explique qu'il soit utilisé aujourd'hui dans de nombreuses technologies innovantes et émergentes. Les algorithmes d'apprentissage en profondeur sont appliqués dans divers domaines. Voici quelques exemples :
Watson Assistant est l'agent conversationnel IA de l'entreprise. Cette technologie d'intelligence artificielle d'entreprise permet aux utilisateurs de créer des solutions d'IA conversationnelles.
IBM Watson Assistant fournit aux clients des réponses rapides, cohérentes et précises sur tout type d'application, d'appareil ou de canal.