Cituation du mois de février 2016 (Cituation #5) :

« The behavior of those systems (learning systems) can be made to change in reasonable ways depending on what happened to them in the past. But by themselves, the simple learning systems are useful only in recurrent situations; they cannot cope with any significant novelty. »

Marvin Minsky, Steps toward Artificial Intelligence, Proceedings of the Institute of Radio Engineers Vol. 49 Issue 1,1961.

Marvin Minsky est mort la semaine dernière. Ce grand pionnier de l’Intelligence Artificielle a eu une influence considérable sur nombre d’étudiants et de chercheurs en informatique. La lecture de « La société de l’esprit » m’a personnellement passionné.

La cituation du mois me permet de remettre à sa place l’objectif des graphes de situation : ce modèle ne s’intéresse qu’aux « situations récurrentes » et ne cherche pas à traiter la nouveauté, ce qui ne le place pas, d’un certain point de vue¹, dans la catégorie des systèmes intelligents ou apprenants…

L’objectif de l’IA n’est pas seulement de reproduire des comportements issus de l’expérience passée, c’est aussi de proposer des réponses face aux nouvelles situations :

« In order to solve a new problem one uses what might be called the basic learning heuristic first try using methods similar to those which have worked, in the past, on similar problems. We want our machines, too, to benefit from their past experience. Since we cannot expect new situations to be precisely the same as old ones, any useful learning will have to involve generalization techniques. »

Marvin Minsky, Steps toward Artificial Intelligence, Proceedings of the Institute of Radio Engineers Vol. 49 Issue 1,1961.

Cette ambition n’étant pas celle du modèle des graphes de décision ou des arbres de décision, proposons d’éclaircir cela d’entrée de jeu pour éviter les malentendus en parlant d’expertise artificielle plutôt que d’intelligence artificielle…

L’intelligence artificielle s’attache à détecter ou prévoir des comportements à partir d’un grand nombre de données (réseaux de neurones, deep learning, big data), ou à anticiper sur la base de modèles prédéfinis (recherche opérationnelle, résolution de problèmes, …). Elle vise une autonomie du système. Son représentant est HAL, l’ordinateur de 2001, odyssée de l’espace : le système « qui ne se trompe jamais ».

L’expertise artificielle s’appuie sur un expert qui valide tout apprentissage et ses systèmes à base de connaissance ne sont que le reflet de la connaissance de cet expert.

Entre les deux, il y a sûrement de la place pour des robots qui se trompent… Et qui devront gérer la non-validation de leurs connaissances, qu’ils voudront en permanence tester sur le réel… Mais est-ce une bonne idée de considérer notre monde comme un terrain d’expérimentation pour robots ?

¹ On peut arguer que les situations représentées dans le système sont des situations « abstraites » et que le système est capable de traiter des situations concrètes nouvelles en les catégorisant dans ces modèles de situation : dans ce sens les graphes de nos sont capables de traiter la nouveauté…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>