Pas encore de compte ? Enregistrez-vous

Trouver un point de vente

Je reçois mon magazine par voie postale dès sa sortie.

4- Mesurer l'intelligence d'une machine Version imprimable Suggérer par mail
Le Monde de l'intelligence - n°1 - novembre-décembre 2005
Cet article comporte plusieurs pages
4- Mesurer l'intelligence d'une machine
Le test de Turing

Marcus Hutter et Shane Legg défendent une nouvelle méthode pour mesurer l’intelligence artificielle. À ce jour aucun test n’a jamais fait ses preuves.
Par Cyril Fievet 

En 1905, le psychologue français Alfred Binet et son collègue Théodore Simon donnaient naissance à ce qui est considéré comme le premier test d’intelligence de l’histoire. Ce test « Binet-Simon », initialement destiné à mesurer la maturité intellectuelle des enfants, s’est décliné en de multiples versions, tout en inspirant d’autres tests et en suscitant de sérieuses controverses. Beaucoup, renvoyant au débat sur l’inné et l’acquis, ou sur l’influence de la culture dans le développement de l’intelligence d’un individu, reprochent aux tests de QI leur caractère limité. Mais, surtout, ces échelles de mesure forcément simplistes n’apportent qu’un faible éclairage sur la question principale : comment définir l’intelligence ? La révolution des nouvelles technologies venant ajouter une nouvelle interrogation : l’intelligence artificielle peut-elle se comparer à celle de l’homme ?


L’intelligence ne doit plus être définie au seul sens humain du terme

Transposés au monde des machines, les tests d’intelligence ont jusqu’à présent soit achoppé, soit donné lieu à de nouvelles controverses. Le plus connu d’entre eux, le test de Turing, fait ainsi l’objet, régulièrement et depuis longtemps, de virulentes critiques, même s’il donne lieu chaque année à une compétition acharnée, suivie avec intérêt (lire l’encadré). Dans ce contexte, proposer un nouveau test d’intelligence adapté aux systèmes mécaniques et électroniques relève de la gageure. C’est pourtant ce qu’ont fait Marcus Hutter et Shane Legg, deux chercheurs de l’institut Dalle Molle de recherche en intelligence artificielle (IDSIA), en Suisse. « L’une des difficultés fondamentales en intelligence artificielle tient au fait que personne ne sait réellement ce qu’est l’intelligence, en particulier lorsqu’il s’agit de systèmes dotés de sens, d’environnements, de motivations et de capacités cognitives différentes des nôtres », écrivent-ils.

Mesurer la capacité d’une machine à parvenir à ses fins
Hutter et Legg schématisent différentes propriétés susceptibles de jouer un rôle dans le mécanisme de ce type d’intelligence : une entité appelée « agent » interagit avec une situation ou un problème externe, « l’environnement », dont il n’a qu’une connaissance partielle. La capacité de l’agent à résoudre le problème suppose l’existence d’un but, le tout permettant de postuler une définition informelle de l’intelligence : « L’intelligence mesure la capacité d’un agent à parvenir à des buts définis dans un vaste ensemble d’environnements distincts. » Les chercheurs suisses définissent ensuite un ensemble de données et de critères destinés à formaliser les principes mis en œuvre. Par exemple, un signal de retour, appelé « récompense », mesure la proximité de l’agent avec le but qui lui a été assigné : « L’agent doit simplement tenter de maximiser le niveau de récompense qu’il reçoit en apprenant la structure de l’environnement et en estimant ce qu’il doit accomplir pour recevoir des récompenses plus élevées ». Le principal apport de cette théorie est sans doute sa grande flexibilité. Le modèle peut s’appliquer à tous types de systèmes, en particulier des plates-formes logicielles ou robotiques dotées de fonctionnalités diverses (mobilité, reconnaissance visuelle et vocale, etc.). Du reste, comme le notent Hutter et Legg, un système très spécialisé est pénalisé par ce type de tests. « L’ordinateur d’échecs IBM Deep Blue [qui battit le champion du monde en titre en 1997, N.D.L.R.] serait inefficace hors de son environnement très spécifique. Il serait donc gratifié d’une très faible mesure d’intelligence universelle. C’est en adéquation avec notre vision de l’intelligence en tant que forte capacité d’adaptation », résument-ils. « Il faut bien comprendre que nous n’essayons pas de définir l’intelligence au sens humain du terme, mais plutôt de considérer l’intelligence comme un concept plus global, dans lequel l’intelligence humaine est un cas spécifique », explique Shane Legg.

Le succès du test « Legg-Hutter  » marquerait un tournant dans le monde de la recherche
Pour l’instant, les critiques soulevées par le principe du test semblent faibles. « Certains estiment qu’on ne peut définir l’intelligence avec une formule et en déduisent que notre définition doit être erronée ; c’est une position de principe plus qu’une critique argumentée », constate Shane Legg, qui ajoute d’ailleurs que, globalement, l’accueil réservé au test est « très positif ». « Beaucoup aimeraient qu’il existe une belle définition de l’intelligence, non anthropomorphique. Il est même surprenant que si peu de gens aient essayé de définir ce qu’est l’intelligence pour une machine ». Quoi qu’il en soit, la mise en pratique de ce test « Legg-Hutter » est attendue. Comme le soulignait en août dernier Blay Whitby (1), dans le Newscientist, « Il y aura des objections à ce test, mais c’est un bon début ». Et de conclure « Parvenir à une définition de l’intelligence qui fonctionne pour l’intelligence artificielle est peut-être l’un des points clés qui président à l’avenir de cette discipline. » ♦

 

(1) Blay Whitby, chercheur en I.A. à l’université du Sussex (Royaume-Uni), est connu pour ses positions fustigeant le test de Turing - http://www.cogs.susx.ac.uk/users/blayw/

Pour aller plus loin...
Alan Turing Homepage : http://www.turing.org.uk
Loebner Prize : http://www.loebner.net/Prizef/loebner-prize.html
A Universal Measure of Intelligence for Artificial Agents, Marcus Hutter et Shane Legg (SUPSI IDSIA), août 2005
http://www.idsia.ch/ ~marcus/ai/iors.pdf
IDSIA: http://www.idsia.ch
Marcus Hutter: http://www.idsia.ch/~marcus