Les Actualités / Jean-Paul Haton. De la physique à l’informatique « intelligente »

Jean-Paul Haton. De la physique à l’informatique « intelligente »

S’il est un domaine de l’activité scientifique qui bouleverse notre vie jusque dans ses pratiques les plus quotidiennes, c’est bien évidemment celui de l’informatique et des recherches sur l’intelligence artificielle. En tant que chercheur comme en tant que professeur, Jean-Paul Haton a participé depuis un demi-siècle au développement des études sur les processus perceptifs et cognitifs « dans leurs aspects théoriques et appliqués : systèmes à bases de connaissances, modèles stochastiques et modèles neuromimétiques, avec application à la reconnaissance de la parole, l’interprétation de signaux, l’aide à la décision. » Le simple énoncé, recueilli sur le Net, de ces champs de recherche a de quoi intimider, mais cela souligne en même temps l’importance et la chance qu’il y aura à pouvoir l’entendre, avec Marie-Christine Haton, les 4 et 5 décembre prochains, de 17 à 19 heures, à l’Académie royale, sous le titre général « Vers la machine intelligente ». Jean-Paul Haton a dirigé plusieurs centres et laboratoires lorrains d’informatique, d’automatique, d’électronique, d’électrotechnique et de mathématiques. Il a écrit plus de 250 livres et articles. Il est auditeur de l’Institut des Hautes Études de Défense Nationale et membre de l’Institut Universitaire de France.

Comment devient-on informaticien et spécialiste de l'intelligence artificielle ? Est-ce une vocation ? Comment votre itinéraire vous a-t-il mené à devenir un des piliers du Loria ?


Je suis de formation physicien (j’ai obtenu l’agrégation de physique à l’ENS de Saint-Cloud). À l’époque (fin des années 60, début des années 70), l’informatique n’existait pas en tant que science et il n’existait quasiment pas de cursus universitaire sur cette matière ! C’est ce côté « pionnier » qui m’a attiré et m’a fait choisir ce domaine pour ma recherche et mon enseignement. J’ai eu la chance d’être nommé, à la sortie de l’ENS, à Nancy qui est une des rares villes françaises où est née et s’est développée cette nouvelle discipline, grâce à quelques précurseurs qui avaient pressenti son importance. Avec quelques jeunes collègues autour du Professeur Claude Pair, nous avons créé vers 1975 un des premiers laboratoires français de recherche universitaire en informatique, le CRIN (Centre de recherche en Informatique de Nancy), devenu ensuite le LORIA, notamment avec l’arrivée à Nancy dans les années 1980 de l’INRIA, Institut National de recherche en Informatique et Automatique.

Que recouvre la notion d'« intelligence artificielle » par rapport aux sens multiples que peut recouvrir le mot d'« intelligence »  ?

L'intelligence artificielle (IA) s'attache à résoudre des problèmes qui relèvent d'activités humaines de nature variée : perception, prise de décision, planification, diagnostic, interprétation de données, compréhension du langage, conception. Nous nous contenterons ici de cette définition, fondée sur la notion de comportement intelligent. Un dénominateur commun entre l'IA et l'intelligence « naturelle » est le fait de toujours essayer de faire le meilleur usage des informations et des connaissances disponibles pour résoudre un problème (principe dit de rationalité).

Dès l'apparition de l'ordinateur, Alan Turing [Turing, 1950] et d'autres chercheurs émirent l'hypothèse qu’il était possible d'automatiser des raisonnements à l’aide d’algorithmes généraux fondés sur un ensemble de règles logiques appliquées à des structures symboliques, à la suite des travaux sur la logique mathématique. Les systèmes formels ont montré leurs limites intrinsèques (en particulier avec les travaux de Gödel et de Church) pour la modélisation du raisonnement. La nécessité de restreindre un raisonnement à un champ d’application bien délimité et d’appuyer ce raisonnement sur des connaissances variées est ainsi apparue rapidement en IA. Cette approche symbolique de l’IA a donné lieu aux systèmes à bases de connaissances.

Une autre approche, que l’on peut qualifier de connexionniste, a existé de façon concomitante dès le début de l’IA au cours des années 1950. Elle revient à s’inspirer du fonctionnement du cortex cérébral. L’entité de base est un modèle du neurone, un système étant formé par l’interconnexion d’un grand nombre de tels « neurones » (le modèle le plus couramment utilisé est le neurone formel proposé par McCulloch et Pitts en 1943). Il s’agit d'une modélisation très rudimentaire du fonctionnement du neurone, dans laquelle l’accumulation des activités synaptiques du neurone est assurée par une simple sommation pondérée. L’interconnexion d’un ensemble de telles unités fournit un système connexionniste neuromimétique, appelé aussi réseau neuronal, qui présente des propriétés intéressantes. La principale de ces propriétés est certainement la capacité qu’a le réseau d’apprendre à partir d’exemples. Diverses architectures ont été proposées dans ce cadre : réseaux à couches, cartes auto-organisatrices, réseaux récurrents, etc.

Dans le domaine des processus perceptifs et cognitifs, vous avez en particulier eut un apport décisif dans la mise au point des techniques de reconnaissance automatique de la parole. Quelles difficultés avez-vous rencontrées ? Quelles applications sont désormais possibles et effectives ?

On parle depuis longtemps de reconnaissance de la parole. J'ai moi-même écrit mon premier article sur la question en 1969. Et il y a eu de la déception car on a promis beaucoup sans tenir les promesses. Tous les cinq ans, des études prédisaient que le marché allait exploser l'année suivante. En revanche, aujourd'hui c'est différent, la reconnaissance vocale devient une réalité industrielle avec de nombreuses applications, notamment avec le développement de la télématique.

De gros progrès ont été réalisés, d’une part grâce à l’évolution technologique. Car la reconnaissance vocale nécessite une importante puissance informatique. Je me rappelle d'une époque ou pour faire cela, l'ordinateur occupait une pièce entière. Aujourd'hui un PC du commerce, voire un téléphone suffit. Un système de reconnaissance vocale, aujourd'hui, c'est un logiciel : hormis le microphone, il n'y a pas besoin de matériel supplémentaire. D’autre part, les modèles et les algorithmes se sont beaucoup améliorés. Tous les systèmes actuels sont fondés sur une approche statistique de la reconnaissance, tant au niveau de la reconnaissance des unités acoustiques (phonèmes, mots) qu’au niveau de la syntaxe des phrases. En conséquence, les systèmes sont devenus suffisamment robustes pour s'affranchir de l'environnement dans lequel se trouve un locuteur utilisant un système de reconnaissance automatique. Pour améliorer les performances, il faut entraîner le système. Un logiciel de dictée vocale a peut-être été conçu pour fonctionner avec n'importe quelle voix. Mais si vous prenez la peine d'entraîner votre logiciel pendant une heure, avec votre propre voix en lui lisant des phrases prédéfinies, et que vous restiez dans un endroit calme comme votre bureau, vous aurez une performance supérieure. Dans ce domaine très important de l’apprentissage, de gros progrès ont été effectués. Les applications actuelles concernent la saisie de données et de texte (par exemple les systèmes de dictée vocale déjà évoqués), la commande de systèmes « mains libres » (par exemple la manipulation du téléphone ou du GPS par un conducteur automobile) et tous les usages liés à la téléphonie mobile. Une application importante est la transcription en temps quasi réel de la parole : médias, réunions, conférences. La traduction simultanée parole-parole va également se développer. La qualité sera loin d’être parfaite, mais cela constituera une aide précieuse dans de nombreuses situations.

Justement, où en sont les recherches sur la traduction simultanée dont, à en juger par les approximations sur Google, les résultats restent mitigés ? Vous évoquez des différences dans les approches alors que la méthode statistique, basée sur la fréquence d'un mot ou d'un groupe de mots dans la masse des textes existants, semblait dominante ?

Je viens de vous parler de traduction parole-parole, évidemment encore plus difficile que la traduction de textes, puisque la reconnaissance de la parole est loin d’être parfaite et introduit donc des erreurs dans les phrases à traduire. Je ne suis pas un spécialiste de traduction de textes écrits, mais je confirme en effet que les systèmes actuels les plus performants sont, tout comme les systèmes de reconnaissance vocale, fondés sur une approche statistique utilisant des modèles très élaborés. On peut penser que l’amélioration de ces systèmes passera notamment par une meilleure utilisation des connaissances linguistiques intervenant dans le processus d’élaboration d’un texte ou dans le dialogue entre deux personnes.

Marie-Christine Haton et vous-même interviendrez en décembre prochain sous le titre : « Vers la machine 'intelligente' : réalité et défis de l'intelligence artificielle ». Pouvez-vous nous introduire aux deux séances en spécifiant ce que recouvrent les deux titres qui touchent aux fondements de la recherche technologique ?

Les deux séances vont aborder deux grandes facettes de l’intelligence artificielle, à savoir d’abord la résolution de problèmes et les modèles de raisonnement et ensuite les systèmes à base de connaissances. Nous interviendrons Marie-Christine et moi « en duo » lors des deux séances. La première séance est consacrée à la présentation des bases de l’IA, en particulier les méthodes de résolution de problèmes qui concernent tout particulièrement les façons optimales d’exploration d’espaces de solutions de taille de plus en plus grande. C’est la base de la réussite (parmi beaucoup d’autres ingrédients !) de systèmes de jeu d’échecs, de réponses aux questions (type Jeopardy), mais aussi des moteurs de recherche sur Internet. Les mécanismes de base seront présentés simplement et illustrés, notamment dans le domaine des jeux.

La seconde facette qui sera abordée est celle relative aux connaissances. Toute activité « intelligente » repose sur l’exploitation de savoir-faire, règles de l’art, bon sens, etc. Nous présenterons les diverses facettes de ce vaste domaine : acquisition, représentation, exploitation des connaissances, ontologies, etc. Les exemples d’utilisation abondent : systèmes médicaux, industriels, tertiaires, sociaux (Facebook), etc.

Propos recueillis par François Kemp


Choix de publications de Jean-Paul Haton

Reconnaissance automatique de la parole : Du signal à son interprétation, avec Christophe Cerisara, Dominique Fohr et Yves Laprie, éd. Dunod, 2003
Le raisonnement en intelligence artificielle. Modèles, techniques et architectures pour les systèmes à base de connaissances, avec Nadjet Bouzid, François Charpillet, Marie-Christine Haton, Brigitte Laasri, Interédition, 1997
L'intelligence artificielle, avec Marie-Christine Haton, Que Sais-je éd., 1992
Reconnaissance automatique de la parole, éd. Dunod ,1991
Systèmes experts, en coll. avec Alain Bonnet et Jean-Michel Truong-Ngoc, éd. Dunod, 1986

Zoom

 

Top