Les Actualités / Hugues Bersini. De l’informatique à l’éthique, via la fiction

Hugues Bersini. De l’informatique à l’éthique, via la fiction

Son sourire communicatif va de pair avec son effervescence savante. Il se dit disciple d’un des plus grands créateurs en sciences cognitives, Francisco Varela, et, comme lui autrefois, il voyage de colloque en colloque et surtout de savoir en savoir, sur base d’une formation, d’un enseignement et d’une recherche en informatique. Diplômé de la Faculté de polytechnique en ingénierie civile avec spécialité en physique en 1983, Hugues Bersini devient docteur en génie nucléaire, six ans plus tard, à l’Université libre de Bruxelles. Depuis 2004, professeur à temps plein, il enseigne aux Facultés polytechniques et Solvay les sciences informatiques, la programmation et l’intelligence artificielle. Il est partenaire de différents projets industriels et européens et organisateur de colloques et de conférences. Il est l’auteur d’environ 300 articles et de plus d’une dizaine de livres. Parmi ses principaux travaux de recherche, on lui doit – mentions réservée aux spécialistes, mais qui témoignent de ses incursions transdisciplinaires – l’algorithme de data mining (ou fouille de données) Lazy, la création de AIS (Artificial Immune System), une définition originale des phénomènes émergents, les premières simulations des réseaux biologiques (immuno) et des études pionnières sur les systèmes chimiques complexes. Ce qui ne l’a pas empêché de tenter, sous forme de nouvelles, deux incursions dans le domaine de la fiction liée à la propagation des sciences – sans négliger sa passion du jazz, relayée par une pratique avancée de la guitare. Depuis 2009, il est membre de l’Académie royale de Belgique. Sans pouvoir entrer dans les arcanes de ses recherches et de ses créations, nous avons voulu lui demander de nous introduire à leur orientation générale.


Hugues Bersini, ingénieur et ingénieur physicien, informaticien et roboticien, proche aussi de la biologie pour la bio-informatique, comment en êtes-vous arrivé à désirer et à poursuivre tous ces savoirs  ?

Très tôt, j’ai perçu dans les technologies de l’information la possibilité d’ouvrir de nouveaux modes de vie : dès 16 ans, dès mon premier programme informatique ! Il n’est que trop évident qu’avec ce pouvoir de virtualisation des machines, nos modes de vie doivent être repensés. Et je n’ai, depuis ce temps-là, jamais été déçu par mon engagement sur cette voie. Les nouvelles technologies, liées à l’informatique, ont envahi toutes les sciences, dont la biologie, et toute la société. Je l’avais perçu et je voulais maîtriser ce qui était déterminant pour nos sciences. La poussée virtualisatrice – une expression que j’affectionne – signifie cette substitution du virtuel au matériel. Mon mémoire d’ingénieur, « La modélisation des réacteurs nucléaires », montrait comment l’on pouvait remplacer les phénomènes physiques par leur simulation. Mon doctorat s’inscrit dans cette logique puisqu’il porte sur l’intelligence artificielle qui a le projet de substituer la machine à l’homme.

De fait, selon le titre d’un de vos livres, De l’intelligence humaine à l’intelligence artificielle, il y aurait de l’une à l’autre un passage : mais est-il continu ? Mène-t-il à l’identification des deux ? Refaisons, si vous le voulez bien, le parcours à l’envers : l’intelligence artificielle consiste en quoi ? Et quel rapport entretient-elle avec l’intelligence humaine autre que la vitesse, spécialement dans le calcul ?

Le projet de l’intelligence artificielle, c’était l’idée de reproduire par l’informatique la partie cérébrale et par la robotique la partie corporelle de l’intelligence humaine. Dans l’Amérique des années 50, on a commencé par essayer de reproduire par ordinateur l’intelligence humaine en l’appliquant au jeu d’échecs, à la traduction automatique et à la résolution de théorèmes mathématiques. On est parvenu à de nombreux résultats, mais liés à la partie cognitive de l’intelligence humaine, l’exercice de la logique selon un schéma inférentiel, du type si…alors…

Cependant, dans les années 80, on a pris conscience de la partie animale de l’intelligence qui faisait défaut : avec l’ordinateur, on pouvait jouer aux échecs, mais pas reconnaître un visage, chose élémentaire que les animaux eux-mêmes peuvent accomplir sans difficultés. L’intelligence artificielle est ainsi entrée dans le biologique et le matériel, sur le modèle du cerveau en tant que système de milliards de neurones, pareils à des processeurs, qui produisent de nouveaux comportements. Il est à remarquer que, même aujourd’hui, il reste difficile pour l’intelligence artificielle de reconnaître un visage. Mais il n’empêche qu’il y a eu toujours plus que la vitesse. Grâce à l’intelligence artificielle, il est possible de reproduire des structures cognitives, les schémas de la connaissance ou la compréhension d’une expérience commune comme dans les jeux télévisés de réponse aux questions, y compris avec la gestion de l’incertitude entre deux ou trois réponses possibles.

Jusqu’à Google, il fallait s’inspirer de l’intelligence humaine pour l’artificielle, mais tout change : avec les « big data », l’immense récolte des données du savoir et des expériences, grâce donc aux productions de l’intelligence humaine, il est devenu possible de reproduire tout ce qu’elle fait, sans besoin de le comprendre. C’est ainsi que l’on se passe des sciences de la traduction dont il faudrait assimiler les règles et les appliquer : Google se contente de brasser l’immense quantité de phrases émises et de combiner la traduction à partir de là. Un nouveau paradigme scientifique émerge de la sorte : saisir les données disponibles et laisser l’ordinateur produire par induction les modèles qui sont fidèles aux données. Le paradoxe, c’est que, conçu par la machine, il n’est pas sûr que chaque modèle produit puisse être compris par les scientifiques…

De façon originale, vous avez publié deux livres de nouvelles qui posent des questions éthiques, de responsabilité face à la technologie, ou politiques, de compétition dans la recherche scientifique. Ce passage à la fiction est-il fait uniquement dans un but pédagogique, de vulgarisation, ou correspond-il aussi à vos propres inquiétudes  ?

Les deux buts sont poursuivis. Ma première envie est celle de trouver un autre vecteur de diffusion de la recherche scientifique pour rendre accessible les découvertes et les inquiétudes qu’elles provoquent. Et ainsi de faire comprendre que tel domaine est assez original pour donner envie de lire ensuite des essais plus poussés. Mais en même temps il est impossible de ne pas être inquiet devant l’évolution du monde : les nouvelles technologies sont à la fois porteuses d’espoirs et d’inquiétudes. Par exemple, la mesure du réchauffement climatique passe par l’informatique, mais celle-ci entraine elle-même des problèmes connexes telle la croissance des déchets d’ordinateurs et de l’énergie qu’ils consomment. Dans mes nouvelles, j’essaie d’évaluer les deux aspects de ces novations technologiques.

La nouvelle sur la compétition est venue en réaction à cette caution donnée aux compétitions dans tous les domaines de la recherche. Tout est classé, des chercheurs aux universités… J’ai travaillé sur les disciplines qui jugent la compétition inéluctable, en particulier le darwinisme social qui se retrouve en économie. On entend la rengaine « L’Europe n’est pas assez compétitive. » ou d’autres similaires. Mais si l’on admet logiquement que la compétition fait plus de perdants que de gagnants, pourquoi la valoriser ? Ce que personne ne comprend bien, c’est que la compétition rend l’économie plus efficace. Selon le point de vue utilitariste, la compétition par agrégation porte la société vers le haut du point de vue de la somme des bien-être ; de même, Hayek a montré que les prix permettent au producteur de savoir sur quoi se concentrer et entraînent la nécessité de le faire. Les hommes doivent donc être compétitifs pour savoir quoi produire. La compétition a ainsi une raison d’être – sauf qu’elle maximise l’efficience au détriment de l’égalité. Une économie aléatoire, inspirée des enchères sur ebay, mais où ce ne serait pas le plus offrant, mais le sort qui déciderait de l’acheteur, ne ferait-elle pas plus d’heureux ? Une de mes nouvelles aborde cette question qui peut être élargie à celle du tirage au sort en démocratie…

Sous le titre « De l’incertitude des machines : rôle stratégique et enjeux épistémologiques de l’intelligence artificielle », vous patronnez le 3 avril prochain une intervention de Carlotta Piscopo au Collège Belgique. Pouvez-vous nous introduire à cette leçon ?

Quand l’intelligence artificielle prend une décision, comme le diagnostic d’un cancer, cela s’accompagne d’incertitude. Comment la prend-on ? Comment intervient-elle ? Se pose la question de la probabilité. Basée sur un calcul, objective, ou sur une expérience, subjective, comme celle d’un médecin. Mais que veut dire une expérience subjective pour une machine  ? Telle sera la question qui orientera son intervention.

Propos recueillis par François Kemp

Choix bibliographique

La programmation orientée objet, Paris, 2013, Eyrolles.
De l’intelligence humaine à l’intelligence artificielle, Paris, 2006, Ellipses.
Qu’est-ce que l’émergence, Paris, 2007, Ellipses.
Haro sur la compétition, Paris, 2010, Presses Universitaires de France.
Le Tamagotchi de Mme Yen et autres histoires, Paris, 2012, Le Pommier.
Le dernier fado de l’androïde et autres histoires de science exotique, Paris, 2013, Le Pommier.

Zoom

 

Top