Jean-Gabriel Ganascia

Le spécialiste de l’intelligence artificielle (IA), Jean-Gabriel Ganascia, est revenu à Maurice la semaine dernière à l’invitation de l’Institut français de Maurice (IFM) pour donner plusieurs conférences dans le cadre du « Novembre numérique ». Professeur d’informatique à la faculté des sciences de la Sorbonne et, entre autres, président du comité d’éthique du CNRS, il dirige plusieurs laboratoires de recherche sur l’IA et ses applications possibles dans d’autres domaines de recherche. Il nous parle ici des nouvelles approches qu’elle permet sur les œuvres littéraires ou la musique ainsi que des questions de société que posent les usages de l’hypertexte et le développement du numérique en général.

Comment expliquez-vous que l’IA fascine autant qu’elle effraie ?

En fait, l’IA est un sujet relativement ancien qui prend de l’importance avec le temps parce qu’elle a transformé nos vies. Le terme est en lui-même ambigu : si on le prend au sens littéral, il désigne le fait de fabriquer une entité qui sera intelligente, et ça fait frémir parce qu’on se dit qu’on joue aux apprentis sorciers, que nous sommes en train de créer un double de nous-même. On transgresse en quelque sorte un interdit puisqu’on se met à la place de Dieu. Mais l’IA désigne en réalité autre chose du point de vue technologique. Au départ, cette discipline scientifique, née en 1956 aux Etats-Unis, a pour objectif de simuler les différentes composantes de notre intelligence. On ne sait pas exactement ce qu’est l’intelligence. Et c’est justement parce qu’elle est un grand mystère qu’on veut la comprendre… L’idée est alors de la décomposer en faculté cognitives élémentaires comme la perception, le raisonnement, la mémorisation, la communication et, ensuite, d’essayer de simuler chacune de ces facultés avec une machine, un ordinateur.
Depuis 60 ans, cette discipline a littéralement transformé le monde. Le Web, par exemple, est un couplage des réseaux de communication et des mémoires qu’on appelle l’hypertexte, qui est fait avec des techniques d’intelligence artificielle. Il s’agit d’un texte augmenté de liens entre les parties du texte, un peu comme notre mémoire établit des liens entre différentes choses. Cette modélisation de la mémoire a été faite en 1965, mais il a fallu attendre 1989 pour qu’un Anglais basé à Genève décide de faire un hypertexte dans lequel les liens correspondent non pas à des parties de mémoire sur une machine, mais à des liens entre différentes machines sur le réseau, ce qui a donné naissance au Web. D’ailleurs « http » signifie « hypertext transfer protocole »… Il existe bien sûr une multitude d’autres exemples, comme la reconnaissance vocale, la reconnaissance faciale ou encore digitale dans différents domaines pratiques. Les systèmes des organisations utilisent les protocoles de l’IA.

En quoi l’IA génère-t-elle un renouveau de l’humanisme, comme vous l’annoncez pour votre conférence à l’IFM ?

D’abord l’humanisme est né à la Renaissance pour relire les textes des Anciens et leur donner une nouvelle interprétation. Et aujourd’hui, il est possible de construire des opérateurs d’interprétation pour les œuvres humaines, pour mieux comprendre les écrits, de façon différente avec ces outils de l’IA. Par exemple, j’ai développé des outils qui permettent de repérer des réutilisations, des influences, de tisser des liens entre les auteurs sur de très grandes masses de textes. On travaille aussi sur la génétique textuelle en comparant les brouillons d’auteurs pour voir comment ils ont été réécrits et mieux comprendre comment l’œuvre s’est constituée, par quelles étapes l’auteur est passé. Cela nous permet de lire des œuvres dans leur dimension diachronique.

À condition que l’auteur garde ses brouillons…
Oui, justement c’est une question, car on commence à regarder comment préserver et étudier leurs disques durs par exemple.

Avons-nous aujourd’hui assez de recul pour apprécier les aspects bénéfiques et négatifs du numérique sur les liens humains ?

Nous sommes dans des sociétés où ce qui fait la trame du tissu social se transforme. L’amitié est une notion d’affinité particulière entre des êtres très ancienne, qui remonte à l’Antiquité. Aujourd’hui, sur les réseaux sociaux, on vous dit que vous êtes amis avec beaucoup de gens, mais s’agit-il vraiment d’amitié, comment cela interfère-t-il avec l’amitié des temps anciens ? C’est une question. J’ai une cousine plus jeune que moi qui m’expliquait que depuis qu’elle a des nouvelles de gens par les réseaux sociaux, comme elle sait qu’il n’y a pas de problème, elle ne les appelle plus, et donc d’une certaine façon cela transforme leurs relations. Tout autre exemple, en Chine, on a décidé d’établir un score de réputation en mesurant entre autres toutes les infractions sur les routes grâce aux moyens numériques avec les systèmes de reconnaissance faciale et autres. Donc, quelqu’un qui s’est mal comporté risque par exemple d’avoir des difficultés à obtenir un prêt ou un emploi, etc.

Là on entre vraiment dans la société de surveillance et de contrôle.
On pourrait aboutir à quelque chose de terrible en effet, et cela montre qu’il faut vraiment réfléchir à la façon dont le numérique peut être utilisé pour le mieux. Il peut faire faire des progrès dans le domaine médical, social ou éducatif, comme essayer de comprendre pourquoi les gens ont des difficultés à apprendre. Mais si on l’utilise pour mieux contrôler les gens, il peut devenir très négatif. Une réflexion approfondie est nécessaire sur ces questions. Le déterminisme ou la fatalité n’existe pas dans les usages que l’on peut faire de la technologie, et pour que ce soit bien utilisé, il faut une réflexion de l’ensemble de la population sur ces choses et ce que l’on veut en faire. Un exemple, d’un côté on voudrait préserver l’intimité individuelle. La liberté exige qu’on puisse avoir un retrait. Mais en même temps, on veut assurer une certaine sécurité. Pour lutter contre le terrorisme, il faut parfois entrer dans la vie privée. Pour garantir la santé sanitaire, il faut savoir quelles sont les contre-indications, et s’il y a un accident, être capable de faire ce qu’il faut. Un troisième point est la transparence. Les systèmes politiques doivent être assez transparents pour s’assurer qu’il n’y ait pas de conflit d’intérêt, ou dans l’éducation pour que l’instituteur de votre enfant ne soit pas un pédophile, par exemple.
Les exigences de transparence, de protection de la vie privée et de sécurité sont en tension les unes avec les autres. Il y a des arbitrages à réaliser, et donc engager une réflexion pour déterminer les compromis à réaliser entre ces différents termes.

Cette réflexion a-t-elle déjà commencé ?

Malheureusement, elle n’est pas encore assez engagée. Mais il faut s’y mettre rapidement car le risque existe que ce ne soit plus les démocraties mais les grands acteurs, les géants du numérique qui décident pour nous. Or, nous ne votons pas pour ces dirigeants de ces sociétés, qui ne décident qu’en fonction de leurs intérêts. Ma crainte est que nous entrions dans une société féodale où nous aurions de nouveaux seigneurs qui s’accapareraient des pans entiers de notre vie. On a souvent tendance à regarder dans le rétroviseur de l’histoire en craignant par exemple que l’État devienne totalitaire, alors qu’en réalité, il exerce plutôt un rôle protecteur aujourd’hui et le risque relève bien plus des abus de pouvoirs de ces grands groupes.

Malgré tous ses avantages, l’extension de l’accès à la connaissance n’est-il pas un leurre en ce sens qu’il noie les individus dans une profusion de données telle qu’il est extrêmement difficile de s’y retrouver ?

Vous avez tout à fait raison. Nous vivions dans des sociétés de rareté de l’information. Et quand un pouvoir était en place, il maîtrisait l’information et éventuellement en gommait une partie. Or, aujourd’hui que nous vivons dans des sociétés de profusion de l’information, les stratégies des pouvoirs en place ne consistent plus à supprimer des informations, parce qu’ils ne peuvent plus le faire, mais à rajouter des informations superfétatoires pour noyer l’information. Ça ouvre le champ sur ce qu’on appelle les “fake news”, etc. Les journalistes et les scientifiques sont pris dans cet écueil. Énormément d’informations étant diffusées sur les réseaux sociaux; les journalistes sont obligés d’en relayer une partie et, comme elles vont très vite, ils n’ont pas toujours le temps d’en confronter les sources pour donner une information de qualité. Ils sont pris en tension. Les scientifiques ont des problèmes différents, mais analogues.

En tant que président d’un comité du CNRS, j’ai rédigé un rapport sur la posture du scientifique dans le monde dit de post-vérité. En tant que scientifique, nous n’avons pas de vérité éternelle à donner, au contraire. Le scientifique est un homme qui doute, il n’a pas confiance dans l’évidence des informations qu’on lui donne à croire. Il veut des preuves, qui peuvent en permanence être rediscutées. En même temps, il doit porter à la connaissance du public un certain nombre de faits ou de conclusions qui, si elles sont partielles, ont quand même un effet important sur la vie de tous les jours, que ce soit sur le climat, sur les vaccins, etc. Or, on fait face à des groupes constitués qui remettent en cause l’effet des vaccins ou le réchauffement climatique. Dans cette société de l’information, la profusion pose de nouveaux problèmes extrêmement délicats. Il faut mettre en cause ceux qui introduisent de fausses nouvelles et perturbent le jeu démocratique et, en même temps, on prône la liberté de l’information…

N’en est-on pas aux balbutiements de tout cela ? L’IA ne pourrait-elle pas aider à utiliser ces informations plus intelligemment ?

Sur le Web, grâce d’une part à l’ensemble des informations disponibles et d’autre part aux moteurs de recherche, les gens ayant l’esprit critique ont à leur disposition une somme d’informations extraordinaire, des bibliothèques ouvertes jour et nuit. Mais d’un autre côté, il faut vraiment être capable d’éduquer les gens qui n’ont pas cet esprit critique… Peut-on mettre en place des services de l’IA pour les aider à discerner le vrai du faux ? C’est une question ouverte. Les grands acteurs de l’information nous disent qu’on va détecter les fausses nouvelles, mais je ne suis pas certain qu’on y arrive. Et quand une nouvelle a été détectée comme étant fausse, l’effet pernicieux de la fausse nouvelle demeure… Les modèles économiques sur lesquels se fondent les grands acteurs de l’Internet donnent une prime aux informations fallacieuses parce qu’on rétribue au nombre de clics. Une information populaire qui va surprendre ou aller dans le sens d’un certain nombre d’a priori va avoir beaucoup de popularité, et le faux sera encouragé sur le vrai. Il faudrait plutôt réformer ce type de modèle économique. Ces enjeux sont politiques.

Vous évoquez un risque de dégradation du statut des œuvres culturelles avec l’Internet. Qu’entendez-vous par là ?

D’un côté, nous avons de nouveaux modes d’accès aux œuvres, de nouvelles façons d’approcher la lecture, ce qui est positif. D’un autre côté, nous sommes dans un monde où il peut y avoir des recommandations, et comme il y a une profusion d’informations, on oriente les regards vers les œuvres qui sont les plus populaires. Encore une fois, les personnes qui ont une grande culture vont bénéficier de cela, et approfondir encore leurs connaissances. Mais celles qui n’ont pas cette formation seront encore très vulnérables. On se contentera de leur donner les œuvres qui leur seront les plus faciles d’accès, ce qui devient une forme de consommation où l’œuvre culturelle est considérée comme un bien, une simple savonnette… À une certaine époque, des prescripteurs avaient une certaine autorité. Aujourd’hui, on assiste à un rejet des autorités, ce qui fait d’ailleurs que les grands critiques et les scientifiques ont du mal à s’exprimer. Aujourd’hui, le système de recommandations se fonde sur ce que la grande masse des autres a “liké”, ce qui aboutit à ce phénomène de dégradation des œuvres culturelles, où les choses plus difficiles d’accès ont du mal à s’imposer.

Mais ne pourrait-on pas imaginer que les influenceurs du Web deviennent plus intéressants ?

Ce qui fait qu’un influenceur a du succès aujourd’hui, c’est sa popularité, pas la qualité de ses recommandations. À une autre époque, les influenceurs faisaient découvrir des choses. C’est une logique complètement différente.

Au-delà de l’intertextualité en littérature que vous citiez en début d’interview, pouvez-vous nous donner d’autres exemples dans lesquels l’IA permet d’affiner l’étude des œuvres culturelles ?

L’intertextualité et la génétique textuelle sont des théories anciennes qui peuvent être renouvelées avec l’IA. Pour la stylistique, on a commencé à retravailler sur l’extraction de patrons syntaxiques, qui seraient caractéristiques d’une œuvre, d’un style ou, même, de personnages dans le domaine théâtral. Dans l’intertextualité, on peut regarder l’évolution dynamique des références à un auteur. Par exemple, voir comment les citations des philosophes des Lumières sont reprises dans la durée. Du point de vue stylistique, j’ai travaillé sur les œuvres de Molière, où on prend des personnages présents dans différentes pièces, comme Sganarelle ou Dom Juan. On constate qu’il existe des façons de s’exprimer propres à chaque personnage, les registres d’expression diffèrent. Je suis moins spécialiste des œuvres visuelles, où on peut repérer les redondances symboliques, mais en musique, j’avais travaillé sur l’extraction de motifs récurrents. Nous l’avons fait sur le jazz à une époque. Il s’agit de donner de nouveaux opérateurs d’interprétation qui, ensuite, bien sûr serviront à des spécialistes. Ces sciences de la culture qui consistent à trouver de nouveaux outils pour donner du sens aux choses et de nouvelles façons de les voir.

Pouvez-vous nous donner des exemples de découvertes qu’ont permis ces nouveaux outils ?

Oui par exemple, chez Balzac, vous avez des réutilisations de blocs de textes dans ses différents romans. Ça n’était pas signalé dans la Pléiade. Balzac était très influencé par la phrénologie et la physiognonomie, c’est-à-dire l’étude des os de la tête et celle des traits du visage pour déterminer le caractère d’une personne. On s’est amusé à prendre les traités de l’époque de ces spécialités et on a constaté que des personnages reprennent exactement les caractéristiques décrites dans ces traités. Par exemple, quand on voit une femme qui a les yeux « percés en vrille » ou des « narines obliques », etc.

Vous évoquez souvent les systèmes de recommandation…

On fait face aujourd’hui à une crise du choix : il y a tellement de choses qu’on n’a plus de désir. Pour susciter ce désir, les grands acteurs ont construit toute l’économie de l’Internet sur la recommandation. À partir de 2006, la publicité sur le net est ciblée sur votre propre personne. À partir des questions que vous avez posées dans le passé, on fait un profilage individualisé pour vous suggérer des choses à acheter. Les annonceurs ont un taux de retour bien supérieur et ces publicités se vendent beaucoup plus cher.

L’historien Yuval Harari explique notamment qu’on sait tellement de choses sur les gens qu’on peut aller jusqu’à influencer leur façon de penser…

Yuval Harari va beaucoup plus loin. C’est vrai qu’on influence la façon de penser. On sait qui vous êtes et on va vous offrir l’information qui vous fera plaisir. C’est comme ça que dans un petit village en Macédoine, des collégiens ont envoyé plein d’informations concernant l’élection américaine en mauvais anglais, et ils ont gagné beaucoup plus d’argent que leurs parents en faisant cela. La question reste de savoir si ça influence vraiment. Il n’y a pas eu qu’eux, ce sont des attaques massives.

Alors qu’est-ce qu’un agent autonome ?

L’agent est une entité qui agit, qui correspond à la notion d’âme ou de psychisme comme Aristote l’a introduite dans De anima. Un agent autonome est artificiel, il est fabriqué par des hommes, et il est autonome au sens technique, c’est-à-dire sans intervention humaine entre la prise d’information et l’action. Par exemple, si vous dites à une voiture autonome « je vais à la piscine », elle vous conduit à la piscine. Elle a des capteurs, des palpeurs, etc. qui lui permettent de décider comment elle doit y aller. C’est la même chose pour les robots ou le petit aspirateur autonome, mais ce terme est malencontreux parce qu’il a été inventé par un auteur de science-fiction. On pourrait dire automatique, autonome est un peu ambigu parce que ça laisse entendre que l’agent réfléchit par lui-même. Mais on n’a pas attendu l’IA pour fabriquer des agents autonomes, une mine est un agent autonome…

N’y a-t-il pas un paradoxe dans l’expression « les humanités numériques », où on associe les sciences qui touchent à l’humain, et un instrument technique ? A-t-on jamais parlé des humanités téléphoniques ou ferroviaires ?

Non, parce que le ferroviaire et le téléphone n’ont pas transformé à ce point la lecture qu’on peut avoir des œuvres du passé. En revanche, l’imprimerie l’a beaucoup modifiée et l’humanisme y est en partie lié. C’est pour ça qu’il y a des inquiétudes à avoir et, en même temps, des raisons d’être enthousiaste. Comme toujours quand le monde se transforme, il y a toujours des gens qui deviennent des laissés-pour-compte, et ça peut donner naissance à des mouvements qui sont mus par le ressentiment. On voit bien aux Etats-Unis un écart de plus en plus grand entre des gens paupérisés et ceux qui travaillent dans les nouvelles technologies et sont extrêmement bien rémunérés, et qui voient le monde de façon abstraite. On le voit aussi en Europe avec ce qui s’est passé en Italie, en Hongrie et en Pologne. Les axiomes sur lesquels se construit l’État de droit, en particulier fondé sur l’idée qu’il y a co-extension du territoire et de l’État qui permet à la souveraineté de s’imposer sur un territoire, est mis en brèche par le numérique, qui traverse les frontières.
Aussi de nouvelles formes d’organisation sociales ne passent plus par la représentation classique. Par exemple, les patients ont réussi à partir des années 70’ à se regrouper en associations, comme dans les années 80” avec les malades du sida, qui ont poussé les pouvoirs publics à prendre des décisions en matière de recherche. Elles sont devenues parties prenantes dans les négociations, elles ont leurs objectifs propres, mais elles s’éloignent de ceux qu’elles représentent. Et il existe des domaines où les gens n’ont plus besoin de ces associations parce qu’ils se concertent entre eux par les réseaux sociaux. Rousseau avait prévenu en disant qu’il fallait faire attention à ce que les représentants ne prennent pas leur autonomie par rapport à ceux qu’ils sont censés représenter. Le numérique permet cela désormais…