Et pendant ce temps-là, l’intelligence artificielle…

Impénétrable ce mystère…
Celui que nous avons vécu cette semaine. Celui d’une météo complètement à côté de ses pompes, qui s’emmêle les pédales, qui émet un avis de fortes pluies alors qu’il fait soleil, enlève l’avis alors qu’il suffit de jeter un coup d’œil par la fenêtre, comme dans le sketch de Vincent Duvergé, pour s’apercevoir que des pluies diluviennes sont cette fois au rendez-vous…
Sommes-nous à ce point démunis devant les possibilités qu’offre pourtant la technologie ?
Pendant ce temps-là, alors que nous sommes englués dans des considérations et des énervements qui ne devraient pas être, le monde autour de nous accélère. À toute allure. Et nous en semblons peu conscients.
Depuis le mois de novembre, ChatGPT-3 affole littéralement le monde de la tech, mais aussi les internautes « lambda ». Sous ce nom, la dernière avancée de l’intelligence artificielle (AI). Soit une application qui ambitionne de révolutionner la façon de communiquer, d’écrire, de créer. De révolutionner notre monde.
Grâce à ses capacités avancées de traitement du langage, ChatGPT-3 peut comprendre et répondre au langage naturel en temps réel. En clair, vous pouvez lui demander de vous écrire un poème en alexandrins, de vous fournir des citations, des références à des textes savants, de vous écrire des lettres ou des articles, de créer les paroles d’une chanson qui imite le style d’un artiste connu. Le résultat donne des textes d’une telle qualité qu’ils fascinent et mettent mal à l’aise tout à la fois.
Cela va très vite. OpenAI, la start-up californienne derrière ChatGPT et Dall-E, a déjà commencé à parler de ChatGPT 4, et de l’arrivée d’une nouvelle IA capable de générer des vidéos.
ChatGPT s’est déjà répandue comme une traînée de poudre dans le monde éducatif.
Inquiétude des enseignants. Qui rapportent déjà de nombreux cas où des étudiants utilisent ChatGPT pour écrire des devoirs et dissertations à leur place. Depuis des années, les profs disposent de logiciels pour déceler le plagiat. Mais ces outils sont conçus pour analyser les textes déjà publiés sur le web. Or, l’IA, elle, ne copie pas de texte à partir du web, elle génère du texte « original ».
Estimant que son chatbot va provoquer d’importants « changements sociétaux », le patron de OpenAI, Sam Altman, a appelé les enseignants à s’adapter à « l’inéluctable essor des intelligences artificielles génératives », car il n’y aura pas d’autre choix que d’apprendre à faire avec.
Pas d’accord, la direction de Sciences Po Paris a annoncé vendredi dernier que « l’utilisation, sans mention explicite, de ChatGPT à Sciences Po, ou de tout autre outil ayant recours à l’intelligence artificielle est, à l’exception d’un usage pédagogique encadré par un enseignant, pour l’instant strictement interdite lors de la production de travaux écrits ou oraux par les étudiants ». Cela, sous peine de sanctions, allant de l’exclusion de l’établissement, à l’exclusion pure et simple de l’enseignement supérieur.
De leur côté, huit universités australiennes ont annoncé leur décision de modifier leurs examens, et disent considérer que l’utilisation de l’IA par des étudiants s’apparentait à de la triche.
Pour l’heure en tout cas, une certaine résistance s’organise. Ainsi, le jeune Edward Tian, étudiant en informatique et en journalisme de l’Université de Princeton aux États-Unis, a consacré ses vacances de fin d’année à créer GPTZero. Une web-application qui serait capable de détecter les textes générés par une intelligence artificielle. Pour cela, il suffirait de copier-coller le texte concerné sur son site, gptzero.me. Pour déterminer l’humain de la machine, l’algorithme va calculer le taux de complexité du texte soumis et prendre en compte d’autres paramètres du même type. À en croire les vidéos publiées sur Twitter par Edward Tian, l’outil apparaîtrait comme très efficace.
Sur le même principe, une société de Montréal, Draft & Goal, vient de mettre en ligne il y a une semaine un outil gratuit qui permettrait de détecter avec une fiabilité de 93% si un texte a été généré ou non par un robot conversationnel à la ChatGPT. « On voit l’IA comme un outil, une machine à écrire à améliorer, mais ça ne doit pas devenir le centre de la création en tant que tel », estime Nabil Tayeb, PDG de la jeune société.
C’est bien pourtant ce qui est craint. Et au-delà de l’enseignement et de la recherche, c’est le secteur créatif qui semble le plus directement menacé. Certains vont en effet jusqu’à estimer que les IA génératives sont le fruit du plus grand piratage d’œuvres d’art de l’histoire. C’est en tout cas l’avis de trois célèbres dessinatrices, Sarah Andersen, Karla Ortiz et Kelly McKernan, qui se sont associées à une class action à l’encontre de StabilityAI, Midjourney et Deviant Art, des plates-formes très en vogue qui permettent de générer de magnifiques illustrations à partir de quelques demandes formulées par l’utilisateur. Par cette action, elles veulent prouver que les IA génératives ont été entraînées et fonctionnent en se nourrissant du piratage de millions d’œuvres créées à travers le monde par des artistes dont les œuvres sont ainsi utilisées sans leur consentement.
Getty Images, l’une des plus grandes banque d’images du monde, vient aussi de faire part de son intention d’assigner StabilityAI en justice, l’accusant d’avoir « copié et traité illégalement des millions d’images protégées par le droit d’auteur et les métadonnées associées détenues ou représentées par Getty Images ».
Scrapping de données à un niveau totalement inédit. Mais aussi, d’après certains rapports, une exploitation éhontée du personnel utilisé pour ce travail. Ainsi, le magazine Time révèle qu’OpenAI a eu recours à des modérateurs kenyans pour rendre ChatGPT moins « toxique ». Car celui-ci, entraîné sur des centaines de milliards de mots extraits d’internet, a d’abord eu tendance à régurgiter l’important lot de contenus douteux que cet ensemble contient aussi, avec des discours violents, haineux, sexistes et racistes… D’où le recours à des modérateurs pour « éduquer » l’IA et la rendre présentable. Sauf qu’eux sont payés une misère et travaillent dans des conditions de stress extrême.
Mais l’IA a aussi ses fans. Ainsi, certains mettent en avant le nouveau programme d’apprentissage automatique qui vient d’être conçu par des chercheurs de l’Université de Sao Paulo, au Brésil, et qui permettrait d’améliorer l’efficacité des opérations nécessaires à la culture de la canne à sucre notamment. Et les possibilités en matière de sécurité, des États et des individus, vont être très vantées.
Les applications possibles sont nombreuses, et comportent sans nul doute du bon comme du mauvais. Ce développement appelle en tout cas des questions de fond.
Dans une tribune publiée cette semaine dans la presse française, la directrice de recherche au CNRS Claire Mathieu et le professeur d’informatique à Sorbonne Université Jean-Gabriel Ganascia tirent la sonnette d’alarme. Estimant que si elle n’est pas cadrée, ChatGPT risque de mener à une multiplication des « fake news » et autres contenus mensongers. Et si elle peut faire gagner un temps précieux à l’utilisateur intègre, par exemple pour rédiger une note de synthèse à partir de quelques documents ou une demande de financement dans son domaine d’expertise, l’outil, s’il est laissé sans supervision, « risque de broder et de raconter n’importe quoi, puisque le sens lui est étranger. De plus, il n’est pas conçu pour garder le lien entre les informations générées et leurs sources, ce qui rend difficile la vérification par un non-spécialiste. Le problème fondamental est donc celui du rapport à la vérité ».
« Nous devons d’urgence faire avancer la recherche sur la transparence, la certification, et une IA éthique et de confiance » disent les deux chercheurs. « En attendant, préparons-nous à un déferlement de fausses informations sur les réseaux sociaux, pendant les campagnes électorales, etc. La première ligne de défense sera l’éducation aux médias, afin d’apprendre à confronter différentes sources et à développer un sens critique ».
Alors, on ouvre les yeux ?…

- Publicité -
EN CONTINU

l'édition du jour