#6 - L’arme d’intoxication massive
GPT-3, capable de tromper les humains, pourrait être le moyen rêvé pour produire de la fake news en abondance. Quand la performance technique devient toxique.
Chronique parue dans L’Express du 10.12.20
Dans la tumultueuse relation entre l’homme et la machine, le Graal reste le test de Turing: l’ordinateur peut-il duper l’humain? La réponse est clairement oui, avec l’énorme générateur de texte imaginé par OpenAI, une startup contrôlée par Elon Musk.
GPT-3 (Generative Pretrained Transformer Version 3) est un un modèle d’intelligence artificiel qui a été gavé avec un milliard de mots de toutes origines: l’intégralité de Wikipedia, mais aussi des millions d’articles de presse, tweets, blogs, notices d’emploi, manifestes politiques couvrant tous les extrêmes—tout ce que l’humanité a pu produire de mieux ou de pire.
Car l’algorithme est destiné à imiter le plus parfaitement possible le processus d’écriture. Evidement, le sens des mots lui échappe. Ce sera pour dans vingt ans avec l’avènement de l'Artificial General Intelligence, capable d’appréhender concepts et abstractions. Pour GPT-3, les mots ne sont qu’une représentation de vecteurs mathématiques qu’il analyse en quelques fractions de secondes au travers d’un maillage de 175 milliards de paramètres. Cela lui permet en revanche d’enchaîner les phrases avec précision et cohérence à partir de quelques indications basiques: une ou deux phrases initiales, une recommandation sur le style souhaité (un article scientifique ou un pamphlet) et c’est parti.
Nombreux s’y sont laissés prendre. Un petit traité de productivité personnelle posté sur le réseau Hacker News a été plébiscité par un large groupe de lecteurs jusqu’à ce qu’un geek un peu perspicace commence à soupçonner le caractère artificiel de l’opus, déclenchant une belle polémique. Sur le forum Reddit, un lecteur s’est étonné de ce membre qui postait des réponses pertinentes à toutes les questions posées, et surtout à un rythme effréné. Une analyse statistico-sémantique a tôt fait de démontrer qu’un “bot” se cachait derrière cette performance.
A présent, voici la sombre équation: un algorithme capable de produire du texte crédible sur n’importe quel sujet en quelques dixièmes de secondes, multiplié par d’infinies capacités de diffusion ciblée, le tout augmenté par les talents disponibles dans la noirceur du web, cela ressemble à l’arme de production massive de fake news dont rêvent dictateurs et extrémistes. —