GPT-2, cette intelligence artificielle pourrait devenir l’arme ultime des trolls



L’institut de recherche OpenAI  – dans lequel Microsoft a récemment investi un milliard d’euros – vient de publier la version complète de GPT-2, une intelligence artificielle capable de rédiger des textes intelligibles à partir de quelques bribes d’information.
Pour y arriver, les chercheurs ont entraîné un algorithme d’apprentissage automatique de manière non supervisée sur plus de 8 millions de pages Web. Il en résulte un modèle composé de plus de 1,5 milliard de paramètres.

L’organisme aurait pu faire cette publication il y a bien longtemps, mais il a préféré y aller par étapes, estimant que cette technologie avait un important potentiel malveillant.
En février, les chercheurs d’OpenAI ont publié une première version bridée, fondée sur 124 millions de paramètres. En mai et en août, ils ont diffusé des versions moins bridées, avec respectivement 355 et 774 millions de paramètres. « Jusqu’à présent, nous n’avons vu aucune preuve solide d’abus », constate OpenAI dans une note de blog, pour justifier cette dernière publication.

Des textes presque de qualité humaine

GPT-2 est capable de créer des textes à partir de n’importe quoi. Certains sont un peu répétitifs et manquent de cohérence. D’autres, en revanche, sont franchement impressionnants. Les personnes sondées par l’université de Cornell attribuent aux textes créés par GPT-2 un score de « crédibilité » de 6,91 sur une échelle de dix. On se rapproche donc d’une qualité « humaine », si l’on peut dire.

Pour s’en convaincre, il suffit d’aller sur le site talktotransformer.com, qui fournit une implémentation Web de cette intelligence artificielle. On peut y créer des recettes de cuisine factices, des passages imaginaires du Seigneur des Anneaux, du code HTML, de la documentation logicielle, etc. Ci-dessous un texte généré à partir d’une simple phrase. Le résultat ressemble, à s’y méprendre, à un article de presse classique.

Le risque d’abus, évidemment, n’a pas disparu. Au contraire, des chercheurs de Middlebury Institute Center of Terrorism, Extremism and Counterterrorism (CTEC) ont montré qu’il était possible d’adapter GPT-2 pour en faire un générateur de textes de propagande, en l’entraînant sur des corpus idéologiques spécifiques.
Quatre champs ont ainsi été explorés : le suprémacisme blanc, le marxisme, le jihadisme et l’anarchisme. Les tests effectués ont montré qu’en spécialisant le modèle sur un univers idéologique, les textes devenaient encore plus crédibles. Le caractère synthétique de ces textes n’a pu être reconnu de manière automatique que sur un faible pourcentage d’entre eux.

Bientôt un Web rempli de messages synthétiques ?

Chez les manipulateurs de l’information, GPT-2 pourrait donc rapidement devenir la « killer app ». Les usines à trolls pourraient remplacer leurs employés par des robots logiciels. Les trolls pourraient être tentés de submerger les réseaux sociaux avec des logorrhées de textes artificiels, histoire de capter un maximum d’espace de discussion et de temps cerveau disponible.

Heureusement, cette technologie n’est pas (encore) infaillible. L’étude des chercheurs du CTEC montre que si les textes synthétiques sont détectables, il le sont avec une précision proche de 100 %, ne laissant aucune place au doute. Les acteurs malveillants qui utiliseraient une telle intelligence artificielle pourraient donc être démasqués assez facilement, à condition de pouvoir analyser un grand nombre de textes.

Evidemment, les recherches vont continuer et les modèles vont se perfectionner. Durant l’été, les chercheurs de Nvidia ont réussi à créer un modèle GPT-2 avec plus de 8 milliards de paramètres, améliorant sensiblement la qualité des textes. La détection risque donc de devenir de plus en plus difficile.

Source : OpenAI





A lire aussi

Laisser un commentaire