© Getty Images/iStockphoto

GPT2, le générateur de texte « trop convaincant » pour être divulgué

Stagiaire Le Vif

Les créateurs du programme GPT2 le trouvent si puissant qu’ils hésitent à le mettre en circulation par crainte d’abus, et retardent la publication de leurs recherches.

Habituellement, un produit est commercialisé dès sa finalisation. D’autant plus quand il s’agit d’une nouvelle technologie à fort potentiel lucratif et dépassant de loin sa concurrence. Pourtant, le générateur de texte GPT2 attendra encore quelque temps avant d’être « lâché dans la nature ». Mis au point par OpenAI, une société de recherche soutenue par l’entrepreneur Elon Musk, le programme serait si avancé qu’il effraierait ses propres concepteurs.

Capable d’imiter Orwell

GPT2 est capable, d’après les premières lignes d’un texte fourni par l’utilisateur, d’imaginer une suite logique. Il arrive même à imiter les styles d’écriture, parvenant à reproduire la patte de l’artiste lorsqu’on le « nourrit » de l’incipit de 1984 de George Orwell. La rédaction du Guardian a également pu tester son sens de l’à-propos, en lui donnant à compléter le premier paragraphe d’un de ses articles sur le Brexit. Voilà le résultat : « Invitée à clarifier la situation, un porte-parole de May a déclaré : « la Première ministre a clairement fait savoir qu’elle avait l’intention de quitter l’Union européenne aussi vite que possible, et ce dans le cadre de son mandat de négociation, comme l’a confirmé le discours de la Reine la semaine dernière » ». Le tout accompagné de citations du chef du parti travailliste Jeremy Corbyn, et de références à la frontière irlandaise.

Sous cloche… pour le moment

Production de spams ou de faux avis de consommateurs, publication de fake news ou de textes complotistes… Le potentiel d’usages malveillants de GPT2 est si évident que l’équipe conceptrice préfère le garder sous cloche. Elle refuse même de publier ses recherches, pour l’instant. « Nous devons faire des expériences complémentaires pour découvrir ce que des utilisateurs pourraient en faire », a déclaré Jack Clark, directeur des politiques de l’organisme cité par le journal. « Même si l’on ne peut pas anticiper toutes les capacités d’un modèle, il faut le pousser pour voir ce dont il est capable. Car il y a beaucoup de gens qui pensent mieux que nous à ce qu’il pourrait faire de mal… ». Les chercheurs imaginent que, quoi qu’il arrive, ce modèle sera courant dans un voire deux ans. Clark prévient : « les règles du contrôle de la technologie ont, déjà, fondamentalement changé ».

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire