Objet d’étude de cette semaine, The Adventures of Cyborg Holmes (ou : Les Aventures de Holmes le Cyborg, traduction libre évidemment) du merveilleux site Literai.com, ma découverte du moment. Avant de commencer, quelques mots sur ce site : alors que je vous parlais la semaine passée du concours NaNoGenMo, Literai.com propose quant à lui un répertoire et une plateforme de tutoriels. Créé par Myles O’Neill, Anthony Voutas, Isadora Lamego, and Annette Zou à la fin 2016, le site saisit surtout par sa présentation habituelle et intuitive. Le titre du site, Literai, introduit un suffixe intégrant la dimension d’intelligence artificielle (ai) ; simple et efficace, donc.

Le sous-titre du site, Fiction Written by Computers donne également la couleur, couleur appuyée au vu des premiers textes répertoriés. Je vous invite à aller les parcourir sur leur page d’accueil, et surtout à cliquer sur l’un des textes, au hasard. La manière dont ces derniers sont présentés est fascinante : « Created by (le nom du programmeur) » suivi de « written by a computer »… Une présentation dans laquelle l’auteur est distingué du créateur, donc.

Cela me rappelle assez fortement un des commentaires qu’offrait Ross Goodwin (l’un des co-créateurs du génial Sunsprings, premier court-métrage de science-fiction au scénario produit par IA) dans un article d’Ars Technica, alors qu’il parle de l’auctorialité du texte. À la question qui est l’auteur, l’homme ou la machine, Goodwin botte en touche :

« I think we need a new word for it. »

Je vous épargne la traduction. Le même genre de réponse m’a été donné par Myles au cours d’une discussion rapide. Son point de vue est le suivant : it’s mixed. En poussant un peu plus loin l’interrogation, sa position m’est devenue plus claire : certains textes de sa plateforme, comme The Greatest Personnality Test (le titre complet est plus long) ne sont pas générés par RNN (en français RNA pour réseaux de neurones artificiels) ; dans le cas de The Greatest (…), c’est précisément un template based generated text, soit de la génération computationnelle « classique » si l’on puis dire, qui n’implique pas d’apprentissage machine. Même si des articles comme celui-là ont semble-t-il tenté de remettre en question le déni général de l’approche template de ces dernières années, il n’en demeure pas moins qu’elle n’a pas le vent en poupe à l’heure qu’il est. La raison semble assez simple : pas d’apprentissage machine = pas d’autonomie. Mais comme me l’a également indiqué Myles, c’est ici avant tout une histoire de spectre, et je ne parle pas de fantôme. En gros, plus l’approche sera template based, plus elle sera proche d’une intention humaine. Plus celle-ci s’orientera au contraire vers l’apprentissage machine, plus elle s’autonomisera. Et plus la notion d’auctiorialité deviendra alors difficile à définir avec certitude.

Mais passons plus précisément à l’analyse d’Holmes le Cyborg, créé par Sid Sahay. Ingénieur software à Bengalore, Sahay avait à l’origine choisi un corpus bien plus grand que celui utilisé pour la génération du texte. Pour l’anecdote, l’entrainement du réseau neuronal s’effectuait alors depuis trois jours lorsqu’une erreur de manipulation l’a poussé à abandonner et à recommencer avec un corpus plus restreint.

Résultats de recherche d'images pour « sherlock holmes »

Une belle affiche, libre de droits (source)

L’entrainement du réseau de neurones lui a quand même pris une trentaine d’heures, et son corpus (la base de données utilisée) était tout de même loin d’être exhaustif. Selon ses commentaires, les produits les plus courts (moins de 2000 mots) étaient néanmoins les plus réussis – mais cet extrait donne déjà un bon aperçu de ce qu’un RNA peut faire.

« And he enters and confiding the first in the man had only been not waiting at Baker Street. Sherlock Holmes was recompanion. The Bound of the room as to the side and walked man who affected, and having a small end of the second to be favel.

Le texte est effectivement absurdement difficile à lire pour un francophone. Ceci étant, un ADN semble toutefois bel et bien s’en dégager. Dans quelle mesure est-ce que la projection que j’en fait – rien que le titre pousse mon imaginaire à avoir une approche biaisée – influe-t-elle donc mon interprétation ? Je termine à peine l’ouvrage de Jeff Hawkins, On Intelligence, qui s’appuie sur une analyse du cerveau biologique (le notre) pour aborder les manières de produire des machines véritablement intelligentes – sous-entendu, des IA fortes, ou IA générales. Dans sa partie sur la créativité, il explique que cette notion ne doit pas forcément être envisagée d’un point de vue restrictif (est créatif celui qui joue du piano, celui qui écrit un roman, etc) mais devrait au contraire être acceptée dans son sens plus général (selon lui, tout comportement est a priori créatif, même si on ne s’en rend pas compte). Dans son sens, la créativité peut se définir comme le fait de calquer un comportement modèle (un pattern) sur une situation nouvelle, et ce afin de régler la-dite situation.

Un exemple. Si je suis un guitariste accompli et que mon oncle me met dans les mains un banjo ou un ukulélé, je vais a priori savoir comment gratter les cordes même si je n’en ai jamais joué auparavant. Je ne serai peut-être pas directement virtuose, mais j’aurai une bonne compréhension d’un instrument auquel je n’ai auparavant jamais touché. Tout simplement parce que j’aurai calqué mon pattern habituel sur ma nouvelle situation, et ce par simple analogie.

Est-ce le même schéma qui s’installe face à la littérature artificielle ? Lorsqu’une lecture comme celle d’Holmes le Cyborg vient me chercher, c’est aussi parce qu’une partie de moi est rompue à la lecture d’ouvrages de détectives. Même si je ne suis pas expert dans l’œuvre du Dr Doyle, mon imaginaire a en tête un certain nombre de clichés (topoï) qui sont liées aux romans de Sherlock : la relation amicale entre Watson et Holmes, le sinistre Moriarty, la logeuse… Pas même besoin de parler du thé et de l’étrange chapeau. Tout cela participe à la constitution d’un imaginaire qui est inscrit en moi. Imaginaire partagé par des millions de personnes à travers le monde, quand bien même ses limites en sont floues.

Au vu de ma discussion avec Myles O’Neill toutefois, une conclusion m’a sauté aux yeux. Je lui demandais s’il pensait que plus la machine utilisée est puissante (sous entendu, plus le RNA est puissant) et la base de donnée importante, plus on s’éloignait d’une intention humaine. À quel niveau du spectre va-t-on alors se situer ? Le texte est-il alors moins humain, plus machine ? D’après Myles, c’est au contraire l’inverse qui se produit. Plus le texte est entrainé sur une machine puissante, plus il devient humain. Et plus il devient lisible.

Tout dépend du paradigme dans lequel on se situe, j’imagine.


P.S : un grand merci à Myles pour ses réponses et pour la relecture de l’article. Google Translate a ses vertus 😉