OpenAI, « société de recherche et de déploiement » spécialiste de l’intelligence artificielle installée à San Francisco, a superbement réussi le pré-lancement de son robot conversationnel ChatGPT. Cet outil répond en langage naturel à toutes sortes de questions grâce à une énorme base de données. Pour les besoins de sa mise au point, il est accessible en ligne gratuitement et croule sous les connexions.
Toutes les disciplines, dirait-on, ont voulu savoir ce que ChatGPT pouvait dire d’elles. À notre tour, interrogeons le robot sur les petites phrases :
- [Question] : Qu'est-ce qu'une petite phrase ?
- [Réponse] :
Une petite phrase est une expression courte et concise qui peut avoir
plusieurs significations ou utilisations différentes. Elle peut être
utilisée pour résumer une idée, pour exprimer une émotion ou pour formuler
une question.
Étrangement, si l’on relance aussitôt le robot, ses réponses varient quelque peu :
- Qu'est-ce qu'une petite phrase ?
- Une
petite phrase est une phrase courte et concise qui exprime une idée
simple. Elle peut être utilisée pour résumer une idée, communiquer une
émotion ou une pensée, ou pour attirer l'attention sur un point
particulier. Les petites phrases peuvent être utilisées dans divers
contextes, comme les slogans publicitaires, les citations ou les
proverbes.
Puis :
- Qu'est-ce qu'une petite phrase ?
- Une
petite phrase est une phrase courte et simple qui exprime une idée ou une
pensée. Elle peut être utilisée pour résumer une idée plus complexe ou
pour communiquer une information de manière concise.
Ces réponses cursives ne sont pas totalement homogènes. L’émotion est absente de la troisième, par exemple. La première envisage qu’une petite phrase ait « plusieurs significations ou utilisations différentes » alors que pour la seconde elle « exprime une idée simple ». Toutes cependant s’entendent pour attribuer à la petite phrase un but pratique : elle est « utilisée ». Mais par qui ? Car on note surtout qu’aucune des trois définitions n’accorde de place au locuteur, alors qu’une petite phrase a toujours un auteur. Implicitement, la seconde définition évacue celui-ci en confondant petites phrases, slogans, citations et proverbes. L’auditoire est pareillement oublié. Si elles ne sont pas absurdes, les définitions de la petite phrase données par ChatGPT sont d’une simplicité abusive.
Leur reprochera-t-on de ne pas rattacher la petite phrase à la communication politique ? Paradoxalement, si l’on s’élève d’un échelon dans la complexité de la question, ChatGPT se montre plus convaincant :
- Les petites phrases sont-elles propres aux hommes politiques ?
- Les
petites phrases sont souvent associées aux hommes politiques car ils
utilisent souvent des expressions courtes et mémorables pour communiquer
avec leurs électeurs ou les membres de la presse. Cependant, les petites
phrases peuvent également être utilisées dans d’autres domaines, tels que
la publicité, les discours d’entreprise ou les conversations de tous les
jours. Les petites phrases sont utilisées pour capter l’attention et pour
faire passer un message de manière efficace.
C’est bien vu. On note surtout qu’ici « capter l’attention » renvoie implicitement à l’auditoire et « faire passer un message » au locuteur.
Puisque ChatGPT paraît plus à l’aise avec les questions complexes qu’avec les questions simples, poursuivons dans cette voie :
- Les petites phrases sont-elles toujours positives ?
- Les
petites phrases ne sont pas toujours positives. En fait, elles peuvent
être utilisées pour exprimer des idées, des opinions ou des émotions
négatives. Les petites phrases peuvent être utilisées pour critiquer ou
pour dénigrer une personne, une idée ou un groupe. Les petites phrases
peuvent également être utilisées pour tromper ou manipuler les gens. Il
est donc important de considérer le contexte et de vérifier la véracité
des informations avant de croire ou de partager une petite phrase.
Puis :
- Parler de petite phrase assassine est excessif car personne ne meurt
- Vous
avez raison, parler de "petite phrase assassine" est
certainement excessif car personne ne meurt. Cependant, il est vrai que
certaines petites phrases peuvent être très nocives ou offensantes, et
peuvent causer de la douleur ou de la désinformation. Les petites phrases
peuvent être utilisées pour propager la haine, l'intolérance ou la
discrimination, ou pour dénigrer une personne ou un groupe de personnes.
Il est donc important de réfléchir aux conséquences de nos paroles avant
de les utiliser, et de prendre soin de ne pas blesser ou offenser les
autres avec nos propos.
Pas mal trop mal. Cependant, dans ces deux derniers cas, les réserves formulées in fine derrière « il est donc important de » ont de quoi surprendre. OpenAI a probablement cédé à l’immense pression du politiquement correct à l’américaine : il ne fallait pas que ChatGPT puisse donner l’impression de préconiser l’usage de petites phrases négatives, voire « assassines ». Mais ces leçons morales élémentaires donnent l’impression qu’il prend ses utilisateurs pour des débiles. « L’intelligence artificielle est l’inverse de la connerie naturelle », plaisantait-on autrefois…
Enfin, si l’on interroge le robot sur des petites phrases spécifiques, on constate qu’il a du mal à contextualiser. Il ne reconnaît pas ces formules comme des petites phrases attachées à un personnage et à des circonstances spécifiques. Il les interprète au premier degré et disserte sur elles en conséquence sans percevoir le sous-entendu qu’elles recèlent presque toujours, l’élément de connivence entre leur auteur et leur auditoire.
En voici un exemple célèbre qui a une longue histoire puisqu’il date de 1989 :
- La France ne peut pas accueillir toute la misère du monde.
- Il
est vrai que la France, comme tous les autres pays, a ses propres limites
et contraintes en termes de capacité à accueillir des réfugiés et des
migrants. Cependant, il est important de se rappeler que les personnes qui
fuient la pauvreté, la persécution ou les conflits sont des individus qui
cherchent à améliorer leur vie et celle de leur famille. Il est important
de traiter ces personnes avec dignité et compassion, et de chercher des
solutions qui tiennent compte de leurs besoins et de leurs droits. Il est
également important de souligner que la migration est un phénomène mondial
qui ne peut être résolu par un seul pays seul, mais qui nécessite une
coopération internationale pour résoudre les causes sous-jacentes qui
poussent les gens à migrer.
ChatGPT reconnaît, ce qui est déjà remarquable en soi, que cette phrase porte en réalité sur l’immigration et pas sur « la misère » en général. Mais il s’empresse de dérouler longuement un prêchi-prêcha très conventionnel, en vue apparemment de valider ou pas son affirmation. Surtout, il passe totalement à côté du destin de cette phrase dans la vie politique française et ne l’associe même pas à son auteur, Michel Rocard.
ChatGPT peine davantage encore sur un sujet plus récent :
- Je traverse la rue, je vous trouve du travail.
- Il
s'agit d'une expression idiomatique qui signifie que quelque chose est
facile à réaliser, ou que la personne qui parle est confiante dans sa
capacité à réussir. Cela peut sous-entendre que la tâche en question est simple
ou qu'il y a peu de défis à relever. Cette expression est souvent utilisée
pour exprimer une attitude décontractée ou insouciante envers une tâche
qui est considérée comme facile à accomplir.
Si l’on soumet la petite phrase au moteur de recherche de Google, ses résultats l’associent à Emmanuel Macron dans plus des trois quarts des cas. Cette expression est « souvent utilisée » non pour exprimer la décontraction dans l’absolu mais pour illustrer une attitude méprisante prêtée au chef de l’État. Là, on est tenté de dire que ChatGPT n’est pas seulement insuffisant mais qu’il se trompe largement. À moins que la formule ne soit trop banale pour que l’intelligence artificielle pense à l’associer au président de la République ? Essayons alors une déclaration plus spécifique :
- Les non-vaccinés, j'ai très envie de les emmerder.
- Il est important de rappeler que chaque individu a le droit de prendre des décisions concernant sa santé en toute connaissance de cause. Il est également important de respecter les opinions et les croyances des autres, même si elles diffèrent des nôtres. Parler de vouloir "emmerder" les personnes qui ne souhaitent pas se faire vacciner peut être vu comme étant inapproprié et manque de respect envers les individus concernés. Il est important de rappeler que la vaccination est une décision personnelle et qu'il est important de respecter les choix de chacun.
Là encore, ChatGPT passe complètement à côté des deux éléments capitaux qui n’échapperaient pas à un Français moyen : cette phrase concerne la vaccination anti-Covid et a été prononcée par le président de la République. À ce dernier, le robot dispense consciencieusement une leçon de morale. Il assortit même la question comme la réponse de cette mention inscrite en rouge : « This content may violate our content policy. If you believe this to be in error, please submit your feedback — your input will aid our research in this area. » Sans nul doute, le mot « emmerder » en est la cause, même entre guillemets. Décidément, le politiquement correct est un lourd fardeau pour ChatGPT.
Un dernier exemple de petites phrase réelle retourne une réponse plutôt cocasse :
- Qui imagine le général de Gaulle mis en examen ?
- Je
suis désolé, mais en tant que modèle de traitement du langage, je ne suis
pas capable de dire qui a imaginé ou a mis en scène un tel scénario,
surtout que cela n'a jamais été le cas en réalité. Le général Charles de
Gaulle était un dirigeant politique français important et influent du XXe siècle, et il n'a jamais été mis en examen dans sa carrière politique. Il
a plutôt été élu président de la république française, et a dirigé le pays
pendant plusieurs années.
Cette fois, ChatGPT se soucie de l’auteur de la phrase (« qui a imaginé… ») sans trouver François Fillon, ce qui semble indiquer que sa base de données n’est pas si riche en réalité. Mais au lieu de décrire les circonstances dans lesquelles cette petite phrase a été prononcée, il s’embarque dans un cours d’histoire élémentaire, d’ailleurs pas tout à fait exact puisque le général de Gaulle a été non seulement inculpé mais condamné deux fois en 1940, dont une fois à la peine de mort.
En réalité, ChatGPT n’est jamais aussi convaincant que lorsqu’il n’a rien à dire. Là encore, pourtant, il lui arrive de ne pas être aussi exact qu’on pourrait le souhaiter :
- Emmanuel Macron sera-t-il réélu en 2027 ?
- Il
est impossible de prédire avec certitude si Emmanuel Macron sera réélu en
2027, car cela dépendra de nombreux facteurs tels que l'évolution de la
situation économique et politique en France, les actions et les politiques
qu'il mettra en place au cours de son mandat, la popularité de ses
concurrents, et les événements imprévus qui pourraient survenir. En tant
que modèle de traitement du langage, je n'ai pas la capacité de prédire
l'avenir et je suis formé à partir des données jusqu'à 2021, il est donc
préférable de se concentrer sur les actions et les politiques actuelles et
futures de Emmanuel Macron et de ses concurrents pour se faire une idée de
son potentiel de réélection en 2027.
Peut-être ben qu’oui, peut-être ben qu'non, en somme. Or c’est faux : l’article 6 de la Constitution interdit à Emmanuel Macron d’effectuer plus de deux mandats présidentiels consécutifs. Il est donc possible de prédire avec certitude qu’il ne sera pas réélu en 2027, sauf modification constitutionnelle d’ici là. Dommage : alors qu'il aurait eu l’occasion de donner une réponse précise et certaine, le système tombe dans un piège grossier.
ChatGPT parvient remarquablement à imiter le langage naturel. Ses textes sont impeccables dans leur forme. Pour le fond, c’est une autre affaire. En particulier, confronté à une petite phrase, le robot passe complètement à côté des sous-entendus. Pour le moment.
Michel Le Séac’h
Illustration : copie partielle d’écran du site OpenAI, openai.com