L’intelligence concrètement artificielle

L’intelligence concrètement artificielle

29 avril 2023 Non Par Paul Rassat

Conversation avec Nicolas Curien sur le thème de l’intelligence artificielle. Définition, dangers, apports positifs, fausses visions du sujet, la conversation aborde librement toutes ces facettes alors que nous sommes assis à la terrasse d’un café.

L’IA au front de la révolution numérique

Il faut d’abord démystifier l’intelligence artificielle, ou IA, qui n’est somme toute que le dernier développement en date de l’informatique. Pour désigner les progrès considérables de l’informatique dans les dernières décennies, on parle de « révolution numérique ». Ce qui change par rapport aux deux précédentes révolutions industrielles, la machine à vapeur au 18ème siècle, l’électricité, la chimie, la voiture, l’avion au 19ème, c’est que ces technologies, certes changeaient les conditions de production, de consommation, de vie, d’habitat, de mobilité, mais elles restaient des outils dans la droite ligne du silex. Ou de la hache. C’était des prothèses de la main. Avec le numérique, on est confronté à une technologie qui touche aux fonctions du cerveau et affecte donc  profondément les fonctions cognitives, ce qui n’était pas le cas auparavant.

Une révolution cognitive.

La révolution de l’ordinateur a commencé à l’issue de la seconde guerre mondiale. Sa caractéristique essentielle est de modeler la façon dont on pense, dont on communique, dont on s’exprime. Les derniers progrès de l’intelligence artificielle portent précisément sur le traitement du langage, sur la capacité d’une machine à produire du langage naturel ce qui, jusqu’ici, était l’apanage de l’homme. Le numérique est un peu l’équivalent de l’écriture il y a 5000 ans, de l’imprimerie il y a 500 ans. Il s’agit d’une révolution cognitive et culturelle, pas simplement d’une révolution technique et industrielle.

Une révolution industrielle.

Mais, comme les révolutions précédentes, c’est aussi une révolution industrielle. Disons qu’il y a une ou deux révolutions cognitives par millénaire alors qu’il y a une révolution industrielle par siècle. Il ne faut pas négliger l’aspect industriel de la révolution numérique, dont l’impact est considérable sur l’économie puisqu’il donne lieu à l’émergence d’usines intelligentes, à la disparition, la transformation et la création de certains emplois, à « l’ubérisation » de nombreux secteurs d’activité, à l’explosion du commerce en ligne, etc.

Plus poliment que certains humains…

Revenons au langage… L’outil Chat GPT3 est l’addition d’un « langageur » (producteur de langage) et d’un robot conversationnel qui vous dit poliment bonjour quand vous l’interrogez, vous remercie de l’avoir interrogé… C’est peut-être d’ailleurs à cela qu’on peut le distinguer des humains (rires). En tant que langageur, Chat GPT ne fait qu’extrapoler des séquences de mots. Quand vous lui soumettez une question, un texte, il va chercher dans sa base d’entraînement des mots qui sont susceptibles de prolonger le plus naturellement ceux que vous lui avez soumis. Et grâce à ce simple mécanisme, il réalise parfois des prouesses… et peut aussi commettre des erreurs grossières.

Derrière les mots y a-t-il une forme de savoir, ou bien ce ne sont que des mots ?

Chat GPT3 ne possède strictement aucune forme de savoir, de compréhension, d’intelligence au sens de la pensée humaine. On l’a entraîné préalablement sur une énorme base de données, environ 500 milliards de mots, mais il n’a rien compris à ce qu’on lui a donné à lire ! En revanche, il a appris à faire des associations, à reconnaître sans les comprendre des configurations de mots. C’est de cette façon qu’il est en mesure de composer des phrases en bon français. Il manie la syntaxe à merveille, mais il n’a aucune capacité sémantique.

Les dangers de la logique

Il aurait quelques difficultés avec la syntaxe de Mallarmé ! (rires)

… ou avec les Calligrammes d’Apollinaire ! Sur certaines questions qu’on lui soumet, Chat GPT est assez performant. Sur d’autres, il est nul. Demandez-lui pourquoi les vaches pondent de plus gros œufs que les autruches. Il vous fait une réponse plus intelligente que ne laisserait espérer l’ineptie de la question, mais toutefois absurde. « Les vaches sont des animaux domestiqués, bien nourris, élevés pour la reproduction. Elles sont donc dans les meilleures conditions pour pondre alors que les autruches vivent en milieu sauvage. Par ailleurs, les vaches étant plus grosses que les autruches, il est normal qu’elles pondent de plus gros œufs. ».  Si vous lui demandez quand Christophe Colomb a découvert l’Amérique, la réponse est correcte : « 1492 ». En effet, dans sa base de données, les mots Christophe Colomb, découverte, Amérique, 1492 sont très souvent proches et donc Chat GPT les associe. Et si vous lui demandez en quelle année Paul Rassat a découvert l’Amérique, Chat GPT vous répondra encore « 1492 », car la présence d’un seul mot intrus dans la phrase soumise ne suffit pas à casser le lien fort entre les autres mots. Mais ôtez-moi d’un doute… c’est bien exact, c’est bien cette année-là que vous l’avez découverte, l’Amérique ?

Comment ça marche ?

Chat GPT n’est pas intelligent au sens où on l’entend habituellement. Il fait preuve en revanche d’une étonnante capacité algorithmique à fournir des données de sortie à partir de données d’entrée, et ceci avec une rapidité confondante. Il fonctionne selon le modèle d’un réseau de neurones artificiels. Imaginez un grand nombre d’unités logicielles élémentaires, chacune simulant un neurone de cerveau humain. Ces neurones artificiels sont répartis en couches successives, de la couche d’entrée jusqu’à la couche de résultat, et ils sont reliés entre eux par une multitude de synapses artificielles, aussi bien horizontalement, au sein d’une couche donnée, que verticalement, entre deux couches successives. Lorsqu’un neurone reçoit un signal d’un autre neurone, il émet ou non un signal vers chacun des neurones auxquels il est connecté. Au cours de l’entraînement, sont réglés les « paramètres », c’est-à-dire les seuils de déclenchement d’émission d’un neurone vers un autre. Cet apprentissage s’opère en partie sous la supervision du programmateur, et en partie via la machine elle-même, selon un mécanisme de rétro-propagation des erreurs et de renforcement des connexions qui tendent à améliorer les résultats délivrés. Pour Chat GPT3, environ 175 milliards de paramètres ont été ainsi ajustés !

Pour bien comprendre cette procédure, considérons un autre domaine d’application des réseaux de neurones, la reconnaissance des formes.  Si vous voulez faire reconnaître à une IA un chat sur une image, vous lui montrez une image de chat et vous lui dites «  Ça, c’est un chat. ». L’IA a exploré tous les pixels de votre photo mais elle ne saurait pas reconnaître un chat sur une autre photo dont les pixels ne seraient pas strictement identiques à ceux de la précédente. Si, au lieu d’une seule, vous lui montrez quinze milliards de photos avec des chats, elle finit par reconnaître des points communs entre ces images, des « patterns » , des traits félins, et elle n’est alors plus obligée d’analyser chaque pixel. Elle saura dire si un chat est présent ou pas sur une image qu’elle ne connaît pas encore, par similarité avec les images qu’elle connaît. Durant cet apprentissage, les paramètres du réseau de neurones sont ajustés selon un processus d’essais-erreurs, à la manière de potentiomètres, afin que la probabilité de donner une bonne réponse augmente.

C’est comme l’école en mieux. (rires)

Il arrive à une IA de se fourvoyer gravement. Si vous lui avez montré quinze milliards de chats gambadant en extérieur et que maintenant vous lui en montrez un se prélassant en appartement, elle peut se tromper car elle ne voit aucune image de ce type dans sa base d’entraînement. Il faut donc l’entraîner sur des images de chats photographiés dans toute une variété de contextes différents. Et, si l’on souhaite rendre l’IA capable de décrire une image dans tous ses détails, il faut lui apprendre à reconnaître non seulement les chats, mais aussi les chiens,  les voitures, les immeubles, les feux rouges, les champs, etc. Et cela consomme une énorme quantité de ressources informatiques !

On entend dire que cette intelligence artificielle peut apprendre par elle-même.

L’apprentissage de la machine, à la fois par ses propres moyens et sous supervision, intervient uniquement au stade amont de l’entraînement. Tant que vous ne réalimentez pas la base de données, que le réglage des paramètres n’est pas revu en tenant compte des données ajoutées, il n’y a pas d’évolution spontanée. Ce qui peut néanmoins surprendre est que le programmeur ne sait jamais lui-même exactement comment fait la machine opère pour reconnaître un chat ! Il y a en effet une part empirique et aléatoire dans l’ajustement des neurones artificiels, une part de « bidouille ». Mais la chimie et l’électricité dans le cerveau fonctionnent aussi un peu de cette manière.

La définition purement étymologique du mot « intelligence » est de créer des liens. On place dans l’appellation « intelligence artificielle » une dimension presque magique, voire divine. Comme si l’IA pouvait nous conduire au savoir parfait, total, dans la ligne du positivisme qui a sévi au XIX° siècle.

Ce n’est pas l’IA qui nous conduit au savoir, mais nous qui conduisons l’IA à un ersatz de savoir. Est-ce que les machines cognitives finiront par dépasser leurs maîtres et en prendre le contrôle, ce que les trans-humanistes nomment « point de singularité » ?  Personnellement je ne le crois pas : un outil reste un outil, même s’il est artificiellement intelligent. En revanche, se pose la question des effets limites de la technologie sur l’humain. Arriverons-nous à un homme indéfiniment augmentable et réparable ?  Pour moi, l’aspiration de l’homme n’est certes pas de devenir lui-même une machine, aussi parfaite soit-elle, mais plutôt d’utiliser les outils qu’il ne cesse de concevoir et renouveler dans le respect d’une éthique résolument humaniste.

L’homme doit apprendre à ne pas devenir l’outil de la machine. Il doit rester indispensable pour la gérer alors que nos sociétés nous transforment plutôt en usagers, en consommateurs.

Il est vrai qu’Il y aura vraisemblablement d’un côté des utilisateurs responsables, qui maîtriseront l’usage les outils numériques et œuvreront à leur amélioration, tandis que d’autres, plus paresseux, ne feront qu’utiliser passivement ces outils, parfois à mauvais escient.

Apprendre ou comprendre ?

Revenons à l’apprentissage machine. L’école offre à cet égard une métaphore éclairante. Certains élèves sont studieux mais pas très malins. Ils ne comprennent pas grand-chose mais ils apprennent beaucoup et connaissent par cœur leur cours et les solutions d’exercices élémentaires. Ces élèves s’en tirent toujours à l’examen : Ils n’ont jamais 18 ou 20, mais ils ont  12 ou 14. Ils ont appris mais ils n’ont pas compris. Les machines numériques, comme ces élèves dont nous parlons, ne franchissent pas le seuil de la compréhension. Elles n’ont aucune capacité de créativité lorsqu’elles sont confrontées à des problèmes nouveaux qui exigent des raisonnements qu’elles n’ont pas appris. Si la machine ne comprend pas, ses résultats peuvent néanmoins être bluffants. La frontière entre apprendre et comprendre est assez subtile. La machine agit comme un élève studieux qui sait établir des liens entre les bouts de savoir qu’il a emmagasinés. Si Sénèque a parlé de certaines choses dont Corneille parle aussi, alors la machine comme l’élève pourra écrire une phrase, crédible sinon pertinente, qui associe les deux auteurs.  C’est un peu ce que nous proposait la science fiction il y a déjà quelques dizaines d’années.

La réalité dépasse déjà la fiction, avec la montée en puissance des jeux vidéo, des métavers, des réalités virtuelle et augmentée. Le numérique est « pervasif ». Regardez le comportement des jeunes d’aujourd’hui. Je les observe souvent dans le train entre Annecy et Paris. Ils ne sont que vaguement attentifs à leurs camarades assis à côté d’eux, fort occupés à chater en même temps sur les réseaux sociaux et à écouter de la musique en streaming avec leurs écouteurs. Ils font ainsi trois ou quatre choses à la fois, exerçant leurs fonctions cognitives de façon très différente de ce que nous faisions lorsque nous avions leur âge. Mon père me disait «  Nicolas, on ne fait bien qu’une seule chose à la fois. ». Et il avait raison : si  l’on fait plusieurs choses à la fois, nécessairement chacune d’elles est plus mal faite que si l’on s’y consacrait exclusivement! Néanmoins, le « multi-tasking », propre au monde numérique, ne se réduit pas à une perte d’efficacité car il permet de développer des synergies imprévues entre les activités effectuées simultanément.

Le tri intellectuel sélectif

S’ajoutant aux médias historiques, la multitude des sites accessibles sur le Web fait que chacun baigne constamment dans un univers sans limite apparente, empli d’informations et de sollicitations diverses. Jeune, j’avais l’impression chaque soir que j’avais fait tout ce que j’avais à faire en réaction aux stimuli auxquels j’avais été soumis dans la journée. Aujourd’hui, cela n’a plus de sens ! On ne peut plus prêter attention à tout. Sur l’application mail, je passe davantage de temps à jeter des spams dans la corbeille qu’à lire les messages qui présentent de l’intérêt pour moi. À l’ère numérique, la faculté intellectuelle la plus importante est devenue la capacité de trier avec discernement. D’autant plus que les outils de l’IA ne comprennent rien aux données qu’ils traitent ! Pour eux, la vérité n’a pas de sens. C’est un grave danger. Même si l’on a plus ou moins soigneusement veillé à ne pas les nourrir et les entraîner avec du fake, ils vont, à travers leurs erreurs, en produire et en propager !

Il était déjà difficile de s’y retrouver, ce sera impossible avec l’IA !

On observe effectivement que, pour les jeunes générations, il est est compliqué de savoir sélectionner les sites qui peuvent fournir des informations pertinentes et fiables, davantage que pour nous qui avons appris à rechercher des textes dans des bibliothèques. L’encyclopédie en ligne Wikipédia a un vrai problème  de survie dans un écosystème numérique où l’attention se porte en premier vers le fake, le complotiste, le sensationnel. À travers la mécanique économique de génération de profits à partir de l’audience, des sites vertueux finissent par être marginalisés et des sites complotistes réussissent à occuper le devant de la scène.

L’école

Comment l’école doit-elle procéder pour aider à faire le tri ?

Certains profs disent que c’est catastrophique, qu’ils ne peuvent plus rien enseigner aux élèves à cause de Chat GPT ! Il faut raison garder.  N’importe quelle technologie est capable du meilleur comme du pire, suivant la façon dont on l’emploie. Plutôt que refuser l’outil, les profs devraient enseigner aux élèves comment tirer bénéfice de Chat GPT, au-delà de la fraude bien sûr ! Pourquoi se priver d’un outil qui marche plutôt bien et qui peut s’avérer utile ?

Les enseignants doivent devenir beaucoup plus ingénieux.

Les modalités d’accès aux contenus changent profondément dans cette phase nouvelle du progrès technique qui touche désormais au registre cognitif. Les enseignants doivent aider les étudiants à s’y reconnaître dans la masse énorme et mouvante d’informations qui les entoure. Par ailleurs, ils doivent les éduquer au bon usage des outils numériques.  À l’époque de Leonard de Vinci, chacun pouvait se représenter à peu près convenablement le fonctionnement de toutes les machines existantes. Aujourd’hui, il nous est impossible de connaître le fonctionnement de tous les outils que nous utilisons quotidiennement et c’est à travers leur usage que nous découvrons leur fonctionnement.

La confiance

Ce qui implique que l’on doit être capables de se faire confiance puisque chacun n’a qu’une petite parcelle de savoir.

La confiance est fondamentale dans la société numérique. C’est notamment sur elle que repose la distinction entre croyance et connaissance. Majoritairement, les gens ne savent pas démontrer le théorème de Pythagore, mais ils pensent à juste titre qu’il est vrai. Son auteur l’a jadis prouvé, les profs de maths l’enseignent depuis des siècles, donc je peux moi-même raisonnablement attribuer à ce théorème le statut de connaissance et non de simple croyance… Beaucoup de ce que nous tenons pour vrai est lié, non pas à notre capacité à le prouver, mais à la confiance que nous accordons à nos sources. Il faut donc apprendre aux jeunes à reconnaître les sources auxquelles ils peuvent se fier et celles qu’ils doivent au contraire bannir.

Les compétences de ChatGPT

Si l’on avait demandé à l’intelligence artificielle comment mener la réforme des retraites, est-ce que l’on aurait eu une réponse pertinente ?

Essayez, pour voir ! Quand on lui pose ce genre de question, Chat GPT n’est pas mauvais pour donner les différents points de vue en présence. En l’occurrence, il présentera celui des syndicats qui refusent tout allongement de la durée de travail, et celui du gouvernement, qui veut parvenir à l’équilibre du système en réglant ses différents paramètres, dont l’âge de départ.

On a l’impression que tous les gouvernements utilisent le même clavier et se contentent d’appuyer un peu plus ici ou là. C’est un peu toujours la même musique. Est-ce que, bien nourrie, l’IA pourrait proposer des visions plus panoramiques ?

Oui et non. Une IA n’inventerait pas un nouveau système ex nihilo mais elle pourrait proposer un hybride de systèmes existants. Si on l’a entraînée à partir de systèmes de retraites par répartition, elle n’inventera pas le modèle de retraites par capitalisation. En revanche, si sa base d’entraînement inclut des régimes de retraite très différents, alors l’IA pourra potentiellement suggérer un régime innovant en mixant des régimes existants . Plus large est la base de données, plus forte est la probabilité  que, grâce à sa puissance de calcul, l’IA puisse, dans cet immense corpus, associer deux idées que personne n’avait pensé à associer. La pensée humaine fonctionne beaucoup par analogies mais elle est bornée par sa capacité limitée à explorer toutes les combinaisons possibles. La machine est moins sujette à cette limitation.

La morale ?

L’IA n’a pas de morale, mais elle n’a pas non plus de préjugés.

Mais si ! Elle reproduit inévitablement tous les préjugés, stéréotypes et biais cognitifs des humains qui sont à l’origine des données qu’elle utilise. Elle peut ainsi se montrer sexiste ou xénophobe par procuration. D’où l’importance de  nettoyer avec soin la base de données d’entraînement.

Autrefois, les études de QI, aux USA, montraient que les noirs étaient moins intelligents que les blancs, simplement parce que les tests étaient adaptés aux blancs.

Et vraisemblablement sans qu’il y ait eu d’intention discriminatoire délibérée ! Un test de QI bien conçu se doit être neutre vis-à-vis des variations culturelles et ethniques. Si cette précaution n’est pas prise, alors le test n’est pas interprétable au-delà de la sous-population particulière sur laquelle il a été calibré.

Talpa apprécie particulièrement ces conversations qui évoluent librement et construisent des échanges autour d’un axe. La discussion se poursuit. Elle donnera lieu à une autre restitution.