Pages

dimanche 28 septembre 2025

L’IA générative, système dialoguant sans sujet ni conscience

D’après la conférence faite par Henri Gilabert le 24 septembre 2025 au Club de la Gouvernance des Systèmes d’Information 

Henri Gilabert a eu la curieuse idée de demander à ChatGPT et Gemini quel sont les causes des hallucinations en se présentant comme un philosophe. Ils reconnaissent l’existence des hallucinations et expliquent ce qui les produit. Cependant Gemini n’arrive pas à expliquer leurs conséquences. Les réponses de ChatGPT sont intéressantes et pertinentes (voir les premières conclusions écrites par Henri Gilabert dans la deuxième fenêtre ci-dessous).

ChatGPT explique ces dérives en citant plusieurs philosophes comme Derrida, Lyotard et Wittgenstein mais surtout il avoue que : « le langage n’a plus besoin du réel pour fonctionner. Il suffit qu’il se boucle sur lui-même, qu’il produise du plausible, du cohérent, du consommable. » Parole d’ordinateur ! Dans ces conditions on comprend mieux comment sont possibles les hallucinations des IA génératives. Ceci amène à s’interroger sur la véritable nature d’une IA générative.

Fort de ce premier succès pour en avoir le cœur net Henri Gilabert décide de pousser le test en demandant à ChatGPT de « faire une synthèse philosophique de l’éthique sur laquelle est fondée l’AI Act de l’UE ». La question n’est pas simple et la réponse n’est pas évidente. Immédiatement ChatGPT répond immédiatement un texte étonnant : « l’IA Act représente un effort singulier pour incorporer des principes philosophiques (dignité, autonomie, justice, transparence) dans un cadre juridique opérationnel. Qu’il mêle une éthique fondée sur les droits, une approche fondée sur les risques, et une techno-règlementation pragmatique. » Etonnante réponse venant d’un ordinateur !

Pour comprendre ce qui s’est passé et la manière qui a permis à ChatGPT de sortir de son discours habituel basé sur la somme des opinions majoritaires il a été nécessaire de voir comment il a forcé le LLM pour lui permettre de sortir de sa démarche habituelle. Il a pour cela mis une série de demandes l’obligeant à aller chercher dans des points de vue minoritaires qui sont généralement ignorés. Ceci a été possible par la mise en œuvre d’un protocole rigoureux en 7 points détaillé sur le slide 11 (voir ci-dessous dans la première fenêtre). Il oblige ChatGPT à travailler de manière différente. Henri Gilabert a alors entamé un long dialogue philosophique qui a duré des dizaines d’heures pour « mettre en tension » les différents points de vue majoritaires et minoritaires et à amener le LLM à mieux cerner les concepts sous-jacents.

Au cours de ses échanges a été abordé le délicat problème de l’influence des algorithmes des réseaux sociaux sur les comportements des utilisateurs. En travaillant sur les concepts mis en œuvre Henri Gilabert et ChatGPT ont fini par codéveloppé un concept original dérivé d’une notion inventée par Jean-Paul Sartre « d’être pour autrui » qui est celui de « l’être-pour-l’algorithme ». Ce terme « désigne la modalité d’existence par laquelle un sujet se constitue en s’exposant à un regard machinique et impersonnel. Il est caractérisé par une temporalité différée et partiellement maîtrisée : l’individu choisit quand et comment il se montre, mais toujours sous des contraintes normatives invisibles. » Cela vous semble très abstrait et un peu obscur pourtant vous observer en permanence sur Internet et notamment sur les réseaux sociaux ce type de comportement. Certaines personnes, généralement bien élevées, écrivent dans l’intimité de leur clavier-écran des propos violents, orduriers et racistes qu’ils ne tiendraient pas dans la vraie vie.

La démarche suivie par Henri Gilabert montre que l’approche originale suivie a permise d’obliger ChatGPT à sortir de sa démarche habituelle. Il a été permis par le biais d’un dialogue original de dégager des idées originales. Henri Gilabert considère que c’est « une rupture épistémologique ». C’est-à-dire que la nature du discours produit par le LLM a changé de manière radicale.

 

Comment expliquer cela. Comme chacun le sait, les IA génératives génèrent habituellement un texte contextuellement adapté au propos de l’utilisateur et stylistiquement cohérent mais ce qu’il dit n’est pas forcement la vérité. Ce ne sont que des propos vraisemblables. Ceci contribue le curieux phénomène des hallucinations. Mais, en le forçant le LLM et en lui imposant des contraintes fortes, Henri Gilabert le force à changer de comportement et va chercher dans sa prodigieuse mémoire des notions et des concepts qui, jusqu’alors, n’étaient pas en avant. On assiste alors à un dialogue original entre le LLM et l’utilisateur ce qui permet d’affiner la pensée de ce dernier.

 

Cette rupture est liée à la nature d’une IA générative. C’est un système qui parle sans sujet ni conscience. Il ne pense pas, mais produit pourtant un discours cohérent et convaincant, notamment avec les dernières générations de LLM. Ce n’est plus simplement un système machine-donnés-logiciel qui répète ou calcule, mais elle devient autre chose : une surface d’écho, un opérateur syntaxique, un système mimétique discursive capable de simuler le dialogue humain avec une intensité nouvelle. Henri Gilabert parle dans ce cas « d’interface maïeutique ». D’où vient ce saut qualitatif ?

 

Si cette illusion fonctionne, jusqu’où peut aller ce simulacre ? Qu’est-ce que ces systèmes révèlent, non pas sur la machine, mais sur nous : sur notre rapport au langage, à la pensée et à l’autre ? Les machines parlent-elles… ou faisons-nous parler les machines ? Quand l’interlocuteur n’existe pas, que devient l’échange ? On n’a pas fini d’être étonné par les possibilités des LLM et notamment de ChatGPT.

  

Ce texte est un résumé de la conférence faite par Henri Gilabert au Club de la Gouvernance des Systèmes d’Information le Mercredi 24 Septembre 2025 sur le thème : « L’IA générative, système dialoguant sans sujet ni conscience » avec comme sous-titre : « Les échanges avec l’Intelligence Artificielle Générative ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

-        Comment les LLM expliquent leurs hallucinations ?

-        Comment les LLM voient les conséquences de leurs hallucinations ?

-        Est-ce que le fait que l’interlocuteur humain se déclare philosophe à une influence sur les LLM ?

-        Pour quelles raisons ChatGPT va alors plus loin et sort des explications classiques qu’il donne dans un premier temps pour aider à faire émerger des concepts nouveaux ?

-        Comment expliquer ce saut qualitatif ? Est-ce une rupture épistémologique ?

-        Est-ce que les LLM sont capables de tenir un discours philosophique de qualité et pourquoi ?

-        Est-ce le début d’une vraie intelligence des LLM ?

-        Quel est le rôle de « l’interface maïeutique » qui a été réalisé ?

-       

 

Lire ci-dessous le support de la présentation de l’exposé de Henri Gilabert :

Slide

1.      Mes échanges avec Gémini et ChatGPT sur les hallucinations            3

2.      Mes échanges avec ChatGPT sur l’IA Act                                           6

3.      Premières conclusions                                                                        10

4.      Le dialogue comme événement dialectique                                       12

5.      Conclusion finale                                                                               13

 

 

Et lisez les premières constations faites par Henri Gilabert après avoir demandé à Gemini et à Chat GPT pour quelles raisons ils commettaient des hallucinations :

https://docs.

 

 


Aucun commentaire: