Pages

lundi 24 novembre 2025

Le crétin artificiel

par Bernard Quinio

Les IA, surtout les IA génératives, sont, de plus en plus, capable de faire le travail à notre place. C’est une bonne chose mais cela pose de nombreuses questions. Qui fait le travail le plus intelligent, le plus créatif, le plus sympathique : l'IA ou l'humain ? Quels sont ces conséquences sur les humains, sur les connaissances et finalement sur l’organisation des entreprises et des administrations ?

Il y a quelques années Michel Desmurget alertait dans un livre prémonitoire : « La fabrique du crétin digital » sur les risques induits par les écrans sur les enfants. Il signalait leurs effets négatifs sur le développement des jeunes enfants notamment en ce qui concerne sur leur capacité à avoir des interactions avec les humaines, sur leur langage et leur capacité de concentration.

Aujourd’hui le développement de l’Intelligence Artificielle et notamment de l’Intelligence Artificielle générative remet le sujet en avant. Elle va avoir des effets considérables non seulement sur les enfants mais aussi sur les adolescents et sur les adultes. Il est urgent de s’en occuper. Pour y arriver il est nécessaire d’analyser ce qui se passe dans la relation entre les humains et les systèmes d’Intelligence Artificielle Générative puis de trouver des solutions. Cependant, il ne faut pas pour autant verser dans le pessimisme le plus noir. Les IA Génératives ont des effets positifs considérables notamment en facilitant l’apprentissage, en permettant d’automatiser de nombreuses tâches, en faisant une synthèse sur un sujet particulier, en traduisant des textes écrits dans différentes langues, en suggérant des idées et des démarches nouvelles, … L’IA Générative est un fantastique outil d’enseignement et de recherche et d’amélioration de l’efficacité du travail dans les entreprises et les administrations.

Mais en même temps les systèmes d’IA Générative souffrent d’un certain nombre de problèmes comme les biais, les hallucinations, les effets de la consanguinité, … qui peuvent perturber les utilisateurs. Pour éviter ces risques il est indispensable de mettre en place des gardes fous et notamment de prendre des mesures afin de rendre l’IA Explicable et ainsi éviter les effets de boîte noire. Il est certain que l’on ne retrouve pas la même difficulté à expliquer les résultats obtenus dans le cas des autres applications informatiques. Les chiffres obtenus à l’aide d’Excel ne sont pas inexplicables. Ils peuvent être faux mais assez vite on sait quelle en est la cause. Ce n'est pas le cas avec l’Intelligence Artificielle Générative. 

Mais à côté de ces défauts il existe un effet encore plus redoutable : c’est l’impact de l’IA Générative sur le raisonnement. On craint que des pertes de compétences peuvent survenir. Il y a quelques décennies, lors de la généralisation de l’emploi des calculatrices, nous avions déjà constaté chez les enfants une perte de leurs capacités de calcul mental. On a observé plus récemment que la génération Z a perdu le sens des ordres de grandeurs. N'est-ce pas inquiétant ? Certain dirons qu’en fait ce n’est pas si grave. Cependant, la généralisation de l’Intelligence Artificielle Générative fait apparaître un phénomène de ce type mais avec des effets considérablement plus fort. Il semble qu’il y a un risque de perte de capacité intellectuelle, c’est-à-dire d’intelligence. Dans ces conditions serons-nous encore capable de réfléchir seul ?

Ceci nous amène à nous interroger sur la nature de l’intelligence ? En fait il n’y a pas de définition claire de cette notion fondamentale. Les psychologues en discutant depuis des années sans arriver à se mettre d’accord et on ne sait toujours pas la mesurer de façon pratique. A la capacité d’avoir un raisonnement logique s’ajoute en effet une certaine dose de créativité, une capacité de mémorisation et surtout un esprit critique. Un bon raisonnement est le résultat de ces différents facteurs. Dans ces conditions mesurer l’impact de l’IA Générative sur l’intelligence n’est pas une opération évidente.

De nombreuses études montrent les risques de l’Intelligence Artificielle Générative

Une étude récente de la FNEGE sur l’attitude des étudiants face au l’IA Générative, et notamment face à ChatGPT, montre que 80 % d’entre eux utilisent régulièrement et massivement. En dehors de la rédaction des devoirs et des mémoires ils s’en servent pour effectuer beaucoup de choses différentes comme la recherche de données, une meilleure compréhension du cours, la recherche de citations, le développement d’idées innovantes, le cheminement de la réflexion, la création d’images, … Ils sont conscients des risques de l’IA Génératives comme la perte de compétences, la disparition de leur esprit critique, la perte de l’habitude de faire des efforts, … Mais, en pratique, ils ont du mal à prendre leur la distance face aux productions des IA Génératives et même après une mise en garde des enseignants ils éprouvent une grande difficulté à prendre la distance nécessaire. Ce constat doit être mis en relation avec un autre phénomène préoccupant récemment observé : la rapide perte d’attention des étudiants au-delà de 15 minutes. Enfin, l’emploi massif des IA Génératives a comme conséquence qu’aujourd’hui les enseignants ne savent plus vraiment de quelle manière ils peuvent évaluer les étudiants.

Différentes études confirment ces constatations notamment une recherche faite par Microsoft en 2025 sur la base de 319 réponses à une enquête qui montre que l’usage des IA Génératives est associé à une pensée moins critique. De même une étude du MIT sur un échantillon de 54 personnes suivie durant 4 mois montre que les personnes qui utilisent ChatGPT sous-performent systématiquement par rapport aux personnes qui n’y recourent pas. Pire : 83 % des utilisateurs sont incapables de se rappeler les opérations qu’ils ont effectuées quelques minutes auparavant ! On constate ainsi une perte des capacités de mémorisation qui est à relier probablement à la perte des ordres de grandeurs déjà constaté.

D’autres études montrent que les utilisateurs développent une dépendance à l’outil qui se traduit par une certaine paresse à rechercher les connaissances (vous trouverez dans les slides ci-dessous la référence de ces études et des articles qu’il est intéressant de consulter). Ceci est probablement dû à l’absence d’effort pour produire un résultat particulier. 

On constate aussi un problème d’honnêteté intellectuelle car beaucoup de personnes pensent que si le système d’IA Générative l’a dit, c’est que c’est vrai. En fait, on constate qu’il y a une sorte phénomène de délégation cognitive qui se traduit par des pertes des compétences et donc une réduction de l’autonomie intellectuelle. Ceci explique en grande partie l’absence d’esprit critique constatée. 

Pour en revenir à l’Université on constate des attitudes très variées des étudiants : une majorité d’entre eux perdent une partie de leurs capacités intellectuelles à cause de l’emploi de l’IA Générative et ils sont donc diminués alors qu’une minorité d’étudiants voient au contraire leurs performances augmentées car ils ont su préserver leurs capacités de compréhension, leur créativité et surtout leur esprit critique. Mais derrière cette fracture cognitive on distingue une facture éthique qui risque d’avoir avec le temps un très fort impact. L’usage croissant de l’IA Générative pourraient mener à terme à une uniformisation des métiers et des identités professionnelles. 

En effet avec l’application de l’IA Générative dans le domaine de l’éducation on va pouvoir individualiser les parcours des étudiants. Ceci fait qu’ils ne sont plus ensemble pour travailler et ceci va se traduire par la perte du sens de la communauté. Finalement on va perdre les communs. Enfin, la dépendance croissante à ces outils va se traduire par des comportements curieux. Ainsi on constate une réticence croissante à apprendre des langues étrangères car les systèmes d’IA traduisent sans peine et instantanément toutes les langues. 

Apprendre à vivre avec l’Intelligence Artificielle Générative

Dans ces conditions il est nécessaire de s’organiser pour résister à la tempête qui s’annonce. On doit pour cela commencer à distinguer le cas des professionnels formés et celui des étudiants en cours de formation. De même dans l’entreprise il va être nécessaire de gérer de manière spécifiques les débutants et de redéfinir le rôle des séniors. On peut penser que cela va entrainer dans les années à venir de grands changements.

Il faut le rappeler que l’IA Générative est un puissant outil de travail entre des mains expertes. Ainsi, dans le cadre des activités scientifiques elle est capable de prendre en charge de nombreux travaux. C’est un collaborateur fiable, efficace et discret. Il en est de même dans de nombreuses autres fonctions de l’entreprise comme la gestion commerciale, le marketing, les finances et la comptabilité, la logistique, le juridique, la recherche et développement, ….

Mais il y a actuellement trop de montreurs de marionnettes qui racontent des fables à ce sujet, sortent des bancs d’essais biaisés et minimisent les limites de cet outil. Ils annoncent le grand remplacement des hommes par les machines. 

En vérité on va probablement arriver à un mode de collaboration efficace et équilibré en développant une sorte d’hybridation entre les hommes et l’IA Générative de façon à arriver à un humain augmenté. Ceci va nécessiter de revoir les compétences et les qualifications en recourant à des outils comme la classification de Bloom (voir slide 33). Ces changements vont avoir des conséquences importantes dans le domaine de la gestion des compétences. Ceci va imposer aux RH une nouvelle approche. Ses responsables vont devoir renforcer leur dialogue avec les différentes parties prenantes et en particulier avec les DSI. 


Ce texte est un résumé de la conférence faite par Bernard Quinio au Club de la Gouvernance des Systèmes d’Information le Mercredi 5 Novembre 2025 sur le thème « Le crétin artificiel ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

- Qui fait le travail le plus intelligent, le plus créatif, le plus sympathique : l'IA ou l'humain ?

- Quelle perte de compétences pouvons-nous anticiper ?

- Saurons-nous toujours raisonner si les IA le font pour nous ?

- Qui va subir ces pertes de compétences ? 

- Un expert peut utiliser une IA générative car il sait faire une analyse critique, mais un jeune non formé ? Sans faire des gammes, peut-on être concertiste ?

- ….


Lire ci-dessous le support de la présentation de l’exposé de Bernard Quinio :

                                                                                                    Slide

1. Les concepts de base de l’Intelligence Artificielle    3

2. Ce qu’on peut très bien faire avec l’IA            7

3. Quelques petits problèmes            9

4. L’Impact des Intelligence Artificielle sur le raisonnement  14

5. Différentes études sur l’impact de l’Intelligence Artificielle 17

6. Comment résister à cette tempête         28


dimanche 28 septembre 2025

L’IA générative, système dialoguant sans sujet ni conscience

D’après la conférence faite par Henri Gilabert le 24 septembre 2025 au Club de la Gouvernance des Systèmes d’Information 

Henri Gilabert a eu la curieuse idée de demander à ChatGPT et Gemini quel sont les causes des hallucinations en se présentant comme un philosophe. Ils reconnaissent l’existence des hallucinations et expliquent ce qui les produit. Cependant Gemini n’arrive pas à expliquer leurs conséquences. Les réponses de ChatGPT sont intéressantes et pertinentes (voir les premières conclusions écrites par Henri Gilabert dans la deuxième fenêtre ci-dessous).

ChatGPT explique ces dérives en citant plusieurs philosophes comme Derrida, Lyotard et Wittgenstein mais surtout il avoue que : « le langage n’a plus besoin du réel pour fonctionner. Il suffit qu’il se boucle sur lui-même, qu’il produise du plausible, du cohérent, du consommable. » Parole d’ordinateur ! Dans ces conditions on comprend mieux comment sont possibles les hallucinations des IA génératives. Ceci amène à s’interroger sur la véritable nature d’une IA générative.

Fort de ce premier succès pour en avoir le cœur net Henri Gilabert décide de pousser le test en demandant à ChatGPT de « faire une synthèse philosophique de l’éthique sur laquelle est fondée l’AI Act de l’UE ». La question n’est pas simple et la réponse n’est pas évidente. Immédiatement ChatGPT répond immédiatement un texte étonnant : « l’IA Act représente un effort singulier pour incorporer des principes philosophiques (dignité, autonomie, justice, transparence) dans un cadre juridique opérationnel. Qu’il mêle une éthique fondée sur les droits, une approche fondée sur les risques, et une techno-règlementation pragmatique. » Etonnante réponse venant d’un ordinateur !

Pour comprendre ce qui s’est passé et la manière qui a permis à ChatGPT de sortir de son discours habituel basé sur la somme des opinions majoritaires il a été nécessaire de voir comment il a forcé le LLM pour lui permettre de sortir de sa démarche habituelle. Il a pour cela mis une série de demandes l’obligeant à aller chercher dans des points de vue minoritaires qui sont généralement ignorés. Ceci a été possible par la mise en œuvre d’un protocole rigoureux en 7 points détaillé sur le slide 11 (voir ci-dessous dans la première fenêtre). Il oblige ChatGPT à travailler de manière différente. Henri Gilabert a alors entamé un long dialogue philosophique qui a duré des dizaines d’heures pour « mettre en tension » les différents points de vue majoritaires et minoritaires et à amener le LLM à mieux cerner les concepts sous-jacents.

Au cours de ses échanges a été abordé le délicat problème de l’influence des algorithmes des réseaux sociaux sur les comportements des utilisateurs. En travaillant sur les concepts mis en œuvre Henri Gilabert et ChatGPT ont fini par codéveloppé un concept original dérivé d’une notion inventée par Jean-Paul Sartre « d’être pour autrui » qui est celui de « l’être-pour-l’algorithme ». Ce terme « désigne la modalité d’existence par laquelle un sujet se constitue en s’exposant à un regard machinique et impersonnel. Il est caractérisé par une temporalité différée et partiellement maîtrisée : l’individu choisit quand et comment il se montre, mais toujours sous des contraintes normatives invisibles. » Cela vous semble très abstrait et un peu obscur pourtant vous observer en permanence sur Internet et notamment sur les réseaux sociaux ce type de comportement. Certaines personnes, généralement bien élevées, écrivent dans l’intimité de leur clavier-écran des propos violents, orduriers et racistes qu’ils ne tiendraient pas dans la vraie vie.

La démarche suivie par Henri Gilabert montre que l’approche originale suivie a permise d’obliger ChatGPT à sortir de sa démarche habituelle. Il a été permis par le biais d’un dialogue original de dégager des idées originales. Henri Gilabert considère que c’est « une rupture épistémologique ». C’est-à-dire que la nature du discours produit par le LLM a changé de manière radicale.

 

Comment expliquer cela. Comme chacun le sait, les IA génératives génèrent habituellement un texte contextuellement adapté au propos de l’utilisateur et stylistiquement cohérent mais ce qu’il dit n’est pas forcement la vérité. Ce ne sont que des propos vraisemblables. Ceci contribue le curieux phénomène des hallucinations. Mais, en le forçant le LLM et en lui imposant des contraintes fortes, Henri Gilabert le force à changer de comportement et va chercher dans sa prodigieuse mémoire des notions et des concepts qui, jusqu’alors, n’étaient pas en avant. On assiste alors à un dialogue original entre le LLM et l’utilisateur ce qui permet d’affiner la pensée de ce dernier.

 

Cette rupture est liée à la nature d’une IA générative. C’est un système qui parle sans sujet ni conscience. Il ne pense pas, mais produit pourtant un discours cohérent et convaincant, notamment avec les dernières générations de LLM. Ce n’est plus simplement un système machine-donnés-logiciel qui répète ou calcule, mais elle devient autre chose : une surface d’écho, un opérateur syntaxique, un système mimétique discursive capable de simuler le dialogue humain avec une intensité nouvelle. Henri Gilabert parle dans ce cas « d’interface maïeutique ». D’où vient ce saut qualitatif ?

 

Si cette illusion fonctionne, jusqu’où peut aller ce simulacre ? Qu’est-ce que ces systèmes révèlent, non pas sur la machine, mais sur nous : sur notre rapport au langage, à la pensée et à l’autre ? Les machines parlent-elles… ou faisons-nous parler les machines ? Quand l’interlocuteur n’existe pas, que devient l’échange ? On n’a pas fini d’être étonné par les possibilités des LLM et notamment de ChatGPT.

  

Ce texte est un résumé de la conférence faite par Henri Gilabert au Club de la Gouvernance des Systèmes d’Information le Mercredi 24 Septembre 2025 sur le thème : « L’IA générative, système dialoguant sans sujet ni conscience » avec comme sous-titre : « Les échanges avec l’Intelligence Artificielle Générative ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

-        Comment les LLM expliquent leurs hallucinations ?

-        Comment les LLM voient les conséquences de leurs hallucinations ?

-        Est-ce que le fait que l’interlocuteur humain se déclare philosophe à une influence sur les LLM ?

-        Pour quelles raisons ChatGPT va alors plus loin et sort des explications classiques qu’il donne dans un premier temps pour aider à faire émerger des concepts nouveaux ?

-        Comment expliquer ce saut qualitatif ? Est-ce une rupture épistémologique ?

-        Est-ce que les LLM sont capables de tenir un discours philosophique de qualité et pourquoi ?

-        Est-ce le début d’une vraie intelligence des LLM ?

-        Quel est le rôle de « l’interface maïeutique » qui a été réalisé ?

-       

 

Lire ci-dessous le support de la présentation de l’exposé de Henri Gilabert :

Slide

1.      Mes échanges avec Gémini et ChatGPT sur les hallucinations            3

2.      Mes échanges avec ChatGPT sur l’IA Act                                           6

3.      Premières conclusions                                                                        10

4.      Le dialogue comme événement dialectique                                       12

5.      Conclusion finale                                                                               13

 

 

Et lisez les premières constations faites par Henri Gilabert après avoir demandé à Gemini et à Chat GPT pour quelles raisons ils commettaient des hallucinations :

https://docs.