Pages

jeudi 7 mai 2026

Les modèles d’affaires réinventés via l’Intelligence Artificielle, ’IA-pocalypse Now ? »

 par Bernard Laur

Depuis le 30 novembre 2022, date de l'annonce de ChatGPT, on assiste à une succession d'innovations totalement inimaginables il y a seulement quelques années. Elles sont en train de bouleverser le monde de l’informatique mais surtout elles vont profondément changer le fonctionnement des entreprises et des administrations. Ces changements sont, bien entendu, amenés par l’Intelligence Artificielle et plus particulièrement par le développement très rapide de l'IA Générative et des agents qui commencent à impacter directement les systèmes d'information des organisations. En quelques années nous allons changer de monde.

Une révolution se déroule sous nos yeux

Il faut se rappeler que l’Intelligence Artificielle existe sous différentes formes comme les systèmes experts, les systèmes à base de logique floue, l’Intelligence Artificielle Générative, les agents, les world models, l’IA physique, … Or, on constate que ces différents outils sont entrain « d’infuser » à tous les niveaux du domaine de l’informatique des entreprises notamment dans les matériels, les applications, les données, les interfaces, les réseaux, … Cela fait que dès aujourd’hui ils ont un impact croissant sur les systèmes d’information, sur les processus et finalement sur l’organisation et sur le contenu du travail.

L’Intelligence Artificielle est partout et sous des formes très variées. On a tendance actuellement à ne voir que l’IA Générative mais ce n’est que la partie la plus visible de cette véritable révolution. En effet, ces différents outils sont en train de modifier de manière fondamentale le contenu des différentes fonctions mises en œuvre et finalement de « disrupter » les business models d’entreprise traditionnels. Cela se traduit par des changements considérables qui vont amener une « recomposition » de l’entreprise et qui finalement vont profondément impacter son équation économique et la manière de produire ses résultats.

Des mutations considérables arrivent

Dès aujourd’hui on constate des modifications significatives qui se concrétisent par des changements importants tels que :

  • La personnalisation des échanges avec les clients, les prospects, les fournisseurs, les salariés,
  • L’automatisation intelligente des opérations. Elles se déroulent seules et à la fin le traitement va simplement demander une validation, 
  • Le développement de nouveaux modèles orientés services, 
  • L’exploitation systématique et approfondie des données afin de mieux anticiper les attentes et donc améliorer les services rendus, 
  • La mise en œuvre de systèmes prédictifs anticipant les comportements, 
  • Un meilleur équilibrage entre l’offre et la demande permettant de mieux satisfaire le client et le fournisseur, 
  • L’optimisation des opérations qui va se traduire par une plus grande rapidité d’exécution, une amélioration de la qualité et une baisse des coûts,
  • …. 

Ces changements se font à une vitesse stupéfiante et leur mise en œuvre est en train d’amener des changements profonds des habitudes qui dans de nombreux cas constituent une véritable révolution et vont impacter l’ensemble des processus internes et externes des entreprises en particulier : 

  • Le marketing, 
  • La prospection,
  • Les relations avec les clients,
  • Les ressources humaines,
  • La comptabilité et la finance,
  • La Banque,
  • Les relations avec les fournisseurs (la supply chain), 
  • La production industrielle,
  • Le secteur juridique,
  • La santé,
  • ….

C’est une liste sans fin et peut-être ferait-on mieux de chercher à identifier les secteurs qui ne seront pas impactés.

Les impacts considérables de l’IA 

Comme on le voit l’IA s’introduit partout sans qu’on le sache toujours. Certes certains fournisseurs de solutions annoncent de l’IA alors qu’il n’y en a pas toujours alors que d’autres, plus nombreux, en introduisent sans trop le dire. Concrètement bientôt il y en aura partout. Cela va avoir des effets considérables :

  • La vitesse d’exécution des opérations les plus courantes est réduite de manière significative. Ceci concerne toutes les opérations, même les plus classiques comme le traitement des commandes, l’analyse des ventes, les contrôles qualité, … La réduction de délais observés est comprise entre 10 % et 70 %.
  • Les coûts des opérations vont aussi diminuer de manière significative, même si les coûts des prestations d’IA s’ajoutent aux dépenses actuelles. Ces réductions sont permises par les gains de productivité induits par ces applications. On estime que la baisse est comprise entre 5 % et 40 %.
  • La création de nouveaux services. Les possibilités offertes par l’IA et en particulier l’IA Générative permettent d’imaginer des offres originales différentes des services existants en permettant par exemple une très forte personnalisation et une capacité d’adaptation actuellement impossible dans une approche de type « mass market ».
  • De même le marketing des produits et des services va considérablement évoluer et on va passer d’un marketing de masse à un marketing individualisé. Chaque client et chaque prospect est caractérisé par ses comportements et ses attentes. Les fonctions d’Intelligence Artificielle de ces systèmes en tiennent compte de façon à mieux les convaincre. 
  • Le changement de logique des opérations se concrétise par le passage d’une logique classique de processus où le client fait une demande et un vendeur lui répond par une offre à des opérations basées sur des agents qui cherchent seuls la meilleure offre sur tous les sites existants et proposent une offre que le prospect n’a plus qu’à valider. 
  • En outre les systèmes évoluent vers un marketing de la prédiction basée sur l’intention, l’IA exploitant les informations collectées sur le comportement des clients pour élaborer des messages plus efficaces et, en fin de compte, générer davantage de conversions et de business.
  • On s’oriente également vers la prise en compte personnalisée des nouveaux comportements de chacune des nouvelles générations : Y, Z, Alpha, Béta, … 

Comme on le voit, l’IA et notamment les agents, représentent une nouvelle étape après celles marquées par l’apparition il y a trente ans de l’Internet, du web, de l’e-commerce et des réseaux sociaux. 

Mais rien n’est simple

Néanmoins, tout n’est pas joué. En effet, il existe de multiples risques qui limitent et conditionnent les chances de réussite de l’Intelligence Artificielle :

Le manque de compétences dans ces domaines, 

La complexité des modèles, 

La nouveauté et la richesse de l’offre dans tous les domaines, 

L’importance des investissements nécessaires, 

L’acceptabilité des changements par les personnes concernées,

La maîtrise du foisonnement applicatif et de l’interopérabilité,

Les problématiques de sécurité et de confidentialité, 

Les contraintes règlementaires, juridiques et éthiques, 

On peut néanmoins raisonnablement penser que ces difficultés seront progressivement maîtrisées. Cependant, ces changements se multiplient, apparaissent de plus en plus vite et laissent des délais de plus en plus courts entre ces différentes innovations. Le risque est d’arriver à un foisonnement non-contrôlée d’opérations devenues incontrôlables.


En réalité, seules réussiront les organisations qui seront capable de réinventer leur modèle d’affaires. Il ne suffit pas de se contenter de maîtriser la seule technologie pour réussir une véritable stratégie. Pour tout responsable d’entreprise ou d’administration la question majeure est aujourd’hui très simple : quel sera demain son « business model » ? Faute d’anticiper cette mutation il risque, d’ici quelques mois ou années, de se trouver avec une organisation dépassée et d’être contraint de changer de modèle à marche forcée avec un fort risque d’échec comme cela s’est déjà produit par le passé, par exemple lors de la nécessaire évolution vers l’e-commerce.


Ce texte est un résumé de la conférence faite par Bernard Laur au Club de la Gouvernance des Systèmes d’Information le Mercredi 1er Avril 2026 : « Les modèles d’affaires réinventés via l’Intelligence Artificielle » « vers l’IA-pocalypse Now ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

  • Quels sont les causes de la disruption induite par l’Intelligence Artificielle ? 
  • Quel est le rôle fondamental du machine learning ? 
  • Comment fonctionne l’Intelligence Artificielle générative basée sur l’analyse des données ?  
  • Comment les agents AI vont-ils changer l’organisation du travail ?
  • Quel sera le rôle des World Models ? 
  • Quels seront l’impact des systèmes à base d’IA Générative sur les processus ? 
  • Quelles sont actuellement les applications de l’IA réellement opérationnelles ? Dans le domaine commercial ? Dans le domaine industriel ? 
  • Quel est le rôle fondamental des données. 
  • Comment va se réaliser l’automatisation des processus ?  
  • Quel sont les gains de vitesse de réaction, de réduction des coûts, de  gains de qualité ? 
  • Quel est le ROI de ces investissements ? Quel est l’impact de ces dépenses sur le budget de la DSI ? 
  • - ….

Lire ci-dessous le support de la présentation de l’exposé de Bernard Laur :

                                                                                                         Slide

  1. Les outils de l’Intelligence Artificielle utilisés   4
  2. Les applications actuellement implémentées   9 
  3. Les domaines particulièrement touchés 12 
  4. Quels impacts ? Quels résultats ? 18 
  5. Les chiffres clés 1


mardi 5 mai 2026

La Gouvernance de l'Intelligence Artificielle Générative

                                                                                                                        par Fernando Gonçalves

L'Intelligence Artificielle Générative est en train d'impacter notre société.Tous les secteurs de la société sont ou vont être impactés : les entreprises et l'administration, l'enseignement et la santé, la recherche, les loisirs,... Quasiment toutes les activités sont concernées. De plus, les agents se développent et vont décupler les effets de l'IA générative. 

Mais comment maîtriser cette déférelante ? Quelles sont les règles à appliquer ? Comment limiter les risques ? ...  La solution est connue. Il faut renforcer la gouvernance en se basant sur les bonnes pratiques connues de tous les décideurs et les experts compétents.   

Nos amis du Club Européen de la Gouvernance des Systèmes d'information du Portugal réfléchissent comme nous le faisons sur l'impact de l'IA sur notre société et particulièrement sur les entreprises. Dans leur dernier numéro de leur revue bG, boletim Governança, Fernando Gonçalves a publié un article très intéressant sur la gouvernance de l'IA Générative que vious trouverez ci-dessous.  

Claude Salzman
Président du Club Européen de la Gouvernance des Systèmes d'Information 


UNE NOUVELLE ÉTAPE POUR LES BATAILLES GÉOPOLITIQUES, ÉCONOMIQUES ET SOCIALES MONDIALES

La gouvernance de l'intelligence artificielle (IA) constitue l'un des débats les plus complexes et les plus urgents de la technopolitique mondiale et du développement économique et social.

 On observe, dans plusieurs dimensions, une recherche de normes de marché, voire l'établissement de principes moraux, éthiques et juridiques encadrant la légitimité de son utilisation, que ce soit en médecine, dans l'art, l'éducation, sur le marché du travail ou dans le domaine militaire, avec des impacts multiples qui ne sont pas toujours évidents. Les défis liés à l'énergie, à l'informatique, à son financement et à sa viabilité économique sont également incontournables.

 Par ailleurs, la marge de manœuvre pour prévenir, dans le cadre de l'IA, des conséquences encore plus néfastes que celles que l'on ressent actuellement en raison de l'absence de régulation du cyberespace et du désengagement des pouvoirs publics de leurs responsabilités dans ce domaine qui est pourtant très limité.

 Les impacts déjà connus ou présumés de cette technologie dans les domaines les plus divers de la société exigent la définition urgente d'une réglementation claire, générale et universelle permettant de tirer profit de l'IA, tout en garantissant la confidentialité, la sécurité et la fiabilité de son exploitation et en atténuant les distorsions dues au fait qu'une grande partie de l'écosystème – énergie, infrastructures, capacité de calcul et modèles informatiques – est détenue par un nombre très limité d'entités.

 Sur les droits d'utilisation et la légitimité de leur définition

 Parmi les aspects les plus controversés du débat sur l'utilisation de l'IA figurent la définition de ses conditions d'utilisation et la question de savoir qui est responsable de sa réglementation légitime.

 L'affaire qui a opposé le Département de la Guerre américain à Anthropic en mars 2026 a mis en lumière un débat nécessaire et urgent : qui est responsable de la définition des limites d'utilisation des modèles d'IA, notamment sur des questions particulièrement sensibles telles que la surveillance de masse des citoyens ou les armes autonomes ? Les gouvernements des États souverains ? Leurs parlements ? Les fabricants ? Bien que l'Union européenne ait transmis une partie de la résolution de cette question au Règlement (UE) 2024/1689 relatif à l'IA, la grande majorité de l'écosystème, notamment les États-Unis et la Chine, reste à l'écart. Étant donné que ces deux pays sont les principaux producteurs mondiaux de modèles d'IA et de leurs produits dérivés, le risque de divergence des normes industrielles par rapport à ces principes est loin d'être négligeable.

 Face à la paralysie de l'ONU due à son modèle de prise de décision par consensus, il est peu probable qu'un traité émerge dans ce domaine. Le monde sera-t-il une fois de plus pris en otage par une autorégulation, où le déséquilibre entre les blocs géopolitiques et technologiques fausse d'emblée le pouvoir de négociation des différentes parties ?

 Pour l'instant, l'autorité de Léon XIV demeure incontestée. En juillet 2025, dans un message adressé aux participants du Sommet mondial « L'IA au service du bien commun », il déclare que « l'humanité est à la croisée des chemins, confrontée à l'immense potentiel généré par la révolution numérique induite par l'intelligence artificielle », et appelle à une « gouvernance locale et globale de l'IA » (Léon XIV, le pape lanceur d'alerte, Le nouveau guide de la super-intelligence artificielle, Le Point, Hors- Série n° 3, déc. 2025-janv. 2026, p. 26-27).

 La lutte pour un modèle d'exploitation de l'IA : logiciel libre contre logiciel propriétaire

 Au cœur du débat sur le modèle d'exploitation de l'IA se trouvent deux visions antagonistes : la démocratisation prônée par le modèle du logiciel libre et la protection de la propriété intellectuelle des plateformes propriétaires.

 Le modèle du logiciel libre repose sur le principe que le progrès technologique est optimisé par le contrôle public et la collaboration décentralisée. L'accès aux pondérations des modèles et à leur architecture est perçu comme un processus de mutualisation de leur supervision et comme un garant de normes éthiques et morales vérifiables.

 Yann Le Cun, l'un des plus grands experts mondiaux en IA, affirme, dans un entretien accordé au Monde le 16 janvier 2026 (David Larousserie et David Piquard), que cette approche favorise une plus grande diversité, évite la mainmise d'un petit groupe d'entreprises sur la technologie et accélère le progrès scientifique, permettant à chacun d'identifier les risques inhérents aux modèles et à leur utilisation.

 À l'inverse, les plateformes propriétaires valorisent la protection de la propriété intellectuelle comme un avantage concurrentiel et un moyen de renforcer la gestion des risques. Les principaux fabricants de plateformes d'IA affirment que la diffusion et l'accès sans restriction aux modèles peuvent donner aux acteurs malveillants la possibilité d'orchestrer des cyberattaques sophistiquées ou des campagnes de désinformation à l'échelle industrielle. Selon cette perspective, la limitation du code n'est pas seulement un acte de protection des droits d'utilisation commerciale, mais aussi un impératif de sécurité collective.

 La dichotomie entre modèles ouverts et fermés se manifeste clairement dans les approches des principaux producteurs de plateformes d'IA des deux grandes superpuissances contemporaines, reflétant leurs spécificités politiques.

 Mais il n'en a pas toujours été ainsi. Jusqu'à la fin des années 2010, le développement de l'IA reposait principalement sur l'open source. C'est avec le lancement par OpenAI, fin 2019, du modèle GPT-2, après la publication d'un article présentant ce modèle au début de la même année, qu'un changement s'opère dans l'approche des principaux fabricants : le partage de code cède la place à des restrictions d'accès croissantes, sous prétexte de sécurité et de motivations commerciales.

 Depuis lors, les États-Unis sont restés un terrain de jeu privilégié pour les systèmes propriétaires, pilier indissociable de leur modèle économique. Actuellement, ces modèles dominent les classements de performance. Cependant, les alternatives open source (notamment celles proposées par des entreprises chinoises comme Alibaba et Z.ai) ne sont pas en reste en termes de capacités. Yann Le Cun prévient que si les États-Unis abandonnent l'open source, la Chine pourrait prendre la tête de l'innovation, principalement grâce à la rapidité de développement de l'open source.

 Bien que le modèle de rémunération des systèmes d'IA open source semble encore plus complexe que celui des modèles propriétaires, on trouve dans les deux cas une rémunération par abonnement, appliquée aux consommateurs finaux, ou une rémunération à la consommation (généralement par tokens, jetons), pour les entreprises clients.

 Chez Alibaba, la disponibilité de modèles open source est souvent associée à une offre commerciale de cloud computing, à laquelle des modèles propriétaires de pointe sont intégrés selon un modèle de paiement à l'usage. Dans une certaine mesure, Alibaba utilise actuellement la même approche de l'intelligence artificielle que Google depuis sa création pour développer diverses solutions de marché, telles qu'Android ou Kubernetes.

 Quel que soit le scénario, le financement des investissements mondiaux dans l'intelligence artificielle reste incertain. Selon Gartner, ces investissements devraient atteindre près de 2 500 milliards de dollars, voire près de 3 300 milliards en 2027. (Gartner prévoit que les dépenses mondiales en IA atteindront 2 500 milliards de dollars en 2026) de même que les bénéfices concrets de ces investissements sans précédent.

 Paradoxalement, l'une des initiatives les plus fructueuses à ce jour dans le domaine de l'IA s'est développée selon un modèle open source, transformant profondément la science, notamment les domaines de la médecine et de la biologie. Le projet Alphafold, de Google DeepMind, a permis de prédire la structure tridimensionnelle d'une protéine à partir de sa séquence d'acides aminés.

 En 2020, Alphafold a joué un rôle crucial dans la compréhension de la structure du virus SARS-CoV-2, ouvrant la voie au développement de vaccins efficaces. Depuis, et grâce à son accessibilité aux chercheurs, cette technologie a été utilisée pour la découverte de nouveaux médicaments et le développement de domaines tels que l'immunothérapie et la pharmacologie personnalisée.

 Très récemment, Google a de nouveau investi dans un projet open source, Groundsource (Mayo et al.), qui, grâce à l'IA, transforme des millions de rapports publics en données structurées pour prédire les catastrophes naturelles, notamment les inondations, permettant ainsi d'anticiper les crues soudaines plusieurs heures à l'avance. Ceci démontre que Google adopte une approche relativement duale dans le domaine des modèles d'exploration.

 Énergie, eau et ressources informatiques

 Une partie des investissements nécessaires à l'IA est consacrée à la construction de centres de données, de processeurs, ainsi qu'aux systèmes électriques et au refroidissement. Les quantités d'énergie requises sont si importantes que les centres de données sont désormais caractérisés non plus par leur capacité de calcul, mais par leur consommation énergétique.

 Les projets de construction de nouveaux centres de données connaissent une croissance exponentielle. La combinaison des principales ressources nécessaires à leur fonctionnement constitue l'un des principaux obstacles à leur déploiement avec l’énergie, l’eau, le foncier et les processeurs.

 Parallèlement, la construction de nouvelles centrales nucléaires, l'installation de petits réacteurs nucléaires à proximité des centres de données et l'exploration potentielle de la fusion nucléaire progressent au même rythme que les besoins énergétiques de l'IA.

 La consommation d'eau potable représente un autre défi. Les besoins sans précédent en refroidissement font de l'eau le fluide le plus efficace, mais avec des impacts environnementaux très controversés. Dans ce domaine, le projet Start Campus de Sines (Portugal) fait référence, utilisant l'eau de mer provenant de l'ancienne centrale thermique pour le refroidissement des centres de données.

 Face à la complexité des défis, des approches radicales émergent, comme celle de certains investisseurs, notamment Elon Musk, qui proposent de construire des centres de données en orbite pour contourner les difficultés liées aux contraintes sur Terre. Grâce au refroidissement assuré par la température ambiante et l'énergie solaire permanente, le principal défi consiste à réduire les coûts de transport, afin de rendre ces infrastructures moins onéreuses que leurs équivalents terrestres (« Centres de données dans l'espace : moins fou qu'il n'y paraît »).

 Ingestion et production de données : vers une « IA dégénérative »

 L'entraînement des modèles d'IA dépend de la quantité (et il est essentiel de souligner qu'il dépend également de la qualité) des données disponibles. Face à l'épuisement des données extraites de sources disponibles sur Internet et autres référentiels ouverts, et, compte-tenu des litiges relatifs aux droits d'auteur et à l'hétérogénéité de la qualité des contenus, cette question devient cruciale pour les modèles d'IA. Sans nouvelles données l’entraînement des modèles est impossible, ce qui remet en cause tout l'édifice évolutif de l'IA.

Pour pallier cette pénurie de données, on recourt fréquemment aux données synthétiques : des informations générées artificiellement par des algorithmes ou des modèles d’intelligence artificielle, et non issues d’événements réels ou d’activités humaines.

Cette solution à la pénurie de données est ingénieuse et peu coûteuse ne semble pas, en soi, poser problème. Cependant, combinée au volume croissant de contenu généré par l’IA qui alimente Internet et qui, par conséquent, sert à entraîner les modèles d’IA, donne lieu à un phénomène qui remet en question tout le fonctionnement de l’entraînement des modèles d’IA tel que nous le connaissons et qui a été décrit comme une « endogamie de l’IA » (Shumailov et al.), une « IA des Habsbourg » ou une « IA dégénérative ».

 En bref, en se nourrissant de données qu’ils créent eux-mêmes, les modèles d’IA tendent vers une certaine « endogamie » et commencent à produire des réponses de plus en plus similaires et médiocres, ce qui peut conduire à leur effondrement. Le phénomène est expliqué par Aatish Bhatia dans un article publié en 2024 dans le New York Times (Bhatia), où il met en garde contre les risques d'une intensification des contenus produits par l'IA dans notre vie quotidienne.

 Perspectives pour l'avenir proche

 Une gouvernance adéquate de l'IA nécessitera l'établissement de consensus fondamentaux, indispensables pour garantir l'homéostasie du fonctionnement des modèles à l'échelle mondiale. Parallèlement aux efforts déployés par l'ONU, certains blocs économiques ou certains États, il est crucial de développer des mécanismes multilatéraux permettant la convergence de principes éthiques et juridiques communs.

 Dans les sociétés où l'humanisme prime sur toute autre valeur, il est essentiel de renforcer les principes qui sous-tendent l'inviolabilité des domaines sensibles pour recourir à l'IA, tels que les armes autonomes ou la surveillance de masse des citoyens.

 De même, en matière de développement durable, il convient d'adopter des normes environnementales universelles favorisant la conservation de l'eau et de l'énergie, et d'évaluer constamment des alternatives plus efficaces.

 Il est également essentiel de rendre transparente la manière dont les risques liés à l'IA sont atténués, en présentant a priori et clairement les inexactitudes, les défauts et les omissions possibles de certains résultats issus de l'utilisation de certains modèles.

 Enfin, il est impératif que les consommateurs, qu'il s'agisse de particuliers, d'entreprises ou d'autres entités, sachent clairement quand le contenu qu'ils consomment a été, en tout ou en partie, généré par l'IA, garantissant ainsi la transparence de la collecte, de la transformation, de la production et de la diffusion de l'information.

 Références

 ·         Bhatia, Aatish. 2024. « Quand la sortie de l'IA menace l'IA elle-même (Publié en 2024) ». NYTimes.com, 25 août 2024. https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html.

 ·         The Economist. 2026. « Des centres de données dans l’espace : moins fou qu’on ne le pense ». 2 mars 2026. https://economist.com/science-and-technology/2026/03/02/data-centres-in-space-less-crazy-than-you-think.

 ·         « Gartner prévoit que les dépenses mondiales en IA atteindront 2 500 milliards de dollars en 2026 ». 2026. Gartner. https://www.gartner.com/en/newsroom/press-releases/2026-1-15-gartner-says-worldwide-ai-spending-will-total-2-point-5-tillion-dollars -in-2026.

·         David Larousserie et David LaroAlexandre Piquard. « Yann Le Cun : « Pourquoi je quitte Meta pour créer ma start-up IA ». Le Monde, 16 janvier 2026. https://www.lemonde.fr/economie/article/2026/01/16/yann-le-cun-pourquoi- je-quitte-meta-pour-creer-ma-start-up-d-ia_6662500_3234.html?search-type=classic&ise_click_rank=2 

·         Mayo, Rotem, Oleg Zlydenko, Moral Bootbool, Shmuel Fronman, Oren Gilon, Avinatan Hassidim, Frederik Kratzert, et al.2026. “Groundsource: A Dataset of Flood Events from News.” https://doi.org/10.31223/X5RR2K 

·         Shumailov, Ilia, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, and Yarin Gal. 2024. “AI models collapse when trained on recursively generated data » https://www.nature.com/articles/s41586-024-07566-y

 

Le Règlement européen de l'IA (AI Act) : entre spécifications techniques, incitations économiques et positionnement stratégique.

 par Arnaud Billion

Après un accouchement long et douloureux l’Union Européenne a fini par produire une réglementation de l’Intelligence Artificielle. Publiée en Juin 2024 celle-ci commence à se mettre en place dans une logique d’entrée en vigueur progressive. Il est vrai que pour des raisons politiques certaines parties de ce Règlement ont été récemment décalées dans le temps, mais on voit mal comment une marche arrière serait possible dans la mesure ou le « Brussels Effect » est un signal stratégique fort.

Une lecture superficielle du Règlement européen sur l'IA (AI Act) laisse à penser que ce ne serait qu’une liste à la Prévert de tâches procédurales et bureaucratiques, une sorte de reporting institutionnel surabondant. De plus ce texte est long, bavard et mal écrit ce qui est source d’incertitude. Mais, à regarder de plus près on peut tout de même y trouver intérêt.

 Les raisons de la curieuse forme de l’AI Act

L’AI Act est une partie d’un ensemble réglementaire riche et complexe produit par l’Union Européenne comme le RGPD (données personnelles), le DMA (marchés numériques), le DSA (services et contenus numériques), le DGA (gouvernance numérique), le NIS2 (cybersécurité) … Ces textes sont eux-mêmes partie d’un ensemble plus vaste qui est le droit positif applicable de l’Union, lequel comprend notamment les droits nationaux. Au fil des ans cette législation se développe et s’enrichit.

 Dès sa promulgation en Juin 2024 l’AI Act s’est imposé aux 27 pays européens sans qu’il soit nécessaire de l’implémenter dans les Etats membres selon une loi nationale. Il n’est pourtant entré que partiellement en vigueur à partir du 1er août 2024 et sa mise en place va s’étaler jusqu’en 2027 et même au-delà car, face à la pression des lobbies, une loi dite « Omnibus » a décalé et reformulé certaines mesures. Enfin, point très important, les régulateurs nationaux chargés de surveiller l’application de l’AI Act ont été désignés et les contrôles commencent à être mis en œuvre.

 Prenant du recul, nous voyons que c’est un droit qui louche du côté de son implémentation informatique : rédigé selon les principes tels que « la norme claire » et « la norme déductible » il reflète une ambition de la Commission : un droit directement applicable dans le système d’information, sans même besoin d’une intervention humaine (« Digital Ready Policymaking ») (voir slide 11 ci-dessous). Au-delà, c’est un révélateur d’une des forces (et des dangers) du droit moderne qui depuis le 17ème siècle  promeut « le système de règles formelles déductibles » octroyant une prime à tout programme au détriment de l’approche artisanale informelle ou intuitive.

 La longueur et la complexité de l’AI Act est en partie due à la durée de l’élaboration de ce texte. Entre sa première esquisse et sa publication finale il s’est passé quatre ans comprenant une longue phase de dialogue entre le Parlement et la Commission suivi d’un trilogue avec en plus le Conseil des Ministres des états, accompagné d’un intense lobbying du secteur. Cela explique, en grande partie, sa médiocre qualité juridique.

 Pour bien comprendre la logique de l’AI Act il faut se rappeler celle du droit européen qui s’efforce toujours de maintenir (ou plutôt d’énoncer) un équilibre entre le respect des droits fondamentaux et la recherche de l’efficacité économique. Ainsi tout juriste armé de cette boussole, est capable de montrer la logique de ce texte et de proposer aux entreprises concernées des stratégies de conformité adaptées à chaque contexte.

 Les grandes distinctions

 Sont catégorisés des utilisations des IA en fonction de leurs niveaux respectifs de risque. C’est une étrange taxonomie, qui tâche de saisir ce que va faire tel ou tel système.

 Faut-il penser que l’AI Act atteindra ses objectifs ? Ce serait étonnant, d’autant que l’approche par les risques n’est guère pertinente (puisque sont postulés des « systèmes » qui ne resteront pas fidèles à eux-mêmes) Il est en tout cas critiqué par des entreprises comme Open IA ou Mistral, qui le trouvent trop contraignant et inopportun économiquement, à cause d’une trop lourde charge de conformité : il faudrait pouvoir innover librement.

 Cependant de nombreuses entreprises décident de se conformer à l’AI Act, exercice qui ne peut consister à modifier tout le systèmes de gestion et d’information pour satisfaire l'ensemble des prescriptions du droit européen (ce serait bien trop lourd et compliqué en absence d’une cohérence d’ensemble). Le rêve serait simplement de prompter à un super agent d’IA « mets-moi en conformité avec l’ensemble de l’AI Act sans perturber mes processus ». On sent toute la vanité de ce projet.

Mais à quelque chose malheur est bon : les entreprises, en se penchant sur les risques de non-conformité, vont devoir se reposer la question de l’alignement stratégique, de la maintenabilité et de la valeur de leur système d’information. En effet, les prescriptions du l’AI Act peuvent être considérées comme une recension (certes incomplète, maladroite et velléitaire) de bonnes pratiques informatiques. Autrement dit, il faut chercher à lire dans l’AI Act les spécifications logicielles pertinentes et intelligentes permettant d’améliorer de manière significative le processus de transformation numérique des entreprises.

Par exemple, l’entreprise qui prendra au sérieux l’exigence posée de supervision humaine, aura une chance de conserver le contrôle des opérations (dans un contexte d’interconnexion grossièrement généralisée, dite « agentique ». Autre exemple : l’AI Act liste des applications interdites de l’IA par exemple les techniques de manipulation subliminale, ce qui permet d’éviter aux entreprises d’orienter leurs modèles d’affaires sur le service d’une société à la Orwell… mais on peut craindre que l’exercice de divination des mauvais usages de l’IA soit vain, puisque les risques sont en fait systémiques ; porter l’attention sur le soi-disant « système d’IA » n’est peut-être pas si opportun.

 Une liste de prescriptions

 Lorsqu’on lit les 113 articles de l’AI Act on constate très vite que c’est, pour une bonne partie, une liste des bonnes pratiques qui doivent être appliquées tant par les fournisseurs que par les intégrateurs de logiciels et de services, lesquels devront évaluer les risques liés à l’emploi de leurs systèmes et prendre des mesures pour chercher à les réduire. Ces règles concernent aussi la gestion des données qui doivent être convenablement sécurisées. De même les entreprises qui déploient pour le compte de tiers des systèmes à base d’Intelligence Artificielle doivent veiller à leur sécurité.

 Un effort particulier doit être porté à la compliance de ces systèmes par le moyen d’un processus de contrôle de la conformité et la possibilité d’obtenir un label CE. Cette démarche repose sur la vérification par un tiers de l’application des bonnes pratiques que tout professionnel connait et s’efforce d’appliquer. Notons encore que des normes harmonisées sont commandées à la CEN-CENELEC afin d’instancier un peu mieux toutes ces recommandations.

 En tout état de cause, la seule démarche praticable nous semble l’approche remontante ou bottom-up, consistant à reconnaître le champ des possibles transformations à partir d’un diagnostic clair dans chaque situation en fonction des ressources disponibles… la meilleure manière de servir l’alignement stratégique sans négliger le respect des droits humain fondamentaux.

 En guise de conclusion

 L’AI Act s’inscrit dans la logique du droit de l'Union, cherchant à concilier performance économique européenne et épanouissement des Droits de l’homme. Il invite chacun à maîtriser les systèmes basés sur l’Intelligence Artificielle. Il se différencie en cela des démarches, ou de l’absence de démarche, des deux pays qui assurent aujourd’hui une grande partie des développements des systèmes à base d’IA : les USA où l’administration Trump a supprimé le peu de législation existante et a même interdit aux différents Etats américain de légiférer sur le sujet ; la Chine qui semble avoir opté pour le contrôle étatique des systèmes par l’Intelligence Artificielle. Cependant, sa mise en œuvre par les entreprises concernées requiert un effort important de compréhension de cette loi afin d’en apprécier les avantages ce qui permettra de faire évoluer de leurs pratiques de développement et de mise en œuvre de ces systèmes.

 

Ce texte est un résumé de la conférence faite par Arnaud Billion au Club de la Gouvernance des Systèmes d’Information le Mercredi 18 Février 2026 sur le thème : « Le Règlement européen de l'IA (AI Act) : entre spécifications techniques, incitations économiques et positionnement stratégique. »

Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

-        Quelles sont les principes sous-jacents à l’AI Act et quels sont les objectifs visés par le législateur ?

-        Quels sont, derrière ces contraintes, les bonnes pratiques à mettre en œuvre ?

-        Comment les entreprises peuvent prendre en compte ces obligations pour en faire une opportunité ?

-        Est-ce qu’il est possible dès aujourd’hui de mesurer les impacts stratégiques de l’AI Act ?

-        Quels sont les pièges et chausse-trapes de l’AI Act ?

-         Quels sont les impacts économiques et géostratégiques de l’ensemble de ces démarches ?

-        ….

 Lire ci-dessous le support de la présentation de l’exposé de Arnaud Billon :

                                                                                                   Slide

1.        La problématique                                                                  3

2.        Le RIA dans son contexte réglementaire                               6

3.        Les grandes distinctions du RIA                                            8

4.        Compliance et gouvernance stratégique                               10

5.        Conclusion                                                                            13

Article sur la compliance et la gouvernance                          14

 

dimanche 15 février 2026

A propos de système d’information

 par Claude Salzman 

Président du Club Européen de la Gouvernance des Systèmes d'information

Depuis plus un demi-siècle la notion de système d’information est une des notion clé du management des entreprises. Ceci est probablement dû au fait qu’ils ont été une des causes de la croissance économique constaté depuis les années 70. Bien sûr ce n’est pas le seul facteur expliquant les progrès réalisés mais l’observation des changements constatés montre que c’est un des facteurs les plus importants ([1]). Jadis, au début de l’informatique, les systèmes d’information ne concernaient que les applications de gestion : la facturation, la comptabilité client et la comptabilité générale. Puis, au fur et à mesure que les technologies s’amélioraient les systèmes d’information informatisés se sont étendus à presque toutes les fonctions de l’entreprise avant de toucher les relations entre entreprises puis depuis 20 ans concernent le grand public avec les moteurs de recherche, la messagerie, les réseaux sociaux et aujourd’hui les systèmes d’Intelligence Artificielle Générative. Ce sont en fait d’immense systèmes d’information malaxant des milliards de pages Web, des fichiers PDF et autres .doc. 

Tout le monde utilise le terme système d’information mais en fait cette notion est souvent mal comprise. Ainsi, souvent on confond les notions de système informatique et de système d’information. Ce sont des notions voisines mais on ne peut pas les confondre. Le faire ne peut mener qu’à des confusions. Il est certain que les systèmes d’information reposent en grande partie sur des ordinateurs. Cependant, aujourd’hui encore une grande partie des données ne sont pas gérés par l’informatique comme par exemple les notes manuscrites, les discussions entre professionnels, les ordres données oralement par le management, ... Au fil du temps, notamment avec le développement du traitement de texte et des messageries, de plus en plus d’informations sont stockés sur des disques durs mais elles sont difficiles à retrouver. On a tous passer du temps à rechercher un mail ou un texte stocké sur disque. Ce sont en réalité des systèmes d’information incomplets. 

En pratique il n’est pas simple de définir la notion de système d’information. Les confusions et les approximations sont nombreuses. C’est justement en faisant cette constatation qu’Almiro de Oliveira, Christophe Legrenzi et moi-même avons décidé en 2008 de créer le Club de la Gouvernance de Systèmes d’Information. Pour lever les ambiguïtés nous avons rédigé dans la foulée le Manifeste de la Gouvernance des Systèmes d’Information. Il est facile à télécharger : https://www.cegsi.org/documents/telechargement-du-manifeste-en-anglais-espagnol-francais-portugais.

C'est un texte fondamtal qui permet d'apprécier en 2 pages les enjeux considérables liés à la maitrise des systèmes d'information : "l'information émerge comme une ressource économique et mesurable, et le manque (l'absence) de solution adaptée fournie par les modèles traditionnels des organisations pour assurer le contrôle et le pilotage de l'information". Pour être plus précis : "Les systèmes d'information représentent une partie significative de la valeur ajoutée créée par les entreprises et les administrations. En moyenne, ils représentent 15 à 20 % du chiffre d'affaires des entreprises, soit environ 50 % de la valeur ajoutée générée". Une part significative de la croissance économique mondiale est liée aux systèmes d'information. Ce sont des enjeux économiques majeurs. Il est pour cela impératif d'améliorer la gouvernance des systèmes d'information.

Mais très vite nous avons dû constater la difficulté à faire passer ces notions. Est-ce dû à la notion de gouvernance ou à celle de Système d’information ? Où aux deux ? 

17 ans après la création du Club on constate quelques progrès significatifs ont été réalisés mais nous restons encore dans l’obligation de défendre cette notion fondamentale dans l’indifférence polie des décideurs et notamment des décideurs informatiques. Il est en effet assez curieux de constater qu’ils portent très souvent le titre de Directeur des Systèmes d’Information alors qu’en pratique ce sont des directeurs de l’informatique. De plus, avec le développement du Cloud, du Saas, de l’IA Géné, … leur domaine se réduit chaque année un peu plus pour se limiter à une partie de l’informatique de gestion.

Dans ces conditions il est fondamental de revenir aux fondamentaux : les notions de gouvernance et de système d’information. Or justement en 2011, il y a 14 ans, j’ai profité des mois d’été pour rédiger sur ce même blog un post pour lever les ambiguïtés liées à ces notions (vous pouvez le retrouver à l’adresse https://gouvsi.blogspot.com/search?q=nouvelle+approche&updated-max=2016-01-03T15:12:00%2B01:00&max-results=20&start=4&by-date=false. mais pour faciliter la lecture de ce post je l’ai reproduit ci-dessous) 

_________________________________________________________

dimanche 31 juillet 2011

Une nouvelle approche des systèmes d’information

 La notion de système d’information résiste à l’analyse. Tout le monde croit savoir ce que c’est mais quand il faut le définir la définition est nettement plus difficile. C’est comme l’escalier en colimaçon. Tout le monde sait ce que c’est mais quand on doit le définir de manière précise on éprouve une certaine difficulté et on finit par faire un geste de la main pour montrer que c’est un escalier en spirale qui s’enroule sur lui-même. A partir des nombreuses définitions existantes Yves Caseau a dégagé trois définitions différentes. Elles sont toutes les trois intéressantes mais ne couvrent pas totalement le sujet. Ces trois définitions sont : 

·         le système d’information est une fonction de l'entreprise qui lui permet de traiter l’ensemble des informations qu’elle reçoit, qu'elle stocke ou qu’elle émet. C’est la définition la plus ancienne. 

·         le système d’information est constitué par l'ensemble des ressources matérielles, logicielles, organisationnelle, ainsi que les hommes (les rôles, les procédures, la culture) et les processus propres au système d’information [1]

·         le système d’information est un système complexe à part entière, c'est-à-dire qu’il est défini par une finalité et des relations avec son environnement. C’est une usine à produire des services constitués par un ensemble de processus.

 Ces trois définitions s’appliquent bien aux systèmes de gestion comme la comptabilité, le contrôle de gestion, la gestion commerciale, … Mais elles ne couvrent pas toutes les situations rencontrées notamment celles où les systèmes d’information constituant le cœur de métier comme dans la banque, la gestion des réservations et la billetterie dans une compagnie aérienne ou ferroviaire, les nombreuses formes de commerce électronique, … Ces systèmes d’information ne sont pas seulement des distributeurs d’informations. Pour prendre en compte ces systèmes il est nécessaire d’avoir une définition plus proche du business que les définitions traditionnelles.

 Mais avec le développement des applications fonctionnant sur le Web et notamment les systèmes interactifs, il faut aller plus loin afin de prendre en compte des fournisseurs de services comme Google, Wikipédia, Facebook, … Ce sont des distributeurs de services qui suivent une logique différente des entreprises de services traditionnels comme les éditeurs d’annuaire ou d’encyclopédie, les clubs et associations, … qu’ils sont en train de remplacer. Ces systèmes d'information sont d’une autre nature et les trois définitions ci-dessus ne permettent pas de les caractériser complètement. Ce sont des processus sophistiqués permettant de mieux maîtriser la complexité des organisations et offrant des opportunités d'activité nouvelles.

 On retrouve bien les fonctions de base : la saisie des informations, leur stockage, leur structuration, leur recherche, les restitutions en réponse à des requêtes, … Mais la liste des fonctions mises en œuvre n’est pas suffisante pour décrire le système d’information. C’est comme si on définissait une automobile et décrivant les bielles, la direction, les amortisseurs, …qui la compose. En vérité, l’automobile est un moyen de transport individuel et autonome, permettant d’aller où le souhaite son conducteur et ayant de multiples usages : aller au travail, aller voir les clients, faire les courses, organiser ses loisirs, faire des voyages, …

 C’est la même chose pour un système d’information. On ne peut pas le caractériser par les rouages et les mécanismes mis en œuvre mais par son rôle : un système d’information est un dispositif permettant d’accroître l’efficacité et la productivité des entreprises et des administrations en améliorant la gestion des informations qui est au cœur de son activité. Ce dispositif peut être un processus, une fonction ou le support d’une activité. Il peut être manuel ou automatisé. Il peut reposer sur le Web [2] mais aussi d’autres protocoles ou sur des systèmes plus fermés [3].

 Cette complexité explique la difficulté de maîtriser la définition des systèmes d’information et au-delà la gouvernance des systèmes d’information.

 

Fin du post de 2011


[1] - C’est la définition du système d’information se trouvant dans Wikipédia.

[2] - Mais derrière la norme HTTP un certain nombre d’autres protocoles et d’autres produits qui sont des standards de facto sont à l’œuvre.

[3] - Il existe de très nombreux systèmes d’information fonctionnant sous Z/OS, CICS, DB2 et Cobol.

 _____________________________________________________________

 En relisant ce texte publié il y a 14 ans la définition des Systèmes d’Information me semble encore d’une grande actualité : « un système d’information est un dispositif permettant d’accroître l’efficacité et la productivité des entreprises et des administrations en améliorant la gestion des informations qui est au cœur de son activité ». En deux lignes et demi tout est dit. Très souvent on définit les systèmes d’information par leurs différents composants. C’est intéressant mais c’est une approche trop analytique. Il est plus pertinent de les définir par sa finalité notamment : «d’accroître l’efficacité et la productivité des entreprises et des administrations » et de plus la définition précise que ces résultats sont obtenus grâce à « l’amélioration de la gestion des informations qui est au cœur de son activité ».  

 Les PC, les serveurs, les logiciels, les bases de données, les réseaux, … ne sont que des dispositifs parmi de nombreux autres permettant d’améliorer la gestion des informations. Mais ce n’est qu’une partie du dispositif. En effet, il faut ajouter les nombreuses personnes chargées de faire fonctionner ces systèmes sans oublier les réunions de travail et de coordinations, les millions de données stockées sur de très nombreux supports non-informatiques, les orientations fixées par la direction et les contrôles effectuées par le management, … Ce dernier point est fondamental : les systèmes d’information doivent être encadrés, pilotés et contrôlés. C’est la dimension gouvernance. Le management, et notamment les décideurs, doivent définir, organiser, piloter et contrôler les systèmes d’information de l’entreprise. Ceci concerne particulièrement deux points clés :

-        La gestion des projets informatique. L’observation montre que très fréquemment le management a une certaine difficulté à structurer les projets de développement informatique et à les contrôler. Très souvent il a tendance à déléguer ou à sur-déléguer. Malgré les progrès réalisés dans le domaine du management des projets les dérives sont encore fréquentes. Elles sont très souvent dues à la difficulté à maîtriser les spécifications et en particulier le périmètre fonctionnel de ces futurs systèmes.

-        Le suivi des coûts. C’est un point de contrôle très important : combien coûte le traitement d’une commande, d’une pièce comptable, d’un nouveau client ,… ? Cela parait simple mais l’expérience montre qu’il existe souvent un certain flou sur ces notions élémentaires. En effet, aux dépenses informatiques proprement dites s’ajoutent toutes les autres dépenses liées au système d’information notamment le personnel, les locaux, les frais généraux, …. La connaissance du coût complet des opérations n’est pas simple mais elle est fondamentale pour maîtriser correctement les systèmes d’information.

 Mais il y a de nombreux autres points délicats pour maîtriser les systèmes d’information. Ceci montre l’ampleur des progrès qui restent encore à réaliser en matière pour assurer leur gouvernance.



[1] - Cette idée fait consensus parmi un grand nombre d’économistes mais une minorité le conteste dont Robert Gordon dans « The Rise and Fall of American growth »