Pages

jeudi 7 mai 2026

Les modèles d’affaires réinventés via l’Intelligence Artificielle, ’IA-pocalypse Now ? »

 par Bernard Laur

Depuis le 30 novembre 2022, date de l'annonce de ChatGPT, on assiste à une succession d'innovations totalement inimaginables il y a seulement quelques années. Elles sont en train de bouleverser le monde de l’informatique mais surtout elles vont profondément changer le fonctionnement des entreprises et des administrations. Ces changements sont, bien entendu, amenés par l’Intelligence Artificielle et plus particulièrement par le développement très rapide de l'IA Générative et des agents qui commencent à impacter directement les systèmes d'information des organisations. En quelques années nous allons changer de monde.

Une révolution se déroule sous nos yeux

Il faut se rappeler que l’Intelligence Artificielle existe sous différentes formes comme les systèmes experts, les systèmes à base de logique floue, l’Intelligence Artificielle Générative, les agents, les world models, l’IA physique, … Or, on constate que ces différents outils sont entrain « d’infuser » à tous les niveaux du domaine de l’informatique des entreprises notamment dans les matériels, les applications, les données, les interfaces, les réseaux, … Cela fait que dès aujourd’hui ils ont un impact croissant sur les systèmes d’information, sur les processus et finalement sur l’organisation et sur le contenu du travail.

L’Intelligence Artificielle est partout et sous des formes très variées. On a tendance actuellement à ne voir que l’IA Générative mais ce n’est que la partie la plus visible de cette véritable révolution. En effet, ces différents outils sont en train de modifier de manière fondamentale le contenu des différentes fonctions mises en œuvre et finalement de « disrupter » les business models d’entreprise traditionnels. Cela se traduit par des changements considérables qui vont amener une « recomposition » de l’entreprise et qui finalement vont profondément impacter son équation économique et la manière de produire ses résultats.

Des mutations considérables arrivent

Dès aujourd’hui on constate des modifications significatives qui se concrétisent par des changements importants tels que :

  • La personnalisation des échanges avec les clients, les prospects, les fournisseurs, les salariés,
  • L’automatisation intelligente des opérations. Elles se déroulent seules et à la fin le traitement va simplement demander une validation, 
  • Le développement de nouveaux modèles orientés services, 
  • L’exploitation systématique et approfondie des données afin de mieux anticiper les attentes et donc améliorer les services rendus, 
  • La mise en œuvre de systèmes prédictifs anticipant les comportements, 
  • Un meilleur équilibrage entre l’offre et la demande permettant de mieux satisfaire le client et le fournisseur, 
  • L’optimisation des opérations qui va se traduire par une plus grande rapidité d’exécution, une amélioration de la qualité et une baisse des coûts,
  • …. 

Ces changements se font à une vitesse stupéfiante et leur mise en œuvre est en train d’amener des changements profonds des habitudes qui dans de nombreux cas constituent une véritable révolution et vont impacter l’ensemble des processus internes et externes des entreprises en particulier : 

  • Le marketing, 
  • La prospection,
  • Les relations avec les clients,
  • Les ressources humaines,
  • La comptabilité et la finance,
  • La Banque,
  • Les relations avec les fournisseurs (la supply chain), 
  • La production industrielle,
  • Le secteur juridique,
  • La santé,
  • ….

C’est une liste sans fin et peut-être ferait-on mieux de chercher à identifier les secteurs qui ne seront pas impactés.

Les impacts considérables de l’IA 

Comme on le voit l’IA s’introduit partout sans qu’on le sache toujours. Certes certains fournisseurs de solutions annoncent de l’IA alors qu’il n’y en a pas toujours alors que d’autres, plus nombreux, en introduisent sans trop le dire. Concrètement bientôt il y en aura partout. Cela va avoir des effets considérables :

  • La vitesse d’exécution des opérations les plus courantes est réduite de manière significative. Ceci concerne toutes les opérations, même les plus classiques comme le traitement des commandes, l’analyse des ventes, les contrôles qualité, … La réduction de délais observés est comprise entre 10 % et 70 %.
  • Les coûts des opérations vont aussi diminuer de manière significative, même si les coûts des prestations d’IA s’ajoutent aux dépenses actuelles. Ces réductions sont permises par les gains de productivité induits par ces applications. On estime que la baisse est comprise entre 5 % et 40 %.
  • La création de nouveaux services. Les possibilités offertes par l’IA et en particulier l’IA Générative permettent d’imaginer des offres originales différentes des services existants en permettant par exemple une très forte personnalisation et une capacité d’adaptation actuellement impossible dans une approche de type « mass market ».
  • De même le marketing des produits et des services va considérablement évoluer et on va passer d’un marketing de masse à un marketing individualisé. Chaque client et chaque prospect est caractérisé par ses comportements et ses attentes. Les fonctions d’Intelligence Artificielle de ces systèmes en tiennent compte de façon à mieux les convaincre. 
  • Le changement de logique des opérations se concrétise par le passage d’une logique classique de processus où le client fait une demande et un vendeur lui répond par une offre à des opérations basées sur des agents qui cherchent seuls la meilleure offre sur tous les sites existants et proposent une offre que le prospect n’a plus qu’à valider. 
  • En outre les systèmes évoluent vers un marketing de la prédiction basée sur l’intention, l’IA exploitant les informations collectées sur le comportement des clients pour élaborer des messages plus efficaces et, en fin de compte, générer davantage de conversions et de business.
  • On s’oriente également vers la prise en compte personnalisée des nouveaux comportements de chacune des nouvelles générations : Y, Z, Alpha, Béta, … 

Comme on le voit, l’IA et notamment les agents, représentent une nouvelle étape après celles marquées par l’apparition il y a trente ans de l’Internet, du web, de l’e-commerce et des réseaux sociaux. 

Mais rien n’est simple

Néanmoins, tout n’est pas joué. En effet, il existe de multiples risques qui limitent et conditionnent les chances de réussite de l’Intelligence Artificielle :

Le manque de compétences dans ces domaines, 

La complexité des modèles, 

La nouveauté et la richesse de l’offre dans tous les domaines, 

L’importance des investissements nécessaires, 

L’acceptabilité des changements par les personnes concernées,

La maîtrise du foisonnement applicatif et de l’interopérabilité,

Les problématiques de sécurité et de confidentialité, 

Les contraintes règlementaires, juridiques et éthiques, 

On peut néanmoins raisonnablement penser que ces difficultés seront progressivement maîtrisées. Cependant, ces changements se multiplient, apparaissent de plus en plus vite et laissent des délais de plus en plus courts entre ces différentes innovations. Le risque est d’arriver à un foisonnement non-contrôlée d’opérations devenues incontrôlables.


En réalité, seules réussiront les organisations qui seront capable de réinventer leur modèle d’affaires. Il ne suffit pas de se contenter de maîtriser la seule technologie pour réussir une véritable stratégie. Pour tout responsable d’entreprise ou d’administration la question majeure est aujourd’hui très simple : quel sera demain son « business model » ? Faute d’anticiper cette mutation il risque, d’ici quelques mois ou années, de se trouver avec une organisation dépassée et d’être contraint de changer de modèle à marche forcée avec un fort risque d’échec comme cela s’est déjà produit par le passé, par exemple lors de la nécessaire évolution vers l’e-commerce.


Ce texte est un résumé de la conférence faite par Bernard Laur au Club de la Gouvernance des Systèmes d’Information le Mercredi 1er Avril 2026 : « Les modèles d’affaires réinventés via l’Intelligence Artificielle » « vers l’IA-pocalypse Now ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

  • Quels sont les causes de la disruption induite par l’Intelligence Artificielle ? 
  • Quel est le rôle fondamental du machine learning ? 
  • Comment fonctionne l’Intelligence Artificielle générative basée sur l’analyse des données ?  
  • Comment les agents AI vont-ils changer l’organisation du travail ?
  • Quel sera le rôle des World Models ? 
  • Quels seront l’impact des systèmes à base d’IA Générative sur les processus ? 
  • Quelles sont actuellement les applications de l’IA réellement opérationnelles ? Dans le domaine commercial ? Dans le domaine industriel ? 
  • Quel est le rôle fondamental des données. 
  • Comment va se réaliser l’automatisation des processus ?  
  • Quel sont les gains de vitesse de réaction, de réduction des coûts, de  gains de qualité ? 
  • Quel est le ROI de ces investissements ? Quel est l’impact de ces dépenses sur le budget de la DSI ? 
  • - ….

Lire ci-dessous le support de la présentation de l’exposé de Bernard Laur :

                                                                                                         Slide

  1. Les outils de l’Intelligence Artificielle utilisés   4
  2. Les applications actuellement implémentées   9 
  3. Les domaines particulièrement touchés 12 
  4. Quels impacts ? Quels résultats ? 18 
  5. Les chiffres clés 1


mardi 5 mai 2026

La Gouvernance de l'Intelligence Artificielle Générative

                                                                                                                        par Fernando Gonçalves

L'Intelligence Artificielle Générative est en train d'impacter notre société.Tous les secteurs de la société sont ou vont être impactés : les entreprises et l'administration, l'enseignement et la santé, la recherche, les loisirs,... Quasiment toutes les activités sont concernées. De plus, les agents se développent et vont décupler les effets de l'IA générative. 

Mais comment maîtriser cette déférelante ? Quelles sont les règles à appliquer ? Comment limiter les risques ? ...  La solution est connue. Il faut renforcer la gouvernance en se basant sur les bonnes pratiques connues de tous les décideurs et les experts compétents.   

Nos amis du Club Européen de la Gouvernance des Systèmes d'information du Portugal réfléchissent comme nous le faisons sur l'impact de l'IA sur notre société et particulièrement sur les entreprises. Dans leur dernier numéro de leur revue bG, boletim Governança, Fernando Gonçalves a publié un article très intéressant sur la gouvernance de l'IA Générative que vious trouverez ci-dessous.  

Claude Salzman
Président du Club Européen de la Gouvernance des Systèmes d'Information 


UNE NOUVELLE ÉTAPE POUR LES BATAILLES GÉOPOLITIQUES, ÉCONOMIQUES ET SOCIALES MONDIALES

La gouvernance de l'intelligence artificielle (IA) constitue l'un des débats les plus complexes et les plus urgents de la technopolitique mondiale et du développement économique et social.

 On observe, dans plusieurs dimensions, une recherche de normes de marché, voire l'établissement de principes moraux, éthiques et juridiques encadrant la légitimité de son utilisation, que ce soit en médecine, dans l'art, l'éducation, sur le marché du travail ou dans le domaine militaire, avec des impacts multiples qui ne sont pas toujours évidents. Les défis liés à l'énergie, à l'informatique, à son financement et à sa viabilité économique sont également incontournables.

 Par ailleurs, la marge de manœuvre pour prévenir, dans le cadre de l'IA, des conséquences encore plus néfastes que celles que l'on ressent actuellement en raison de l'absence de régulation du cyberespace et du désengagement des pouvoirs publics de leurs responsabilités dans ce domaine qui est pourtant très limité.

 Les impacts déjà connus ou présumés de cette technologie dans les domaines les plus divers de la société exigent la définition urgente d'une réglementation claire, générale et universelle permettant de tirer profit de l'IA, tout en garantissant la confidentialité, la sécurité et la fiabilité de son exploitation et en atténuant les distorsions dues au fait qu'une grande partie de l'écosystème – énergie, infrastructures, capacité de calcul et modèles informatiques – est détenue par un nombre très limité d'entités.

 Sur les droits d'utilisation et la légitimité de leur définition

 Parmi les aspects les plus controversés du débat sur l'utilisation de l'IA figurent la définition de ses conditions d'utilisation et la question de savoir qui est responsable de sa réglementation légitime.

 L'affaire qui a opposé le Département de la Guerre américain à Anthropic en mars 2026 a mis en lumière un débat nécessaire et urgent : qui est responsable de la définition des limites d'utilisation des modèles d'IA, notamment sur des questions particulièrement sensibles telles que la surveillance de masse des citoyens ou les armes autonomes ? Les gouvernements des États souverains ? Leurs parlements ? Les fabricants ? Bien que l'Union européenne ait transmis une partie de la résolution de cette question au Règlement (UE) 2024/1689 relatif à l'IA, la grande majorité de l'écosystème, notamment les États-Unis et la Chine, reste à l'écart. Étant donné que ces deux pays sont les principaux producteurs mondiaux de modèles d'IA et de leurs produits dérivés, le risque de divergence des normes industrielles par rapport à ces principes est loin d'être négligeable.

 Face à la paralysie de l'ONU due à son modèle de prise de décision par consensus, il est peu probable qu'un traité émerge dans ce domaine. Le monde sera-t-il une fois de plus pris en otage par une autorégulation, où le déséquilibre entre les blocs géopolitiques et technologiques fausse d'emblée le pouvoir de négociation des différentes parties ?

 Pour l'instant, l'autorité de Léon XIV demeure incontestée. En juillet 2025, dans un message adressé aux participants du Sommet mondial « L'IA au service du bien commun », il déclare que « l'humanité est à la croisée des chemins, confrontée à l'immense potentiel généré par la révolution numérique induite par l'intelligence artificielle », et appelle à une « gouvernance locale et globale de l'IA » (Léon XIV, le pape lanceur d'alerte, Le nouveau guide de la super-intelligence artificielle, Le Point, Hors- Série n° 3, déc. 2025-janv. 2026, p. 26-27).

 La lutte pour un modèle d'exploitation de l'IA : logiciel libre contre logiciel propriétaire

 Au cœur du débat sur le modèle d'exploitation de l'IA se trouvent deux visions antagonistes : la démocratisation prônée par le modèle du logiciel libre et la protection de la propriété intellectuelle des plateformes propriétaires.

 Le modèle du logiciel libre repose sur le principe que le progrès technologique est optimisé par le contrôle public et la collaboration décentralisée. L'accès aux pondérations des modèles et à leur architecture est perçu comme un processus de mutualisation de leur supervision et comme un garant de normes éthiques et morales vérifiables.

 Yann Le Cun, l'un des plus grands experts mondiaux en IA, affirme, dans un entretien accordé au Monde le 16 janvier 2026 (David Larousserie et David Piquard), que cette approche favorise une plus grande diversité, évite la mainmise d'un petit groupe d'entreprises sur la technologie et accélère le progrès scientifique, permettant à chacun d'identifier les risques inhérents aux modèles et à leur utilisation.

 À l'inverse, les plateformes propriétaires valorisent la protection de la propriété intellectuelle comme un avantage concurrentiel et un moyen de renforcer la gestion des risques. Les principaux fabricants de plateformes d'IA affirment que la diffusion et l'accès sans restriction aux modèles peuvent donner aux acteurs malveillants la possibilité d'orchestrer des cyberattaques sophistiquées ou des campagnes de désinformation à l'échelle industrielle. Selon cette perspective, la limitation du code n'est pas seulement un acte de protection des droits d'utilisation commerciale, mais aussi un impératif de sécurité collective.

 La dichotomie entre modèles ouverts et fermés se manifeste clairement dans les approches des principaux producteurs de plateformes d'IA des deux grandes superpuissances contemporaines, reflétant leurs spécificités politiques.

 Mais il n'en a pas toujours été ainsi. Jusqu'à la fin des années 2010, le développement de l'IA reposait principalement sur l'open source. C'est avec le lancement par OpenAI, fin 2019, du modèle GPT-2, après la publication d'un article présentant ce modèle au début de la même année, qu'un changement s'opère dans l'approche des principaux fabricants : le partage de code cède la place à des restrictions d'accès croissantes, sous prétexte de sécurité et de motivations commerciales.

 Depuis lors, les États-Unis sont restés un terrain de jeu privilégié pour les systèmes propriétaires, pilier indissociable de leur modèle économique. Actuellement, ces modèles dominent les classements de performance. Cependant, les alternatives open source (notamment celles proposées par des entreprises chinoises comme Alibaba et Z.ai) ne sont pas en reste en termes de capacités. Yann Le Cun prévient que si les États-Unis abandonnent l'open source, la Chine pourrait prendre la tête de l'innovation, principalement grâce à la rapidité de développement de l'open source.

 Bien que le modèle de rémunération des systèmes d'IA open source semble encore plus complexe que celui des modèles propriétaires, on trouve dans les deux cas une rémunération par abonnement, appliquée aux consommateurs finaux, ou une rémunération à la consommation (généralement par tokens, jetons), pour les entreprises clients.

 Chez Alibaba, la disponibilité de modèles open source est souvent associée à une offre commerciale de cloud computing, à laquelle des modèles propriétaires de pointe sont intégrés selon un modèle de paiement à l'usage. Dans une certaine mesure, Alibaba utilise actuellement la même approche de l'intelligence artificielle que Google depuis sa création pour développer diverses solutions de marché, telles qu'Android ou Kubernetes.

 Quel que soit le scénario, le financement des investissements mondiaux dans l'intelligence artificielle reste incertain. Selon Gartner, ces investissements devraient atteindre près de 2 500 milliards de dollars, voire près de 3 300 milliards en 2027. (Gartner prévoit que les dépenses mondiales en IA atteindront 2 500 milliards de dollars en 2026) de même que les bénéfices concrets de ces investissements sans précédent.

 Paradoxalement, l'une des initiatives les plus fructueuses à ce jour dans le domaine de l'IA s'est développée selon un modèle open source, transformant profondément la science, notamment les domaines de la médecine et de la biologie. Le projet Alphafold, de Google DeepMind, a permis de prédire la structure tridimensionnelle d'une protéine à partir de sa séquence d'acides aminés.

 En 2020, Alphafold a joué un rôle crucial dans la compréhension de la structure du virus SARS-CoV-2, ouvrant la voie au développement de vaccins efficaces. Depuis, et grâce à son accessibilité aux chercheurs, cette technologie a été utilisée pour la découverte de nouveaux médicaments et le développement de domaines tels que l'immunothérapie et la pharmacologie personnalisée.

 Très récemment, Google a de nouveau investi dans un projet open source, Groundsource (Mayo et al.), qui, grâce à l'IA, transforme des millions de rapports publics en données structurées pour prédire les catastrophes naturelles, notamment les inondations, permettant ainsi d'anticiper les crues soudaines plusieurs heures à l'avance. Ceci démontre que Google adopte une approche relativement duale dans le domaine des modèles d'exploration.

 Énergie, eau et ressources informatiques

 Une partie des investissements nécessaires à l'IA est consacrée à la construction de centres de données, de processeurs, ainsi qu'aux systèmes électriques et au refroidissement. Les quantités d'énergie requises sont si importantes que les centres de données sont désormais caractérisés non plus par leur capacité de calcul, mais par leur consommation énergétique.

 Les projets de construction de nouveaux centres de données connaissent une croissance exponentielle. La combinaison des principales ressources nécessaires à leur fonctionnement constitue l'un des principaux obstacles à leur déploiement avec l’énergie, l’eau, le foncier et les processeurs.

 Parallèlement, la construction de nouvelles centrales nucléaires, l'installation de petits réacteurs nucléaires à proximité des centres de données et l'exploration potentielle de la fusion nucléaire progressent au même rythme que les besoins énergétiques de l'IA.

 La consommation d'eau potable représente un autre défi. Les besoins sans précédent en refroidissement font de l'eau le fluide le plus efficace, mais avec des impacts environnementaux très controversés. Dans ce domaine, le projet Start Campus de Sines (Portugal) fait référence, utilisant l'eau de mer provenant de l'ancienne centrale thermique pour le refroidissement des centres de données.

 Face à la complexité des défis, des approches radicales émergent, comme celle de certains investisseurs, notamment Elon Musk, qui proposent de construire des centres de données en orbite pour contourner les difficultés liées aux contraintes sur Terre. Grâce au refroidissement assuré par la température ambiante et l'énergie solaire permanente, le principal défi consiste à réduire les coûts de transport, afin de rendre ces infrastructures moins onéreuses que leurs équivalents terrestres (« Centres de données dans l'espace : moins fou qu'il n'y paraît »).

 Ingestion et production de données : vers une « IA dégénérative »

 L'entraînement des modèles d'IA dépend de la quantité (et il est essentiel de souligner qu'il dépend également de la qualité) des données disponibles. Face à l'épuisement des données extraites de sources disponibles sur Internet et autres référentiels ouverts, et, compte-tenu des litiges relatifs aux droits d'auteur et à l'hétérogénéité de la qualité des contenus, cette question devient cruciale pour les modèles d'IA. Sans nouvelles données l’entraînement des modèles est impossible, ce qui remet en cause tout l'édifice évolutif de l'IA.

Pour pallier cette pénurie de données, on recourt fréquemment aux données synthétiques : des informations générées artificiellement par des algorithmes ou des modèles d’intelligence artificielle, et non issues d’événements réels ou d’activités humaines.

Cette solution à la pénurie de données est ingénieuse et peu coûteuse ne semble pas, en soi, poser problème. Cependant, combinée au volume croissant de contenu généré par l’IA qui alimente Internet et qui, par conséquent, sert à entraîner les modèles d’IA, donne lieu à un phénomène qui remet en question tout le fonctionnement de l’entraînement des modèles d’IA tel que nous le connaissons et qui a été décrit comme une « endogamie de l’IA » (Shumailov et al.), une « IA des Habsbourg » ou une « IA dégénérative ».

 En bref, en se nourrissant de données qu’ils créent eux-mêmes, les modèles d’IA tendent vers une certaine « endogamie » et commencent à produire des réponses de plus en plus similaires et médiocres, ce qui peut conduire à leur effondrement. Le phénomène est expliqué par Aatish Bhatia dans un article publié en 2024 dans le New York Times (Bhatia), où il met en garde contre les risques d'une intensification des contenus produits par l'IA dans notre vie quotidienne.

 Perspectives pour l'avenir proche

 Une gouvernance adéquate de l'IA nécessitera l'établissement de consensus fondamentaux, indispensables pour garantir l'homéostasie du fonctionnement des modèles à l'échelle mondiale. Parallèlement aux efforts déployés par l'ONU, certains blocs économiques ou certains États, il est crucial de développer des mécanismes multilatéraux permettant la convergence de principes éthiques et juridiques communs.

 Dans les sociétés où l'humanisme prime sur toute autre valeur, il est essentiel de renforcer les principes qui sous-tendent l'inviolabilité des domaines sensibles pour recourir à l'IA, tels que les armes autonomes ou la surveillance de masse des citoyens.

 De même, en matière de développement durable, il convient d'adopter des normes environnementales universelles favorisant la conservation de l'eau et de l'énergie, et d'évaluer constamment des alternatives plus efficaces.

 Il est également essentiel de rendre transparente la manière dont les risques liés à l'IA sont atténués, en présentant a priori et clairement les inexactitudes, les défauts et les omissions possibles de certains résultats issus de l'utilisation de certains modèles.

 Enfin, il est impératif que les consommateurs, qu'il s'agisse de particuliers, d'entreprises ou d'autres entités, sachent clairement quand le contenu qu'ils consomment a été, en tout ou en partie, généré par l'IA, garantissant ainsi la transparence de la collecte, de la transformation, de la production et de la diffusion de l'information.

 Références

 ·         Bhatia, Aatish. 2024. « Quand la sortie de l'IA menace l'IA elle-même (Publié en 2024) ». NYTimes.com, 25 août 2024. https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html.

 ·         The Economist. 2026. « Des centres de données dans l’espace : moins fou qu’on ne le pense ». 2 mars 2026. https://economist.com/science-and-technology/2026/03/02/data-centres-in-space-less-crazy-than-you-think.

 ·         « Gartner prévoit que les dépenses mondiales en IA atteindront 2 500 milliards de dollars en 2026 ». 2026. Gartner. https://www.gartner.com/en/newsroom/press-releases/2026-1-15-gartner-says-worldwide-ai-spending-will-total-2-point-5-tillion-dollars -in-2026.

·         David Larousserie et David LaroAlexandre Piquard. « Yann Le Cun : « Pourquoi je quitte Meta pour créer ma start-up IA ». Le Monde, 16 janvier 2026. https://www.lemonde.fr/economie/article/2026/01/16/yann-le-cun-pourquoi- je-quitte-meta-pour-creer-ma-start-up-d-ia_6662500_3234.html?search-type=classic&ise_click_rank=2 

·         Mayo, Rotem, Oleg Zlydenko, Moral Bootbool, Shmuel Fronman, Oren Gilon, Avinatan Hassidim, Frederik Kratzert, et al.2026. “Groundsource: A Dataset of Flood Events from News.” https://doi.org/10.31223/X5RR2K 

·         Shumailov, Ilia, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, and Yarin Gal. 2024. “AI models collapse when trained on recursively generated data » https://www.nature.com/articles/s41586-024-07566-y

 

Le Règlement européen de l'IA (AI Act) : entre spécifications techniques, incitations économiques et positionnement stratégique.

 par Arnaud Billion

Après un accouchement long et douloureux l’Union Européenne a fini par produire une réglementation de l’Intelligence Artificielle. Publiée en Juin 2024 celle-ci commence à se mettre en place dans une logique d’entrée en vigueur progressive. Il est vrai que pour des raisons politiques certaines parties de ce Règlement ont été récemment décalées dans le temps, mais on voit mal comment une marche arrière serait possible dans la mesure ou le « Brussels Effect » est un signal stratégique fort.

Une lecture superficielle du Règlement européen sur l'IA (AI Act) laisse à penser que ce ne serait qu’une liste à la Prévert de tâches procédurales et bureaucratiques, une sorte de reporting institutionnel surabondant. De plus ce texte est long, bavard et mal écrit ce qui est source d’incertitude. Mais, à regarder de plus près on peut tout de même y trouver intérêt.

 Les raisons de la curieuse forme de l’AI Act

L’AI Act est une partie d’un ensemble réglementaire riche et complexe produit par l’Union Européenne comme le RGPD (données personnelles), le DMA (marchés numériques), le DSA (services et contenus numériques), le DGA (gouvernance numérique), le NIS2 (cybersécurité) … Ces textes sont eux-mêmes partie d’un ensemble plus vaste qui est le droit positif applicable de l’Union, lequel comprend notamment les droits nationaux. Au fil des ans cette législation se développe et s’enrichit.

 Dès sa promulgation en Juin 2024 l’AI Act s’est imposé aux 27 pays européens sans qu’il soit nécessaire de l’implémenter dans les Etats membres selon une loi nationale. Il n’est pourtant entré que partiellement en vigueur à partir du 1er août 2024 et sa mise en place va s’étaler jusqu’en 2027 et même au-delà car, face à la pression des lobbies, une loi dite « Omnibus » a décalé et reformulé certaines mesures. Enfin, point très important, les régulateurs nationaux chargés de surveiller l’application de l’AI Act ont été désignés et les contrôles commencent à être mis en œuvre.

 Prenant du recul, nous voyons que c’est un droit qui louche du côté de son implémentation informatique : rédigé selon les principes tels que « la norme claire » et « la norme déductible » il reflète une ambition de la Commission : un droit directement applicable dans le système d’information, sans même besoin d’une intervention humaine (« Digital Ready Policymaking ») (voir slide 11 ci-dessous). Au-delà, c’est un révélateur d’une des forces (et des dangers) du droit moderne qui depuis le 17ème siècle  promeut « le système de règles formelles déductibles » octroyant une prime à tout programme au détriment de l’approche artisanale informelle ou intuitive.

 La longueur et la complexité de l’AI Act est en partie due à la durée de l’élaboration de ce texte. Entre sa première esquisse et sa publication finale il s’est passé quatre ans comprenant une longue phase de dialogue entre le Parlement et la Commission suivi d’un trilogue avec en plus le Conseil des Ministres des états, accompagné d’un intense lobbying du secteur. Cela explique, en grande partie, sa médiocre qualité juridique.

 Pour bien comprendre la logique de l’AI Act il faut se rappeler celle du droit européen qui s’efforce toujours de maintenir (ou plutôt d’énoncer) un équilibre entre le respect des droits fondamentaux et la recherche de l’efficacité économique. Ainsi tout juriste armé de cette boussole, est capable de montrer la logique de ce texte et de proposer aux entreprises concernées des stratégies de conformité adaptées à chaque contexte.

 Les grandes distinctions

 Sont catégorisés des utilisations des IA en fonction de leurs niveaux respectifs de risque. C’est une étrange taxonomie, qui tâche de saisir ce que va faire tel ou tel système.

 Faut-il penser que l’AI Act atteindra ses objectifs ? Ce serait étonnant, d’autant que l’approche par les risques n’est guère pertinente (puisque sont postulés des « systèmes » qui ne resteront pas fidèles à eux-mêmes) Il est en tout cas critiqué par des entreprises comme Open IA ou Mistral, qui le trouvent trop contraignant et inopportun économiquement, à cause d’une trop lourde charge de conformité : il faudrait pouvoir innover librement.

 Cependant de nombreuses entreprises décident de se conformer à l’AI Act, exercice qui ne peut consister à modifier tout le systèmes de gestion et d’information pour satisfaire l'ensemble des prescriptions du droit européen (ce serait bien trop lourd et compliqué en absence d’une cohérence d’ensemble). Le rêve serait simplement de prompter à un super agent d’IA « mets-moi en conformité avec l’ensemble de l’AI Act sans perturber mes processus ». On sent toute la vanité de ce projet.

Mais à quelque chose malheur est bon : les entreprises, en se penchant sur les risques de non-conformité, vont devoir se reposer la question de l’alignement stratégique, de la maintenabilité et de la valeur de leur système d’information. En effet, les prescriptions du l’AI Act peuvent être considérées comme une recension (certes incomplète, maladroite et velléitaire) de bonnes pratiques informatiques. Autrement dit, il faut chercher à lire dans l’AI Act les spécifications logicielles pertinentes et intelligentes permettant d’améliorer de manière significative le processus de transformation numérique des entreprises.

Par exemple, l’entreprise qui prendra au sérieux l’exigence posée de supervision humaine, aura une chance de conserver le contrôle des opérations (dans un contexte d’interconnexion grossièrement généralisée, dite « agentique ». Autre exemple : l’AI Act liste des applications interdites de l’IA par exemple les techniques de manipulation subliminale, ce qui permet d’éviter aux entreprises d’orienter leurs modèles d’affaires sur le service d’une société à la Orwell… mais on peut craindre que l’exercice de divination des mauvais usages de l’IA soit vain, puisque les risques sont en fait systémiques ; porter l’attention sur le soi-disant « système d’IA » n’est peut-être pas si opportun.

 Une liste de prescriptions

 Lorsqu’on lit les 113 articles de l’AI Act on constate très vite que c’est, pour une bonne partie, une liste des bonnes pratiques qui doivent être appliquées tant par les fournisseurs que par les intégrateurs de logiciels et de services, lesquels devront évaluer les risques liés à l’emploi de leurs systèmes et prendre des mesures pour chercher à les réduire. Ces règles concernent aussi la gestion des données qui doivent être convenablement sécurisées. De même les entreprises qui déploient pour le compte de tiers des systèmes à base d’Intelligence Artificielle doivent veiller à leur sécurité.

 Un effort particulier doit être porté à la compliance de ces systèmes par le moyen d’un processus de contrôle de la conformité et la possibilité d’obtenir un label CE. Cette démarche repose sur la vérification par un tiers de l’application des bonnes pratiques que tout professionnel connait et s’efforce d’appliquer. Notons encore que des normes harmonisées sont commandées à la CEN-CENELEC afin d’instancier un peu mieux toutes ces recommandations.

 En tout état de cause, la seule démarche praticable nous semble l’approche remontante ou bottom-up, consistant à reconnaître le champ des possibles transformations à partir d’un diagnostic clair dans chaque situation en fonction des ressources disponibles… la meilleure manière de servir l’alignement stratégique sans négliger le respect des droits humain fondamentaux.

 En guise de conclusion

 L’AI Act s’inscrit dans la logique du droit de l'Union, cherchant à concilier performance économique européenne et épanouissement des Droits de l’homme. Il invite chacun à maîtriser les systèmes basés sur l’Intelligence Artificielle. Il se différencie en cela des démarches, ou de l’absence de démarche, des deux pays qui assurent aujourd’hui une grande partie des développements des systèmes à base d’IA : les USA où l’administration Trump a supprimé le peu de législation existante et a même interdit aux différents Etats américain de légiférer sur le sujet ; la Chine qui semble avoir opté pour le contrôle étatique des systèmes par l’Intelligence Artificielle. Cependant, sa mise en œuvre par les entreprises concernées requiert un effort important de compréhension de cette loi afin d’en apprécier les avantages ce qui permettra de faire évoluer de leurs pratiques de développement et de mise en œuvre de ces systèmes.

 

Ce texte est un résumé de la conférence faite par Arnaud Billion au Club de la Gouvernance des Systèmes d’Information le Mercredi 18 Février 2026 sur le thème : « Le Règlement européen de l'IA (AI Act) : entre spécifications techniques, incitations économiques et positionnement stratégique. »

Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

-        Quelles sont les principes sous-jacents à l’AI Act et quels sont les objectifs visés par le législateur ?

-        Quels sont, derrière ces contraintes, les bonnes pratiques à mettre en œuvre ?

-        Comment les entreprises peuvent prendre en compte ces obligations pour en faire une opportunité ?

-        Est-ce qu’il est possible dès aujourd’hui de mesurer les impacts stratégiques de l’AI Act ?

-        Quels sont les pièges et chausse-trapes de l’AI Act ?

-         Quels sont les impacts économiques et géostratégiques de l’ensemble de ces démarches ?

-        ….

 Lire ci-dessous le support de la présentation de l’exposé de Arnaud Billon :

                                                                                                   Slide

1.        La problématique                                                                  3

2.        Le RIA dans son contexte réglementaire                               6

3.        Les grandes distinctions du RIA                                            8

4.        Compliance et gouvernance stratégique                               10

5.        Conclusion                                                                            13

Article sur la compliance et la gouvernance                          14