Pages

dimanche 31 mars 2024

La sobriété numérique est au cœur de la gouvernance numérique

 D’après la présentation faite par Christine Debray

 Les ressources naturelles que nous utilisons finissent par s’épuiser, notamment celles qui ne sont pas renouvelables comme les énergies fossiles (pétrole, gaz, charbon, …) mais aussi les minéraux et les terres rares. De plus leur emploi se traduit par des pollutions considérables notamment par le CO2 mais aussi par des déchets liés à leur extraction. Ce processus a commencé au 18ème siècle avec la révolution industrielle et elle s’est considérablement accélérée depuis les années 50 et notamment ces vingt dernières années. Tous les secteurs sont concernés et en particulier le numérique.

Au cours des soixante dernières années l’informatique s’est considérablement développée et les progrès réalisés ont été très importants. Ils ont permis d‘optimiser la gestion des entreprises, d’accélérer les échanges de biens et de services, de développer les communications, … Le numérique est devenu partie importante de nos vies. C’est aujourd’hui la solution à de très nombreux problèmes qui, jusqu’alors freinaient le développement de nos sociétés. Mais, la partie négative de ce processus ne doit pas être oubliée. On a ainsi constaté l’accroissement de la pression écologique qui est trop souvent sous-évaluée.

Les faits sont têtus

Les émissions de gaz à effet de serre liées au numérique étaient estimées en 2020 à 3 à 4 % du total des émissions mondiales. En France elles sont un peu inférieures (2,5 %) mais on estime qu’elles vont croitre et être multipliées par 3 à l’horizon 2050.  Quant à la consommation électrique du numérique en France, elle était estimée à 10 % de la consommation française en 2020, mais pourrait augmenter de 80% en 2050.

On pense, bien entendu, aux considérables consommations électriques des centres de traitement. Il y en a 5.000 dans le monde et la moitié appartiennent aux GAFAM. Mais, en réalité, ils ne représentent (en France) que 16 % de l’empreinte carbone associé au numérique. A cela on peut leur associer les consommations des réseaux qui sont de l’ordre de 5 %. C’est, en fait, la plus petite partie des pollutions constatées. Les 79 % restant sont dues aux terminaux : smartphones, PC, tablettes, imprimantes, écrans, … C’est considérable.

Cette pollution n’est pas tant dû à la consommation électrique ni à l’entretien de ces équipements mais à leur fabrication qui représente près de 80 % de leur empreinte carbone. De plus le nombre de ces équipements est considérable. On évalue qu’il y a 34 milliards d’objets en fonctionnement dans le monde soit plus de 4 par habitant de cette planète ou, autrement présenter 15 équipements par ménage.

Or, pour les fabriquer il est nécessaire d’utiliser de nombreux minerais et terres rares. Leur extraction et leur raffinage se traduisent par des pollutions graves et irrémédiables. Ainsi, pour produire un portable pesant 2 kilos il faut extraire 800 kilos de minerais et de matières premières, sans compter l’eau, l’énergie et les produits chimiques nécessaires pour les raffiner. 

Pour limiter cette dérive, il est nécessaire de définir une stratégie. Elle se résume par les 3 R : Réduire la consommation, Réutiliser les équipements et Recycler les matériaux.

Dans le monde, seulement 20% des matériels numériques sont collectés pour, soit être recyclés, soit leur donner une deuxième vie. Il est toujours préférable de prolonger la vie d’un matériel en leur reconditionnant et lui offrant une seconde vie sur un marché de seconde main. En effet, le recyclage des matériels est consommateur en énergie et en autres ressources et très peu de matières peuvent être correctement recyclées. Pour faire naitre un secteur du recyclage et du reconditionnement en France, un appel à projet a été ouvert par l’Etat sur 2023 et 2024.

Une affaire de gouvernance

Dans ces conditions il faut réagir, dans le secteur numérique comme dans tous les autres secteurs. L’Etat a mis en place un Secrétariat Général à la Planification Ecologique en juillet 2022, rattaché aux services du premier ministre pour :

-        Aller plus vite et plus loin en matière d’écologie,

-        Mieux coordonner les actions,

-        Adapter les choix aux réalités locales et individuelles,

-        Envisager la transition écologique comme source de nouvelles opportunités.

En janvier 2023, un plan et une feuille de route ont été établis dont les points clés concernent :

-        Mieux se déplacer,

-        Mieux se loger,

-        Mieux préserver et valoriser nos écosystèmes,

-        Mieux produire,

-        Mieux se nourrir,

-        Mieux consommer.

En décembre 2023 est sortie la feuille de route « numérique et données » pour aider par le numérique à la réalisation de la feuille de route de la transition écologique.

De plus, pour limiter l’empreinte écologique des administrations d’état, une mission interministérielle a été mise en place dans la DSI groupe de l’état : la MINUM-ECO pour coordonner les actions des ministères pour un numérique plus sobre. Un reporting est établi deux fois par an celui-ci et permettra de suivre les progrès réalisés. Chaque Ministère est concerné. A la Culture cela s’est traduit par la définition de 39 actions dont une partie concerne le numérique et en quelques mois 21 ont déjà été mises en place. A terme 60 actions sont prévues.

Les quatre leviers recommandés par l’ADEME pour un numérique sobre sont :

-        La stabilisation du parc des terminaux,

-        L’augmentation de la durée de vie des équipements en veillant de les choisir en fonction de leur réparabilité,

-        La conception des équipements de façon à avoir des matériels plus efficaces et moins consommateurs d’énergie,

-        L’encouragement de la sobriété des usages et en veillant à appliquer les bonnes pratiques de conception et de consommation des services numériques.

Ces leviers concernent l’ensemble des secteurs économiques. Le secteur culturel, pris au sens large, occupe près de 70% de la bande passante d’Internet. Bien entendu, une bonne partie correspond plus à du divertissement qu’à de la culture. Mais cela va évoluer car dans les années à venir car on prévoit que le numérique va être tiré par la culture qui est un remarquable vendeur d’imaginaire. C'est un enjeu considérable car les impacts écologiques du numérique sont importants. Ceci fait que la sobriété numérique est au cœur de la gouvernance numérique. Pour y arriver des changements de posture vont être nécessaire afin de réussir à mettre en œuvre un numérique durable. 

 

Après avoir travaillé pendant 40 ans en informatique, notamment comme DSI, Christine Debray est aujourd’hui chargée de mettre en place la sobriété numérique au sein du ministère de la Culture


Ce texte est un résumé de la conférence faite par Christine Debray au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Mars 2024 sur le thème : « La sobriété numérique est au cœur de la gouvernance numérique ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés comme :

-        Quelle est la situation du secteur du numérique face à la montée des préoccupations écologique ?

-        Quelles sont les activités du numérique les plus polluantes ?

-        Où se situent les enjeux principaux et les risques majeurs ?

-        Comment améliorer les performances écologiques du numérique ?

-        Que fait l’Etat ? Quelle stratégie écologique met-il en œuvre ?

-        Dans ce contexte quel est le rôle de la culture ? Pour quelles raisons c’est un secteur clé ?

-        De quelle manière le secteur privé peut contribuer à améliorer la performance écologique du numérique ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Christine Debray :

                                                                                                                      Slide

1 – Introduction                                                                                   3

2 – Les autres impacts écologiques                                                     7

3 – Les impacts du numérique                                                           11

4 – Les gaz à effet de serre du numérique                                         12

5 – L’empreinte carbone des centres de traitement, des réseaux

       et des terminaux                                                                          18

6 – Le poids de la fabrication des terminaux                                     19

7 – Le poids de l’extraction minière                                                  21

8 – L’importance des déchets et leur faible recyclage                      23

9 - La gouvernance à mettre en place                                                27

10 – La planification écologique                                                       30

11 – La gouvernance écologique au Ministère de la Culture           34

12 – Les principaux leviers d’action                                                 35

13 – Le poids du streaming vidéo                                                     37

 

lundi 22 janvier 2024

La véritable stratégie de Facebook et des réseaux sociaux

 Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes

par Pierre Berger.

 Facebook, c’est avant tout un homme : Marc Zuckerberg. Il a une personnalité étonnante. Aujourd’hui il a 40 ans et il est à la tête d’une fortune de 120 milliards de dollars. L’entreprise comprend 86.000 salariés mais il la dirige entouré par une petite équipe comprenant seulement une dizaine de collaborateurs de haut niveau.

Après deux années difficiles 2022 et 2023 est-ce que l’entreprise va reprendre la rapide croissance qu’elle a connu dans le passé. Que va-t-il se passer dans les années à venir ? Il est impossible de le prédire étant donné les évolutions très rapides du secteur et notamment l’impact de l’Intelligence Artificielle et en particulier les progrès sidérants constatés depuis un an l’IA Générative, sans parler des évolutions erratiques de la situation internationale et les contraintes dues à la transition de l’écologie.

Des milliards d’utilisateurs à travers le monde se servent quotidiennement des réseaux sociaux et en particulier de Facebook. Ainsi dans ma ville, à Maison Lafitte, il existe un site d’échange ouvert à tous les habitants. 12 000 membres fréquentent ce groupe, ce qui fait beaucoup pour une ville de 25 000 habitants. C’est un moyen très performant pour informer les gens La véritable stratégie de Facebook et des réseaux sociaux »

Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes aussi pour résoudre les mille et un petits problèmes du quotidien comme les chiens recherchés ou les objets perdus. C’est aussi un moyen d’échanger entre les participants sur des sujets d’intérêt communs comme les décisions ou les non-décisions de la Mairie, les nouveaux permis de construire... En fait, seule une petite minorité est vraiment active et le reste des utilisateurs se contente de s’informer et, le cas échéant, de cliquer des « like ».

Le projet d’origine de Marc Zuckerberg était ambitieux et généreux. Il voulait donner la parole aux gens afin que chacun puisse s’exprimer librement et gratuitement. C’est une forme absolue de la démocratie. Mais il y a loin des intentions à la réalité. Depuis deux décennies, il a manifesté en toutes circonstances un pragmatisme assez éloigné des considérations théoriques ou des grands principes éthiques. En fait son véritable objectif est la croissance de Facebook et le profit à tout prix. En effet ce réseau social est un support de publicité très efficace et plus le trafic est important plus les gains de l’entreprise sont importants. Pour cela il suffit d’inciter les participants à échanger et très vite à polémiquer. Très vite le ton monte et les invectives arrivent. C’est la porte ouverte au défoulement de tous les frustrés du monde.

Dans ces conditions les efforts de modération deviennent marginaux. Normalement tout message mensonger, choquant ou haineux devrait être rapidement supprimé. Mais, compte tenu du nombre de sites dans de très nombreuses langues cela devient très vite « mission impossible ». Les équipes chargées de faire ce travail ont été réduites au profit d’algorithmes à base d’Intelligence Artificielle avec des résultats incertains.  

Techniquement, Marc Zuckerberg pousse ses développeurs à aller le plus vite possible pour passer de l’idée à la mise en production avec, par exemple, la volonté d’effectuer tous les développements en DevOps plutôt que de recourir à des développements méthodiques effectués dans le cadre des projets : « Done is better than perfect ». C’est le « vite fait, bien fait sur le coin du gaz ». Cette stratégie technique est audacieuse et originale dans le cadre d’un site ayant un si grand nombre d’utilisateurs et un trafic aussi important mais on retrouve ce type de politique dans un nombre croissant de sites de commerce électronique. C’est une stratégie risquée notamment à cause des risques de dégradation des performances mais ça marche et c’est le principal.

En fait Marc Zuckerberg, malgré ses discours officiels, rejette les grands principes de « qualité » ou de « vérité ». Ce qui compte, c’est la mobilisation des utilisateurs. Pour cela il faut mesurer cet « engagement ». Les équipes spécialisées de Facebook ont dans ce but développé un indicateur majeur : le MSI (Meaningful Social Interaction). Il permet d’évaluer la dynamique des échanges entre les participants en mesurant les interactions, le degré de participation, les attitudes des intervenants et le niveau de sécurité perçues par les personnes. Cet indicateur est notamment utilisé pour alimenter le « newfeed » qui affiche en permanence à l’écran des informations choisies par les algorithmes pour attirer l’attention des utilisateurs. Il est très utile mais, l’expérience montre qu’il a tendance à accroitre l’agressivité des intervenants. Ce n’était peut-être pas l’objectif recherché mais c’est le résultat obtenu.

A cela s’ajoute le poids des puissants. Ce sont des personnalités ayant une grande visibilité, des groupes de pression puissants ou des états comme les Etats-Unis, l’Inde ou le Myanmar, n’hésitent pas à faire pression sur Facebook. Face à ce type de « problèmes » il existe des solutions mais Marc Zuckerberg les a toutes rejetées. Ces attitudes opportunistes montrent bien toutes les ambiguïtés de l’entreprise.

Cependant rien n’est définitif dans le domaine des réseaux sociaux. Chaque jour on constate que de nouveaux « breakthroughs » surviennent sans prévenir et qui vont influencer les évolutions du système notamment dans le domaine de l’Intelligence Artificielle. Nous surferons sur de véritables déferlantes …

Ce texte est un résumé de la conférence que Pierre Berger a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 10 Janvier 2024 sur le thème : « La véritable stratégie de Facebook et des réseaux sociaux. Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quelles sont les raisons du succès des réseaux sociaux ?

-        Quelles sont les utilisations pratiques possibles ?

-        Quelles sont les vrais objectifs de Facebook ?  

-        De manière pratique comment les utilisateurs se servent des réseaux sociaux ?

-        Comment lutter contre les comportements perturbateurs ?

-        Après les années difficiles de 2022 et 2023 va-t-on assister en 2024 à un redémarrage ?

-        Peut-on améliorer la qualité des échanges ou doit-on prioriser la liberté d’expression ?

-        Comment contrôler les contenus sans censurer ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Pierre Berger :

                                                                                                          Slide

1 – La force de l’âge et les moyens d’agir                              2

2 – Le site de Maisons-Lafitte sur Facebook                          4

3 – La croissance avant tout                                                  12

4 – La gouvernance des contenus                                         15

5 – Modération                                                                      17

6 – Les puissants ont tous les droits                                      21

7 – Conclusion                                                                       27

 

 

 

vendredi 12 janvier 2024

Peut-on encore contrôler l'Intelligence Artificielle ?

 par Claude Salzman.

L’IA suscite de grands espoirs et notamment l’IA Générative. On n’avait jamais vu avant dans le domaine de l’informatique un enthousiasme aussi important que lors du lancement de ChatGPT. En seulement deux mois 100 millions d’utilisateurs se sont connectés au système. Mais ils suscitent aussi de nombreuses craintes. Arrivera-t’on a réellement les maitriser ? Que se passera-t-il s’ils échappent à notre contrôle ? L’homme va-t-il devenir l’esclave de ces systèmes à base d'IA ?

En mars 2023, soit 4 mois après le lancement de ChatGPT, une pétition a été lancé par une association américaine, « Futur of Life Institute », demandant que soit mis en place un moratoire de six mois sur la recherche en Intelligence Artificielle Générative (voir https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/ ). Elle évoque « un risque majeur pour l’humanité » et dénonce : « une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs ne peuvent comprendre, prédire ou contrôler de manière fiable ». Sur la base de cette affirmation ils demandent que : « tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissante que GPT-4 »

Cette attitude est due à un débat qui agite la Silicon Valley depuis quelques années sur les risques de catastrophe planétaire dues à l’Intelligence Artificielle et particulièrement l’IA Générative. Il oppose deux clans : les optimistes et les pessimistes. Les premiers sont les enthousiastes qui ont une grande confiance dans la technologie. Ils s’identifient comme les « Effective Acceleration » ou en californien les « e/acc ». Les seconds sont les catastrophistes appelés les « AI Doomers ». Ils craignent que bientôt une superintelligence va apparaitre et se retourner contre l’humanité : chômage massif puis sa mise en esclavage et enfin son élimination car elle serait devenue inutile. Ils sont influencés par deux livres :

-        En 2000, Bill Joy co-fondateur de Sun Microsystems a écrit un livre étrange : « Pourquoi l'avenir n'a pas besoin de nous ». Il explique dans cet ouvrage que rapidement on va assister à l’arrivée des robots superintelligents qui constituent un danger pour la survie de l’humanité. C’était il y a 24 ans !

-        Plus récemment, en 2014, Nick Bostrom, a publié "Superintelligence, chemins, dangers, stratégies". C’est un des penseurs clés du transhumanisme. Il affirme que les superintelligences artificielles constituent un risque existentiel pour l’humanité car elles seraient incontrôlables. Pire : elles agiraient de manière anticipée de façon a empêcher toute tentative de les contrôler. On se croirait dans le film de Stanley Kubrick « 2001 Odyssée de l’espace » ou l’ordinateur de bord HAL ([1]) veut tuer l’équipage du vaisseau spatial pour se sauver.

Pour en savoir plus sur ces légendes il existe une curieuse page de Wikipédia sur les « Risques de catastrophe planétaire lié à l’intelligence artificielle » : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale#:~:text=Les%20syst%C3%A8mes%20avanc%C3%A9s%20d'IA,elle%2Dm%C3%AAme%20si%20mal%20align%C3%A9e.

On est loin des trois lois de la robotique d’Isaac Asimov dans "Cycle de Fondation" (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique) et notamment la première loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ». Chez Nick Bostrom c’est exactement l’inverse : le robot ne peut que nuire à l’homme et chercher sa perte. 

C’est le Kraken. C’est le mot à la mode du côté de San Francisco. C’est un animal mythique issue du fond culturel norvégien. C’est une sorte de calamar géant sortant des grands fonds marin pour détruire les bateaux et tuer tous les marins (voir les dessins du Kraken dans les slides ci-dessous).

Rassurons nous il n’y a pas de Kraken et le moratoire demandé par le « Futur of Life Institute » n’a pas été mis en place. Par contre on a assisté entre le mois de mai et novembre 2023 à une multiplication des initiatives des Etats et des organisations internationales dans ce domaine. Chacun a proposé un ou plusieurs moyens de réguler les développements de l’Intelligence Artificielle. Tout le monde s’y est mis : l’Union Européenne, les gouvernements américains et anglais, le G7, l’ONU, … Cela va de l’interdiction de certaines applications comme la reconnaissance faciale à la nomination d’un GIEC pour l’Intelligence Artificielle analogue à celle sur le climat.

Tous conviennent qu’il est nécessaire de contrôler ce « monstre » Mais comment s’y prendre ? Deux approches s’affrontent : l’européenne et l’américaine.

-        L’UE mise sur une réglementation détaillée et assez rigoureuse qui est en discussion depuis plus de quatre ans : l’AI Act. Ce texte n’est pas sans rappeler le RGPD. C’est un ensemble de règles strictes concernant la conception, les tests et l’exploitation des systèmes d’information à base d’Intelligence Artificielle. En fait c’est une transposition de la procédure de mise sur le marché des médicaments.

-        Aux USA comme au G7 on parie sur l’autorégulation ainsi que sur la responsabilisation des entreprises du secteur et des administrations concernées. C’est, par exemple, le dispositif mis en place dès novembre 2022 par la Maison Blanche qu'elle cherche à mettre en place dans les administrations fédérales (https://www.whitehouse.gov/ostp/ai-bill-of-rights/safe-and-effective-systems-3/ et le manuel de mise en œuvre https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf ) Cette démarche repose notamment sur l’audit des systèmes à base d’Intelligence Artificielle.

En effet il existe dans le domaine de l’Intelligence Artificielle, comme de manière plus générale en informatique, un certain nombre de bonnes pratiques ([2]) que les professionnels appliquent faute de quoi les systèmes finissent par dériver et finissent par commettre des erreurs ou « se planter ». En Intelligence Artificielle on parle plutôt dev "biais" et en IA Générative « d’hallucination ».

Les bonnes pratiques sont d’abord celles qui sont communes à tous les projets et à toutes les applications informatiques. Il y a ensuite un certain nombre de bonnes pratiques spécifiques aux systèmes à base d’Intelligence Artificielle (voir les slides 15 et 16 ci-dessous). Certaines sont faciles à mettre en œuvre comme la possibilité pour un utilisateur de demander l’assistance d’un être humain et d’autres sont nettement plus complexes réaliser comme la lutte contre les biais. La plupart de ces bonnes pratiques sont aujourd’hui connues, d’autres vont apparaitre au fur et à mesure des progrès réalisés en matière d’Intelligence Artificielle.

A la question : « Peut-on encore contrôler l’Intelligence Artificielle ? » la réponse est bien entendu positive. Pour maitriser ces applications il est nécessaire d’effectuer périodiquement des audits de ces systèmes en fonction des niveaux de risques identifiés comme on le fait pour la comptabilité, la facturation, la paie, …. Plus ces applications concernent un grand nombre d’utilisateurs, plus les enjeux sont importants, plus les niveaux de risques sont élevés et plus il est nécessaire de les auditer.

Ceci permet d’éviter de mettre en place des procédures de contrôles lourdes et globalement peu efficaces et ainsi d’éviter les dérives bureaucratiques comme celles qui ont été constatés avec le RGPD.

 En matière de recherche et d’innovation il existe une règle fondamentale : il est important de laisser les développeurs et les exploitants travailler en leur rappelant, que pour éviter toute dérive il est nécessaire de respecter les bonnes pratiques. Il est toujours possible de limiter le nombre de contrôles mais, en cas de dérives significatives et répétées, il faut rapidement réagir et prendre les mesures correctives qui s'imposent et le cas échant de débrancher le système si les risques sont trop élevés. 

Ce texte est un résumé de la conférence que Claude Salzman a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Décembre 2023 sur le thème : « Peut-on encore contrôler l’Intelligence Artificielle ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quels sont les risques et les menaces liées à l’Intelligence Artificielle ?

-        N’est-il pas déjà trop tard pour espérer les réduire ?

-        Arrivera-t’on a réellement maitriser ces systèmes ?

-        Peut-on encore contrôler l’Intelligence Artificielle ? 

-        Que se passera t ’il s’ils échappent à notre contrôle ?

-        Comment éviter que l’homme deviennent l’esclave de ces systèmes ?

-        Quels sont les dispositifs à mettre en place pour arriver à maîtriser ces systèmes ?

-        ….

 Lire ci-dessous le support de présentation de l’exposé de Claude Salzman :

                                                                                                          Slide

1 – Panique à bord                                                                   3

2 – La multiplication des initiatives                                        4

3 – La grande peur du Kraken                                                 6

4 – Les deux stratégies                                                          10

5 - Réglementer et punir                                                        11

6 – Les péripéties de l’AI Act                                               12

7 – La contrainte volontaire                                                  13

8 – Auditer dit-il                                                                    14

9 – Conclusion                                                                       17

Retour sur la question du titre                                               18

 


[1] - Curieusement HAL c’est IBM décalé d’un caractère vers la gauche. Etonnant ?

[2] - Il est difficile de définir ce que sont les bonnes pratiques. Par contre on voit bien ce que sont les mauvaises pratiques. On peut définir les bonnes pratiques en disant que ce sont les opérations et les contrôles que chacun sait qu’il faut faire mais que parfois on oublie d’effectuer.

mardi 10 octobre 2023

Architecture de données, le nouveau cœur du système d’information ?

                                                                                                            Par Philippe Nieuwbourg

Pendant de nombreuses années en informatique la gouvernance de données n’était pas considérée comme un sujet majeur. On ne l’évoquait que dans des cas particuliers comme pour les grandes bases de données ou des systèmes d’information particulièrement complexes. Plus récemment on a commencé à s’intéresser à la gouvernance de données avec le développement des ERP et surtout avec le développement de l’Intelligence Artificielle, notamment le « machine learning ». En effet, la qualité des données est fondamentale pour paramétrer efficacement ces systèmes.

Depuis quelques années on a pris conscience que les données constituent une partie significative du patrimoine des entreprises et des administrations. Pour l’améliorer il est nécessaire qu’un travail de conception significatif soit effectué. Il ne doit pas être mis en œuvre application par application mais réalisé au niveau du système d’information de l’entreprise car la même donnée ou le même ensemble de données peuvent être produits et utilisés par différents systèmes.

L’importance croissante des architectes

Dans ces conditions, la définition des données mais aussi leur stockage et leur gestion deviennent des enjeux cruciaux. Il est pour cela nécessaire d’améliorer l’architecture des données et de disposer de la compétence de professionnels appelés architectes de données. C’est une profession qui monte. Une requête réalisée ces jours-ci sur LinkedIn montre que dans le monde 70.000 personnes s’identifient comme « Data Architect » et 604 s’identifient en français comme des « architectes de données ». Comme on le voit c’est une profession qui progresse.

Mais en informatique le terme architecte est ambigu. Il y a quelques mois, je donnais une formation sur le Big Data à la SNCF. Dans la salle, j’ai rencontré non pas un, ni deux, mais douze architectes… tous de la SNCF, tous arborant des titres différents, et ils ne se connaissaient pas les uns les autres. Accessoirement, aucun n’était vraiment chargé des données, alors même qu’ils venaient suivre une formation sur ce sujet.

Il existe en informatique de nombreux type d’architectes différents comme les architectes d’entreprise, les architectes d’application, les architectes fonctionnels, les architectes techniques, les architectes systèmes, les architectes réseaux et maintenant le petit nouveau qui commence à pointer le bout de son nez, l’architecte de données ou « Data Architect ». Au cours des cinq dernières années, selon Google Trends, les recherches sur Google concernant le terme “architecte de données”, ont bondi de plus de 30 %. Cela montre bien l’intérêt croissant pour la fonction.

Mise en perspective des évolutions de la fonction

Pendant les décennies de 1990 à 2010 où on a considérablement développé l’usage des ERP, l’application était reine et elle embarquait avec elle ses données. A cette époque l’essentiel des efforts portait sur le développement des fonctions mises en œuvre. Cependant, on a noté, dès cette époque, qu’une attention particulière était portée à la mise en commun de certaines données. Cette démarche a fait clairement apparaître la complexité du partage des données.

Ensuite on a assisté au développement des systèmes décisionnels (infocentre, data warehouse, data lake, …) et surtout il y a eu plus récemment le développement de l’emploi du cloud. Ils ont mis en évidence le rôle fondamental de la définition et de la gestion des données. Il est ainsi apparu peu à peu que leur place est au cœur même du système d’information. Mais surtout ces démarches ont montré, contrairement aux idées dominantes à cette époque, que les données doivent être indépendantes des applications qui les utilisent.

Dans ces conditions, il est probable que dans les années à venir, on va assister au développement rapide du métier d’architecte de données. Son rôle consiste à définir et à maintenir l’architecture de données, indépendamment des applications mais en relation avec elles. Il a la responsabilité de :

-        Échanger avec les métiers, les informaticiens et en particulier avec les « data scientists »,

-        Évaluer l’architecture de données en place et prévoir son évolution,

-        Concevoir une nouvelle architecture de données,

-        Planifier la mise en œuvre d’un modèle de données,

-        Estimer les coûts d’investissement et de fonctionnement,

-        Mettre en œuvre les meilleurs pratiques d’ETL (Extraction, Transformation, Chargement),

-        Surveiller les bases de données existantes, assurer leur sécurité et suggérer des mises à jour,

-        Contrôler la conformité des données,

-        Documenter l’architecture des données et la maintenir à jour,

-       

Comme on le voit, les tâches à accomplir sont nombreuses et variées. C’est une fonction délicate à accomplir car l’architecte, on le sait, conçoit mais il ne construit pas. En effet, la mise en œuvre est réalisée par d’autres.

C’est une fonction transverse qui impacte presque toutes les autres. Dans ces conditions ses interventions sont parfois perçues comme des perturbations, voir des agressions. Mais le fait de ne pas intervenir n’arrange pas une situation délicate ou compromise. En fait, c’est un problème de structure de l’entreprise.

En pratique on hésite en permanence entre une organisation centralisée ou un système de type fédéral. Dans ce dernier cas chacun intervient dans un cadre réglementé et négocié. On constate que depuis quelque temps le modèle fédéral tend à se développer et un certain nombre d’entreprises mettent en place des « Chief Data Officer ». Cependant, ce modèle a une limite car assez vite on risque de se heurter à la volonté d’autonomie naturelle des métiers avec les risques de balkanisation bien connus qui s’en suivent.

Les fonctions de l’architecte de données

La définition d’une architecture de données est le cœur de la démarche de gouvernance de données. Elle repose quelques points clés qu’il est important de mettre en œuvre :

-        Définir le rôle de l’architecture de données et sa place dans le système d’information,

-        Préciser la fonction de l’architecte de données : son profil, ses missions et son rattachement hiérarchique,

-        Organiser les relations entre les différents métiers d’architecte au sein de l’organisation et notamment en ce qui concerne la répartition des rôles, les relations avec les hiérarchies et le recouvrement des opérations,

-        Définir le schéma directeur de données (Data Framework), le modèle de données (Data Schema) et le cycle de vie des données (Data Lifecycle),

-        Prévoir le rôle de l’architecture de données afin de répondre aux besoins du Big Data,

-        Définir son rôle dans la gouvernance des systèmes d’information de l’entreprise et de manière plus générale dans la gouvernance de l’entreprise,

-       

Comme on le voit c’est une activité fondamentale pour l’avenir des systèmes d’information mais elle est parfois difficile à mettre en œuvre. A terme il est probable que cette démarche va évoluer vers le « Data Mesh ». Cette évolution est hâtée par le développement de l’Intelligence Artificielle et notamment l’apprentissage machine (Machine Learning). A terme, il est possible que on assiste à un découplage de l’architecture des données et de l’architecture applicative.

Ce texte est un résumé de la conférence que Philippe Nieuwbourg a fait au Club de la Gouvernance des Systèmes d’Information le Mardi 26 Septembre 2023 sur le thème : « Architecture de données, le nouveau cœur du système d’information ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Qu’est-ce que l’architecture de données ?

-        Quel rôle assure l’architecte de données ?

-        Quelles relations entre l’architecte de données et les métiers ?

-        Quelles sont les évolutions probables de la fonction ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Philippe Nieuwbourg :

                                                                                                                                 Slide

1 – Définitions                                                                                                           2

2 – Rôle de l’architecte de données                                                                            6

3 – Quelques qualités sont nécessaires                                                                       7

4 – Intégrer l’architecture de données au cœur de l’équipe data                             10

5 – Comment ont évolué les modèles de gouvernance                                            16

6 – Choisir un modèle d’entreprise ; centralisé ou fédéral ?                                    17

7 – La balkanisation des données                                                                             20

8 – La place du Data Lake                                                                                        22

9 – Le Data Mesh                                                                                                     25