Pages

mercredi 16 novembre 2022

Mythes et réalités du big data

par Georges Bressange 

La démarche de big data n’est pas nouvelle et même le terme big data n’est pas nouveau. Il est apparu en 1997, il a donc maintenant 25 ans. A cette époque les statisticiens responsables de marketing se heurtaient à deux difficultés : l’accumulation assez massive de données dans les Datawarehouse et les difficultés pratiques d'application des techniques existantes de Data Mining. Ces problèmes se posaient en fait depuis de nombreuses années. Elles sont probablement apparues dès les années 70 du siècle précédent. Ils ont donc plus de 50 ans. Entre temps la puissance et les capacités de stockage des ordinateurs ont considérablement évolués. Il devenait urgent de trouver des solutions technologiques efficaces aussi bien concernant aussi bien le stockage des données que leur traitement.

Aujourd'hui, le big data est un concept plutôt bien défini mais il traine à son propos un certain nombre de mythes qui rendent incertaine une claire compréhension de ce que c’est réellement et surtout la démarche qu’il est nécessaire de mettre en œuvre. Certains rêvent de créer des « data lake » sans trop savoir ce que ce terme recouvre. Résultat, on empile des masses de données sans les avoir bien contrôlées et qui s’avèrent, à la fin, inexploitables.

L’innovation date d’une dizaine d’année avec le développement de Hadoop par Doug Cutting en 2006 (qui donnera lieu à une première version publique open source en 2011). Jusqu’alors on était tenu par la taille maximum autorisée des bases de données classiques de l’ordre de quelques millions d’occurrences. Aujourd’hui il n’y a plus de limite. A l’origine de cette innovation il y a les travaux de Google de 2001 à 2003 pour gérer des fichiers de taille illimitée répartis sur un grand nombre de disques et améliorer son moteur de recherche. Ils ont innové en inventant le Google File System puis le Google Big Table ainsi que le fameux algorithme MapReduce. Ce fut une véritable révolution de la démarche statistique classique. On n'était plus obligé de travailler sur des échantillons de données plus ou moins tirées au sort mais sur l’ensemble des données disponibles. C’est une révolution copernicienne. Toutes les approches changent et ce qui était jusqu’alors impossible devient possible.

Depuis, un certain nombre d’autres innovations sont apparues, notamment des algorithmes d’Intelligence Artificielle qui sont capables d’effectuer des analyses de données jusqu’alors inimaginables. Elles ont permis d’obtenir des résultats spectaculaires. Il est ainsi possible de déterminer le profil personnel de chaque client, d’anticiper ses attentes et de lui faire des offres personnalisées. On peut de même faire des offres à un grand nombre de prospects.

Les leaders dans ce domaine sont les grandes entreprises du Web comme Amazon, Google, Facebook, Netflix, You Tube, Spotify, …. Elles ont développé des outils très puissants. De plus elles ont largement communiqué sur le sujet. Du coup de très nombreuses autres entreprises plus traditionnelles se sont lancées dans ce type de démarche. Cependant à ces annonces se sont ajoutés une part de rêve et il est aujourd’hui difficile en matière de big data de distinguer ce qui relève du mythe et la réalité, du fantasme et de la réalité de terrain, entre l’intox et la vérité.

 

La conférence de Georges Bressange faite au Club de la Gouvernance des Systèmes d’Information le 9 novembre 2022 sur le thème : « Mythes et réalité du Big Data » a permis de faire le point sur ce sujet et de répondre aux questions clés que chacun se pose :

  • -        Quels sont les mythes entourant le Big Data et quels sont les conséquences de ces croyances ?
  •        Que revêt exactement et concrètement la notion de Big Data dans la plupart des entreprises qui l'ont initié ? Les définitions sont nombreuses et certaines sont plus exactes que d’autres. 
  • Quels sont les résultats obtenus grâce à une démarche efficace ? Quelles sont les succès et les échecs ? Quels sont les causes de ces difficultés ?
  • -        Plus généralement, quelles sont les promesses qu’il est possible d’attendre de ce type de démarche ?
  • Quelles sont les problèmes et les freins rencontrés dans la mise en œuvre de solutions de big data notamment en termes de gouvernance des données ?
  • Quelles sont ses limites actuelles du big data et aussi quels sont ses travers ?

 Lire ci-dessous le support de présentation de l’exposé de Georges Bressange

 Il repose sur l’analyse de trois mythes :

·         Mythe 1 « Le Big Data c’est nouveau » slides 3 à 19

o   Hadoop et Mapreduce slides 10 à 15

o   Domaines impactés par le Big Data slides 16 à 19

·         Mythe 2 « Seule la valeur des données comptes » slides 20 à 37

o   Définition du Big Data slides 29 à 37

·         Mythe 3 « Le Big Data c’est magique. Cela marche tout seul ! Il n’y a qu’à bâtir le Data Lake » slides 38 à 49

o   Cas pratique slides 41 à 49

 


dimanche 18 septembre 2022

Télétravail : l’esprit d’équipe

 par Sébastien Méric

Pendant des siècles le travail à domicile était la règle. Les tisserands, les serruriers, les mécaniciens, les fabricants de chaussures, de bonnèterie et de draps, …. travaillaient en famille à leur domicile avec leur propre matériel. Au début du 19ème siècle lors de la révolution industrielle l’emploi de la force motrice (des rivières puis des machines à vapeur) on a regroupé les ouvriers dans des ateliers. Ainsi les grandes entreprises sont nées. Au début du 21ème siècle les contraintes sanitaires ont amené à revenir sur ce modèle classique d’organisation. Actuellement, ceci concerne surtout les activités de service et commerciale. Pour l’instant, le télétravail concerne peu les activités industrielles.

Cette évolution est permise par les progrès considérables réalisés dans le domaine des télécommunications et des PC portables. Les débits permis par Internet ainsi que la 5G, la puissance des micro-processeurs et les capacités considérables de stockage des portables ont permis de travailler à distance comme si on se trouvait dans les locaux de l’entreprise. Il est ainsi possible de permettre à environ 40 % des salariés de travailler à domicile comme on le faisait au 18ème siècle.

 Le rôle fondamental des logiciels

Les logiciels utilisés par les télétravailleurs sont les mêmes que ceux utilisés dans l’entreprise en émulation à distance avec un VPN (comptabilité, gestion des commandes et facturation, gestion du personnel et de la paie, …) ainsi que des logiciels de bureautique comme Excel, Word, PowerPoint, …

Mais pour travailler à distance il est nécessaire de pouvoir communiquer facilement afin de pouvoir échanger sans peine entre les différents membres de son équipe. La base est le téléphone et notamment le smartphone. Pour enrichir la relation téléphonique on peut leur ajouter la vidéo. Des logiciels de communication sont apparus au début des années 2000 comme Skype, Hangout ou WebEx. Ensuite de nombreux autres programmes semblables sont apparus comme Zoom, FaceTime, WhatsApp, Signal, Telegram, Jitsi, Slack, …

Si communiquer est essentiel pour travailler, se coordonner est indispensable pour être plus efficace. Afin de permettre aux équipes travaillant à distance de se coordonner, dès le milieu des années 2000 apparaissent les premiers outils permettent de le faire. Le premier logiciel de ce type est Jira apparu en 2002. Au fil du temps de nouveaux programmes sont apparus comme Trello, Monday, Microsoft Project, Microsoft Planner, …

Souvent, il est nécessaire de travailler ensemble simultanément sur un même document, parce que certaines tâches ne peuvent pas être effectués par une seule personne. Même en les décomposant en différentes sous-tâches confiées à différentes personnes on n’y arrive pas. C’est comme pour déplacer une vieille armoire normande, il est nécessaire de la faire à plusieurs. De même les opérations complexes nécessite une forte coordination. Vers la fin des années 2000 et au début des années 2010 des outils de collaboration sont apparus tel que Miro, Mural, Google Docs, Teams, Klaxoon, …

Depuis une dizaine d'années ces logiciels ont permis d’assurer le travail en équipe à distance de nombreuses activités dans des conditions acceptables comme par exemple dans le bâtiment les échanges entre l’architecte, le bureau d’études et les entreprises. Ceci explique en grande partie le succès du télétravail. En effet, les salariés, contraints et forcés en mars 2020 de passer brutalement au télétravail l'ont accepté car les logiciels existaient. Même s’il a été mis en place en urgence et dans des conditions difficiles : chacun était seul chez lui et devait se débrouiller comme il pouvait, on y est arrivé.

Rappelez vous, à cette époque, on s’inquiétait surtout pour savoir si les réseaux allaient tenir et si la sécurité serait suffisante. On était alors moins préoccupé par le besoin de faire travailler de manière plus efficace les équipes. Mais, ce qui était acceptable pendant la crise sanitaire et les confinements successifs était moins acceptable en période de travail normal. Il est maintenant nécessaire d’améliorer les modalités du télétravail.

En effet, malgré l’existence de nombreux outils, dont certains sont excellents, un malaise s'est installé. Il est en grande partie dû au manque de chaleur et d’échanges interpersonnels comme : les discussions à la machine à café, les échanges impromptus en passant la tête par la porte, les apartés avec une personne pendant une réunion, … De plus le management ressent une certaine difficulté à « sentir » leur équipe. « C’est un peu comme gérer à travers un édredon » constate le responsable d’un grand projet d'engineering. On s’est alors inquiété du risque d’effondrement de la productivité en se demandant si tel ou tel membre de l’équipe « tiendrait », …

Un premier bilan

Finalement, après deux ans dexpérience du télétravail, différentes études sont disponibles et les constats sont souvent paradoxaux :

-          Effectivement, le télétravail permet d’améliorer le bien-être des salariés : la réduction du temps de transport quotidien réduit (1 heure de moyenne pour la région Ile de France), une meilleure organisation du temps personnel et professionnelle, grâce au temps gagné on assiste au développement de la pratique du sport, à l'augmentation du temps est consacré à divers associations, …

-          Simultanément on constate une forte croissance du nombre de burnouts. Ils ont augmenté de 270 % en deux ans ! Les managers sont deux fois plus touchés que les autres salariés et 20 % d’entre eux font des burnouts sévères !

De même on note une forte disparité des conséquences du télétravail :

-          Non seulement la productivité des salariés n’a pas diminuée comme on pouvait le craindre mais, au contraire, elle a augmenté. Toutes les études montrent qu’il y a eu une croissance moyenne de la productivité des salariés pratiquant le télétravail de l’ordre de 20 % .

-          Par contre, on constate une diminution massive de la créativité. Or, sans elle, il n’y a pas d’innovations. Comme chacun le sait, celles-ci sont fondamentales pour que l’entreprise s’adapte au marché car il évolue sans cesse et à terme, elle risque de dépérir et de finir en faillite.

On note aussi une forte disparité des points de vue sur le télétravail :

-          D’un côté, les différents collaborateurs voient bien que leur productivité a augmenté.

-          De l’autre, les directions craignent que leur personnel, lorsqu’il est en télétravail à leur domicile, « se la coule douce ».

Entre ces deux attitudes on constate que les managers des équipes tentent de résoudre la quadrature du cercle, avec des outils mal adaptés.

Trois objectifs clés

Pour éviter ces effets de bords il est nécessaire de disposer d'un outil de travail en équipe qui soit souple et efficace. Il doit pour cela répondre à trois objectifs en allant du basic au plus sophistiqué :

  • Permettre à tout instant des échanges fluides entre les personnes qu’elles soient sur place ou à distance. Il doit être possible de contacter n’importe quel membre de l’équipe sans avoir besoin d’effectuer un appel téléphonique, d’envoyer un SMS ou un mail, ou d’effectuer une procédure laborieuse de connexion. Tous les membres de l’équipe doivent être accessible à tout moment quel que soit l’endroit où ils se trouvent. Ainsi on ne perd plus de temps à rechercher une personne. Bien entendu elle peut se rendre indisponible pour quelque raison que ce soit (besoin de calme pour effectuer une tâche délicate, pause-café, repas, courses personnelles, recherche des enfants à l’école ,…. ). Mais le reste du temps elle est à portée de voix Il est ainsi possible de discuter à deux, d’organiser une réunion à plusieurs ou avec l’ensemble de l’équipe. Dès que la personne est devant son micro ou son smartphone il doit être possible de la voir.
  • Pour travailler efficacement il est nécessaire de disposer d’un tableau (noir, blanc ou un bureau). Chaque membre de l’équipe peut intervenir sur le tableau pour faire un dessin, glisser une photo, créer et afficher un post-it, ouvrir un document en format PDF comme une présentation, … A tout moment un des intervenant peut modifier ou compléter ce qui s’affiche sur le tableau qu’il soit sur place ou à distance.
  • Pouvoir travailler à plusieurs sur le même document comme un texte, un tableau de calcul ou une présentation. Tout l’équipe le voit et un intervenant a la main sur le document, peut dérouler les pages, le compléter et le corriger à tout moment. Dans un deuxième temps il doit être possible que chaque participant puisse intervenir simultanément sur le même document.

Ce type d’outil permet d’avoir un mode de travail réellement collaboratif. Cependant si communiquer et collaborer sont essentiels, cela ne suffit pas à créer un véritable collectif de travail. En effet, même si les collaborateurs sont équipés doutil de communication, de coordination et de collaboration à distance il leur manque une composant important. En effet, la disponibilité de matériels et de logiciels n’est pas suffisante, faut-il encore qu’ils constituent une équipe.

Le rôle fondamental du collectif

Pour retrouver la créativité et remettre linnovation en marche, les équipes ont besoin d’exister à travers un collectif. De manière classique on appelle les outils existants les 3C pour Communication, Coordination et Collaboration. Mais ces concepts délaissent une notion fondamentale : le Collectif. Une équipe efficace c'est d'abord un collectif de travail. L'outil à mettre en place doit permettre de créer le collectif doit répondre aux trois objectifs suivants :

-          Immerger les membres de léquipe dans une ambiance commune. Aucun membre du collectif ne doit se sentir seul. Il doit sentir et voir son équipe autour de lui. Sur un plateau « openspace » il y a les va-et-vient, les discussions, les collaborations, … Ils participent au fonctionnement de l’équipe. En télétravail toues ces interactions doivent être accessibles à distance.

-          Permettre des conversations fluides et informelles. Il est impératif que chaque collaborateur puisse discuter facilement avec ses collègues sans protocoles compliqués. Il est important de pouvoir « sauter » dans une conversation en cours, de l’enrichir et de la faire évoluer.

-          Permettre aisément l’échange d’information au sein de l’équipe. En présentiel, deux personnes peuvent s’asseoir côte à côte et collaborer en « partageant » leurs écrans, chacun regardant celui de son voisin. Il faut permettre le même type d’échange à distance. Il doit aussi être possible de relire ensemble un document et de l’annoter comme si on était en présentiel. Pour avoir un travail collectif efficace on doit pouvoir partager un document sans recourir à des protocoles lourds (comme des échanges par mail, l’envoi de fichier par We-Trensfer, ou autre, des dépôts dans Dropbox, Drive ou Onedrive, …). Profitant des possibilités offertes par le numérique ces échanges peuvent être améliorer.

Lors d’une conférence du Club Européen de la Gouvernance des Système d’Information, qui s’est tenue le 7 septembre 2022, Sébastien Méric, Président-Fondateur de Holoffice, travaillant sur ce sujet depuis plusieurs années et ayant développé le logiciel Holoffice, a exposé ses idées dans sa présentation sur : « Le télétravail : l’esprit d’équipe ». Elle a traité les points suivants :

  1. -        Les enjeux du télétravail (slide 3 à 8), 
  2. -        Les enjeux du travail en équipe (slide 9 à 11),  
  3. -        Le collectif à distance (slide 12 à 14), 
  4. -        Les fonctions de Holoffice (slide 15 à 18).

 

Lire ci-dessous le support de présentation de l’exposé de Sébastien Méric : 

 

jeudi 18 août 2022

Les enjeux des Métavers

 Par Philippe Nieuwbourg.

Toutes les grandes entreprises et les principaux acteurs de l’Internet s’intéressent aux métavers. Que recherchent ils dans cette nouvelle technologie, ou plutôt dans une nouvelle forme de compiler des applications existantes ? N’est-on pas en train de nous « refiler » des vieilles applications qui ont déjà échouées ? Pourtant de nombreuses entreprises se sont lancées dans le métavers. L’annonce la plus spectaculaire a été celle de Facebook qui a changé son nom en Meta et annonce investir 10 milliards de dollars par an dans les métavers.  

De nombreuses entreprises comme Carrefour, Louis Vuitton, Gucci, Balenciaga, Adidas, Coca-Cola, MacDonald, Disney, Lego, Zara, Clinique (produits de beauté), Telefonica, ... investissent dans cette technologie. Dans l’ombre, les autres acteurs du secteur se préparent activement comme Apple, Microsoft, Baidu, Tencent… A cela s’ajoutent les nombreuses start-ups qui développent un grand nombre d’applications comme des jeux multi-joueurs, des outils de simulation basés sur des jumeaux numérique, des systèmes de conception architecturale, des environnements de travail en équipe, des dispositifs de socialisation, …

McKinsey estime le total des investissements en 2022 dans le métavers dans le monde à 120 milliards de dollars ([1]). Une partie représente des investissements internes aux entreprises pour développer des applications fonctionnant dans le métavers. Ce montant est évalué entre 15 et 20 milliards de dollars. Mais la plus grosse part correspond aux investissements fait par les ventures capitalistes et les fonds d’investissement dans de nouvelles entreprises ou le rachat d’entreprises existantes pour des montants compris entre 90 et 100 milliards de dollars. C'est la « Ruée vers l'Or Virtuel ! »

En effet, les enjeux potentiels des métavers sont considérables et il ne faut pas évaluer une technologie aux échecs du passé. Tout le monde se souvient de la déconfiture de Second Life. Elle proposait, il y a une vingtaine d’année, d’acheter des terrains virtuels sur des iles virtuelles, pour construire des maisons virtuelles. On pouvait visiter des boutiques virtuelles et acheter des vêtements virtuels qu’on payait à l’aide d’une monnaie virtuelle, le dollar Linden, pour finalement recevoir ses amis dans un café virtuel sous forme d’avatars afin de déguster des cocktails virtuels ([2]). C’était en 2003. Après un premier engouement, son déploiement à grande échelle fut un échec. C’était trop tôt. En ce temps-là les PC et les serveurs n’étaient pas assez puissants et la bande passante Internet disponible était insuffisante. De plus qui a envie de passer ses vacances sur une île virtuelle avec des avatars.

Depuis tout a changé. La petite industrie du jeu vidéo s’est rapidement développée et a atteint en 2021 un chiffre d’affaires mondial de 165 milliards de dollars ([3]). Or une partie importante de cette activité sont des “massively multiplayer online role-playing game”, les MMORPG, ce sont - en français - des jeux de rôle en ligne massivement multi-joueur. Une grande partie de ces jeux font appel à des espaces virtuels comme Fornite, World of Warcraft, Lineage II, EverQuest, RuneScape, … qui compte des millions, voir des dizaines de millions d’utilisateurs dans le monde. Ce sont en fait des métavers. La meilleure preuve en est le succès des casques de réalité virtuelle, qui ont pratiquement doublé en 2021, utilisés pour l’essentiel pour pratiquer des jeux virtuels. La base installée de casques fin 2022, serait de presque 20 millions d’unités dans le monde ([4]). Et tout cela avant qu’Apple ne vienne, sans doute en 2023, donner un coup de pied dans la fourmilière et tenter de vendre à lui seul plusieurs dizaines de millions d’unités.

Les métavers intéressent tous les commerçants car c’est une manière originale et efficace de communiquer et d’échanger avec leurs clients et de séduire les prospects. Ils peuvent montrer et démontrer leurs produits mieux qu’avec une simple vidéo. Ceci intéresse d’abord l’industrie de luxe comme PPR ou LVMH. Mais, de manière générale, tous les secteurs de la mode comme l’habillement, la chaussure, la bijouterie, … sont concernées. A terme il est probable que la grande distribution, l’automobile, les voyages, … s’intéresseront au métavers.

La pandémie, les confinements successifs, la fermeture des frontières ont démontré l’intérêt des visio-conférences pour avoir des échanges avec les autres sans risquer d’être contaminé. Le succès de Zoom, Teams, Skype, … montrent l’importance des échanges interpersonnels. Les métavers sont une autre manière de répondre à cette attente. Ceci concerne les relations amicales et familiales mais aussi les relations de travail notamment pour maintenir la cohésion des équipes.

Du point de vue technologique, l'assemblage des briques de la réalité virtuelle, du big data, de l'intelligence artificielle, et des protocoles d'échanges décentralisés (comme la blockchain ou les NFT (Jeton Non Fongible)), permettent de créer des mondes virtuels, dans lesquels les marques, les consommateurs, les professionnels et le grand public, permettent de se rencontrer, comme dans la vie réelle. Il est possible d’envisager de très nombreuses modalités différentes dont certains miment la vie réelle mais d’autres s’en éloignent, et innovent.

Du point de vue des usages, les jumeaux numériques et la réalité augmentée utilisent ces mêmes technologies, et, demain, elles seront probablement regroupées dans des métavers professionnels différents de ceux utilisés pour rencontrer des amis ou pour travailler en groupe. 

Que sont exactement les métavers ? Qui les crée et les développe ? Comment y accéder ? Que peut-on en faire ? Quels sont les modèles économiques sous-jacents ?

Lors d’une conférence du Club Européen de la Gouvernance des Système d’Information, qui s’est tenue le 22 Juin 2022, Philippe Nieuwbourg, expert reconnu en data et en gouvernance, a dressé un bilan, certes provisoire, mais néanmoins très positif sur ce que sont les métavers et de ce qu’ils deviendront :

  • -        Les cas d’usage des métavers en service dès aujourd’hui (slides 4 à 12),
  • -        Qu’est-ce que le métavers ? (slides 13 à 19),
  • -        Où en sont les grands fournisseurs d’infrastructures (Méta, Apple, Microsoft, …) (slides 20 à 25),
  • -        Les briques technologiques (slides 26 à 30),
  • -        Les marques aujourd’hui dans le métavers : quelques études de cas (slides 31 à 37),
  • -        Les trois étapes à venir (slides 38 à 43),
  • -        Questions d’éthique : big data et métavers (slides 44 à 45),
  • -        Questions environnementales (slides 46 à 47),
  • -        Comment se positionner (slides 48 à 51),
  • -        Vers le Web3 (slides 52 à 53).

 Lire ci-dessous le support de présentation de l’exposé de Philippe Nieuwbourg : 

 



[1] _ McKinsey – Value création in the metaver, Juillet 2022, 75 pages

[2] - On se rappellera que la plupart des candidats à l’élection présidentiel de 2007 : Nicolas Sarkozy, Ségolène Royale, Jean-Marie Le Pen, François Bayrou, Marie-George Buffet, José Bové, Dominique Voynet avaient ouvert des permanences électorales dans Second Life. Depuis les candidats ont oublié les mondes virtuels. Peut-être qu’en 2027 les campagnes électorales se feront dans de nouveau dans le métavers.

[3] - Par comparaison le chiffre d'affaires mondial annuel du cinéma est de 42,5 milliards de dollars et celui de la musique et des variétés est de 20,2 milliards de dollars. Et c’était les chiffres avant la crise du Covid.

[4] - https://www.statista.com/statistics/677096/vr-headsets-worldwide/



vendredi 3 juin 2022

Smart City ou Territoire Intelligent

Par Pierre Berger

Présentation faite par Pierre Berger lors de la réunion du Club Européen de la Gouvernance des Systèmes d'information le 1 Juin 2022. Les enjeux des systèmes d'information des communes sont considérables et, le moins qu'on puisse dire, c'est que leur gouvernance reste à définir. Au-delà du concept un peu flou de la Smart City il reste à construire une démarche efficace qui satisfasse les habitants des 34.000 communes françaises. et notamment de celle de taille moyenne.


Le thème de la Smart City est dans le vent. Tout le monde en parle mais peu en font réellement. Le terme est souvent confondu avec la transformation numérique des communes. Pour certain c’est une révolution, pour d’autres c’est tout simplement la mise en œuvre de nouvelles applications 

D’une ville à l’autre les situations sont très différentes et la plupart des communes se trouvent entre ces deux extrêmes. Certaines en font un étendard et veulent aller très loin dans l’intégration. C’est l’approche type Smart City. Elles sont souvent animées par un maire autoritaire ou charismatique (ou les deux en même temps) avec une gouvernance forte et un DSI à la mesure de ces objectifs. On cherche à intégrer de nombreux traitements autour de quelques bases de données, de développer la collecte de nombreuses informations en temps réels afin de fournir aux habitants des services nouveaux très performants. Les applications concernent la circulation automobile, la gestion de l’eau et des déchets, le contrôle des services fournies à la population, ….

Pour de nombreuses autres communes l’informatique n’est qu’un moyen. Leurs responsables font valoir qu’elles font de l’informatique communale depuis des décennies et que ça marche bien. Elles font progresser leur informatique tranquillement, plutôt comme un ensemble d’applications indépendantes. C’est la démarche des Territoires Intelligents. Dans ce cas la gouvernance des systèmes d’information relève essentiellement des « cent métiers » des mairies. e rôle de la DSI se limite souvent, à installer des progiciels, à assurer la maintenance des matériels et des logiciels, à fournir aux différentes unités l’assistance nécessaire, voire à assurer la « formation du personnel à la bureautique ».

L’évolution va dans le sens de la Smart City avec une grande variété des approches mises en œuvre. Il existe de nombreuses villes pionnières comme Issy-les-Moulineaux, Nice, mais aussi Lyon, Rennes, Paris, Brest, Grenoble, Lille, Dijon, Montpellier, … A l’étranger on peut citer Barcelone, Amsterdam, Copenhague, Helsinki, Manchester, Londres, Bristol, Birmingham, Vienne, … En général ce sont des grandes villes, voir des capitales disposant de moyens importants et d’importantes équipes informatiques.

Pour y voir clair il est nécessaire d’analyser en détail les fonctions mise en œuvre par l’informatique municipale en s’appuyant sur des cas réels en prenant en compte leurs racines historiques. Il faut prendre en compte toutes les systèmes associés comme les réseaux wifi ou 5G, les IoT (Internet des Objets), les caméras, …. Certaines communes pionnières ont déjà des résultats. Il faut les analyser pour évaluer les gains, les risques et les enjeux. Il faut tenir compte de l’état actuel des développements mais aussi des projets, dans la mesure où l’on peut les connaître.

 

Lors d’une conférence du Club Européen de la Gouvernance des Système d’Information, qui s’est tenue le 1er Juin 2022, Pierre Berger, a essayé de démêlé er ce qui est vrai et ce qui relève du mythe en se basant sur l’observation des pratiques d’une commune de taille moyenne qu’il connaît bien : Maisons-Laffitte car il y habite et il a conçu un site, véritable encyclopédie de cette commune avec 5000 images et 8000 références (https://gouvmeth.com/?MaisLaff).

 

Lire ci-dessous le support de présentation de l’exposé de Pierre Berger

 

 

 







Smart City Vs. Territoire autonome

Smart city : le numérique fort et partout.
Avantages : efficacité (voire productivité), rapidité, désilotage, riche palette de services
Inconvénients :  coûts ;  risques de flicage (Big Brother)

Territoire autonome : un ensemble de petits outils
Avantages : apprentissage progressif pour les citoyens et le personnel
Inconvénients : difficultés d’évolution globale, applications disparates et redondantes

De beaux livres, une newsletter

Sur ces concepts, il y de beaux livres, notamment La ville intelligente pour les nuls. Ou, plus généralement, l’ouvrage « Transformation numérique pour tous ».
Il y a même une news letter  http://www.smartcitymag.fr/

Mais des concepts flous

Smart city, comme IA ou métavers, sont des concepts  larges, motivants, mais aux contours flous, difficiles à définir.

Une ville n’est pas  une entreprise

  • Une ville c’est cent métiers, qui n’ont que peu de relations entre eux : des listes électorales au nettoyage des trottoirs,  de la bibliothèque municipale au contrôle du stationnement…
  • Dans une entreprise, les différents types de partenaires concernés par la gouvernance sont bien distincts : salariés, actionnaires, clients, fournisseurs …  Dans une ville, les citoyens sont à la fois les clients et les actionnaires, parfois aussi des fournisseurs ou du personnel (à travers les associations, en particulier).
  • Une part de l’informatique est fortement liée à des applications régionales ou nationales (permis de construire, cadastre, éducation)
  • Une part des données est très sensible du point de vue Cnil ou RGPD, limitant fortement les possibilités de désilotage.

Maisons-Laffitte, un ghetto de riches

Maisons-Laffitte, c’est presque une « résidence fermée ». Bien isolée entre Seine et  forêt de Saint-Germain.

Mais elle est traversée par deux axes majeurs : la départementale 308 et la ligne Paris-Rouen. Ils sont  essentiels à son existence, mais aussi des nuisances :

  • la « racaille » qui vient d’ailleurs par le RER,
  • la circulation abondante, notamment des poids lourds (qui tuent de temps en temps).

C’est aussi une ville qui a une forte identité :

  • un glorieux passé, matérialisé notamment par le château, ou par les panneaux « ville impériale » ;
  • d’importantes activités hippiques (actuellement en problème pour les courses, mais bien vivantes pour le cheval de selle ;
  • de très grands espaces verts : le parc, le bord de Seine.
  •  … un prix de l’immobilier qui le réserve à ceux qui ont des revenus suffisants ou ont hérité d’un patrimoine local ; par conséquent, les travailleurs (ouvriers, assistants de vie) viennent d’ailleurs ; et c’est à contrecœur que l’on laisse se construire des logements sociaux.

Un électorat qui veut sécurité et préservation du cadre

Cela explique

  • que les processus décisionnels soient fortement concentrés dans les mains du maire ; mais sa sensibilité et son tempérament convient à la majorité d’un électorat (râleurs compris) qui le réélit depuis 30 ans.
  • que les conseils municipaux soient un mauvais cinéma  https://www.youtube.com/watch?v=KuCEz2ALWBY


Les limites du fonctionnement démocratique 

On ne peut pas dire que la démocratie n’est pas respectée. Le maire, dans ses opinions comme dans son tempérament, correspond bien aux attentes de l’électorat, qui le garde au pouvoir depuis quelque 30 ans.

Mais il y a des limites (autoritarisme)  qui se comprennent :

  • le maire a une lourde responsabilité (y compris pénale le cas échéant), il doit gérer toutes sortes de problèmes dans le cadre d’une législation complexe. Il est le principal employeur de la ville (500 salariés) ;
  • et c’est un métier précaire et peu rémunéré (42 000 euros par an) par rapport aux compétences et à l’engagement qu’il exige.
On comprend qu’il n’ait aucune envie que le conseil municipal vienne encore compliquer sa tâche.

De toutes façons, il y dispose légalement d’une forte majorité (la moitié plus le reste à la proportionnelle).

Les  élus de la majorité sont nécessairement dociles. Il leur est pratiquement impossible de votre contre le maire et même de s’abstenir, sous peine de perdre leurs délégations voire d’être exclus de la majorité municipale.

Les élus de l’opposition sont impuissants par construction. Certains essayent de faire des critiques constructives. La plupart ne cherchent qu’à énerver  le maire ou à se faire remarquer (les séances sont filmées, depuis 2017, par l’opposition).

L’informatique de la municipalité : « territoire autonome » typiquement

Selon les vœux du maire pour 2022 :

  • 1.119 interventions.
  • 500 comptes utilisateurs.
  • 121 téléphones.
  • 50 tablettes.
  • 77 ordinateurs portables.

La CCAS (affaires sociales) dispose (pensons nous) d’une informatique spécifique.

Fibre et 4G sont pratiquement généralisés, et le wifi est offert un peu partout (notamment les commerçants).  la 5G se profile.

Toute une collection de logiciels spécifiques.

Notons, en février 2020, l'acquisition d'un bouquet de logiciels, certains très spécialisés (Roadloc pour localiser les véhicules de la police municipale) d'autres très généraux (plusieurs ERP). ; mais on ne sait pas comment ces produits s'articulent. - en 2019 déjà un "logiciel de gestion intégrée"/

On ne sait pas quel est le niveau de cohérence de ces applications.

Etant donné que les moyens matériels connus ne comportent pas de serveurs, il est probable qu’une bonne partie de ces applications est sous-traitée sur le cloud. Dans certains cas, le cloud public (par exemple, à l’urbanisme, les relations avec le Cadastre national)

Noter que, si tout le personnel a un compte, un quart seulement dispose d’un outil informatique. Cela s’explique, sans doute, par le fait qu’une bonne part du personnel a des fonctions d’exécution, souvent  sur le terrain lui-même. On ne connaît pas l’ancienneté de ces machines.

La municipalité n’a pas de vraie DSI. Elle existe sur le papier et sur son site, mais ses missions sont explicitement limitées à l’assistance  :

  • Gestion du parc informatique de la Ville et assistance technique.
  • Conception et suivi de l’architecture Réseau.
  • Mission de conseil auprès des services municipaux.
  • Formation aux produits bureautiques.

On peut estimer que la DSI comporte une dizaine de personnes, et sans doute pas d’équipe de développement.

On est donc très loin d’une stratégie de « transformation numérique ».

Informer les citoyens et autres acteurs

  • Le site web de la ville est bien fourni et actif. On peut envoyer des commentaires (mais qui le fait?)
  • Il vient d’être complété par une application en ligne  sur téléphone « Maisons-Laffitte et moi », avec le même type d’informations, et une petite possibilité de s’y exprimer (surtout pour signaler des incidents).

L’attractivité de la ville

  • Les entreprises par l’attractivité économique (difficile pour différentes raisons, notamment le prix de l’immobilier et une desserte routière médiocre)
  • Les touristes (une ressource non négligeable)
  • Les locataires ou acquéreurs de biens

Voir au-delà de la mairie

Le « système d’information de la ville », ce n’est pas seulement l’informatique de la municipalité.  Mais les réseaux sociaux…  et bien sûr toute la communication informelle, le bouche-à-oreille, les échanges dans les lieux conviviaux (à Maisons, en premier chef, l’avenue de Longueil).

C’est aussi  les réseaux sociaux et les commerçants.

Les réseaux sociaux sont bien présents. Notamment l’un d’eux a 10 000 membres (c’est énorme pour une population de 25 000 habitants). Mais dans l’ensemble, cela reste au ras du sol : petits problèmes pratiques ou "ralleries" nostalgiques du type : « C’était mieux avant ».

Les commerçants :

  • sont en permanence présents sur le terrain et en contact avec la population ;
  • les plus avancés (l’établissement local de Casino en particulier) disposent d’informations détaillées en temps réel sur les comportements de consommation.

A notre connaissance, il n’y a rien d’organisé pour faire remonter cette information vers la mairie, sinon de temps des signalements, qui ne sont pas toujours pris rapidement en compte.

Les projets pour 2022

La mise en place d’un cadre comptable M 57, De quoi s'agit-il ? Le  texte officiel est pour le moins rébarbatif. Mais la direction générale des Finances publiques en propose  une brève présentation didactique. En bref, la M57 donne plus de souplesse dans la manipulation des comptes et dans la prise en compte de projets pluriannuels.
Noter que cette norma s'applique aussi aux "associations syndicales autorisées", comme l'Association syndicale du parc, qui nous a confirmé s'y adapter elle aussi en 2022.

  • La dématérialisation du budget. Ce point ne semble concerner que les relations entre la commune et les finances publiques.  Pour plus de détails.
  • La numérisation des délibérations du conseil municipal ; cette annonce semble plutôt en retrait par rapport à certaines notes du bulletin municipal.
  • La création d'une photothèque. De quoi s'agit-il exactement ?

De beaux espoirs pour 2024

Mais cela va sans doute changer car,  depuis les dernières élections, deux élus ont une mission informatique :

  • le onzième maire adjoint, délégué à l’optimisation financière, aux nouvelles technologies, à la communication et aux manifestations publiques,
  • un délégué au Développement numérique.

Ils sont jeunes (la quarantaine) et on nous promet de belles choses pour 2024. Cette date semble bien choisie : après quelques inévitables retards et plantages, la nouvelle informatique devrait rutiler pour les élections municipales de 2026.

Peut-on espérer une ville « intelligemment démocratique »

Entre le pénible spectacle des conseils municipaux, la superficialité des réseaux sociaux et la richesse en information du privé. peut-on espérer ?

Peut-être un peu. Une association, à ses frais, a pu organiser un débat sur un important projet du Maire (parking du marché). E n tiendra-t-il compte ?

 Je n’y crois pas trop mais…

Ce n’est pas tant la technique que les humains qu’il faudrait changer ! Des smart citizens plus encore que des smart cities.  Est-ce possible ?  Education ?  Motivation ?

Il faudrait une volonté au niveau des Etats- pour créer un nouveau type de dialogue- pour y conduire les grands acteurs (GAFA, etc).

 

mardi 3 mai 2022

Les errements de la gouvernance publique en matière de Système Information

Par Bernard Laur

Le RGPD (le Règlement Général de la Protection des Données) était perçu lors de sa mise en place en mai 2018 comme un progrès important mais plus le temps passe plus on s’interroge sur sa lourdeur, sa complexité, son coût et son efficacité. Dans les entreprises les décideurs se demandent si on n’a pas fait fausse route ? En voulant bien faire n’a-t-on pas été trop loin et conçu de véritables usines à gaz ?

Cette volonté de réglementer le monde de l’informatique et des systèmes d’information est relativement récente. Pendant longtemps on s’est contenté de la Loi Informatique et Libertés de 1978 mais depuis quelques années on constate que les administrations européennes et notamment française s’intéressent de plus en plus à notre domaine et cherchent à le réguler. En soit, c’est plutôt une bonne idée. Elles ont, avec un certain retard, pris conscience de l’importance stratégique de ce secteur et elles se sont mises à produire un grand nombre de règlements, de lois et de décrets pour mieux maîtriser son développement. Malheureusement, la plupart de ces textes sont difficilement applicables voir totalement inapplicables. Cela peut parfois donner des résultats positifs mais souvent c'est la Bérézina !

Est-ce qu’en multipliant les règlements inapplicables la France et l’Europe pourront protéger le citoyen, ses données personnelles, et rattraperont leur retard sur les USA et la Chine ? Peut-on raisonnablement espérer qu’en multipliant ce genre de textes on va améliorer la gouvernance des systèmes d’information ? Y-a-t-il une martingale de l'échec ? On peut s'interroger sur la multiplication de ces "plantages". Peut-on y échapper ? Et comment ?

Lors d’une conférence du Club Européen de la Gouvernance des Système d’Information, qui s’est tenue le 13 avril 2022, Bernard Laur, expert largement reconnu pour sa vision large du secteur, a analysé les causes de ces errements. Il estime que c’est dû à la conjonction de 4 facteurs :

-        L’accumulation de textes mal rédigés et souvent bâclés rend leur application « kafkaïenne ». Autour du RGPD il y a plus de 20 lois et règlements produits par le législateur et les administrations concernées qui interfèrent. C’est une accumulation de règles sans véritable homogénéité car aucun travail d’harmonisation n’a été effectué à ce jour (slides 8 à 16).

-        Les personnes qui ont rédigé ces textes et qui sont chargées de les mettre en œuvre n’ont jamais effectué véritablement une analyse préalable de l’impact de leurs décisions sur les entreprises. La loi oblige bien dans certains cas à effectuer des analyses d’impact, mais il s’agit d’évaluer les risques pour l’individu s’il y a violation de ses données personnelles. L’impact sur l’entreprise, son organisation, ses processus, son système d’information, son formalisme juridique et les coûts induits a été superbement ignoré. (slides 17 à 23).

-        Il existe une surestimation « idéologique » des solutions envisageables et une méconnaissance totale des mécanismes de marché. En voulant lutter contre le poids des GAFAM on en arrive en matière d’investissements à des opérations qui n’ont pas la moindre chance d’aboutir et à préconiser des choix de processus, de logiciels ou de cloud « souverain » conduisant à des situations dommageables même pour les administrations (slides 24 à 29).

-        Il n’y a aucune anticipation de l’impact sur le marché des mesures prises notamment sur les freins à l’innovation, sur les métiers, sur les développements ou la disparition de secteurs d’activité, se concrétisant entre autres choses par la création d’activités innovantes en dehors de l’espace européen. Finalement l’Etat et les entreprises auront dépensé « un pognon de dingue » et continueront de le faire pour des résultats dérisoires (slides 30 à 35). 

 Lire ci-dessous le support de présentation de l’exposé de Bernard Laur : 

 J’ajouterais personnellement un cinquième point. Je suis frappé qu’aucun professionnel que je connaisse n’ait jamais été consulté par les personnes rédigeant ces lois et règlements. Je ne sais pas avec qui ils travaillent mais pas avec des personnes du métier que je pratique depuis des années et qui ont une bonne connaissance du domaine et de son contexte. En tout cas si certains ont collaboré ils ne s’en vantent pas.

 Maintenant, le vrai problème va être de sortir de cet embrouillamini. Il n’y a pas 36 solutions. Il faut revenir aux grands principes du management tel que les décrit Henri Fayol ([1]) dans L'Administration industrielle et générale. Un de ces principes de gouvernance qu’il a énoncé est d’écarter les incompétents, même si ce sont des amis fidèles. Dans notre domaine l’incompétence est patente et il faut confier une mission de remise en ordre à un professionnel compétent entouré par une équipe d’informaticiens, de managers et de juristes ayant faits leurs preuves. Cette situation perdure particulièrement en France mais c’est aussi vrai, je le crains, au niveau du Parlement et de la Commission Européenne. J’attends de lire les textes définitifs du DSA (Digital Services Act), du DMA (Digital Market Act) et la réglementation de l’usage de l’Intelligence Artificielle pour me faire une opinion mais je crains le pire. Est-ce que Thierry Breton sera capable de mettre un peu de pragmatisme et de bon sens dans ce monde d’ayatollahs ?



[1] - Henri Fayol a été le fondateur des théories du management. C’était un français. Il a été toute sa vie dirigeant d’entreprise et s’est efforcé, à la lumière de son expérience, de dégager les principes de la gouvernance d’entreprise. Il a publié en 1916 un ouvrage fondamental : L'Administration industrielle et générale. Très connu et apprécié aux USA et en Grande Bretagne il est ignoré en France. Ce livre est épuisé et n’est pas réédité depuis des décennies (Voir sa notice sur Wikipédia https://fr.wikipedia.org/wiki/Henri_Fayol)