Pages

samedi 13 mai 2017

L’ADN des nouveaux managers : le cas d’Elon Musk

 Par Christophe Legrenzi

Une nouvelle race de managers

Elon Musk est un entrepreneur hors norme qui symbolise parfaitement l’ADN des nouveaux managers à l’instar de Steve Jobs, Jeff Bezos, Larry Page et Serguei Brin, Mark Zuckerberg et Jack Ma. Ils sont dans la digne lignée des Thomas Edison ou John Davison Rockfeller de la fin du 19ème siècle et du début du 20ème.
Ils sont caractérisés par le fait de :
§  vouloir changer le monde et de lui donner du sens,
§  remettre en question les modèles existants,
§  n’avoir aucune limite,
§  inventer quand cela n’existe pas,
§  attirer et s’entourer des meilleurs,
§  travailler dur,
§  exiger le meilleur de leurs équipes et de leurs partenaires,
§  mêler curiosité scientifique et busines,
§  avoir des caractères bien trempés,
§  manifester une confiance et une foi inébranlable.

Les nouveaux Barbares selon Bernard Quinio

Bernard Quinio dans son intervention sur « Les nouveaux Barbares » au ceGSI de Juin 2016 (voir sur le blog GouvSI : La transformation digitale pour répondre aux nouveaux barbares http://gouvsi.blogspot.fr/2016/07/la-transformation-digitale-pour.html et Les entrepreneurs de la génération Y sont-ils plus doués que les autres ? http://gouvsi.blogspot.fr/2016/07/les-entrepreneurs-de-la-generation-y.html) montre qu’il existe trois types d’attaque des modèles traditionnels d’entreprise :
§  Le substitut. Ils font le même métier que les entreprises traditionnelles mais de manière radicalement nouvelle, via le numérique, et en s’affranchissant des règles de base. C’est par exemple le cas d’Uber avec les taxis ou d’AirBnB avec les hôtels.
§  L’intermédiaire. Ils s’insèrent entre le client et l’entreprise en fournissant de nouveaux services comme par exemple : Booking, Capitain Train, …
§  Le complémentaire. Ces entreprises proposent des nouveaux services dépendants de l’activité de l’entreprise comme par exemple Zenpark.
Quatre facteurs poussent ces « nouveaux barbares » à créer leur entreprise :
§  Ne pas s’ennuyer.
§  Lutter contre les contraintes.
§  Partager des valeurs (coopérative, écologie).
§  Faire des choses nouvelles tous les jours.
Leurs principaux leviers d’action sont :
§  Le réseau (Facebook et autres) et pas l’amicale des anciens élèves de telle ou telle école.
§  Etre au plus proche de ceux qui font.
§  La confiance, le feeling et le regard.
§  Le leadership, la capacité de convaincre.
§  Le partage, la collaboration et l’équipe.
Quelques verbatims entendus par Bernard Quinio au cours d’entretiens avec des créateurs d’entreprises :
§  « Je veux embaucher des gens plus intelligents que moi ».
§  « Patron c’est un mot négatif ».
§  « Le créateur c’est celui qui entraîne, celui qu’on suit ».
§  « On sait que tout se périme vite ».
§  « Il faut prendre de tout partout tout le temps et sans hésiter ».
§  « Dans la rencontre, le plus important c’est le regard ».
§  « Fais ce qu’il te plait tout de suite ».
Elon Musk aurait pu dire toutes ces phrases.

L’enfance d’Elon Musk

Elon Musk est né à Pretoria, en Afrique du Sud en 1971. C’est un enfant solitaire et rêveur. Il est intéressé par les matières scientifiques et attiré par la science-fiction. Il est diagnostiqué surdoué. A l’âge de 10 ans, il fait la connaissance du monde informatique et deux ans plus tard il crée un jeu vidéo consistant à détruire des vaisseaux extraterrestres. Il dévore les livres et lit jusqu’à 10 heures par jour. Il lit, entre autres, l’encyclopédie Britannica.
Compte tenu de sa petite taille il est souvent raillé, voire pris à partie par ses camarades. Ses plus proches amis d’enfance sont son frère Kimbal, avec qui il créera sa première société Zip2, et ses cousins, Pete et Lyndon Ride, avec lesquels il lancera quelques années plus tard la société SolarCity. En juin 1988, Elon Musk qui a tout juste 17 ans, décide de quitter l’Afrique du Sud pour le Canada. Il obtient la nationalité canadienne car c’est celle de sa mère.

Les études d’Elon Musk

En 1989, il s’inscrit à la Queen’s University à Kingston en Ontario. Deux années plus tard, il reçoit une bourse pour rejoindre la fameuse Université de Pennsylvanie (UPenn). Elle avait été créée en 1740 par Benjamin Franklin. Dans cette Université en 1846 a été conçu le premier ordinateur totalement électronique : l’ENIAC (« Electronic Numerical Integrator And Computer »).
Elon Musk intégrera à la fois la « School of Engineering and Applied Sciences » (école d’ingénieur et de sciences appliquées) et la célèbre « Wharton School » (business school).
En 2014, l’Université de Pennsylvanie, a été élue meilleure université américaine. Elle fait partie de l’Ivy League : groupe de huit universités privées particulièrement prestigieuses, créées au 17ème et 18ème siècles au nord-est des États-Unis par les britanniques dont Columbia à New York City (1754), Cornell (1865), Harvard (1636), Princeton (1746) et Yale (1701). Parmi ses diplômés célèbres de Wharton on peut citer Warren Buffett, Alassane Ouattara (PhD), Jeremy Rifkin et Donald Trump !

Les premières entreprises d’Elon Musk

En 1995, Elon Musk et son frère Kimbal s’installent ensemble à Palo Alto et créent leur première start-up. Elle s’appelle Zip2. C’est un ancêtre des Pages Jaunes fonctionnant sur Internet. Le progiciel est vendu aux journaux les plus prestigieux comme le New York Times. Il choisit comme slogan « We power the press ».
En février 1999 Compaq achète Zip2 pour 307 millions de dollars. Elon Musk gagne dans cette revente 22 millions de dollars et son frère 15.
Un mois après la vente de Zip2 il crée X.com. Cette start-up a pour ambition de devenir la première banque en ligne. Il investit personnellement 12 millions de dollars dans cette affaire, soit la moitié des gains qu’il a réalisé avec Zip2. X.com est mis en ligne la veille de Thanksgiving 1999. Elle offre une carte de paiement avec un crédit de 20 dollars, pas de pénalités de dépassement de la ligne de crédit ni de frais bancaires. C’est immédiatement le succès. En 2 mois, X.com compte 200 000 clients.
L’un des principaux concurrents de X.com est une autre start-up qui s’appelle Confinity. Elle a été créée par Max Levchin et Peter Thiel. Elle permet d’échanger de l’argent via le port infrarouge d’un Palm Pilot et propose un service de paiement en ligne nommé PayPal.
Plutôt que de se faire concurrence, Confinity et X.com fusionnent en mars 2000. Elon Musk devient le principal actionnaire. Mais très vite des divergences stratégiques apparaissent entre Elon Musk et Peter Thiel, notamment à propos de l’architecture informatique. Elon Musk souhaite utiliser les outils et le système d’exploitation de Microsoft, alors que Peter Thiel utilise pour PayPal Linux.
En septembre 2000, Musk est en voyage de noce au Brésil puis en Afrique du Sud où il attrapa la variante la plus virulente de la malaria qui a failli lui être fatale. Ses associés en profitent pour le débarquer. Finalement PayPal est vendue en juin 2002 à eBay pour 1,5 milliards de dollars. Elon Musk gagne dans cette affaire 250 millions de dollars, soit 180 millions de dollars après impôts. Aujourd’hui Paypal vaut 50 milliards de dollars alors que sa maison mère, eBay ne vaut en Bourse que 36 milliards de dollars !
Avec ce magot Elon Musk aurait pu aller vivre dans une ile des Caraïbes jusqu’à la fin de ses jours. Il fait le contraire et va investir l’intégralité de ses gains dans trois nouvelles entreprises : SpaceX (100 millions de dollars), Tesla (70 millions de dollars) et Sollar City (10 millions de dollars).

SpaceX : les débuts

Elon Musk a toujours été fasciné par le spatial, les planètes et les étoiles. En 2002, Elon Musk décide de déménager de Palo Alto à Los Angeles pour se rapprocher de l’industrie aéronautique. Il crée une première structure au nom étonnant de « Life to Mars » qui réunit des chercheurs et des passionnés de l’espace et de la conquête spatiale comme James Cameron.
Son premier projet consiste à envoyer des souris dans l’espace et sur Mars. Il se rend donc à Moscou pour acheter une fusée. Il a un budget compris entre 20 à 30 millions de dollars. Les russes sont très exigeants. N’arrivant pas à conclure les négociations, il décide de construire lui-même une fusée moins coûteuse.
Pour ce faire, il crée Space Exploration Technologies ou SpaceX en juin 2002 et recrute les meilleurs ingénieurs spatiaux existants, dont Tom Mueller qui sera la cheville ouvrière de la fabrication de la fusée Falcon 1.
Son objectif est d’utiliser les recettes des start-ups de la Silicon Valley dans une industrie qui n’a pas évolué depuis cinquante ans. Elon Musk est d’une exigence extrême avec ses équipes et ses fournisseurs. Il négocie tout, dans le plus petit détail, et participe parfois lui-même aux expérimentations.

Les premiers lancements réussis

Entre 2005 et 2007 trois tentatives de lancement échouent. Tout le monde aurait abandonné. Pas Elon Musk qui s’entête. Finalement le 28 septembre 2008, un lancement Falcon 1 réussi. C’est la première fois qu’une société privée réussit le lancement d’une fusée. Il aura fallu six ans, 500 personnes et toute l’énergie d’Elon Musk pour y arriver.
Le lanceur léger Falcon 1 est le premier développement de la société. Il peut placer 670 kg en orbite basse. Cinq lancements de Falcon 1 ont lieu entre 2006 et 2009 et subit trois échecs. Malgré cela Elon Musk lance un nouveau lanceur de taille moyenne, le Falcon 9, qui va succéder au Falcon 1. Il peut placer 10,5 tonnes en orbite basse. Le premier vol a eu lieu le 4 juin 2010. La fusée est régulièrement modifiée pour améliorer ses performances.
En 2010, il réussit le lancement du vaisseau cargo spatial de Dragon puis en 2012 il lance une version destinée à approvisionner la station internationale, l’ISS. Une version V2 est à l’étude capable d’embarquer un équipage. SpaceX a obtenu un budget de 440 millions du vaisseau de dollars de la NASA pour poursuivre les études pour finaliser le transport des personnes. Les ambitions de Elon Musk sont considérables. Le 7 juin 2013 il envoie un mail à tous les salariés de l’entreprise pour leur expliquer que « Le but fondamental de SpaceX est et a toujours été de créer la technologie nécessaire pour implanter la vie sur Mars » !

L’art de la réutilisation

La grande idée de SpaceX pour réduire les coûts des lancements est de chercher à récupérer tout ou partie de la fusée. Cela doit permettre de les réduire d’environ 30 %. Pour cela il faut faire revenir le 1er étage puis ensuite les 2ème et 3ème étages de la fusée de la stratosphère et arriver à les faire atterrir sans casser le matériel. Après deux tentatives d’atterrissage sur la plateforme maritime spécialement conçue à cet effet, le 21 décembre 2015, SpaceX réussi finalement à atterrir avec succès le 1er étage d’une fusée sur la terre ferme au centre spatial Kennedy. C’est une première mondiale.
Après un nouvel échec sur la plateforme maritime en janvier 2016, SpaceX réussi le 8 avril 2016 à poser sans encombre la fusée. Cet exploit a été réitéré 4 fois en 2016 : les 6 mai, 27 mai, 18 juillet et 14 août, et n’a connu qu’un seul échec le 16 juin 2016.
Elon Musk a pensé que vers 2025, SpaceX aura probablement développé une technologie de propulseur et un vaisseau spatial capables de transporter des humains. Le coût d’une mission sera ramené à un montant compris entre 500.000 et 1 million de dollars. Pour y arriver, SpaceX a obtenu un prêt d’un milliard de dollars auprès de Google et de Fidelity Investments ([1]).
SpaceX emploie 5.000 personnes et lance actuellement une fusée par mois. Elle lance des satellites pour le compte d’opérateurs privés et approvisionne la station spatiale internationale. Le marché des satellites explose avec la télévision, Internet, la radio, la météorologie, la navigation et l’imagerie spatiale.

Les débuts de Tesla

Fin 2003, Elon Musk rencontre JB (Jeffrey Brian) Straubel. C’est un jeune ingénieur tout juste diplômé de Stanford depuis un an et passionné de mécanique. Il souhaite développer une nouvelle batterie lithium-ion destinée au marché automobile électrique émergent.
Pour ce faire, Elon Musk et JB Straubel s’associent avec les deux sociétés les plus avancées dans la conception et la production de véhicules électriques : la société AC Propulsion, créée en 1992, et la société Tesla Motors, fondée par Martin Eberhard et Marc Tarpenning. Elle s’appelle Tesla en hommage à Nikola Tesla, inventeur des premiers alternateurs, des réseaux électriques de distribution en courant alternatif et du moteur électrique à courant alternatif. Elon Musk investi 6,5 millions de dollars dans Tesla et devient son principal actionnaire. Il est nommé Président de l’entreprise.
Le cahier des charges est simple. Il faut créer la meilleure voiture possible, éco-responsable, pratique et jolie de type roadster. Le premier modèle sorti est vendu 90 000 dollars pièce. Il est commandé par une trentaine de personnes dont les fondateurs de Google, Brin et Page. En 2008, les premiers roadsters sont mis sur le marché mais réservés à la clientèle américaine. Cette première série est un « prototype » permettant de valider la faisabilité technique et commerciale de la vision d’Elon Musk. Tesla vendra 2.500 voitures entre 2008 et 2012.

Passer de la planche à dessin à la production en masse

Le principal défi de Tesla est de passer de la R&D à la production. Marin Eberhard s’était engagé à sortir ces véhicules à un coût de fabrication limité. Il n’a pas réussi car chaque véhicule coûtait entre 170 et 200.000 dollars. Ayant échoué il est démis de ses fonctions en août 2007.
Elon Musk lance alors un programme de réduction massif des coûts. En 2009, Daimler prend 10 % du capital de Tesla pour 50 millions de dollars. Quelques mois plus tard, le Ministère de l’Energie accorde un prêt de 465 millions de dollars à Tesla. Pour produire en masse des véhicules Tesla rachète une partie d’une usine Toyota pour 42 millions de dollars et Toyota investit 50 millions de dollars pour avoir 2,5 % du capital de Tesla. Tesla est introduit en bourse le 29 juin 2010. 

Le succès des Modèle S, X et 3

Le développement de l’entreprise a été permis par la création du modèle S. Pour cela Elon Musk fait appel à Franz von Holzhausen, le designer du nouveau modèle de la Coccinelle de Volkswagen, qui a ensuite été directeur de la création de Mazda. Elon Musk souhaite une esthétique proche de celle d’une Porsche ou d’une Aston Martin, tout en étant un véhicule familial avec une ouverture des portes arrières en « aile de faucon » pour simplifier l’installation des sièges d’enfants. Il veut aussi intégrer un grand écran tactile. La voiture arrive sur le marché en mai 2012 avec des qualités d’accélération (de 0 à 100 km/h en 4,4 secondes) permis par les moteurs électriques et d’autonomie (435 km sans recharge) grâce à des batteries de grandes capacités. C’est remarquable.
Le modèle X est commercialisé à partir de septembre 2015. C’est un SUV (Sport Utility Vehicle) de sept places, le premier « crossover » de la marque. Il est vendu au même prix que le modèle S.
La Tesla 3 a été présentée le 31 mars 2016 et sera commercialisée à la fin de 2017 a un prix annoncé de 35.000 dollars. Elle est plus compacte que la Model S et vise le segment des berlines haut de gamme. À l'origine, la Model 3 devait s'appeler la Model E, de manière à ce que les différents modèles d'automobiles de Tesla forment le mot S-E-X-Y ! Cependant des litiges juridiques avec Ford (qui a une série de modèle : Ford E-Series) ont amené Tesla à changer le nom de ce modèle pour la Model 3 qui est l’inverse du E. La gamme de Tesla se résume aujourd’hui à : S-3-X.
Depuis son annonce, en moins d’un an, Tesla a enregistré 500.000 réservations de la Tesla 3 ayant versés une avance de 1.000 dollars par voiture.

Les spécificités et l’originalité Tesla

L’approche commerciale de Tesla est totalement différente de celle de tous les autres constructeurs automobiles. Tesla ne fait jamais une publicité et n’a aucune forme de sponsoring. La puissance de la marque est incarnée par son mentor. Elon Musk a 7 millions d’abonnés Twitter. Le bouche à oreille ainsi que les réseaux sociaux jouent un rôle important. Tesla à 900.000 abonnés sur LinkedIn. Les voitures Tesla sont uniquement vendues dans les boutiques Tesla ou sur le site Internet de l’entreprise. La qualité de service est digne des plus grandes voitures de luxe.
Le coût des batteries est fondamental pour assurer le succès de Tesla. Pour cela l’entreprise construit dans le Nevada la Gigafactory qui sera la plus grande usine mondiale de batteries lithium-ion.
Pour pouvoir facilement recharger les véhicules Tesla déploie à travers les Etats-Unis et l’Europe son réseau de Surperchargeurs.
Un grand coup de communication a été fait par Tesla le 15 octobre 2015 en livrant les premières voitures dotées de fonction de pilotage automatique. Mieux, les véhicules vendus depuis 9 octobre 2014 ont pu en bénéficier ce jours-là, grâce au téléchargement, de la version 7.0 du logiciel de conduite autonome. Il est possible de faire rouler la voiture sans toucher le volant et les pédales. En effet, ces voitures disposaient depuis un an, de l’ensemble des dispositifs techniques nécessaires : une caméra, un radar, des capteurs ultrasons et un GPS. Il a suffi de livrer le logiciel permettant la conduite mains-libres. Alors que les autres constructeurs continuent de tester la conduite automatique sur quelques véhicules Tesla livre des voitures autonomes.
Malheureusement le 7 mai 2016, le conducteur d’une Tesla, Joshua Brown, décède en Floride à la suite d'une collision avec un semi-remorque alors que la fonction Autopilot de son véhicule était active. Mauvais pour l’image ! La Justice a été saisie. Le 19 janvier 2017, l'Autopilot est mis hors de cause car le conducteur de la Tesla avait eu 7 secondes pour réagir à la situation et n’a pas réagi. L'accident est dû à des "facteurs humains". Autre fait significatif, une enquête de la NHTSA (National Highway Traffic Safety Administration) a montré que le taux d'accidents des Tesla a baissé de près de 40 % depuis l'introduction du pilotage automatique (source : Wikipédia).
Tesla emploie 10.000 personnes et l’entreprise est valorisée début 2017 à 40 milliards de dollars. Par comparaison, Renault est valorisé 25 milliards de dollars et Peugeot est à 14 milliards de dollars. Ensemble ils représentent 39 milliards de dollars soit moins que Tesla. Or, Renault a un chiffre d’affaires de 45 milliards de dollars et Peugeot 55 milliards de dollars soit ensemble 100 milliards de dollars alors que le chiffre d’affaires de Tesla est d’environ 7 milliards de dollars. La comparaison est significative.

Et Hyperloop arrive

Et si un train allait à la vitesse d’un avion et même plus vite. Quatre fois plus vite qu’un TGV : Paris-Lyon en moins d’une demi-heure, Paris-Marseille en trois quart d’heure. Elon Musk évoque son projet Hyperloop pour la première fois en juillet 2012. Un an plus tard, le 12 août 2013, il officialise son concept. Il le définit comme le 5ème mode de transport, après les bateaux, les voitures, les trains et les avions. Une société dédiée au projet a été fondée, la Hyperloop Technologies Inc. L’objectif est de relier les centres de Los Angeles et de San Francisco, soit 550 kilomètres en moins de 30 minutes.
La solution repose sur une capsule transportant des voyageurs pouvant aller de 1.100 à 1.300 km/h dans un grand tube pneumatique sous basse pression pour limiter les frictions avec l'air se trouvant dans le tube. De plus, les capsules se déplacent sur un coussin d'air généré à travers de multiples ouvertures sur la base de celles-ci, ce qui réduit les frottements. Les capsules sont propulsées grâce à un champ magnétique créé par des moteurs à induction linéaires placés à intervalles réguliers à l'intérieur des tubes.
Pour le développement de l'Hyperloop, Elon Musk a recours au crowdsourcing, à l'open source et au collaboratif, sans parler de l’emploi de l’énergie solaire. Il n'a d'ailleurs déposé aucun brevet pour l'Hyperloop.

L’ADN hors norme d’Elon Musk

Comme on le voit, Elon Musk est aujourd’hui une personnalité incontournable. Il veut changer le monde et même plus. Ashlee Vance dans son biographe explique qu’Elon Musk a construit « la théorie du champ unifié », c’est-à-dire qu’il fonctionne en circuit fermé et interdépendant reliant ses différentes entreprises : les panneaux solaires de SolarCity permettent d’alimenter les stations de recharge de Tesla en bénéficiant des échanges de technologie sur les matériaux pour SpaceX.
La fortune d’Elon Musk s’élève aujourd’hui à 10 milliards de dollars. Il emploie plus de 15.000 personnes dans l’ensemble des Etats-Unis.
Comme l’explique Larry Page, l’un de ses meilleurs amis et fondateur de Google : «  Elon Musk est un des rares entrepreneurs à penser à long terme. Et il prend tous les risques pour changer le monde ».
Elon Musk casse indéniablement les codes. On peut résumer sa stratégie en quelques points :
§  Sa marque de fabrique est d’observer, de lire, de repérer les meilleures idées, de voir grand, de remettre en question les habitudes et les idées reçues et surtout de ne pas avoir de limites.
§  Il possède une véritable vision des choses comme : « si je fais une voiture électrique qui a les performances d’une Porsche et le look d’une Jaguar, c’est bingo. Et en plus je contribue à sauver le monde du fatal réchauffement climatique ».
§  Il possède une capacité de travail hors norme. Il travaille 15 à 20 heures par jour, 7 jours sur 7. Il ne prend jamais de vacances.
§  Il ne veut travailler qu’avec les meilleurs et il les choisit lui-même. Il faut qu’ils aient réussi brillamment leurs études mais qu’ils aient aussi à leur actif des réussites concrètes. Il a lui-même sélectionné les 1.000 premiers embauchés de SpaceX.
§  Il est d’une exigence totale : « do the impossible on top of the impossible ». Il refuse les excuses et n’accepte pas l’absence de proposition de solutions.
§  Il est clairement adepte d’une approche interdisciplinaire et il croit en la « science des choses » : la physique, les mathématiques, la chimie, l’électronique, l’informatique, l’organisation…
§  Il emploie les méthodes de travail de la Silicon Valley et en particulier celles adoptées par les éditeurs pour arriver à avoir une organisation agile, rapide, sans bureaucratie, sans hiérarchie, tournée vers un objectif très ambitieux voire révolutionnaire pour obtenir le meilleur de chacun. Les ingénieurs travaillent avec les cols bleus en mode plateau sans aucune difficulté.
§  Il n’accepte pas forcément l’avis des experts. Depuis le début du développement de ses fusées, Elon Musk souhaite, contre l’avis de tous, les rendre au moins en partie réutilisables afin de permettre de diminuer les coûts ce que personne, jusqu’alors, n’a jamais réussi. Lorsqu’il a lancé le projet Hyperloop, tous les experts scientifiques considéraient que ce n’était pas possible techniquement. Aujourd’hui, le prototype fonctionne.
§  Il veut démocratiser l’usage des produits et des services au profit du plus grand nombre. L'un de ses objectifs est de réduire les coûts d'accès à l'espace d’un facteur dix. Observant l’industrie aérospatiale il explique qu’elle construit des Ferrari alors qu’une simple Honda Accord ferait l’affaire.
§  Il souhaite partager l’innovation. En juin 2014, Elon Musk rend les brevets de Tesla accessibles à tous. Pour lui : « Si une entreprise dépend de ses brevets, c'est qu'elle n'innove pas ou alors qu'elle n'innove pas assez rapidement. » Le principe est le même pour Hyperloop.
§  Il n’hésite pas à créer. Quand les solutions du marché n’existent pas ou sont insuffisantes il invente de nouvelles technologies de développement et d'ingénierie, comme les batteries ou des logiciels de simulation de la dynamique des fluides afin d'améliorer leur capacité de simulation, d'évaluation et de conception des moteurs de fusée.
§  Il recherche continuellement le sens des choses et fait appel aux solutions les plus radicales. Ainsi, pour assurer la protection de l’environnement il veut débarrasser la planète des grosses cylindrées polluantes tout en ayant la possibilité de se laisser griser par une bonne poussée d’adrénaline grâce aux accélérations peu communes permises par les moteurs électriques.
§  Il ose tout. A la mi-2015, il a demandé au gouvernement américain l'autorisation de lancer 4.000 satellites afin de donner accès à Internet au monde entier. De même, il envisage d’envoyer 10.000 fusées pour conquérir Mars.
§  Il possède une ténacité incroyable et ne renonce jamais : « My mentality is that of a samurai. I would rather commit seppuku than fail ». Un de ses plus proches collaborateur et ami, expliquait que sa philosophie est : « do or die but don’t give up »
Indéniablement, Elon Musk restera longtemps dans l’histoire de la « Révolution Numérique ». Il possède toutes les qualités des « nouveaux Barbares » de Nicolas Colin et celles décrites par Bernard Quinio. Quand son biographe Ashlee Vance lui a demandé : « Jusqu’à où êtes-vous prêt à aller », il a répondu : « J’aimerais mourir sur Mars » !


Pour aller plus loin et mieux comprendre Elon Musk il faut lire l’excellent livre de Ashlee Vance : « Elon Musk : How the Billionaire CEO of SpaceX and Tesla is Shaping our Future » chez Virgin Books. Il est traduit en français chez Eyrolles sous le titre : « Elon Musk Tesla, PayPal, SpaceX : l’entrepreneur qui va changer le monde ».




[1] - Fidelity Investments est le 4ème mutal fund au monde et le 2ème aux Etats-Unis. Le plus important fond américain est Vanguard Group. Les mutual fund sont la version américaine de nos SICAV ou plus généralement les OPCVM. Fidelity Investments gère un montant de 2.100 milliards de dollars d’actifs. Elle possède une filiale de venture capital : Fidelity Ventures (pour en savoir plus cliquez ici : https://en.wikipedia.org/wiki/Fidelity_Investments).

vendredi 3 mars 2017

L’avenir des systèmes d’information dans un univers numérique

Depuis quelques années les entreprises se sont engagés dans la transformation numérique. C’est une mutation importante qui leur posent de nombreux problèmes. Elles doivent d’abord trouver des idées de produit ou de service originaux. Il leur faut ensuite trouver les compétences nécessaires pour les mettre en œuvre. Mais ce n’est que le début des changements car il est ensuite indispensable de faire évoluer l’organisation et les systèmes d’information. Or, ces derniers sont des objets lourds et complexes à manipuler. De plus il est difficile de les faire évoluer. C’est le cœur des mutations à venir et seul les entreprises qui seront capables de les mener à leur terme seront capables de bénéficier des transformations numériques.
Pour apprécier les enjeux et les difficultés de cette révolution technologique et organisation il est nécessaire de comprendre les raisons des évolutions nécessaires des systèmes d’information actuels.

La déferlante du numérique et l’avenir des systèmes d’information

A chaque fois que l’informatique a connu une rupture technologique comme les bases de données, les PC, Internet, … on a constaté l’apparition de nombreuses nouvelles applications. La transformation numérique connait le même phénomène qui va se traduire par l’apparition de nombreuses nouvelles applications. En effet elle repose sur l’apparition de nouveaux matériels, de logiciels systèmes puissants, d’applications originales et de nouvelles modalités d’organisation. Ces innovation se traduisent par l’apparition de nouvelles entreprises, les start-ups, qui sont organisées autour d’une ou plusieurs applications comme Uber, Airbnb, DropboxXiaomiSnapchat, Pinterest,… En France ce sont des entreprises comme BlaBlaCar, OVH, Ventes-Privée, Sigfox, Critéo, ... Mais c’est aussi le cas des entreprises aujourd’hui arrivées à maturité comme : Amazon, Facebook, Google, … Notons que ces innovations apparaissent plus rarement de grandes entreprises traditionnelles.
Si on analyse les raisons du succès de ces entreprises on constate qu’elles reposent en grande partie sur leur capacité à développer des softwares de qualité, efficaces et facile d’emploi. Rechercher un livre avec Amazon, le commander et le payer est d’une grande facilité. C’est le résultat d’une application polie depuis de nombreuses années. Il suffit de la comparer à de nombreux autres sites pour voir la différence. Dans ces sites on passe beaucoup de temps à rechercher une information et les opérations les plus simples sont compliquées à loisir. C’est le résultat d’un énorme travail de simplification et de polissage. Souvent on appelle ces sites des « plateformes ». Le terme est séduisant mais insuffisant. Il est vrai que les grands opérateurs comme Google, Amazon, Facebook, Apple, Microsoft, …. ont construit des centres de traitement avec des dizaines de milliers de serveurs. Mais le hardware ne constitue qu’une partie de la révolution.
Le cœur de la mutation repose sur la mise en place de systèmes d’information gigantesque qui vont bien au-delà de la taille des systèmes traditionnels comme la comptabilité ou la facturation des entreprises traditionnelles. Des entreprises traditionnelles avaient déjà développé d’importants systèmes d’information comme les compagnies aériennes et notamment Amadeus qui gère les réservations de 170 compagnies et distribue des produits de voyage à 350.000 agences de voyage et gère 5.000 sites web de réservation ([1]). Il existe d’autres systèmes de réservations aériennes comme Sabre ([2]), Galiléo et WorldSpan. Les nouveaux systèmes d’information mis en place par les GAFA et les autres opérateurs sont voisins des systèmes de gestion de réservations mais ils sont sans commune mesure avec eux.

Les systèmes d’information classiques

Pour comprendre la nature de la mutation qui se produit sous nos yeux il est nécessaire de revenir sur la nature des systèmes d’information classiques. Ils sont de deux types :
·       Les systèmes ponctuels. C’est l’architecture traditionnelle des applications. Chacune à ses propres entrées, ses traitements et son stockage de données. Les échanges entre systèmes se font en back-office par transmission de fichiers entre bases de données. Cette architecture est née spontanément des premiers développements informatiques. Ces applications faciles à développer mais elles ont de nombreux inconvénients comme la multiplication des ressaisies de données, des pertes de données ou au contraire de nombreux doublons, … Le défaut le plus grave est le risque de désajustement entre les bases de données. Ainsi le chiffre d’affaires peut varier selon la base de données interrogée. C’est une situation désagréable !

Schéma 1 - Architecture des systèmes d'information avec des systèmes ponctuels 
·       Les systèmes intégrés. Toutes les données de l’entreprise sont stockées dans une seule base de données. Dès qu’une donnée est saisie l’ensemble des applications peuvent y accéder. En pratique ce sont plusieurs bases de données que les différentes applications mettent à jour, consultent, … C’est l’architecture type des ERP. Elle est bien adaptée aux bases de données notamment aux bases relationnelles. Par contre ces systèmes sont délicats à mettre en place et difficiles à faire évoluer. Ils sont complexes et lourds. C’est la rançon de l’intégration.

Schéma 2 - Architecture des systèmes d'information autour d'un système intégré


Les nouveaux systèmes d’information

A côté de ces systèmes d’information classique orientés vers l’aide à la gestion des entreprises on a constaté depuis 20 ans l’apparition d’une nouvelle classe de systèmes d’information :
·       La messagerie. Ce n’est pas une application récente mais un ancien système remontant aux années soixante avec le système AUTODIN répondant aux besoins du Ministère de la Défense américain. Il fut suivi par CTSS MAIL du MIT fonctionnant avec le système d’exploitation de time-sharing CTSS ainsi que le logiciel ATS/360 d’IBM. En 1971 SNDMSG fut le premier système de courrier électronique reposant sur le système de time-sharing TENEX. Cette application a connu une véritable explosion à la fin des années 90 avec le développement d’Internet et des protocoles SMTP, MINE, POP3 et IMAP (Pour en savoir plus sur les systèmes de messagerie, cliquez ici).
·       Les moteurs de recherche. Dès que le Web s’est développé il fut nécessaire de se retrouver parmi les nombreux sites existants. Le premier moteur de recherche fut Aliweb en 1993. Il y eu ensuite AltaVista, Yahoo !,… En 1998 sont apparus Google et MSN Search de Microsoft (appelé aujourd’hui Bing),… De nombreux moteurs ont échoué comme Quaero qui était projet franco-allemand ambitieux (Pour en savoir plus sur les moteurs derecherche, cliquez ici. ).
·       Le commerce électronique, c’est un ensemble d’activité dont l’achat de biens et de services sur Internet par les particuliers mais aussi par entre entreprises, le transfert électronique de fonds, la gestion de la chaîne d'approvisionnement, l'échange électronique de données (EDI), les systèmes de gestion automatique des stocks et les systèmes automatisés de collecte de données. Les premiers sites de commerce électronique sont apparus avec le Minitel en 1982 mais il s’est surtout développé à partir de 1992-1995 avec le développement du Web. On estime le chiffre d’affaires mondial du commerce électronique à 1.671 milliards de dollars en 2015 soit environ 7 % du commerce total et il croit de 25 % par an. En France il est estimé à 65 milliards d’euros en 2015 en croissance de 14 % par an. Cette activité est effectuée par 182.000 sites. Les sites les plus importants sont Amazon (3,1 milliards d’euros), Cdiscount (1,9 MM€), Ventes-privée (1,9 MM€), Darty (0,5 MM€), Show-room-privé (0,5 MM€), Auchan (0,4 MM€), FNAC (0,4 MM€), …
·     Les médias-sociaux. On pense bien sûr à Facebook mais il existe de nombreux autres réseaux-sociaux comme LinkedIn, Viadeo, Twitter, Skype, Wikipedia, Viber, Blogger, WordPress, OverBlog, YouTube, DailyMotion, Flickr, Instagram, WeChat ([3]), Snapchat, Printerest, Twiter, Tumblr, WhatsApp, Weibo, Line, Google +, Baidu Tieba,… (Pour en savoir plus sur les réseaux sociaux, cliquez ici). Comme on le voit ces applications sont très nombreuses et ont des usages très variés. Elles ont un impact considérable. Il suffit de se rappeler leur rôle dans les Printemps Arabes ou dans l’élection de Donald Trump. Leur usage par l’EI ne doit pas faire oublier leur rôle social très positif comme celui de Wikipédia.
·       ……
Or toutes ces nouvelles applications sont des systèmes d’information ayant la même structure que les applications traditionnelles :
·    Des entrées. Elles sont pour l’essentiel faites par les utilisateurs sur leur PC ou leur smartphone. Les applications avaient été appelées il y a quelques années le Web 2.0.
·       Des stockages. Très vite les bases de données classiques ont été saturées et l’accroissement de ces volumes a amené la création de logiciels capables de supporter des bases de données de taille illimitée.
·       Des traitements. Ils sont conséquents et nécessitent des puissances de traitement considérables. Il est pour cela des disposer de puissants centres de traitements (Data Center) comprenant des dizaines de milliers de serveurs. 
·       Des sorties. Ils sont très variés comme des consultations, des transferts de données, des éditions de documents (bons de commande, relevés d’activité, ….)

Schéma 3 - Représentation simplifiée d’un système d’information

Les grands services Internet sont des systèmes d’information

La plupart des grandes applications sont des systèmes d’information. Pour s’en assurer il suffit d’en analyser quelque unes :
·       Messagerie type Gmail ou Outlook. Elle fonctionne à l’aide de trois systèmes de gestion des messages différents :
·       Le système central fonctionnant sur un serveur puissant (ou plutôt des milliers de serveurs côte à côte) avec des capacités de stockage importantes.
·       Un accès Web permettant de consulter les messages sur le serveur cental à l’aide d’un browser comme Chrome, Firefox, Internet Explorer, …
·       Un logiciel de gestion des messages fonctionnant sur PC avec un stockage des messages en local.  
Une application de messagerie repose sur deux bases de données
·       L’indentification des utilisateurs. Il permet de fixer des paramètres spécifiques à chacun notamment les adresses des serveurs, les protocoles d’échanges, la localisation du stockage des messages, leur durée de rétention, ….
·       Les messages reçus et envoyés. Cela représente des volumes de données très importants. Un utilisateur peut émettre ou recevoir 100 mails par jour. S’il y a dans une entreprise 100.000 utilisateurs cela fait 10 millions de mails à traiter par jour. Ce sont des volumes considérables. De plus il faut conserver les mails. Ce sont des volumes de stockage très importants.
Il est aussi possible d’avoir un fichier des adresses de messages de type SPAM de façon à les éliminer. Certaines adresses mail sont communes et concernent tous les comptes et d’autres sont spécifiques à chaque utilisateur.
·  Amazon. C’est un des plus importants sites de commerce électronique au monde. Pour fonctionner il a besoin de trois bases de données :
·       Les ouvrages avec leur description : auteur, titre, éditeur, nombre de pages,… puis des photos et des textes de présentation, des commentaires de lecteurs, les autres livres que les acheteurs de ce livre ont choisis,… Lorsque le site s’est transformé en un supermarché la description des autres articles à vendre ont été stockés de la même manière.
·       Les clients. Cette base de données contient tous les renseignements nécessaires pour expédier la commande au client, les informations pour le paiement (carte bancaire), son adresse de facturation, … Elle contient aussi des informations concernant le client afin de mieux le connaître : préférences, retours, incidents, …
·       Les transactions. Ce sont le détail des commandes, des informations d’expéditions et des encaissements permettant d’effectuer le picking, l’expédition, la gestion des retours, … Il est ainsi possible de connaître l’historique des achats d’un client et de lui faire des propositions adaptées.
Le succès d’Amazon tient à la qualité des écrans et de leur enchaînement. Les opérations se font sans peine. C’est un exemple parfait de système d’information dédié au commerce électronique.
·       Google. C’est le moteur de recherche le plus utilisé dans le monde. Il repose sur quatre bases de données :
·       La copie du Web. Un robot lit un à un tous les sites Web et parcours toutes les pages et les recopient sur un serveur appelé « le cache ». Il stock environ 30.000 milliards de pages. Il détecte les pages nouvellement créées ainsi que les modifications faites sur des pages existantes.
·       Les index. Le programme effectue ensuite une analyse syntaxique des textes de toutes les pages chargées et constitue un index de tous les noms et les mots-clés utilisés afin de pouvoir trouver d’avoir l’adresse des sites et des pages concernés.
·       Lorsqu’un utilisateur recherche une information ([4]) il suffit de consulter l’index et d’afficher les pages concernées avec le nom de la page recherchée, l’adresse du site, éventuellement la date de création de la page et un court extrait de celle-ci. Les recherches faites par les utilisateurs sont stockées puis ultérieurement analysées afin de connaître les termes les plus couramment recherchés et de stocker les requêtes les plus courantes,
·       Les requêtes des utilisateurs permettent de connaître les centres d’intérêt de chacun afin d’afficher sur les sites qu’ils consultent des bandeaux publicitaires ciblés. Google est devenu la principale agence de publicité sur Internet. L’essentiel de ses revenus viennent de la publicité.
Le succès du moteur de recherche est dû à la pertinence des réponses qu’il fournit. Ceci est dû à un algorithme basé sur le Page Rank, c’est-à-dire une note permettant d’évaluer la popularité d’une page et de déterminer l’ordre d’affichage dans la page dans la réponse à la requête.
·    Uber. La gestion en temps réel d’une flotte de taxis repose sur un système d’information sophistiqué. Il est pour cela nécessaire de gérer cinq bases de données :
·       La base des véhicules permet de les identifier, de suivre leur position dans la ville et de connaître leur statut : avec un client, vide ou à l’arrêt.
·       Les chauffeurs sont différents des véhicules car ils peuvent se partager à plusieurs un véhicule.
·       Les clients, leur numéro de téléphone et le détail de leur carte de crédit,
·       Les plans des villes de façon à repérer les taxis les plus près du client, d’indiquer au client où se trouve le taxi qui lui est assigné et, le cas échéant, proposer au chauffeur le parcours optimal compte tenu de l’état de la circulation.
·       La liste des courses faites par chaque chauffeur et les encaissements effectués pour son compte de façon à calculer sa rémunération.
Ce système d’information est un véritable challenge technologique car il doit doit fonctionner en temps réel sans interruption et sans saturation.
La plupart des applications nouvelles comme Facebook, LinkedIn, Pinterest, Flickr, Tumblr, Twitter, ... sont des systèmes d’information de très grandes tailles. Cependant il ne faut pas s’imaginer que toutes les applications disponibles sur Internet sont des systèmes d’information. Lorsqu’on examine les « stores » proposant des applications on constate qu’un grand nombre sont de simples outils permettant de consulter un journal électronique ou d’afficher d’un bulletin météo.  

Et le Big Data est arrivé

Pendant longtemps la capacité des bases de données classiques type IBM DB2, Oracle, MySQL, PostgreSQL, Microsoft SQL Server, … étaient limitées à quelques millions d’occurrences. Si on avait besoin de stocker plus d’éléments il fallait segmenter cette base en plusieurs sous-bases. C’était une galère pas possible ! Chaque requête devait être dupliquée autant de fois qu’il y a de bases de données existantes et le résultat obtenus sur chaque base doit ensuite être consolidée en un seul ensemble.
En 2000, une petite société de service, Seisint, a eu l’idée de développer un ensemble de programmes écrit en C++ capable de gérer des données structurées et non-structurées stockées sur de multiples serveurs et pouvant traiter les requêtes qui leur sont soumises sur chaque serveur, en parallèle, et de consolider le résultat.
Cette société fut rachetée en 2004 par LexisNexis qui est un des plus importants éditeurs de bases de données documentaire et juridique mondial qui avait su, dès les années soixante-dix, proposer la recherche dans l’ensemble des textes.
La même année Google a repris ces idées afin de mieux répondre à ses besoins de stockage de données et a développé une architecture voisine de celle mise en œuvre de LexisNexis appelée MapReduce. C’est la base de l’architecture Hadoop qui est en passe de devenir un standard grâce à HDFS ([5]) qui est un logiciel libre développé et diffusé par l’Apache Software Fondation.
Cette architecture est reprise par de nombreux produits comme Google FS, BigTable, HBase, Hive, Pig, Phoenix, MapR, …. Elle fonctionne sur le cloud chez les principaux fournisseurs : Cloudera, Amazon dans Elastic MapReduce disponible dans Amazon Web Services, Azure HDInsight, IBM BigInsights for Hadoop, …. Dans les prochaines années ses systèmes, et d’autres qui les rejoindront, vont bouleverser l’approche traditionnelle de l’informatique.

La multiplication des applications possibles

Comme on le voit le Big Data c’est d’abord de la plomberie. Mais la possibilité de créer des bases de données de taille illimitée a permis de développer d’un grand nombre de nouvelles applications qui ont élargi de manière considérable le domaine des possibles :
·       Marketing. C’est le secteur où on trouve actuellement le plus grand nombre d’applications notamment dans le domaine de l’analyse des comportements des acheteurs et des prospects en particulier ceux présents sur Internet. Depuis des années Wal-Mart analyse en permanence les tickets de caisse de ses millions d’acheteurs journaliers et ainsi détecte des opportunités. Aujourd’hui le succès de sites comme Amazon, You Tube, Netflix, Spotify, … repose sur l’analyse du comportement de leurs clients et de leurs prospects. Il est ainsi possible de faire des offres ciblées répondant mieux à leurs attentes.
Ces mêmes techniques peuvent être utilisées lors des élections en exploitant des bases de données constituées à partir des listes électorales, des résultats des dernières élections par bureau de vote, des bases de localisation géographique et des bases décrivant les caractéristiques sociales et économiques de ces populations afin de détecter les électeurs tièdes et de les signaler à des militants pour les inciter à voter. C’est la base des programmes de portes à portes ou de relance téléphonique qui expliquent les succès de Barack Obama et de François Hollande en 2012 et du BJP (Bharatiya Janata Party) en Inde en 2014 ([6]).
Toutes ces techniques de marketing fin sont à l’opposé du marketing de masse traditionnel. Elles reposent fondamentalement sur le rapprochement de différentes bases de données de très grandes tailles.
·       Analyse des données. C’est le domaine classique des calculs de régression, des analyses en composantes principales, des analyses factorielles multiples, … Mais au lieu de travailler sur des échantillons et des panels avec le risque de commettre des erreurs d’échantillonnage les statisticiens vont pouvoir travailler sur l’ensemble des données. Dans ces conditions on sera certain des résultats car on prendra en compte l’intégralité de toutes les données. Ceci entraine un développement rapide du vaste domaine du Data Mining qui concerne les données chiffrées mais aussi les textes, les données géographiques, les enregistrements audio, les images, …. Il ne faut pas s’imaginer qu’on va découvrir automatiquement ces choses qu’on ignorait jusque-là. Il n’existe pas de mines d’or cachées. On va simplement mieux connaitre et surtout mieux quantifier des modèles qui jusqu’alors étaient plus ou moins connus. 
·       Développement de nouveaux services. Les plus grands utilisateurs de Big Data sont actuellement les GAFA et notamment Facebook qui stocke 50 milliards de photos sur une base Hadoop. De même Amazon, Google, eBay, You Tube, … mettent en œuvre des bases de données de grandes capacités pour fournir leurs services actuels.
Le Big Data est aussi utilisé par les entreprises de « reciblage publicitaire » comme Criteo. (Pour la définition du « reciblagepublicitaire » sur Wikipédia cliquez ici ). Cependant pour l’usager moyen un meilleur ciblage des publicités ne se traduit pas forcément par une amélioration des services fournis mais simplement ne pas encombrer l’écran de messages inadaptés.
Par contre la possibilité de suggérer aux utilisateurs des recommandations adaptées à leurs goûts et à leurs attentes comme le font déjà You Tube, Netflix, Amazon, LinkedIn, Facebook, iTunes, ... est un progrès. Demain les grands distributeurs, les banques, les assureurs, les compagnies aériennes et les agences de voyages, …. vont pouvoir personnaliser leurs offres en fonction des préférences de leurs clients. Ces approches ne sont pas réservées au seul secteur commercial. Elles vont aussi être mises en œuvre dans des domaines comme l’éducation où la culture. 
·       Santé. A partir des millions de prescriptions stockées dans les bases de données de la sécurité sociale il est possible de mesurer l’impact des traitements sur la santé des patients. Ceci permet de détecter les traitements dangereux ou inefficaces et de recommander aux médecins de prescrire ceux ayant montrés leur efficacité.
Il est aussi possible d’effectuer des analyses épidémiologiques fine ou de faire de la médecine prédictive en évaluant les risques concernant des populations déterminées et en identifiant les groupes à risques. Une autre possibilité est d’analyser le génome de larges populations de façon à identifier les risques de maladies génétiques notamment certains types de cancers. Mais ces possibilités sont actuellement freinées par les réticences d’une grande partie du corps médical. 
·       Sécurité. La NSA a construit dans l’Utah une plateforme ayant une capacité de stockage gigantesque. On estime qu’elle serait comprise entre 3 et 12 exaoctets (soit des milliards de gigaoctets) stockés sur 10 000 de serveurs de données (Pour en savoir plus sur l’Utah Data Center surWikipédia cliquez ici  ). Les données sont ensuite exploitées avec des logiciels type PRISM dont l’existence a été divulguées par  Edward Snowden (Pour en savoir plus sur PRISM cliquez ici ) et ainsi de surveiller l’ensemble d’Internet et des communications téléphoniques mondiales. En France, la DGSE, avec des moyens plus limités, a développé le Pôle National de Cryptanalyse et de Décryptement (PNCD). En Grande Bretagne ce travail est assuré par le GCHQ : Government Communications Headquarters.
Autre approche possible : grâce au Big Data il est possible de suivre une personne qui se déplace en ville grâce aux milliers de cameras-vidéos qui s’y trouvent et aux possibilités offertes par la reconnaissance faciale. On peut aussi suivre les véhicules automobiles roulant sur les autoroutes et dans les villes grâce à la lecture automatique des plaques minéralogiques.
·       Sciences. Le Large Hadron Collider (LHC) du CERN produit 600 millions de collisions d’atomes par seconde et il doit détecter parmi celles-ci celles qui sont intéressantes.
Dans le domaine astronomique le Sloan Digital Sky Survey collecte automatiquement toutes les nuits les données concernant des millions d’étoiles et de galaxies. En quinze ans il a accumulé des données photométriques et spectroscopiques concernant 500 millions d’objets couvrant environ 35 % du ciel. Son successeur, le Large Synoptique Survey Telecope, qui arrivera en 2020, permettra de faire un recensement complet de la voie Lactée en 3D. On estime qu’elle comprend entre 100 et 400 milliards d’étoiles.
Comme on le voit le Big Data offre des perspectives considérables et va se traduire par des développements importants dans des domaines qui jusqu’alors souffraient des limites des systèmes existants. Un des facteurs important de généralisation des technologies du Big Data va être, dans les années à venir, le développement de l’Internet des Objets qui va produire des masses considérables de données qu’il sera nécessaire de stocker et de traiter.
Toutes ces innovations vont avoir un impact direct sur les systèmes d’information en place dans les entreprises et les administrations. C’est le cœur de la transformation numérique.

L’évolution des systèmes d’information des entreprises et des administrations

Il existe actuellement dans les entreprises et les administrations deux sortes de systèmes d’information :
·       Les systèmes d’information opérationnels comme par exemple la comptabilité, la paie, la facturation, … et plus généralement les ERP, Entreprise Resource Planning, aussi appelé PGI, Progiciel de Gestion Intégré. On les appelle aussi les systèmes d’information de gestion.
·       Les systèmes d’information décisionnels souvent appelés BI, Business Intelligence. Ils utilisent des outils comme SAS, SPSS, Business Objets, Cognos, …. Mais le logiciel d’analyse actuellement le plus utilisé est Excel.
On alimente en données les systèmes d’information décisionnels par « copy management » des systèmes d’information opérationnels c’est-à-dire par recopie intégrale ou partielle des bases de données de gestion. Ces opérations représentent une importante charge machine qui est généralement effectuée de nuit. Mais cette démarche a pour conséquence de se traduire au fait que les utilisateurs travaillent sur des bases de données qui, très vite, ne sont plus à jour.

Schéma 4 - Ancienne architecture avec le processus de copy management
L’apparition des systèmes d’information construite autour de bases de données de type Hadoop va amener l’apparition d’un troisième ensemble de données qui vont entretenir des relations complexes avec les autres systèmes d’information. Une partie des informations arrive par « copy management » des autres bases et notamment des systèmes d’information opérationnels et une autre partie des données est saisie en direct.
On arrive ainsi à une architecture un peu tarabiscotée. En plus de la copie traditionnelle des systèmes d’information opérationnels vers les systèmes d’information décisionnels des données arrivent directement sur les bases de Big Data et une partie remonte ensuite vers les systèmes d’information de gestion tandis que d’autres informations descendent de ces systèmes vers les bases Big Data. De plus des données remontent directement des systèmes Big Data vers les systèmes d’information décisionnels. Comme on le voit les différentes bases de données se recopient les uns sur les autres avec tous les risques liés à ces pratiques : perte de données, doublons, désajustements temporels, … On risque d’aboutir ainsi à des systèmes d’informations lourds, fragiles et finalement peu fiables.

Schéma 5 - La nouvelle architecture avec de nombreux processus de copy management

Deux hypothèses d’évolution : séparation ou intégration

Il est certain que cette nouvelle architecture est peu souhaitable et il va être nécessaire d’envisager son évolution. Différentes approches sont envisageables. Parmi celles-ci deux semblent les plus probables :
·       La séparation des systèmes d’information. La solution consiste à séparer les trois systèmes et de faire qu’ils soient quasi-indépendants les unes des autres. Seul est maintenu la copie traditionnelle des données des systèmes d’information opérationnels vers les bases de données des systèmes d’information décisionnels. Les autre recopies sont interdites notamment aucune information ne peut migrer du Big Data vers les systèmes d’information opérationnels ou les systèmes d’information décisionnels.
Cette solution à l’avantage d’éviter de toucher aux systèmes d’information en place. Mais ce blocage risque est de se traduire par des désajustements entre les données du Big Data et celle des systèmes d’information de gestion.
En pratique, cette solution n’est pas tenable en longue période car on a souvent besoin de prendre en compte une partie des données se trouvant dans le Big Data pour alimenter les systèmes d’information décisionnels et, éventuellement, les systèmes d’information opérationnels.
 
Schéma 6 - La nouvelle architecture avec séparation des systèmes d’information

·       L’intégration des trois types de systèmes d’information autour des bases du type Big Data. Dans ce texte on fait progressivement migrer les bases de données relationnelles classiques vers des bases Hadoop. Cela va permettre de simplifier l’architecture des systèmes d’information et notamment les logiciels et la structure des données. De manière concrète cela permet d’éviter les recopies de données en tous sens et donc d’éviter d’éventuelles dégradations des données. Autre avantage important : cette solution permet d’organiser une migration progressive des bases de données relationnelles vers des bases Hadoop, le temps que les éditeurs de ces logiciels les mettent à niveau. Enfin, point très important cette dernière architecture permet d’assurer la mise à jour en temps réel des bases de secours et, en cas d’incident, assure un redémarrage très rapide.
Dans cette nouvelle architecture l’essentiel des transactions se font sur les systèmes d’information reposant sur des bases de données type Big Data. Elles sont ensuite répercutées vers les systèmes d’information de gestion et vers les systèmes d’information d’aide à la décision. Il existe encore un flux marginal de données directement saisie dans le système d’information de gestion mais il tend à diminuer avec le temps au profit les systèmes d’information du Big Data. C’est une évolution considérable de l’architecture des systèmes d’information.

Schéma 7 - La nouvelle architecture avec une intégration des différents systèmes d’information autour des bases Hadoop-Big Data
 A terme il est possible d’envisager d’aller plus loin et d’intégrer toutes les bases de données des systèmes d’information opérationnels, des systèmes d’information décisionnels et des bases de données de Big Data dans un ensemble de bases de données de type Hadoop.

Schéma 8 - Evolution à terme de la nouvelle architecture avec intégration des différents systèmes d’information autour de bases de données Big Data

Des systèmes d’information d’un type nouveau

La transformation numérique va se traduire par une évolution des systèmes d’information qui vont progressivement se rapprocher. Il est difficile de prévoir la manière dont elle peut se dérouler. Cependant on peut prévoir que ce rapprochement va se faire en trois étapes :
1.     Fusion des systèmes d’aide à la décision et du Big Data. Une partie des données sont communes aux deux types de systèmes d’information opérationnels et d’aide à la décision. Il est donc envisageable d’arriver à terme à une fusion des bases de données concernées. Ceci va se traduire par une rationalisation des bases de données et donc amener une simplification des systèmes d’information. De plus cette fusion évitera les risques de désynchronisation entre ces différentes bases.
2.     Rapprochement des systèmes opérationnels et du Big Data à l’aide d’Hadoop. Dans un deuxième étape l’effort de rationalisation va permettre de rapprocher les systèmes opérationnels et les applications type Big Data. Le recours au même système de gestion de base de données va permettre d’alimenter les bases de données des systèmes opérationnels à partir de différentes bases de données constituées par les événements qui peuvent survenir sur les sites Web, les objets connectés, ….
3.     Intégration des grands systèmes d’information liés à Internet et des systèmes de gestion. C’est la troisième étape du processus de convergence. Certains ERP proposent déjà des interfaces Web. Pour les autres applications il va être nécessaire de revoir l’ensemble des processus de saisie des données afin de les faire migrer des moniteurs de télétraitement classiques vers le Web. Malheureusement les langages actuellement disponibles dans ces environnements ne sont pas encore bien adaptés à ce type d’opérations.
Ce planning est assez théorique. Il permet de se faire une idée sur le chemin d’évolution possible. Il est fort probable que l’évolution se fera de manière différente.
Quatre exemples permettent d’illustrer les évolutions en cours concernant ces nouveaux systèmes d’information :
·       La gestion des factures fournisseurs. Dans une entreprise on reçoit de nombreux documents des fournisseurs : devis, bons de livraison, factures, avoirs, … Certains arrivent sous forme électronique mais de nombreuses pièces restent encore sur papier. Il faut les numériser et les archiver puis lier ces pièces justificatives aux écritures comptables. Ces bases de données sont de très grande taille et croissent au fil du temps. De plus il faut sécuriser.
·       Gérer les mails reçus et envoyés au sein du CRM. Les commerciaux envoient et reçoivent de nombreux mails avec leurs clients. Les systèmes de CRM (Customer Relationship Management) sont devenus l’outil privilégié de travail des commerciaux. Il est pour cette raison souhaitables de retrouver ces mails dans le système de CRM. Ceci veut dire qu’il est nécessaire de partager et de sécuriser ces données. De plus on doit pouvoir consulter les nombreux documents produits (lettres, devis, bons de livraison, retours de marchandises, factures, avoirs, …) et reçus (lettres, bons de commandes, réclamations, …). Le logiciel de CRM va devoir intégrer et sécuriser l’ensemble de ces différentes bases de données autour de la base clients.
·       Lier la base clients et le suivi des achats clients. Dans un premier temps on commence par analyser l’ensemble des achats effectués par les clients de façon à comprendre ce qu’ils recherchent, ce qui les intéressent et quelles sont leurs attentes. Dans un deuxième temps on va peut aller plus loin et on va s’efforcer d’identifier les articles qui ont été recherchés qui n’ont pas été achetés par les clients et par les prospects. L’objectif est de chercher à comprendre pour quelles raisons ils ont abandonné leur idée d’achat.
·       Comprendre la logique de recherche et de décision des prospects. Ces traitements permettent de suivre les consultations du Web effectués par des millions d’utilisateurs. Le tracking du Web produit par des bases de données de très grande taille car on suit les navigations des millions d’utilisateurs et des dizaines de milliers de sites. Il est ensuite nécessaire de rapprocher ces données de celles obtenues dans le cadre de la gestion des clients afin de pouvoir évoluer le potentiel d’achat des clients et des prospects.
Ces éléments montent que le rapprochement des différentes bases de données est en cours. Au-delà des problèmes techniques la véritable difficulté est d’arriver à les rendre compatibles.

Les conditions de la réussite

Ces exemples montrent que les systèmes d’information existants vont connaître dans les années à venir à une restructuration en profondeur comme ils les ont connus jadis lors du passage du séquentiel indexé aux bases de données hiérarchiques puis aux bases de relationnelles. Pour réussir l’évolution des bases de données vers l’architecture Hadoop dans de bonnes conditions il va être indispensable de respecter quatre conditions :
·       Voir loin. Pour assurer cette migration dans de bonnes conditions il est impératif que l’entreprise ait une stratégie claire. Elle doit s’attacher à définir des objectifs clairs permettant de définir ce que sera l’architecture finale et les produits et les services qui seront fournis aux clients. A défaut d’une cible clairement définie l’organisation risque de tourner en rond et ne sera pas capable d’aboutir aux résultats attendus.
·       Savoir profiter des opportunités. Pour réussir cette transformation il est nécessaire que l’entreprise soit réactive, ai de l’imagination, fasse preuve d’une capacité à mettre en œuvre ces changements, … Une entreprise qui n’arrive pas à saisir les opportunités qui se présentent risque de perdre le contrôle de ses activités et à terme elle va voir ses parts de marché régresser.
·       Capacité à imaginer des produits ou des services innovants. Une partie croissante de la transformation numérique est liée à la capacité des entreprises à imaginer des approches nouvelles comme on réussit à le faire des start-ups comme Amazon, Facebook, Uber, Airbnb, Netflix, … On notera qu’un grand nombre d’entreprises classiques ont du mal à mettre en œuvre des solutions numériques innovantes.
·       Disposer d’une gestion des opérations qui soit de 1ère classe. La réussite d’une mutation de grande ampleur nécessite d’avoir une parfaite maîtrise des opérations comme la gestion de projet, le marketing, le pilotage et la gestion des opérations, l’exploitation, … Si ce n’est pas le cas le risque d’enlisement n’est pas négligeable.  
Ces quatre conditions constituent le cœur de la gouvernance des systèmes d’information. Si l’une d’entre-elles est fragile cela peut mettre en péril et même faire échouer les opérations de transformation numérique qui semblaient pourtant sur le papier très séduisante.

Les acteurs de la gouvernance des systèmes d’information

La gouvernance des systèmes d’information concerne toutes les personnes travaillant dans une entreprise et elle concerne particulièrement trois groupes d’acteurs :
·       Les décideurs. Ce sont notamment les directeurs généraux, les présidents, les administrateurs et les membres des comités de direction. Ils doivent :
-       Comprendre ce que sont des systèmes d’information et leur importance stratégique pour l’avenir de leur entreprise.
-       Etre capable de faire le lien entre la transformation numérique, les systèmes d’information et l’informatique.
-       Avoir la capacité de mettre les systèmes d’information au cœur de la stratégie de leur entreprise.
·       Les DSI. Ils doivent faire évoluer leur rôle et passer de celui de responsable chargé de faire fonctionner l’informatique à celui de gestionnaire des systèmes d’information. Ils doivent pour cela :
-       Avoir une approche business et notamment être capable de lier leur activité à la stratégie de l’entreprise.
-       Prendre en compte la dimension informatique de la transformation numérique.
-       Changer de rôle pour passer de celui de gestionnaire de l’informatique à la maîtrise des systèmes d’information.
-       Arriver à travailler en synergie avec les métiers notamment le marketing, le commercial et la production.
·       Les métiers. Aujourd’hui la transformation numérique concerne surtout le marketing et la fonction commerciale mais à terme toutes les fonctions de l’entreprise sont concernés notamment la recherche & développement, la production, la logistique, … Les métiers doivent :
-       Arrêter de lancer des gadgets qui ne sont en vérité que des opérations de « Canada Dry » de la transformation numérique.
-       Comprendre les technologies informatiques et les systèmes d’information. L’inculture en ces domaines peut mener à de véritables erreurs stratégiques ou l’incapacité de sortir à temps de nouveaux produits ou de nouveaux services.
-       Avoir une vision globale. Trop souvent les métiers n’ont qu’une vision partielle des changements qui vont survenir. Ceci fait qu’ils sous-estiment gravement les investissements à effectuer.
Pour en savoir plus il suffit de lire ou relire le Manifeste de la gouvernance des systèmes d’information établis par le Club Européen de la Gouvernance des Systèmes d’information (ceGSI). (Pour lire le Manifeste de la gouvernance des systemes d’informationcliquez-ici ).  

Nécessité de renforcer la gouvernance des systèmes d’information

Pour réussir la transformation numérique des entreprises et notamment l’évolution des systèmes d’information, qui en sont le cœur, il est nécessaire de renforcer la gouvernance des systèmes d’information. Ce n’est pas une option ou une facilité mais un impératif vital pour assurer leur survie.
La bonne nouvelle est constituée par les progrès réalisés depuis 30 ans par la gouvernance informatique (l’IT Governance). Elle s’est nettement améliorée grâce à un ouvrage, aujourd’hui un peu oublié, Control Objectives, puis depuis 1996 grâce à CobiT (Pour en savoir plus sur CobiT cliquez ici). Par contre la mauvaise nouvelle est la faiblesse la gouvernance des systèmes d’information (IS Governance) (Pour en savoir plus sur la gouvernance des systèmes d'informationcliquez ici). Elle n’a pas réalisé les mêmes progrès, loin s’en faut.
Sans une amélioration significative de la gouvernance des systèmes d’information les évolutions liées à la transformation numérique risquent d’être longues et aléatoires. McKinsey a pour cela construit un indicateur mesurant l’aptitude à évoluer dans ce contexte : le MGI’s Industry Digitisation Index ( Pour lire le rapport sur l’Europe cliquez ici et pour lire le rapport sur les Etats-Unis cliquez ici ). Il mesure l’aptitude des entreprises à assurer d’un pays la transformation des entreprises par rapport à leur potentiel qui est égal à 100. Selon McKinsey les Etats-Unis sont actuellement à 18 alors que l’Europe est à 12 avec des disparités importantes : la Grande Bretagne est 17, les Pays-Bas et la Suède sont à 15, la France est 12, soit la moyenne européenne, l’Allemagne et l’Italie sont 10. Ces chiffres montrent bien toutes les difficultés de la transformation numérique en cours.




[1] - Le GDS d’Amadeus (Global Distribution System) peut traiter en pointe 19.000 transactions par seconde. Il repose sur environ 10.000 serveurs.
[2] - Sabre a été le premier système de réservation. Il a été créé en 1962 par American Airlines. Il gère la réservation de la SNCF et d’Eurostar.
[3] - WeChat est un site chinois appartenant à Tencent comme la messagerie QQ ou le gestionnaire de blog Qzone. WeChat a 800 millions d’utilisateurs contre 900 millions pour QQ et 650 millions pour Qzone.
[4] - Google traite en moyenne 3,3 milliards de requêtes par jour.
[5] - HDFS : Hadoop Distributed File System. Voir Hadoop sur Wikipedia. Ce système permet de fractionner les grandes bases de données en blocs importants et les distribuer sur un certain nombre de serveurs organisés pour former un cluster de taille illimitée. Les traitements des données stockées sur un serveur se font sur ce même serveur ce qui permet de traiter l'ensemble des données plus rapidement. Ces systèmes de fichiers parallèles où les données sont directement traitées sur le serveur les stockent et dont l’ensemble des serveurs sont reliés par un réseau de grande capacité constituent des systèmes d’une puissance et d’une rapidité sans comparaison possible. Cerise sur le gateau : chaque serveur peut être doublé par un serveur de secours dont les données sont simultanément mises à jour. En cas de panne d’un serveur le système bascule automatiquement sur le serveur de sauvegarde.
[6] - Le BPJ est le parti du premier ministre indien Narendra Modi. Il déclare avoir 110 millions d’adhérents.