Pages

lundi 7 décembre 2015

Les relations DSI-Métiers Le BRM : Business Relationship Management

par Catherine Gapaillard
  
Depuis des années, les entreprises cherchent à améliorer leurs schémas directeurs informatiques et le déroulement des projets. Elles constatent qu’elles ont souvent du mal à rapprocher leurs objectifs de la stratégie globale de l’entreprise. Lorsqu’on pousse l’analyse on s’aperçoit que cette situation est très souvent liée à des problèmes relationnels entre les informaticiens, la direction générale et les responsables des métiers. Elle est due notamment à des différences de culture, de formation d’origine et des manières différentes de s’exprimer. Le cœur de ces difficultés tient à la manière dont se déroulent les relations entre la DSI, la direction générale et les métiers.
Ce n’est pas uniquement un problème français. On le retrouve ces mêmes difficultés problèmes dans tous les pays du monde. Une association internationale a été créée en 2013 pour améliorer cette situation. Elle s’appelle le BRM Institute, pour Business Relationship Management. Voir le site du BRM Institute, voir aussi sur Wikipedia la définition du Business relationship management en anglais. En deux ans près de 15.000 personnes ont déjà adhéré à cette association. Elle a défini un corpus de connaissance (Vous pouvez lire gratuitement les 21 premières pages du document sur 125), mis en place un programme de développement professionnel et assure la certification des professionnels.

Les enjeux des relations DSI-Métiers 

A la base des difficultés rencontrées il y a le comportement des informaticiens. Certains sont des introvertis, c’est-à-dire qu’ils ont tendance à traiter seuls les problèmes. D’autres sont des extravertis car ils cherchent à les résoudre en interagissant avec d’autres. Selon une étude d’IDG Connect Research 53 % des DSI se considèrent comme des introvertis et seulement 20 % sont des extravertis. Notons que 24 % estiment être à la fois les deux et 3 % ne se prononcent pas.
De par leur nature les extravertis développent plus de compétences relationnelles que les introvertis. Ils sont capables d’échanger avec les autres. Ils ont naturellement tendance à aller spontanément au-devant des métiers. Ils anticipent les problèmes et vont vers les métiers pour essayer de les résoudre.
Les DSI et les informaticiens sont la plupart du temps des ingénieurs. C’est un type de formation qui pousse à avoir des comportements plutôt introvertis. La culture de certaines entreprises n’arrange pas les choses. Dans l’administration les relations sont formalisées et chacun tend à rester dans son domaine en ignorant ce que font les autres. Mais n’accablons pas le secteur public car dans certaines entreprises ce n’est pas mieux.
Selon une étude de Devoteam seulement un DSI sur trois a mis en place une stratégie de communication avec les métiers. Selon une autre étude du Gartner Research Circle, la moitié des directeurs généraux maîtrisent mal ou très mal des problématiques liées à l’informatique ([1]). Ces deux faits expliquent en grande partie les difficultés rencontrées par les DSI.
Il y a quelques années McKinsey et le CIGREF ont effectués trois études successives sur les relations de la DSI avec les directions générales et les directions métiers. (Cliquer ici pour lire les rapport publiées en 2002, 2004 et 2008).
Première constatation : les DSI attendent d’avoir un positionnement formel, notamment en termes de rattachement à la direction générale et de participation au comité de direction. A l’inverse, les directeurs généraux privilégient un dialogue informel avec les métiers car ils confièrent que le positionnement n’est pas si important. Ce sont bien deux visions différentes.
Autre facteur de désaccord : 90 % des DSI considèrent qu’ils doivent participer à l’élaboration de la stratégie de l’entreprise. Les directeurs généraux pensent que leur rôle est plus technique et opérationnel. Dans ces conditions, ont comprend les fréquentes tensions observées au tour de la DSI et des projets.

Les relations entre la DSI et les responsables des métiers

En revanche, les DSI et les directeurs généraux s’accordent à considérer le rôle transversal des systèmes d’information. Mais si on pousse l’analyse on constate une certaine divergence. En effet, les directions générales considèrent que cette mission est explicitée n’a pas besoin d’être formalisée, Pour les DSI, ce rôle est implicite. Ils regrettent que cette fonction soit officieuse et ils souhaitent qu’elle soit officialisée.
De même, on constate un très nette écart entre les DSI et les directions métiers. Ces derniers attendent une contribution significative des systèmes d’information, malheureusement ils ne la trouvent pas dans la pratique. Cette déception est très nette en ce qui concerne la gestion des projets. Ceci est dû à la conjonction de trois facteurs :
·       Le manque d’implication des managers des métiers dans les projets de système d’information à cause de leur manque de connaissance du mode projet.
·       La faiblesse de l’analyse des investissements dans les systèmes d’information.
·       L’absence d’analyse des conditions de réussite des projets. Comme ils ignorent les raisons des échecs, ils répètent de projet en projet les mêmes erreurs.
Notons que la plupart des directions métiers sont conscientes de leurs ignorances mais ils pensent que ce n’est pas très important. Comprenne qui peut ! En fait, les directions métiers ont une vision traditionnelle du rôle de la DSI au sein de l’entreprise. Pour eux leur rôle se limiterait uniquement à l’automatisation des opérations, le soutien des activités de gestion et la fourniture des indicateurs de pilotage. Mais ils n’ont pas la moindre idée sur les notions de système d’information et de gestion de projet.

Les enjeux de la gouvernance des systèmes d’information

Depuis longtemps, de nombreux décideurs se sont interrogés sur la rentabilité de l’informatique. De nombreuses études ont été faites pour essayer de la démontrer comme celles faites par Paul Strassmann, Erick Brynjolfsson, Stephen Oliner et Daniel Sichet, Jack Triplett. Ils n’y sont pas arrivés. Le prix Nobel d’économie Robert Solow a même douté qu’il n’y ai jamais eu des gains de productivité liés à l’informatique. Or des travaux de recherche récents ont démontré toute l’importance de la maturité informatique des organisations et les performances financières de l’entreprise :
·       Effectivement, les entreprises qui ont une gouvernance informatique faible ne retirent pas de bénéfices de leurs investissements informatiques. A contrario, celles qui ont un niveau élevé de gouvernance génèrent des bénéfices deux à trois fois supérieurs que celles qui présentent un score moyen. Ceci montre la forte responsabilité des directions générales et des métiers dans l’impact économique de ces investissements.( Pour lire cet article de Bing Gu, Ling Xue et Ray Gautam cliquez ici  ).
·       Plus la DSI est rattachée à un niveau hiérarchique élevé au sein de l’organisation, meilleures sont les performances financières de l’entreprise. Ceci est dû à la capacité des DSI à amener de nouveaux débats et à proposer de nouvelles solutions. Il est pour cette raison important que les DSI soient membres du comité de direction. La composition de l’équipe dirigeante a une influence sur les stratégies déployées et sur les résultats obtenus, y compris financiers. Il existe une relation forte entre le niveau de maturité managériale de l’informatique des entreprises et leurs performances financières. (Pour lire cet article de C. Ranganathan et Sanjeev Jha cliquez ici   )
On le sait, les comités de direction les plus efficaces sont hétérogènes. Cela veut dire qu’ils ne doivent pas être composé exclusivement d’hommes, de 45-50 ans, ayant fait la même grande école. Ils doivent au contraire comprendre un équilibre entre les hommes et des femmes, des personnes d’âges différents et des formations différentes. Les DSI sont un facteur d’hétérogénéité et ils apportent plus grand dynamisme au comité de direction.

Les 5 éléments clés de la relation DSI-Métiers

On a longtemps cherché à améliorer la relation entre les informaticiens et les différents décideurs des métiers. La meilleure approche est celle développée par deux chercheurs britanniques : John Peppard et John Ward, qui travaillaient à la Cranfield University [2] . Cette université est mondialement connue pour sa spécialisation dans l’aéronautique. Au départ ils pensaient que les difficultés rencontrées étaient liées à un problème culturel mais en poussant les analyses et les entretiens ils se sont aperçus que le problème était plus complexe qu’ils ne le pensaient. Ils ont constaté que cinq facteurs interdépendants doivent être pris en compte pour établir des relations efficaces entre la DSI et ses différentes parties prenantes (Pour lire cet article cliquez ici ) :
·       Le leadership du DSI. C’est un facteur lié à sa propre personnalité. Elle a un impact très fort dont le reste de l’organisation perçoit les systèmes d’information. Elle lui permet d’avoir la reconnaissance des métiers et de la direction générale.
·       Le rôle joué par la DSI au sein de l’organisation. Il est fondamental que les métiers et la DSI doivent avoir la même vision du rôle que doivent jouer les systèmes d’information au sein de l’organisation. Si leurs visions sont divergentes les projets risquent d’avoir du mal à arriver à leur terme dans de bonnes conditions.
·       La structure organisationnelle et les processus d’interaction avec les métiers. Les relations entre la DSI et les métiers doivent être clairement définies. Les opérations doivent être pilotées. Les rôles et les responsabilités de chacun doivent être formalisés.
·       Les critères d’évaluation de la performance de la DSI par rapport aux attentes. Les engagements de niveaux de service doivent être contrôlés. Il est nécessaire de mesurer la qualité de service. Les délais, les budgets, le périmètre du projet doivent être suivis.
·       Les valeurs et les croyances de l’entreprise concernant la DSI. C’est l’ensemble des mythes, des histoires, des rituels qui existent au sein d’une entreprise, souvent hérités des échecs passées et qui ont un impact important sur la réputation et finalement sur la crédibilité de la DSI. 

Modèle de Peppard-Ward

Le haut du schéma est plutôt "soft" alors que le bas est plus concret et touche au cœur des processus mis en œuvre par la DSI.

Mise en œuvre d’une relation DSI-Métiers efficace

Pour améliorer la situation de la DSI John Peppard et John Ward proposent une démarche permettant de construire une relation de partenariat avec les métiers en 6 étapes :
1.     Bâtir des fondations solides. Il est nécessaire que les fonctions de base fonctionnent régulièrement et présentent des performances satisfaisantes.
2.     Sensibiliser le directeur général et repositionner la DSI. Il est nécessaire de parler régulièrement avec les personnes concernées. Il est pour cela nécessaire de créer un réseau au sein des décideurs et notamment des métiers.
3.     Construire la crédibilité de la DSI. L’objectif est de lutter contre les croyances, les mythes et les légendes qui dégradent l’image de la DSI. Il est pour cela nécessaire de développer la communication. C’est une opération de long terme.
4.     Intervenir en amont des projets. Il est important de travailler les projets. Au lieu de se concentrer sur les coûts il est préférable de mettre en avant la valeur créée. Pour cela il est souhaitable que la DSI intervienne le plutôt possible dans le projet au lieu d’attendre que la fin de l’analyse fonctionnelle soit terminée. 
5.     Responsabiliser la direction générale sur la gestion des systèmes d’information. C’est le cœur de leur gouvernance. Il est pour cela indispensable de mettre en place une structure de gouvernance adaptée.
6.     Entretenir la relation partenariale. Il est ensuite nécessaire de continuer les actions entamées et notamment la communication de la DSI avec les métiers.
Ces étapes constituent une feuille de route pour toute les DSI qui souhaitent gagner la confiance des métiers et optimiser la valeur des investissements informatiques effectués. A noter que chaque étape constitue un prérequis pour l’étape suivante. (Pour lire cet article cliquez ici )

Les six étapes de Peppard-Ward
 Le Business Relationship Management

Cette démarche est une approche de Business Relationship Management. Le BRM Institute le définit le BRM de la manière suivante :
« Le Business Relationship Management stimule, identifie, et façonne la demande des Métiers en produits et services et s’assure que la valeur de ces produits et services est réalisée, optimisée et reconnue »
En amont le BRM a pour but de stimuler la demande des métiers et en aval il a pour objectif d’optimiser la valeur générée par le projet. C’est un dispositif permettant de créer de la valeur. C’est son rôle essentiel.
Le BRM est à la fois un rôle assuré par une personne et une discipline définissant une organisation efficace :
·       Le rôle : le BRM est un gestionnaire des relations entre la DSI et les métiers.
·       La discipline : le BRM s’appuie sur un ensemble de connaissances, de compétences et de comportements qui favorise la mise en place de relations efficaces entre la DSI et les métiers.
C’est un métier proche de celui du PMO, mais les BRM interviennent en amont et en aval des projets . Il est en surplomb des projets. En fait il est au centre de la zone des conflits. Il doit assurer trois rôles :
·       Le connecteur : sa mission est d'identifier les besoins des métiers et de s'assurer qu'ils peuvent être satisfait par la DSI. 
·       L’orchestrateur : son rôle consiste à s'assurer que les ressources nécessaires sont identifiés et correctement utilisées pour satisfaire ces besoins.
·       Le navigateur : le BRM doit connaitre à la fois les métiers et la DSI. Son rôle est de les guider sur le chemin de la valeur. 
Le rôle du BRM au sein de l'entreprise
Le BRM travaille à partir d’un modèle décrivant les activités de la DSI : le Normative Capability Model. Il permet de s’assurer que toutes les fonctions nécessaires sont en place. Il s’inspire des modèles comme CMMI ou COBIT.
Le « Normative Capability Model »
Le BRM Institute définit également un modèle de maturité des relations entre la DSI et les métiers. 5 niveaux de maturité sont décrits :
§  Ad Hoc : la demande n’est pas gérée. Les rôles et les responsabilités entre la DSI et les métiers ne sont pas clairs ou pas adaptés. Il n’existe pas de véritable gestion des services. L’entreprise n’a pas de vision claire sur les coûts et la valeur du système d’information.
§  Preneur d’ordre : la demande est priorisée par la DSI à partir des quelques informations qu’elle possède, en générale plutôt subjectives. De nombreux malentendus rendent les métiers méfiants vis-à-vis de la DSI, qui agit dans l’urgence et ne remet pas en question les demandes des métiers. Il n’existe pas de données suffisamment fiables pour mesurer les coûts et la valeur du système d’information.
§  Fournisseur de service : le processus de gestion des demandes est formalisé et opérationnel, au moins pour les services de base qui fonctionnent correctement. En revanche, la gestion des programmes et des projets est aléatoire. Les coûts sont connus mais la mesure de la création de valeur reste subjective.
§  Partenaire de confiance : il existe une compréhension mutuelle des besoins et des enjeux. La DSI fournit des services adaptés aux besoins des métiers, et elle est impliquée en amont des projets. Les métiers ont conscience de la valeur créée à partir des investissements informatiques.
§  Partenaire stratégique : la DSI et les métiers partagent les objectifs et les responsabilités de création de valeur à partir des investissements informatiques. Les données sont suffisamment fiables pour permettre une analyse de la valeur.

A noter que le BRM s’opère à 2 niveaux distincts :
·       Niveau stratégique. Il est nécessaire d’organiser les interactions avec les personnes influentes de l’entreprise afin de garantir la réussite des projets et la réalisation des bénéfices attendus. Dans ce cas le rôle de BRM est assuré par le DSI, le DSI adjoint et les responsables de domaines. Il peut aussi constituer une fonction à temps plein. Le BRM est en relation avec les directeurs des métiers et la direction générale. Il se concentre sur la création de valeur à travers le système d’information et la recherche d’opportunités stratégiques pour l’organisation.
· Niveau tactique. Il s’agit de gérer l’équilibre entre les demandes des métiers et l’offre de services de la DSI. Le BRM est un rôle assuré par les responsables de domaines de la DSI, les gestionnaires d’applications et les chefs de projet. Mais cela peut aussi être une fonction exercée à temps plein. Le BRM est en relation avec les responsables des métiers et leurs équipes.
        
Pour réussir la fonction de BRM il est nécessaire de disposer des compétences suivantes :
·       Développer le partenariat stratégique.
·       Connaitre le métier et des affaires.
·       Savoir gérer le portefeuille des projets.
·       Connaitre la DSI et les métiers.
·       Gérer les changements.
·       Avoir l’art de la communication.

Conclusion

Les démarches proposées par John Peppard et John Ward et par BRM Institute sont en fait assez proches. L’objectif commun est de mettre en place des procédures et des règles de comportement permettant de rapprocher les informaticiens, la direction générale et les responsables des métiers, avec pour finalité la création de valeur à partir des investissements informatiques. John Peppard et John Ward cherchent à améliorer progressivement ces relations alors que le BRM Institute cherche à mettre en place une nouvelle fonction chargée de mettre en œuvre de bonnes pratiques en matière de relation entre les différentes parties prenantes. 





[1] - Mais, à l’inverse on peut se féliciter que l’autre moitié des directeurs généraux disent parfaitement maîtriser l’informatique.
[2] - Signalons que l'Université de Cranfild est la seule université au monde qui a un piste d'aviation sur son campus. 

samedi 28 novembre 2015

Avoir les idées claires sur la transformation numérique

La transformation numérique tout le monde en parle et cela fini par devenir un joyeux mélange de termes techniques (tel que le Cloud ou le Big Data), d’approches stratégiques (comme la disruption) et de concepts managériaux (tel que la latéralisation). On finit par tout mélanger. Dans ces conditions il est difficile de se retrouver dans cette cacophonie.

Bernard Quinio, professeur de systèmes d’information à l’Université de Paris Ouest Nanterre La Défense propose dans une courte vidéo de clarifie ce sujet en cherchant à répondant à 3 questions de base :
·     la transformation numérique de quoi ?
·     la transformation numérique pour qui ?
·     la transformation numérique comment ?


Pour voir la vidéo cliquez ici

mardi 2 juin 2015

Transformation numérique et nouveaux schémas directeurs

Par Catherine Gapaillard et Christophe Legrenzi

Nous avons écrit il y a près de deux ans un livre sur les schémas directeurs : « Les nouveaux schémas directeurs des SI : gouvernance, valeur et stratégie » ([1]) Il est aujourd’hui nécessaire d’approfondir la réflexion sur ce sujet éminemment stratégique. Le développement de la transformation numérique des entreprises montre l’importance de la réflexion à entreprendre sur la manière d’organiser la prise en compte de cette nouvelle approche de la stratégie.

Cette démarche se décline autour de cinq grandes questions qui sont autant de thèmes de réflexion et de remise en cause des approches traditionnelles :
1.     Est-ce que la transformation numérique est possible sans une véritable stratégie ?
2.     Quelles sont les relations entre la gouvernance, la stratégie numérique et les performances économiques de l’entreprise ? 
3.     Peut-on baser les stratégies sur les approches traditionnelles en matière d’innovations de rupture ?
4.     Est-ce que l’alignement stratégique de l’informatique est encore la bonne cible ?
5.     Comment prendre en compte l’amélioration des relations entre les différentes parties prenantes ?
Ce sont des questions importantes et ce sont des domaines vastes. Nous sommes au début de la réflexion qu’il faut poursuivre et approfondir.

Transformation numérique et stratégie numérique

Une recente étude de la société de service Atos « AscentJourney 2018 – the 3rd digital revolution - agility and fragility » est très intéressantes car elle dessine à l’horizon 2018 les contours d’un monde numérique très connecté, avec :
  4,5 milliards de smartphones,
  2,5 milliards d'utilisateurs des réseaux sociaux,
  plus de 25 milliards d'objets connectés.
Ce nouveau monde sera caractérisé par quatre notions particulièrement importantes :
  Une réinvention des modèles économiques. La troisième révolution numérique ne fera pleinement ressentir ses effets que lorsque le lien aura été fait entre les univers du B2C et du B2B.
  Le rôle des systèmes d’information. L’Internet des objets et le Big Data auront des effets disruptifs sur les systèmes d’information existants.
  L’évolution de l’expérience client. Les consommateurs connectés sont prêts à négocier l'accès à leurs données personnelles en échange de meilleurs services à moindre coût, à condition que l'utilisation de ces données personnelles soit limitée aux fins initialement déterminées et garanties par des tiers de confiance.
  L’excellence opérationnelle : la numérisation de la chaîne d'approvisionnement et l’impression 3D permettent de repousser les limites de la gestion du cycle de vie du produit et la convergence entre les technologies et les opérations. On voit ainsi émergée la notion d’Industrie 4.0. Elle remet en cause la séparation traditionnelle entre le front office et le back office.
Ceci montre les limites des anciens « business models ». Le succès d’Uber montre le risque menaçant les anciens métiers. Les chauffeurs de taxis ont vu leur monopole voler en éclat sans même qu’ils s’en aperçoivent. Comme le dit très justement Maurice Levy, PDG du groupe Publicis : « Tout le monde a peur de se faire uberiser ». Mais Uber n’est pas le premier choc de la transformation numérique. Ce n’est que le dernier exemple en date d’un phénomène de transformation profonde des activités économiques traditionnelles par l’irruption du numérique. Dans le passé :
  L’industrie de la musique s’est fait « naspteriser ».
  L’industrie de l’audio-visuel s’est fait « youtubiser » et finalement « netflixiser ».
  Le monde de l’édition, puis celui de la distribution, s’est fait « amazoniser ».
  La presse s’est fait « googliser ».
  L’industrie de la connaissance s’est fait « wikipédier ».
  L’hôtellerie s’est fait « airbndbiser ».
A qui le tour maintenant ?

En fait les entreprises n’ont pas tous la même réaction face à la transformation numérique. Une étude récente du MIT et de Capgemini Consulting ([2]) fait apparaître 4 types d’entreprises :
  Les « beginners » (65 %). Ils ont adopté les e-mails, un site internet et utilisent une grande variété de logiciels, mais elles sont lentes et sceptiques quant à une adoption plus avancée des outils numériques, tels que les réseaux sociaux, les applications mobiles ou les outils de « Big Data ».
  Les « conservatives » (14 %). Ils ont délibérément choisi de ne pas faire du numérique une priorité stratégique, bien qu’elles aient souvent une gouvernance claire concernant l’adoption et la diffusion des nouvelles technologies dans leur entreprise.
  Les « fashionistas » (6 %). Elles sont promptes à adopter les innovations numériques, mais manquent de coordination, de gouvernance et de cohérence d’ensemble pour transformer globalement leur métier.
  Les « digirati » (15 %). Ils partagent une vision très forte des opportunités du numérique et investissent massivement sur le sujet. Ils croient profondément au numérique et le voient comme un levier de compétitivité, d’amélioration des conditions de travail et d’innovation.
Parmi ces quatre stratégies l’analyse montre que seul les « digirati » sont les plus performantes, aussi bien en ce qui concerne la croissance du chiffre d’affaires, que la rentabilité et la valeur de l’entreprise. Malheureusement elles ne représentent que 15 % des entreprises.
Les autres firmes, comme le montre le schéma ci-dessous, ont des stratégies qui donnent des résultats non satisfaisants. C’est notamment le cas des entreprises conservatrices. Elles sauvent leur rentabilité et leur valeur de marché au détriment de leur croissance. Les « beginers » qui représentent 65 % des entreprises perdent sur tous les plans : aussi bien la croissance, la rentabilité et la valeur. On notera que les quelques « fashionistas » sauvent leur croissance mais grèvent leur rentabilité et leur valeur.
Ceci montre que le succès des GAFA (Google, Apple, Facebook et Amazon) n’est pas le fait du hasard mais la conséquence de choix stratégiques qui se basent sur une vision des opportunités qui leur sont proposées et ont, en même temps, le courage d’investir massivement dans de nouvelles activités. Les 4 entreprises du GAFA ont une capitalisation totale supérieure aux 40 entreprises du CAC40 avec pour les GAFA : 1.555 milliards de dollars ([3]) alors que le total du CAC40 fait 1.350 milliards d’euros (soit 1.470 milliards de dollars). Deux chiffres à méditer qui prouvent l’importance des choix stratégiques.


 Impact des stratégies numériques sur la croissance, la rentabilité et la valeur des entreprises.

Naturellement les entreprises ont de nombreuses raisons pour ne rien faire. Le MIT et Capgemini Consulting ont demandé aux entreprises les raisons de cette irrésolution. Les réponses sont édifiantes :
  53 % des entreprises « n’ont pas le temps pour ça maintenant »,
  52 % manque de familiarité avec le numérique : « Nous ne savons pas comment faire »,
  40 % notent une résistance aux nouvelles approches : « C’est la façon dont nous avons toujours fonctionné »,
  23 % hésitent car cela remet en cause les pouvoirs internes : « Je vais perdre de l’influence dans mon organisation »,
  21 % constate que « l’entreprise n’a pas la bonne politique de support »,
  18 % se demande si « cela vaut le risque encouru ».
Comme on le voit il y a de nombreuses « bonnes raisons » pour ne rien faire. Mais il ne faut pas se faire d’illusion ces entreprises sont condamnées à une lente et douloureuse régression.
Pour sortir de cette situation il faut d’abord comprendre l’originalité du « business model » des GAFA. Il fonctionne sur un mode asymétrique avec une partie des services qui est apparemment gratuite puis ensuite une commercialisation des masses d’informations laissées par les utilisateurs.
Dans ces conditions il est vital de chercher à rester dans la course. Il suffit d’appliquer quelques règles classiques de management : 
  Rester en alerte sur tout ce qui se passe du côté de la technologie et des nouveaux usages.
  Plus que jamais, être proche de ses clients et proactif par rapport à leurs besoins en les impliquant dans la conception des futurs produits ou services.
  Tirer parti de l’intelligence collective des collaborateurs, des fournisseurs, des partenaires, des distributeurs, des concurrents, …pour trouver les innovations utiles.
  Remettre en cause régulièrement le « business model » de l’entreprise et son cœur de métier pour voir s’il est possible de faire autrement, plus vite, moins cher et avec un meilleur taux de satisfaction des clients.
Tout cela signifie une volonté des dirigeants et notamment des directeurs généraux de maintenir leurs entreprises dans la course.

Relations entre la gouvernance, la stratégie numérique et les performances de l’entreprise

Pour une entreprise il est important d’avoir une stratégie et notamment une stratégie concernant le numérique. C’est d’ailleurs ce qu’on constate. Deux tiers des entreprises disposent d’une stratégie et deux tiers disposent d’un schéma directeur informatique. Ce n’est pas un hasard.
Pendant longtemps on a affirmé le lien entre la stratégie générale de l’entreprise, sa stratégie informatique et sa rentabilité sans avoir une preuve évidente de ces relations. De nombreux chercheurs ont cherché ce lien sans le trouver dont Paul Strasmann, Erik Brynjolfsson,…. On se souvient de l’affirmation de Robert Solow en 1987 : « vous pouvez voir l'ère informatique partout, sauf dans les statistiques de la productivité » ([4]). Des travaux de recherche récents ont enfin démontré l’importance de la maturité informatique des organisations et le lien avec la performance d’entreprise. Ils ont fait apparaître trois tendances lourdes :
§  Les firmes qui possèdent un faible niveau de gouvernance informatique ne retirent pas de bénéfices de leurs investissements informatiques. A contrario, celles qui ont un fort niveau de gouvernance génère deux à trois fois plus de bénéfices que celles qui présentent une gouvernance moyenne (cf. "Gouvernance Informatique et Rentabilité desInvestissements SI : une étude empirique"). La médiocrité ne paie pas ! Une étude faite par Jean Louis Paucelle avait déjà jadis montré que les Universités qui utilisaient un peu l’informatique sans avoir une politique d’emploi systématique avaient les performances les plus médiocres, même par rapport à celles qui n’en faisaient pas (à l’époque il y avait encore des Universités qui n’utilisaient pas l’informatique. On disait alors que : « cela coûte chère et cela ne rapporte rien ». On a vu la suite).
§  Plus le positionnement du CIO est élevé au sein de l’organisation, plus les performances financières des investissements informatiques sont bonnes. L’explication de ce résultat serait lié à la capacité des CIO à amener de nouveaux débats et de nouvelles solutions au-delà d’un point de vue différent (cf. "Les DSI comptent-ils vraiment? Evaluer lavaleur liée à la présence des DSI dans les équipes de direction"). Le rattachement du DSI à la DG et la présence du DSI au comité de direction sont deux points fondamentaux déterminant l’efficacité des investissements informatiques de l’entreprise.
§  L’efficacité du DSI influence aussi bien la capacité d’assimilation informatique de l’entreprise que la dualité informatique-métier (cf. "L’aptitude à gérer les innovations techniques et lerôle du DSI"). Les DSI ont un rôle pédagogique auprès des métiers et notamment des décideurs.
Ces trois études montrent le rôle des choix d’organisation dans l’impact de" l’informatique. Ils relèvent de la stratégie de l’entreprise et de la volonté de ses dirigeants d’aller de l’avant. 

Le leurre des approches traditionnelles en matière d’innovations de rupture

L’informatique est une technologie de rupture et il est probable que ce que l’on regroupe sous le terme de «  transformation numérique » comme l’Internet des Objets ou le Big Data soient aussi des technologies de rupture. L’inventeur du concept de « technologie de rupture » (‘Disruptive technology’) est Clayton Christensen dans son ouvrage « The Innovator’s Dilemma » publié en 1997. Il eu un succès considérable car il montrait le rôle des nouvelles technologies dans les évolutions des entreprises en reprenant d’ailleurs des travaux antérieurs de Fred Lamond. La technologie serait le moteur des évolutions.


Mais en 2003 il a changé son explication car il s’est rendu compte sur des exemples concerts que la technologie n’est qu’un des facteurs du changement mais que le cœur des évolutions est la capacité de l’entreprise à repenser son modèle économique. Dans « The Innovator's Solution: Creating and Sustaining Successful Growth » il préfère le terme plus générique « d’innovation de rupture » parce qu’il reconnaît que peu de technologies sont intrinsèquement de rupture ou de continuité. Pire, cela peut même devenir un handicap ! En effet les nouvelles technologies sont coûteuses, complexes à mettre en œuvre et finalement risquées.


Un des exemples les plus connus de ratage technologique est celui de Kodak. L’entreprise de Rochester avait inventé la photo argentique facile et peu coûteuse. Mais quand la photo numérique est arrivée la firme de George Eastman a été complétement dépassé par un grand nombre de nouveaux venus notamment des entreprises japonaises venant du monde de l’électronique. Or il faut le savoir, la photo numérique a été inventé dans les laboratoires de Kodak mais l’entreprise n’a jamais été capable d’en tirer profit. Pire, Kodak est mort du succès de la photo numérique !



En fait il y a une confusion entre technologie de rupture et innovation de rupture. Ceci fait que les entreprises mettent tous leurs efforts sur la technologie et pas assez sur l’innovation. Les fournisseurs exercent une pression considérable sur la technologie et ils sont en cela secondés par les grands cabinets de conseil type IDC ou Gartner.
Ainsi de nombreuses grandes entreprises françaises ont mises en place, à grand frais, des réseaux sociaux internes en pensant qu’elles entreraient grâce à cela de plein pied dans l’ère du changement numérique. Les résultats n’ont pas été à la hauteur des espérances.  

L’alignement stratégique de l’informatique n’est plus la cible

Autre mythe qui s’effondre : l’alignement stratégique. Pendant des années on a recherché à aligner la stratégie de l’informatique, en fait le schéma directeur, sur la stratégie générale de l’entreprise. Il est vrai que lorsque cette idée a été lancée il y avait des cas de graves divergences entre les deux stratégies.
Depuis vingt ans des efforts importants ont été fait et on constate qu’il y a une nette corrélation entre l’existence d’un « Business Plan » et celle d’un Schéma directeur informatique. Certaines entreprises sont allées jusqu’à définir des Schémas Directeur des Systèmes d’Information avec une large participation des métiers et notamment de leurs décideurs. 


Stratégie d’entreprise et stratégie informatique

Cependant lorsqu’on pousse l’analyse on s’aperçoit d’abord que dans la moitié des cas il y a absence de l’un des deux plans : soit il y a un schéma directeur informatique et pas de « Business Plan », soit à l’inverse il y a un « Business Plan » mais il n’y a pas de schéma directeur informatique.
Deuxième constatation dans la moitié des cas restant les deux plans existent mais ils sont indépendant l’un de l’autre. Cela veut dire que dans le quart des entreprises le schéma directeur informatique est fait sans tenir compte du « Business Plan ». Résultat : dans seulement dans un quart des entreprises il y a un lien entre les deux.
On notera que dans 7 % des cas il y a rétroaction entre le schéma directeur informatique et le « Business Plan » et que dans 6 % il y a un développement conjoint des deux.

  
Les différents types d’alignement stratégique.

Compte tenu des bouleversements apportés par la transformation numérique il faudrait inverser le processus et mettre en avant la stratégie digitale en commençant la réflexion par les évolutions souhaitées concernant les activités numérique de l’entreprise et en déduire un schéma directeur du numérique puis dans un deuxième temps d’en déduire la stratégie de l’entreprise.

 Une nouvelle donne

Il est fort probable que si cette permutation de l’ordre des facteurs ne se fait pas il ne se passera pas grand-chose.

L’importance d’une bonne relation entre les différentes parties prenantes

Pour réussir cette évolution il est nécessaire de changer la manière dont les différentes parties prenantes à ce processus interagissent : métiers, DSI, Direction générale. Or, on constate actuellement une forte demande de la part des Directions Générales pour avoir des Schémas Directeur Stratégique. Mais face à cette demande on assiste à un refus poli mais ferme des métiers qui considèrent que la manière dont ils s’organisent est leur affaire et ne concerne pas les informaticiens ni, a fortiori, la Direction Générale.
De même les DSI qui ne sont pas au comité de direction ont du mal à avoir accès à la stratégie de l’entreprise. Dans ces conditions ils ne la connaissent qu’imparfaitement et, plus grave, n’ont aucune influence sur son évolution.
Pour éviter cela il est nécessaire de reconnecter les gens qui ne se voient pas et, pire, qui ne se connaissent pas. Deux chercheurs de la Cranfield University Joe Peppard et John Ward se sont attaqués au problème en proposant un modèle original./
Pour établir des relations efficaces entre la DSI et ses différentes parties prenantes 5 éléments interdépendants doivent être pris en compte :
  Le leadership du DSI. Il a une vision et son rôle consiste à entrainer les autres à la partager.
  Le rôle joué par la DSI au sein de l’organisation. Il y a deux approches : la stratégie ou la fourniture de services. La première est préférable. Le DSI doit partir des attentes des métiers et proposer des approches permettant d’y répondre.
  La structure organisationnelle et les processus d’interaction avec les métiers. Il est ensuite nécessaire de définir la manière dont l’entreprise s’organise pour fournir ces services.
  Les critères d’évaluation de la performance de la DSI par rapport aux attentes, car il est ensuite important de s’assurer qu’elle fournit les services attendus.
  Les valeurs et croyances de l’entreprise sur la DSI. C’est un point clé trop souvent négligé. Dans toutes les entreprises il y a le souvenir de projets loupés ou d’applications « maudites ». Sur ces bases des mythes se sont établis et expliquent des réactions de rejet de la DSI.
Ce modèle montre comment il est possible de passer de l’étude de l’organisation à la gouvernance. C’est le rôle du Business Relationship Management ou BRM. Ce n’est pas un nouveau « buzzword » mais une évolution significative de nos approches.

Modèle de Peppard et Ward

Un BRM Institute, a été créé en 2013. Il s’est donné pour objectif de faire progresser le concept de BRM au sein des organisations. Il propose un programme de développement professionnel, une certification au métier de BRM, et met en relation les professionnels à travers le monde.


Le Business Relationship Management Institute définit le BRM de la manière suivante :
« Le Business Relationship Management stimule, identifie, et façonne la demande des métiers en produits et services et s’assure que la valeur de ces produits et services est réalisée, optimisée et reconnue »
Le BRM est à la fois un rôle et une discipline:
  En tant que rôle, le BRM est un gestionnaire des relations entre la DSI et les métiers.
  En tant que discipline, le BRM s’appuie sur un ensemble de connaissances, de compétences et de comportements qui favorise la mise en place de relations efficaces entre la DSI et les métiers
Dans les projets il intervient en amont pour effectuer l’étude de faisabilité et rédiger le dossier d’expression des besoins puis une fois que l’application est en palace il doit évaluer le résultat. C’est une fonction interne. Dans les PME c’est une activité à temps partiel mais dans les grandes entreprises c’est une tâche à plein temps. 





[1] - Les nouveaux schémas directeurs des SI : Gouvernance, valeur et stratégie, Christophe Legrenzi et Catherine Gapaillard, Editions Hermès-Lavoisier, Octobre 2013.
[2] - MIT et Capgemini Consulting : “Embracing Digital Technology : a new strategic imperative”.
[3] - Apple : 759,2 milliards de dollars, Amazon : 198,3 milliards de dollars, Google : 372,9 milliards de dollars, Facebook : 224,5 milliards de dollars,
[4] - « you can see the computer age everywhere except in the productivity statistics » Robert Solow

samedi 25 avril 2015

L’impact de l’Internet des Objets, gouvernance, enjeux et risques


Le 22 avril 2014 Gilbert Réveillon a tenu une conférence sur : "L’impact de l’Internet des Objets, gouvernance, enjeux et risques" devant le Club Français de l'ceGSI, le club européen de la Gouvernance des Système d'Information. Ci-dessous le résumé de son intervention. 

Nous observons un fort développement de l’Internet des Objets qui ne va que s’amplifier encore. Derrière cette multiplication des nouveaux outils on assiste au développement très rapide des données, à la découverte de gisements déjà disruptifs et la promesse de beaucoup d’autres à découvrir. La Data est au cœur de la mutation à venir dans la captation de valeurs des nouveaux écosystèmes qui obligent les acteurs traditionnels à changer de posture. Le passage à l’échelle industrielle est également très structurant voire fertilisant sur certaines zones géographiques et régionales.

Les grandes familles d’applications des objets connectées à Internet

L’analyse montre qu’il se dégage cinq grandes familles d’applications :
·       Les « connecting home ou maisons connectées ». Avec le « smart home » c’est la climatisation et la sécurité des domiciles, le management à distance des installations, les systèmes de distractions, la domotique… Le cabinet Berg Insight estime que les revenus générés par les foyers connectés vont passer de 1 milliard de dollars en 2012 à 12,5 milliards de dollars en 2017.
·       Les « wearables ou tout ce qui se porte et qui est intelligent ». Ce sont les montres et les lunettes connectées, les systèmes de fitness, les cameras portables (type GoPro), les accessoires complexes, les vêtements connectés… Ce marché est estimé par la banque Goldman Sachs à 2,5 milliards de dollars en 2013 et devrait atteindre 19,5 milliards de dollars en 2017. Les segments les plus dynamiques en 2015 devraient être les accessoires intelligents et les vêtements intelligents (« smart garment »). 
·       L’ « Internet Industrial ou internet industriel » qui comprend la robotique, l’automatisation de l’entreprise, l’amélioration de l’efficacité de la chaîne logistique, le nommage décuplé avec IPV6 etc.
·       Les « connecting cities ou villes connectées ». Avec les « smart cities » ils comprennent les analyses temps réel des flux, la gestion de l’éclairage public, la gestion des parkings, la recharge des véhicules électriques, la logistique optimisée et transmodale, et les compteurs intelligents d’électricité, de gaz et d’eau. Selon Goldman Sachs on va assister dans les années à venir à l’installation de 1,5 milliard de compteurs intelligents.
·       Les « connected cars ou voitures connectées » : le diagnostic des véhicules, la navigation, la sécurité, la gestion des flux de véhicules, les « computing units » dans le véhicule autonome se développent avec de nouveaux standards de communication entre chacun d’eux, à la clé l’émergence de nouveaux chefs d’orchestre qui changent et imposent leurs règles dans des stratégies de plateformes,… Ce dernier segment est le plus important. Quasiment inexistant actuellement il devrait représenter 60 % du marché mondial des voitures en 2020. Au mois de mars 2015 une Audi Q5 équipée par Delphi a traversé les Etats-Unis de San Francisco à New-York en pilotage automatique sur une distance de 5.500 kilomètres parcourus en 9 jours (voir  l'Argus et You Tube ).

La plus grande crainte des entreprises, toutes exposées à une interaction (voire une confrontation) avec l’une de ces 5 familles est de découvrir demain un concurrent venant d’un horizon inconnu et inexploré, prenant en quelques mois une part de marché significative comme c’est le cas d’Uber avec le marché des taxis. L’entreprise a été créée en 2009. Elle est aujourd’hui présente dans 51 pays et 253 villes. En France il y a 1 million d’utilisateurs actifs. Elle est valorisée 41 milliards de dollars et on estime qu’en 2015 elle réalisera un « chiffre d’affaires » estimé à 10 milliards de dollars  (Wikipedia en français et plus complet en anglais ).

Une grande révolution

On observe une double révolution. Sur le plan technologique on assiste à une baisse rapide du coût des capteurs. Ces dix dernières années le coût d’un capteur est passé de 1,30 dollars à 60 cents. De plus sa taille a considérablement diminué. Sa surface est passée de 1 centimètre carré à 1 millimètre carré. Il est ainsi possible de les intégrer dans de nombreux produits comme une montre, un bracelet, une chemise de sport etc. La vague du nano va à nouveau bouleverser le terrain de jeux et l’agilité d’acteurs ayant anticipé les brèches des nouvelles propositions de valeurs. Savant positionnement du curseur entre une économie de l’offre et celle de la demande. Cette évolution s’est faite alors que durant la même période le coût de la bande passante a été divisé par 40 et celui du traitement par 60.
A cela s’ajoute la loi de Grötschel (Martin Grötschel du Konrad – Zuse - Zentrum für Informationstechnik de Berlin)  qui a constaté que : « la vitesse de calcul des algorithmes progresse 43 fois plus vite que la puissance des microprocesseurs, les algorithmes pouvant être défini comme les séquences d’opérations et d’instructions d’un programme informatique ». C’est l’équivalant de la loi de Moore qui dès 1965 annonçait que « le nombre de transistors par circuit de même taille doublait tous les 18 mois, sans augmentation de coût ».
Ces deux moteurs : évolution des capteurs et loi de Grötschel expliquent le développement rapide actuellement constaté des sous-jacents de l’Internet des Objets ou encore de l’internet « of everything » comme le caractérise Cisco. La France devient son 8e « international innovation center » avec une promesse d’engagement de 100 millions d’euros dans les écosystèmes de l’innovation en France. Comme développé dans l’article de CCE International de février 2015 « Depuis quand l’objet fait-il la stratégie », l’enjeu n’est pas l’objet mais la plateforme d’intégration des acteurs (« game players »). Dans le B2B le cycle de vie des objets connectés tombe malheureusement à 6 mois avant d’être laissé de côté par son propriétaire.

Le grand écart des prévisions

Pour l’instant le nombre d’objets connectés à Internet est limité mais tout ce qu’on observe permet de prévoir qu’il va exploser dans les années à venir. D’ici 5 ans, c’est-à-dire 2020, on estime leur nombre entre 30 milliards (selon le Gartner Group) à 212 milliards d’objets (selon IDC ou Intel). Ces chiffres sont très discutables mais il est probable que l’ordre de grandeur est juste. Il sera de l’ordre de 10 puissance 10 ou 11 (10 à 100 milliards d’objets). On est face à une déferlante. Dans ces conditions la seule question pour toutes les entreprises est de se demander comment ne pas être « disrupter » par un Tesla (pour l’automobile), Bitcoin et le blockchain ou encore les sites de crowdfunding (pour les banques), Airbnb (pour les groupes hôteliers)…

Différentes prévisions concernant le nombre d'objets connectés à Internet

Différentes études ont cherché à chiffrer les enjeux de l’IoT (Internet of Things). Cisco et DHL ont estimé le chiffre d’affaires mondial des objets connectés à 500 milliards d’euros dès 2016. En se projetant à 5 ans la valeur ajoutée créée par les objets connectés s’élèvera à 8.900 milliards de dollars et Cisco estime qu’il y aura 6,5 objets connectés par personne dans le monde en 2020.  

Un enjeu économique majeur

L’Institut Montaigne et AT Kearney ont effectué une étude analogue pour la France et ils estiment que l’enjeu va passer de 74 milliards d’euro en 2020 et à 138 milliards d’euros en 2025 soit un pourcentage de l’ordre de 3 % du PIB. Il est dû à la conjonction de trois leviers d’action :
·       L’augmentation de la productivité est permise par l’exploitation des données produites par les objets, par le contrôle à distance, en permettant de réduire la consommation d’énergie et d’intrants… L’enjeu s’élève de 30 à 64 milliards d’euros.
·       Les gains de pouvoir d’achat permis par les économies d’énergie, la plus longue durabilité des produits… L’enjeu est estimé de 24 à 42 milliards d’euros.
·       Des économies de temps permis par les progrès constatés dans le domaine médical qui permettent d’augmenter le nombre d’années des personnes vivant en bonne santé dont une partie permettra d’allonger la durée du travail. L’enjeu est de 20 à 32 milliards d’euros.

Le potentiel de création de valeur est assez variable d’un secteur à l’autre :
·       Le logement. Ce sont les gains les plus importants : 19 milliards d’euros en 2020 grâce aux économies d’énergie, à la domotique et la réduction des tâches ménagères.
·       L’amélioration de la mobilité. Ces gains sont estimés à 17 milliards d’euros. Ils concernent la réduction des embouteillages automobiles, la diminution des accidents et de leur gravité, la baisse de la consommation d’essence…
·       La santé. Ces gains sont estimés à 16 milliards d’euros. C’est un domaine très important car aux USA la FDA freine le développement du médical et des objets connectés dans le bien-être à cause des nombreuses contraintes qu’elle impose. L’internet des objets médicaux permet de contourner cet obstacle. Il concerne le suivi de l’observance (la prise de médicaments prescrits), l’optimisation des parcours de soins, la prévention (un secteur en jachère, seulement 3 % des dépenses de santé sont consacrées à la prévention), l’hospitalisation réduite...
·       L’industrie. Ces gains sont estimés à 12 milliards d’euros. Le grand domaine est celui de l’usine connectée et de l’optimisation des flux logistiques : matière première, produits semi-finis et marchandises… Les réseaux intelligents auront aussi un impact sur les montants de consommation et d’investissement.
·       L’action publique. Ces gains sont estimés à 8 milliards d’euros. Sont concernés l’optimisation des ressources utilisées, la gestion de la sécurité et le développement de la défense connectée.
·       L’éducation. Ces gains sont estimés à 2 milliards d’euros en 2020 mais 6 milliards d’euros en 2025. Ces gains sont obtenus en gérant mieux le parc de classes et en veillant à avoir un meilleur impact de la formation professionnelle sur la productivité.
·       Les loisirs. Ces gains sont estimés à 1 milliard d’euros grâce au développement des articles de sport connectés.
L’Institut Montaigne estime que le marché des achats d’objets connectés (du bracelet connecté pour suivre l’activité physique d’une personne à l’équipement des capteurs d’une ligne de production et des services (réseau, Datacenter, Big Data…) sera en 2020 de 15 milliards d’euros et passera à 23 milliards d’euros en 2025.

Des bouleversements considérables à venir

Les trois segments qui vont être le plus fortement impactés par l’Internet des Objets sont :
·       La cité du futur. En Europe on en parle mais en Chine les décideurs sont dans l’action. Ils sont très en avance avec plus de 27 % du M2M (Machine to Machine) au monde. Toutes les grandes villes comme Shanghai, Pekin et beaucoup d’autres mégapoles asiatiques,… se sont dotées depuis plus de 10 ans de plan directeur, de « chief digital officer », de « chief data officer »,  pour construire la « smart city ».
·       La maison connectée. Pendant longtemps on a parlé de domotique sans aller très loin dans sa généralisation. La généralisation des capteurs simples et standards, le recours à Internet va rendre ce marché très dynamique.
·       L’automobile. Ce sont des enjeux colossaux. D’ici cinq ans 30 % des voitures circulant seront connectées. L’objectif est de baisser de 20 % le nombre des accidents. Il y a plus de 20 millions d’accidents dans le monde chaque année. Ceci se fera en contrôlant mieux la vitesse (25 % des accidents), l’alcoolisation des conducteurs (20 % des accidents) et le refus de priorité (14 % des accidents). Le coût des accidents est en France de 22 milliards d’euros. L’enjeu est de 4,4 milliards d’euros sans compter les vies sauvées.
A terme l’automobile sera une plateforme qui va intégrer un nombre croissant de processeurs (les « computing units » évoqués précédemment), chacun ayant une fonction simple comme l’ABS ou l’allumage des codes. On est passé de 4 processeurs à 14. A court terme il y en aura 50 puis il faut envisager qu’il y en aura 5.000 à l’horizon de 5 ans. Un véhicule comme la voiture autonome de Google en marche produit déjà 1 Gbits de données par seconde. Comment gérer ce type de réseau ? Le groupe Volkswagen y travaille au sein d’un consortium d’industriels dans le cadre du projet Eureka-ITEA et vient de finaliser un standard de communication des éléments de la plateforme automobile.

Développer la confiance

Comme beaucoup d’activités humaines le développement de l’Internet des Objet repose sur le développement de la confiance. La capacité à définir des règles du jeu claires est confrontée à des obstacles culturels, juridiques et administratifs ou encore des passages à l’échelle industrielle. Les GAFA arrivent à les diffuser largement. Dans les objets de l’internet des objets les capteurs sont invisibles ou quasiment invisibles et les traitements se font sur le cloud. Cette opacité n’est pas favorable au développement de ces technologies et de leurs usages. Il est nécessaire de créer de la transparence, règle d’or dans toute communauté virtuelle.
C’est le rôle des différents opérateurs et notamment de ceux qui gèrent le réseau. Un très bon exemple est donné par Sigfox qui est une entreprise toulousaine. Elle est leader mondial de réseau bas débit et basse fréquence pour connecter des objets (voir Wikipédia). Les opérateurs téléphoniques sont dans une course sans fin aux débits : après la G2 et la G3, aujourd’hui c’est la G4 et le LTE, demain ce sera la G5. Sigfox a misé dès le départ sur le bas débit (l’Ultra Narrow Band). Son réseau couvre aujourd’hui la France et six pays : le Royaume-Uni avec Arquiva, l’Espagne avec Abertis Telecom, les Pays-Bas avec Aerea, la Russie avec Mirconet et le Portugal avec NarrowNet.
Ces réseaux autour de l’internet des objets vont avoir un impact sur l’industrie du paiement : Mastercard, Visa,… Intel s’intéresse de plus en plus à ce marché. On va voir apparaître ces objets curieux. Ainsi Amazon a lancé le bouton « Dash ». Lorsque le niveau de lessive est faible il suffit d’appuyer le bouton se trouvant sur l’emballage. Amazon prend en charge la commande et livre la boite de lessive à l’adresse habituelle dès le lendemain matin.
Mastercard mise sur la montre connectée  alors que American Express mise sur le bracelet utilisé pour suivre le rythme cardiaque et le nombre de foulées ( le « Jawbone’s UP3 fitness tracker » ) lorsque l’utilisateur fait son jogging et qu’il veut s’acheter une bouteille d’eau ( ). Ceci dit au même moment le porte-monnaie électronique Moneo jette l’éponge. 
L’internet des objets transactionnels pourrait émerger comme la nouvelle vague de profusion des usages et de propositions de valeurs…

Les enjeux stratégiques considérables

Face à ces mutations les analyses des penseurs du management sont faibles. Ainsi Michael Porter, pape du management stratégique, a identifié quatre capacités clés des objets connectés à Internet et à des bases de données exploitées par le Big Data :
·       La surveillance grâce à des capteurs pour faire, par exemple, de la médecine préventive.
·       Le contrôle en exploitant ces données par des algorithmes se trouvant dans le produit ou dans le cloud.
·       L’optimisation de l’utilisation des objets à partir des données produites.
·       L’autonomie des objets grâce à l’intelligence artificielle permet d’atteindre un important niveau d’indépendance.
C’est intéressant mais ce n’est pas de loin suffisant, l’article de HBR France d’avril 2015 date malheureusement de près de 2 ans illustrant l’inertie de la production de la connaissance avec des comités de lectures traditionnels.
Deuxième constatation : le piratage des données. La sécurité des données est un enjeu majeur. Ce risque est accru par la pratique du BYOD, c’est-à-dire que les personnes utilisent leurs smartphone et leur ordinateur pour gérer des applications professionnelles et aussi effectuer des utilisations personnelles. 30 % des salariés français consultent et modifient des documents professionnels sur leur propre ordinateur ou leur tablette. Le nombre des malwares augmente. En un an, de 2013 à 2014 ils sont passés de 19,5 à 37 millions. Les attaques visent les points de ventes, les couches de transport et de sécurité d’Internet (SSL et TLS) et les systèmes de supervision industrielle type SCADA.
En fait, un des points clé va être le développement des investissements dans les actions préventives concernant la santé. On estime en France ces dépenses d’investissement préventif à 2,1 % du total des dépenses de santé alors que dans l’union européenne elles sont de 2,9 %. Mais en Finlande ils sont de 5,4 %. Comme on le voit il y a une marge de progrès importante. 

Conclusion

Dans les années à venir on va assister au choc de la monétique et du transactionnel dans l’internet des objets. Elle repose sur une architecture technique basée sur des datacenters situés dans le cloud et nécessite des efforts de sécurité importants. Elle va permettre de développer une puissante approche transactionnelle et on va assister au développement de crypto-monnaie avec des « blocks chains » venant « disrupter » les institutions financières. L’observateur averti aura reconnu le poids structurant d’ Ali-Pay d’Ali-Baba qui a aujourd’hui dépassé Pay-Pal et qui est prédominant dans l’e-commerce chinois.
L’autre phénomène clé est le fait que les objets connectés vont produire de grandes quantités de données (données massives : big data). La data est au cœur de la mutation en cours. Les systèmes vont enrichir les données quantitatives par de nombreuses données non-structurées. Un nouveau paradigme va compléter l’approche des données structurées du canal historique pour lesquelles les référents de mesure de la valeur sont établis  mais bien insuffisants pour décrire les effets encore inconnus des nouveaux gisements à libérer.

A chaque grande révolution a son utopie,voire sa gouvernance utopique.


Vos commentaires et vos remarques sont les biens venus