Pages

dimanche 5 novembre 2017

Mettre en œuvre DevOps

La fin du Fordisme en informatique

 Par Alain Sacquet

DevOps est un mot à la mode. Malheureusement chacun a tendance à lui donner un sens différent souvent très loin de ce que ce concept recouvre réellement. Ce terme a été inventé par Patrick Debois en 2009 à Gand. Pour populariser cette démarche il a organisé des conférences : les devopsdays. Cette nouvelle approche du développement informatique a connu rapidement un réel succès, notamment Outre-Atlantique.
Malheureusement on ne sait toujours pas très bien ce que recouvre ce terme. Ainsi Jez Humble a constaté que les promoteurs de DevOps ont « toujours - intentionnellement - manqué de définition ou de manifeste ». Ceci est peut-être dû au fait Patrick Debois n’a jamais donné une définition de ce concept, pas plus qu’il n’a écrit un Manifeste comme ce fut le cas pour les Méthodes Agiles, ni produit un référentiel de la gestion de projet comme PMBok, Prince 2 ou CMMI. Il n’y a pas non plus cherché à établir un recueil de bonnes pratiques comme COBIT qui tend à ressembler à une lettre au Père Noël. Malgré cette absence de définition le terme s’est rapidement popularisé car il correspond à une réelle demande.
Différents promoteurs de DevOps se sont exercés, avec plus ou moins de bonheur, à rechercher une définition de cette notion. Ainsi le même Jez Humble a proposé comme définition : « DevOps est un mouvement regroupant des personnes soucieuses de développer et d'exploiter à grande échelle des systèmes fiables, sécurisés et performants. » Il a précisé que c’est : « une communauté de pratiques interdisciplinaires dédiée à l'étude de la construction, de l'évolution et de l'exploitation de systèmes résilients évoluant rapidement à grande échelle ». C’est intéressant mais c’est encore un peu imprécis. Gene Kim a été plus loin en affirmant : « nous considérons que DevOps est le résultat de l'application des principes du Lean au flux de valeur informatique ».

Tentative de définition de DevOps

En fait l’idée est de s’y prendre de manière différente par rapport à l’approche traditionnelle de l’informatique. C’est une manière disruptive de travailler. Dans ces conditions on peut définir la démarche DevOps comme une manière de construire un système permettant d’avoir ensuite des évolutions rapides et d’avoir un système résilient. L’idée clé de cette approche consiste à chercher à produire des évolutions en continu.
Cette approche consiste, selon Gene Kim, à appliquer à l’informatique des principes du Lean Manufacturing en travaillant la « value stream » afin d’améliorer de manière continue les systèmes d’information. Pour cela on va s’attacher à effectuer en continu des séries de changements ponctuels.

Analyse du problème

L’informatique fonctionne de manière traditionnelle en mode silo avec un mur séparant les Etudes et l’Exploitation. C’est le mur de la confusion. Ceci est dû au fait que les objectifs de ces deux unités sont très différents. Les équipes de développement sont orientées vers le changement alors que les équipes d’exploitation sont préoccupés par la stabilité des systèmes.
Le Mur de la confusion
Apparemment cette organisation et notamment l’existence des silos est incontournable. Ceci explique les nombreux incidents apparaissant lors de la mise en production d’une nouvelle application ou d’une nouvelle version d’une application ancienne. Ils se traduisent par des tensions, voir des conflits. Mais en réalité c’est une fausse opposition car elle est due aux choix d’organisation lié à l’existence de deux équipes différentes.
Pour éviter ces difficultés il est nécessaire de supprimer le mur de la confusion. Pour cela il est nécessaire de refondre l’approche classique allant de l’expression des besoins à la mise en œuvre de l’application opérationnelle.
Pour améliorer « l’IT value stream » la réponse de DevOps est de :
-       Faire changer l’état d’esprit des équipes informatiques en changeant leur culture,
-       Développer la communication en cherchant à court-circuiter la hiérarchie, si c’est nécessaire,
-       Concevoir des systèmes facilement déployables, facile à étendre en fonction des besoins des utilisateurs et simples à exploiter,
-       Mettre à la disposition des informaticiens, les outillages puissants et efficaces.  
La démarche est ce qu’on appelle dans le domaine du mangement le « time to value ». Pour cela on doit s’attacher à mettre sous contrôle l’ensemble de bout en bout des processus.

L’approche Lean

Cette première approche intéressante mais elle ne règle pas le problème. Pour y arriver il est nécessaire d’aller plus loin dans la démarche en la combinant avec une approche de type Lean (Pour en savoir plus sur l’approche Lean sur Wikipédia cliquez ici). Pour cela on va s’attacher aux points suivants :
-       S’attacher à créer de la valeur pour le client en identifiant précisément ce qu’il attend et ce qui représente de la valeur pour lui.
-       Lutter contre les activités inutiles. Pour cela on va analyser les étapes successives du processus qui aboutissent à la création du produit ou du service puis on va s’attacher à supprimer toutes les étapes qui ne créent pas de valeur. On ne doit garder que ce que le client est prêt à acheter,
-       Supprimer les gaspillages. Pour cela on va s’assurer que les étapes restantes s’enchaiîent de façon fluide, sans gaspillage, ni stock intermédiaire, avec l’objectif d’accélérer au maximum le temps d’exécution du processus complet.
-       Éliminer les fonctionnalités qui ne serviront à rien et que personne n’utilisera en demandant au client d’intervenir tout au long du processus, plutôt que d’engager les travaux de réalisation sur la base de prévisions faites au moment de la commande. On ne réalise que ce que le métier est prêt à signer.
-       Rechercher perpétuellement la perfection qui n’est atteinte que lorsque la valeur est fournie instantanément et sans gaspillage. Il faut pour cela travailler à flux tiré.
C’est la réalisation effective de la promesse faite par le DevOps. Cela représente un changement profond des méthodes de travail traditionnelle. Pour apprécier l’importance de ces changements un exemple permettra de mieux comprendre leur importance.

Un exemple troublant

Imaginer un travail consistant à effectuer dix fois trois opérations successives simples consistant à réaliser un dessin sur une feuille de papier, puis la plier et enfin mettre sous enveloppe cette feuille. Deux solutions sont possibles :
-       Effectuer d’abord les dix dessins, puis faire les dix pliages et enfin mettre sous enveloppe les dix pages,
-       Faire un premier dessin, le plier et le mettre sous enveloppe puis ensuite faire un deuxième dessin, le plier et les mettre sous enveloppe et ainsi de suite.

Question simple : quelle est la solution la plus productive ?

La plupart des personnes pensent que la première solution est la meilleure grâce à la division du travail mais l’expérience montre qu’en fait la seconde est plus productive que la première. La raison est que la solution de type Lean est plus efficace car on supprime les stocks intermédiaires. De plus cette démarche facilite les changements en cours de production.

Cet exemple d’une très grande simplicité est troublant car toute la théorie managériale repose sur des concepts comme la division du travail, le taylorisme, … et cela nous induit en erreur

« La théorie c’est quand on a tout compris mais que rien ne marche. La pratique c’est quand tout marche mais on ne sait pas pourquoi »
                                                                                              Albert Einstein

Or justement l’expérience montre qu’en traitant une à une les trois opérations on obtient très vite des résultats. C’est un premier type de gain. Mais le véritable avantage tient à la gestion des incidents. Lorsque l’opérateur rencontre des problèmes dans le processus il lui est possible de les corriger rapidement. Il est ainsi possible d’éviter de devoir refaire une partie du travail déjà réalisé (le « reworking »).
Concrètement, en informatique, cela se traduit par un changement dans la démarche de travail usuelle. Traditionnellement on a une approche monolithique. La gestion de projet se fait étape par étape : on commence par effectuer l’expression des besoins, puis on effectue l’analyse fonctionnelle puis, quand elle est validée, on passe à la programmation, puis quand elle est terminée on effectue des tests. C’est une approche en mode palier. On effectue une chose après l’autre. Malheureusement cette démarche est lourde et lente. Pour éviter ces inconvénients il est nécessaire d’avoir une autre approche plus modulaire.

Une approche pièce à pièce

Pour éviter les gros projets monolithes il faut aller vers une démarche pièce à pièce. Cela consiste de traiter complètement une fonctionnalité, aussi complexe soit elle, de l’expression du besoin par l’utilisateur, à sa réalisation, à ses tests et à sa mise en production avant de passer à la fonctionnalité suivante. C’est le meilleur moyen d’optimiser le fonctionnement de l’usine informatique (IT Factory). Pour comprendre cela un exemple simple permet d’apprécier le phénomène
Lorsqu’on observe une autoroute on constate que les voitures circulent sans peine malgré un forte circulation puis soudain on constate que sans raisons les voitures s’arrêtent. Pour comprendre les bouchons il est nécessaire de prendre en compte trois facteurs :
-       Le débit. Il est mesuré par le nombre de voitures passant devant un compteur rapporté à l’unité de temps, par exemple 100 véhicules par minute.
-       La densité du trafic. Elle est appréciée par le nombre de véhicules se trouvant sur une distance donnée. Lorsque la distance moyenne entre chaque véhicule diminue la densité du trafic augmente et le risque d’embouteillage s’accroît.
-       La vitesse moyenne des voitures. Elle est stable pendant un certain temps puis soudain elle diminue et fini par s’effondrer. Lorsque la densité du trafic augmente la vitesse du flux de voitures diminue.
L’embouteillage survient lorsque le trafic est près de la saturation et que soudain un conducteur change de comportement : il freine car son téléphone sonne ou qu’un enfant pleur à l’arrière de sa voiture. Les conducteurs qui suivent freinent à leur tour et très vite le trafic se bloque.
On observe le même phénomène dans une usine fonctionnant à la chaîne : plus le débit augmente plus le risque de saturation est élevé. Lorsque un incident survient tout se bloque. Il en est de même dans le cas d’une équipe informatique. Normalement tout se passe bien mais lorsque cette dernière s’approche de la saturation et si un problème apparaît on assiste alors à un blocage et cela se traduit par une forte dégradation de la productivité. Une méthode de développement agile comme Scrum cherche à limiter les causes de ce type d’embouteillage (Pour en savoir plus sur Scrum sur Wikipédia cliquez ici). Dans cette approche on mesure la vélocité de l’équipe. Elle est mesurée à chaque Sprint. Plus on fait des Sprints courts meilleure est la fluidité de l’activité.  
La démarche pièce à pièce doit suivre les mêmes principes. Ses résultats sont simples :
-       La qualité des applications ainsi développées doit être meilleure,
-       La productivité des équipes informatiques doit s’améliorer,
-       La réactivité lors de l’apparition de nouveaux besoins doit s’améliorer.

Instrumenter la démarche

Pour y arriver il est nécessaire d’industrialiser la démarche DevOps en se dotant d’outils puissants et efficaces comme, par exemple, l’automatisation des tests. Dans une démarche classique la phase de tests est toujours trop lourde et comme en général le projet est en retard on la réduit au strict minimum. Ceci fait que les applications sont mises en production alors qu’elles sont imparfaitement testées.
Dans le cadre de la démarche DevOps on fait exactement le contraire. On teste le code tout au long du processus. Dès que le développeur a rédigé un ensemble cohérent de lignes de code on le test. Et pour améliorer la situation, dans la mesure du possible on cherche à automatiser les tests.
Il est pour cela nécessaire de concevoir l’application de façon à ce qu’elle soit facilement testable. La solution consiste à prévoir la testabilité dès la conception de l’application. De même il est nécessaire d’avoir un système de production fiable et notamment qu’il soit, en cas d’incident, facilement réparable comme ça été le cas de l’observatoire satellitaire Hubble. Un point clé de sa conception a été sa grande sûreté de fonctionnement. La Nasa a conçu le satellite pour être réparable. Lorsque elle s’est aperçue après son lancement que Hubble était myope il a suffi de concevoir sur terre les pièces nécessaires (les fameuses lunettes correctrices) et en quelques heures les astronautes ont réalisé la réparation dans l’espace.
Il est nécessaire d’arriver à la même situation en informatique. L’objectif est d’arriver à une production qui s’exécute sans anicroche. Si un incident survient il doit être rapidement résolu. C’est particulièrement le cas des sites de commerce électronique qui fonctionnent 24 heures sur 24, 365 jours par an.
Pour s’assurer de la fiabilité des applications et de l’installation il est nécessaire de mettre en place une procédure de « Chaos Monkey ». Celle-ci permet de provoquer des pannes aléatoires et de voir ce qui se passe. L’objectif est de rendre les systèmes d’information résilients. Le Chaos Monkey permet de s’assurer qu’en cas d’incident il ne se passe rien de grave et que la production continue sans observer de dégradation significative de la qualité de service.
Pour piloter le bon fonctionnement des systèmes d’information il est nécessaire de disposer de quelques mesures suffisantes permettant de constater que le service fourni est satisfaisant. On va pour cela suivre les temps de réponse, la charge transactionnelle, la taille des files d’attente, le nombre d’incidents, le nombre de processeurs actifs, …. Ces indicateurs doivent être pertinents et une personne, ou mieux un automate intelligent, doit en permanence les suivre pour, le cas échéant, intervenir.
Pour mettre en place la procédure de développement DevOps il est nécessaire de dégager dans l’ensemble des demandes des utilisateurs de petits incréments et de travailler séparément sur chacun d’entre eux. Dans le cadre de la méthode Scrum on cherche à avoir des Sprint de 15 jours. L’expérience montre que ce cadencement n’est pas un optimum et il faut chercher à réduire ce délai. L’idéal est d’emmener le code en production tous les jours quitte à masquer les développements inachevés. Le code rédigé dans la journée est immédiatement testé et, dans la foulée, mis en production. Les GAFA procèdent de cette manière et ceci explique, en grande partie, leur réactivité.
La principale contrainte freinant cette démarche est due aux bases de données. Chacun sait qu’il est toujours difficile de modifier la structure d’une base de données. Pour éviter ces difficultés on ne supprime pas et on ne modifie pas une colonne mais on ajoute de nouvelles colonnes à la base. Cela permet d’éviter la plupart des incidents et de faire des changements au fil de l’eau. Si on souhaite modifier une colonne on garde l’ancienne et on ajoute une nouvelle colonne. Ensuite, quand les modifications ont été faites et qu’elles marchent convenablement et qu’on n’a plus besoin de l’ancienne colonne il est alors possible de la supprimer.
Comme on le voit DevOps, c’est, en fait, une autre manière de travailler.

Le temple de Toyota

La démarche que nous venons de décrire est l’application fidèle à l’informatique de la démarche d’amélioration de Toyota appelée le modèle TPS qui décrit le système de production de Toyota (Toyota Production System). Le Lean Manufacturing s’appuie sur deux piliers :
-       Le juste à temps en charge de la productivité,
-       Le « Jidoka », ou autonomation, en charge de la qualité.
C’est ce que montre le schéma ci-dessous qui décrit ce qui est souvent appelé le Temple de Toyota.

Le temple de Toyota
Le « juste à temps » de la démarche de Lean Manufacturing, voir la colonne de gauche du temple ci-dessus, s’intéresse à la performance du processus par la maîtrise du flux de transformation. Il ne s’agit pas d’expliquer la nature des activités successives qu’il convient d’effectuer, mais de réfléchir à l’organisation de ces tâches pour traiter le plus grand nombre de besoins et créer ainsi le maximum de valeur pour le client avec un effort minimal.
La solution consiste à évaluer la séquence d’activité du point de vue de la création de valeur pour le client, supprimer les gaspillages (surproduction, attentes, rebuts-corrections, gammes opératoires mal adaptées, les transports/ruptures de flux, les mouvements inutiles et les stocks), supprimer des goulets d’étranglements, diminuer la taille des lots jusque au pièce à pièce et constituer des unités autonomes de production (ou équipes intégrées).
Le deuxième pilier du Lean Manufacturing poursuit la qualité et veille à ce qu’aucune cause de défaut ne perdure dans le processus de fabrication, c’est la colonne de droite du temple.

L’évolution des équipes

Pour mettre en place le DevOps il est nécessaire de changer la mentalité des personnels de l’informatique, que ce soit les développeurs ou les exploitants. C’est probablement un des points les plus délicat car il y a de mauvaises habitudes et il est nécessaire de les changer. Ainsi on a poussé les personnes à se spécialiser à outrance. Il faut au contraire développer la poly-compétence afin que chacun soit capable de faire de la conception, de la réalisation, des tests, la mise en production et de l’exploitation. Idéalement, toutes ces compétences sont réunies au sein de chaque équipe devenue autonome dans la satisfaction des besoins de leur métier utilisateur. Reste encore à ce que les différentes équipes fonctionnent sans qu’elles s’attendent les unes les autres et finissent par ralentir l’allure globale du projet.
Ces ralentissements peuvent venir de ce que certaines fonctions sont communes à toutes les équipes. Il est nécessaire alors de les codévelopper et de fusionner les modifications de chacun tous les soirs. Cette discipline connue sous le nom d’intégration continue permet la mise en production quotidienne de ce qui a été programmé et testé au cours de la journée. C’est du développement à haute fréquence.
On va ainsi aller progressivement vers un mode de développement intégré. Il concerne un grand nombre d’applications dont les sites Web et notamment l’amélioration des pages Web, les prototypes, le Big Data, …
Pour que chaque application puisse aller en production à son initiative, il faut que le respect des interfaces des autres applications suffise à garantir que l’on ne prend pas de risque sur le comportement business des processus transversaux aux dites applications. Ce n’est pas le cas lorsque l’architecture ancienne réalise un couplage trop fort et trop fragile entre les différentes applications ou leur différents modules applicatifs. Dans ce cas, on est obligé d’organiser ou de maintenir des rendez-vous d’intégration pour s’assurer que les nouvelles applications, chacune dans leur nouvelle version, fonctionnent correctement avec leurs sœurs siamoises. Cette caractéristique définit les monolithes applicatifs pour lesquels le fonctionnement en palier doit être maintenu : une mise en production globale en « big bang » suit le rendez-vous d’intégration.
Les applications métiers anciennes peuvent être des monolithes mais ce n’est pas toujours le cas. De même les ERP peuvent poser des problèmes d’intégration mais ce n’est pas une fatalité. Dans SAP, par exemple, la notion de « transport » peut permettre le fonctionnement en mode pièce à pièce jusqu’à la mise en production. On doit dans tous les cas essayer de multiplier les mises en production pour diminuer la taille des lots d’évolution, quitte à s’écarter d’un fonctionnement à haute fréquence.
Comme le montre le schéma ci-dessous de la pyramide digitale de la DSI Inclusive il est nécessaire de faire coexister dans les équipes informatiques trois modes de développement.


D’un côté il y a le mode prototype et le mode DevOps qui sont très voisins et s’adressent à des applications digitales mais aussi des applications traditionnelles qui ont été rendues modulaires et peuvent être modifiées et améliorées par incrément de code.
De l’autre il y a les applications traditionnelles que les anglo-saxons appellent les « légacy », souvent écrites en Cobol, et qui doivent être gérées selon le mode classique. Cependant, au fur et à mesure des travaux de réécriture, il est souhaitable de les faire migrer vers une architecture modulaire de façon à évoluer ensuite en mode DevOps.


vendredi 2 juin 2017

Est-ce que les robots tuent des emplois



Est-ce que les robots (ou l’IA) suppriment des emplois ?


Le débat est ancien mais il a été remis au gout du jour par l’élection présidentielle. Il est étonnant de voir la diversité des études, les différences dans les résultats et les grands écarts dans les interprétations. Essayons d’y voir clair et de comprendre les points essentiels.

Les études
L’étude mise en lumière par Benoit Hamon est celle de Frey et Osborne (2013) qui est résumée brutalement dans la presse par « les robots vont supprimer 47% des emplois ». Comme il est dit dans le titre elle porte sur les emplois susceptibles d’être fortement impactés voir supprimés par la technologie dans 20 ans. Les auteurs font un remarquable travail de décomposition d’emplois et d’analyse de l’impact de la technologie sur ces derniers. Avec cette méthode, dans d’autres pays, le pourcentage résultant est différent. En janvier 2017 et en France, le Conseil pour Orientation et l’emploi a repris ce principe pour une étude sur les tâches et non plus sur les emplois et là le pourcentage de disparition tombe à 9%.
Ces deux études sont très sérieuses et bien faites, elles ne sont pas appuyées uniquement sur un modèle mathématique et elles sont prospectives : « comment les technologies peuvent supprimer ou impacter fortement des emplois ou des tâches » en revanche, elles ne disent rien de ce qui se passe à côté (emplois créés ailleurs par la technologie) et elles raisonnent toujours « toutes choses égales par ailleurs » c’est-à-dire sans prise en compte des nouveaux secteurs, des développements de pays ou de nouvelle donnes écologiques.

Une étude du MIT relance le débat en mars 2017 : chaque robot détruit 6 emplois. Il s’agit ici d’une étude rétrospective et mathématique qui observe l’évolution du marché du travail de 1990 à 2007 dans chaque secteur d’activité qui a été robotisé. Un solide modèle mathématique est mis au point de manière sérieuse en prenant soin d’éviter les effets perturbateurs des autres facteurs de destruction d’emplois (importation ou offshoring). Mais comme les deux premières études prospectives, une faiblesse est la même : on regarde à un endroit (ce qui est entré dans le modèle mathématique) et pas partout. De plus, avec ce raisonnement (un robot détruit 6 emplois) nous devrions avoir en France moins de chômage qu’en Allemagne car nous avons beaucoup moins de robots.

Enfin le 3 avril 2017, une autre étude sérieuse prétend que les robots créent de l’emploi en Grande Bretagne ! Mais il s’agit là uniquement de déclaratif de responsables d’entreprises et c’est plus l’analyse sur la formation et l’impact social qui est ici pertinente.

Enfin n’oublions pas qu’une étude, même économique, mathématique et sérieuse, peut donner des résultats faux. On se souvient du bel exemple de l’étude de 2013 liant dette publique et récession.

Un vieux débat
Comme me l’a appris mon ami Claude Salzman, économiste et spécialistes de l’informatique, le débat sur l’impact des technologies sur l’emploi date de la révolte des luddites qui a précédée celle des Canuts en France. En modernisant les outils, on augmente la productivité donc a priori on supprime des emplois. Là où il fallait 3 ouvriers, s’il n’en faut plus que un, on a donc supprimé 2/3 des emplois : CQFD. Mais il faut tenir compte de la fabrication de ces outils modernisés (les métiers à tisser pour les Canuts) qui va demander de nouveaux ouvriers. De plus, l’augmentation de la productivité va (ou peut) créer de la richesse qui va augmenter la consommation et donc créer de l’emploi. La pure logique mathématique qui semble si évidente n’est donc pas toujours correcte.

Le même mode de raisonnement s’applique aux travaux agricoles où la taille des exploitations augmente, la main d’œuvre agricole diminue et la productivité augmente. Donc un homme seul peut cultiver toujours plus d’hectares en utilisant toujours plus de technologies (du tracteur jusqu’aux drones). La question de l’impact sur la santé et l’environnement est là si évidente qu’elle ne peut être oblitérée.

On voit sur ces exemples, que des emplois sont détruits mais que d’autres sont créés et que l’augmentation de la productivité est à prendre en compte. Quatre questions sont alors toujours posées par l’utilisation de la technologie sur l’emploi :
1.      Combien de créations d’emplois pour combien de destruction ?
2.      Quelles sont les compétences requises pour occuper ces nouveaux emplois ? Les ouvriers de l’ancien système peuvent-ils, en étant formés, travailler sur le nouveau système ? A-t’on le système de formation continue adéquate ?
3.      Où sont créés les nouveaux emplois ? Les ouvriers licenciés pourront-ils physiquement occuper ces emplois ? Quels est l’impact à l’international ?
4.      Si la technologie augmente la productivité et crée de la valeur ajoutée, quel est l’impact positif sur l’emploi ?

De nouvelles questions sont posées en 2017
On parle de technologie, d’informatique, de robots et d’Intelligence Artificielle (IA) en mettant tout dans le même sac. Est-ce exact ? L’IA n’a-t ’elle pas des caractéristiques différentes ? Combien d’emplois peuvent être supprimés dans un Call Center par l’utilisation d’un système intelligent de SAV ? D’un autre côté, combien de personnes sont capables de fabriquer un agent intelligent basé sur du « deep learning » ou du « quantum learning ».

La vision sociale et écologique est toujours absente de ces débats comme si on n’avait pas le choix et qu’il fallait forcement et toujours privilégier le robot à l’humain si c’est possible et moins cher. N’a-t’on vraiment pas le choix ? Ne peut-on écarter des nouveautés technologiques si elles produisent plus de dégâts que d’améliorations. N’y a-t-il pas d’autres solutions aussi innovantes mais moins couteuses pour l’environnement. On peut voir, par exemple, les expérimentations de permaculture dans le domaine agricole.

Enfin la taxe sur les robots est-elle vraiment une idée absurde ? La taxe carbone si difficilement et parcimonieusement mise en œuvre a aussi été jugée absurde dans les premiers débats. L’idée de taxer ce qui détruit un bien de la société n’est pas à rejeter à priori et sans autre argument que « c’est absurde » ou « cela va grever la compétitivité ». Et quand Bill Gates défend cette idée, on est en droit juste de réfléchir sans a priori.

En étant un peu plus intelligent, j’ose croire qu’on peut faire bouger les lignes et ne pas subir l’équation qui semble implacable : la technologie tue ou va tuer l’emploi.
Bernard Quinio

mercredi 24 mai 2017

L’avenir de l’emploi face au développement du numérique

par Claude Salzman 

Il est frappant de constater que la rapide développement du numérique provoque chez un certain nombre d’observateurs et de commentateurs des interrogations. Les nouvelles technologies comme l’Internet des Objets, les robots, l’Intelligence Artificielle, …. vont amener un chômage croissant. Un des candidats à la dernière élection présidentielle à même proposé de taxer les robots. Le débat est ancien. Il existe depuis les débuts de la révolution industrielle. Les machines auraient été la cause du chômage et d’une paupérisation croissante. La mise en œuvre de nouvelles technologies serait la cause d’un chômage massif : le chômage technologique. Avant l’explosion récente du numérique le même débat a existé à propos de l’informatique classique.
En remontant dans le temps on se rappelle que dans l’antiquité Aristote justifiait l’esclavage en écrivant dans La Politique que : « si les navettes tissaient toutes seules ; si l’archet jouait tout seul de la cithare, les entrepreneurs se passeraient d’ouvriers, et les maîtres, d’esclaves » ([1]). Lorsque John Kay a inventé la navette volante en 1733 on aurait pu s’imaginer qu’il ne serait plus nécessaire d’avoir des ouvriers-tisserands (Pour savoir plus sur la vie deJohn Kay cliquez ici). Mais ce n’est pas ce qui s’est passé. Aujourd’hui l’industrie textile emploi dans le monde 30 millions de personnes auquel s’ajoutent entre 60 et 75 millions de personnes produisant des vêtements. La navette volante n’a pas fait disparaître les personnels du secteur textile au contraire il a permis leur démultiplication.  
L’impact des gains de productivité sur l’emploi est une vieille et délicate question. Est-ce que le progrès technique crée ou supprime des emplois ? Les pessimistes annoncent le développement d’un chômage de masse et la fin du travail alors que les optimistes imaginent un monde de loisirs sans fin. Les économistes, plus prudents, citent Joseph Schumpeter et parlent de « destruction créatrice ».   

L’avenir du travail

Ce débat est en grande partie lié à la montée depuis quarante ans d’un chômage endémique et notamment depuis la crise de 2008. Ce mouvement semble inéluctable. Les nombreuses politiques publiques lancées depuis des années semblent avoir peu d’effet sur cette vague déferlante. Le plein-emploi serait-il un rêve impossible à atteindre ?
Très vite on a accusé les progrès de productivité d’être responsable de cette situation. Ils seraient la principale cause du chômage de masse en oubliant que des pays voisins qui ont bénéficié des mêmes gains n’ont pas eu à faire face à un chômage de masse et certains s’approchent même du plein-emploi.
Dans ces conditions on s’interroge s’il restera demain du travail pour tous. C’est la grande peur de ce début du 21ème siècle. Mais ces craintes ne sont pas nouvelles. Déjà, au 19ème siècle on craignait la machine mangeuse d’hommes comme aujourd’hui on a peur des robots destructeurs d’emploi. Demain, rendus intelligents grâce à l’Intelligence Artificielle, les robots remplacerons les hommes dans les usines, les commerces, les bureaux, …. Même les métiers intellectuels comme les médecins, les avocats, les architectes, … sont menacés. Un futur bien sombre s’annonce.

Le paradoxe de la productivité et de l’emploi

Il est couramment admis que : « Les gains de productivité permettant de réduire le nombre de personnes employées et sont donc la cause du chômage ». Depuis l’invention des machines au début de la révolution industrielle l’idée que la machine tue l’emploi revient régulièrement. La révolte contre les machines est celle des Luddites dans le Lancashire en Grande Bretagne en 1811-1812 (Pour en savoir plus, cliquez ici  la version anglaise est plus complète, cliquez ici ). En France on se souvient surtout de la Révolte des Canuts qui fut marqué par la destruction des métiers Jacquard([2]) en 1831 et en 1834 à Lyon (Pour en savoir plus, cliquez ici ) ([3]).
Mais est-on certain que les gains de productivité sont la cause du chômage de masse ? Un petit calcul simple montre que ce raisonnement apparemment juste est quelque part inexact. Au début de la Révolution Industrielle, en 1830, la population active française était de 13 millions de personnes. De 1830 à 1990, soit pendant 160 ans, la productivité a augmentée de 1,5 % par an soit sur l’ensemble de la période, soit un multiplicateur de 13 (1.300 %). Dans ces conditions quel devrait être la population active en 1990 ?
Un raisonnement simple consiste à diviser la population active de 1830, soit 13 millions de travailleurs, par 13, les gains de productivité entre 1830 et 1990, et d’en déduire qu’en 1990 la population active en France serait de seulement 1 million de personnes. Malheureusement, ou plutôt heureusement, elle est de 27,4 millions de personnes en 1990. Non seulement la population active n’est pas tombée à 1 million de personnes mais elle a doublé en 160 ans pour atteindre 27,4 millions de personnes, soit une augmentation de la population active au rythme de 0,45 % par an. Comme on le voit les gains de productivité ne suppriment pas des emplois mais au contraire qu’ils constituent un moyen puissant d’en créer.

Les gains de productivité créent l’emploi

Ainsi, entre 1860 et 1990 la productivité a augmenté de 1.300 % soit une moyenne de 1,5 % par an. Mais cela ne s’est pas traduit par une baisse massive de la population active mais au contraire par son augmentation de l’ordre de 0,5 % par an. Non seulement les gains de productivité ne se traduisent pas par un chômage technologique de masse mais au contraire créent de l’emploi.
En fait on assiste au processus inverse. La baisse des gains de productivité crée du chômage et l’augmentation de la productivité crée de l’emploi. Au cours des trente glorieuses, entre 1951-1973, la France a connu des gains annuels de productivité de 5,2 %. C’est la période de plus forte croissance de la productivité de son histoire. Or, durant ces années la France a connu un quasi plein emploi et n’a pu faire face aux besoins de main d’œuvre de l’économie qu’en recourant à une politique d’immigration massive.
Evolution de la productivité en France et aux USA de 1985 à 2009
Par contre, phénomène préoccupant, on observe depuis quelques décennies une baisse du taux de croissance de la productivité. Au cours de la période 1985-1995 elle était de 1,9 %, puis elle est passée à 1,6 % pour la période 1995-2005 pour finalement tomber à 0,7 % pour la période 2005-2009. Cette tendance est inquiétante, cependant elle doit être relativisée car au cours de cette période il y a eu la crise de 2008-2009. Selon France Stratégie cette baisse est pour l’essentiel lié à la quasi-disparition des gains de productivité liés les « secteurs des utilisateurs des TIC ». Les progrès technologiques n’ont pas eu de conséquence négative sur l’emploi mais au contraire ils ont été au cœur des mécanismes de création d’emplois. Le ralentissement des gains de productivité s’est traduit par  une croissance économique insuffisante et à amener une augmentation significative du niveau de chômage. L’observation montre qu’un taux de croissance de 1 % de croissance inférieur à la croissance d’équilibre de l’ordre de 1,5 % à 2 %se traduit par une augmentation de l’ordre de 100.000 chômeurs.
Contrairement à ce qui est souvent dit, malgré la crise l’économie française a continué de créer des emplois ([4]) mais cela n’a pas été suffisant pour éviter une augmentation du chômage. Seul des gains de productivité plus importants auraient pu freiner la croissance du chômage, voire de réduire son niveau.

Le contexte du débat

Le débat sur l’impact de l’informatique sur l’emploi n’est pas nouveau. Depuis l’apparition des premiers ordinateurs au début des années 50 on discute (et on se dispute) sur leur impact économique. Certains sont enthousiastes sur les possibilités offertes alors que d’autres mettent en avant les risques liés aux nouvelles technologies.
En fait deux doctrines s’opposent :
·    Les pessimistes avec Robert Solow, Robert Gordon, … Ils affirment que l’informatique ne permet pas de dégage des gains de productivité significatifs.
·     Les optimistes avec Paul Strassmann, Erik Brynjolfson, Andrew McAfee, Jack Triplett, Paul David, …. Ils considèrent que les gains liés à l’informatique sont massifs, même si on n’est pas toujours capable de les mesurer.
En arrière-plan de ces débats on trouve trois sujets différents :
·   L’identification des facteurs de la croissance économique. Pendant longtemps les économistes ont ignoré la croissance économique. Ils considéraient qu’une éventuelle augmentation de la richesse ne pouvait qu’être transitoire mais cette situation allait rapidement se stabiliser. Un grand nombre d’économistes classiques et néo-classiques dans la ligne de David Ricardo et de Thomas Malthus ont, dès le 19ème siècle, assuré qu’à terme l’économie finira par un « état stationnaire ». Il a fallu attendre l’après-guerre pour qu’ils commencent à s’intéresser à la croissance économique et au développement.
·    Un certain nombre d’auteurs pensent que la période de croissance économique est terminée. Le plus connu est Larry Summer qui a repris la veille théorie d’Alvin Hansen sur « la stagnation séculaire » qu’il avait énoncé en 1938.
·    Les robots et l’Intelligence Artificielle menacent l’emploi et se traduisent par le développent d’un chômage de masse. C’est la veille crainte de la machine mangeuse d’homme.
La conjonction de ces trois sujets explique le regain du débat sur la productivité et sur la transformation du numérique.

L’origine du débat : l’article de Robert Solow en Juillet 1987

Le débat sur l’impact de l’informatique a émergé avec la publication d’un article de Robert Solow paru dans la New-York Book Review en Juillet 1987 (Pour avoir le texte de cet article cliquez ici). Cette article n’avait rien à voir avec l’informatique. C’était le compte-rendu de lecture d’un livre : « The mythe of the Post-Industrial Economy » de Stephen Cohen et John Zysman. A la fin de l’article et de manière incidente il faisait la remarque suivante : « You can see the computer everywhere but in the productivity statistics », « vous pouvez voir les ordinateurs partout sauf dans les statistiques de productivité ». La phrase a fait mouche. On l’a appelé le Paradoxe de Solow. Très vite une polémique s’est élevé autour de cette affirmation un peu brutale. Son impact est dû au fait que Robert Solow a reçu le Prix de Nobel d’économie pour avoir formulé en 1956 un des premiers modèles de croissance basé sur les relations entre 5 équations (Pour en savoir plus cliquez ici ).

L'article de Robert Solow de Juillet 1987 dans la New-York Book Review
Il est vrai, qu’en 1987, il y a 30 ans, on ne disposait alors que d’un nombre restreint de statistiques sur l’informatique et encore moins de mesures sur son impact économique. On ne disposait que de monographies et d’enquêtes qui avaient du mal à donner une réponse précise à la question posée.

La réponse d’Erik Brynjolfsson après quatre ans de réflexion

Il a fallu attendre quatre ans pour qu’en 1991, un jeune universitaire d’Harvard, Erik Brynjolfsson, ose s’opposer à l’affirmation de Robert Solow et encore de manière très respectueuse dans un article intitulé : « The Productivity Paradox of Information chnology : Review and Assessement » (Pour avoir le texte de cet article cliquez ici ). Il commence par analyser les nombreuses études disponibles à cette époque sur ce sujet. Il constate qu’aucune n’arrive à démontrer une liaison positive entre les dépenses informatique en capital et les gains de productivité de l’entreprise ou du secteur d’activité. Il attribue cette difficulté à différentes causes : la médiocrité des mesures, le décalage entre le moment de l’investissement et celui de la constatation de ses effets, les erreurs du management, … Il en conclut que pour répondre au Paradoxe de Solow il serait nécessaire d’améliorer les statistiques disponibles sur ce sujet.

Première page de l'article d'Erik Brynjolfsson
Erik Brynjolfson a depuis écrit un livre très intéressant sur ce sujet en collaboration avec Andrew McAfee : « The second machine age ». Ce livre est une approche très favorable à la technologie et à ses impacts sans pour autant arriver à démontrer leur effet sur la productivité.

Robert Gordon : l’informatique ne dégage pas de gains significatifs

Plus récemment la polémique a été relancée par un autre professeur d’économie, Robert Gordon, qui affirme, dans un article : « Is US Economic Growth Over : Faltering innovation confronts the six Headwings » (Pour avoir le texte de cet article cliquez ici ) que l’informatique n’a pas eu d’effet significatif sur la croissance américaine, que les gains de productivité diminuent et que la période de croissance économique globale est terminée. A une vision très négative succède une vision très optimiste.
Il distingue trois révolutions industrielles. La première est celle de la vapeur, du coton et des chemins de fer. La seconde est celle de l’électricité, des moteurs à combustion interne et de l’eau courante dans les maisons. La troisième, qui commence dans les années 1960, est celle de l’informatique et d’Internet. Autant les deux premières révolutions ont bouleversé l’économie et a profondément transformé les sociétés autant la troisième « n’a pas fondamentalement changé la productivité du travail ».  
Première page de l'article de Robert Gordon
Robert Gordon va plus loin et annonce la fin de la croissance à cause d’une baisse rapide de la productivité du travail qui était égale à 2,3 % par an au cours de la longue période allant de 1891à 1972 puis est tombée à 1,4 % dans la période allant de 1972 à nos jours et notamment depuis 2010 où elle est tombée à 0,5 %. Ceci est dû aux TIC qui n’ont pas produit de gains de productivité. Il constate que toutes ces innovations n’ont pas permis de réduire de manière significative le volume de main d’œuvre. Tous les nouveaux produits et les nouveaux services ont été adoptés avec enthousiasme mais ils n’ont pas eu d’effet mesurable sur la croissance économique.
Dans les années à venir cette dernière est fortement comprise par un certain nombre de « headwinds » (vents contraires) : la baisse du temps de travail et l’abaissement de l’âge de la retraite, la baisse du niveau scolaire, l’augmentation du coût des études supérieures, l’accélération de la globalisation à cause des TIC, la très faible croissance du niveau de vie de 99 % de la population, …. Au final chaque facteur ampute la croissance de 0,2 % à 0,5 % par an et il ne reste qu’un taux de croissance résiduel très faible. Ceci explique selon Robert Gordon la médiocre croissance constatée ces dernières années ([5]).

Le rapport Frey et Osborne

Ce débat sur la productivité est intéressant mais il ne permet pas de répondre à la question clé sur l’évolution de l’emploi. Va-t-on vers une baisse du volume global de l’emploi et particulièrement une disparition des emplois peu qualifiés ? Les développements des robots et de l’Intelligence Artificielle relance ce vieux débat.
Une première réponse à cette question a été donnée en 2013 par deux chercheurs de l’Oxford Martin School : Carl Frey et Michael Osborne. Le « Martin » du centre de recherche Oxford Martin School est le James Martin bien connu de tous les informaticiens. Il était anglais, et non américain comme cela a été souvent écrit. Avant de mourir il fait deux dons pour créer ce centre l’un de 60 millions de livres et l’autre de 50 millions de dollars (Pour en savoir plus cliquez ici ).
La démarche suivie par Carl Frey et Michael Osborne dans leur rapport « The Future of employment : how susceptible are jobs to computerisation ? » (Pour avoir le texte de ce rapport cliquez ici ) est très différente de celle suivie par Erik Brynjolfsson et de Robert Gordon. Au lieu de chercher à cerner l’impact des TIC sur la productivité du travail et donc sur l’emploi ils ont une approche différente. Ils s’efforcent de mesurer l’impact des processus d’informatisation sur les métiers et leur éventuelle disparition.

Première page du rapport Frey et Osborne
La démarche de Frey & Osborne

Face à l’émergence du Machine Learning et des robots mobiles leur objectif est de chercher à estimer le type et le nombre de tâches susceptibles d’être impactées par l’ensemble des technologies informatiques et donc le nombre d’emplois qui vont être supprimés ([6]).
Pour cela Frey et Osborne ont développé une méthodologie originale permettant d’évaluer la probabilité qu’a un travail donné puisse être supprimé. Elle est basée sur la matrice de David Autor. Celle-ci distingue les tâches routinières et les tâches non-routinières et de même les tâches manuelles et les tâches cognitives. Ce dernier terme est un peu ambigu. Il regroupe des tâches faisant appel à des connaissances, à des capacités créatives ou à une forte interaction avec le public. Le tableau de David Autor comporte quatre cases. Les tâches de la colonne de gauche sont les plus facilement substituables notamment les tâches manuelles.

Matrice de David Autor
Ils ont appliqué cette matrice aux emplois des USA. Ils ont pour cela utilisé la version 2010 de la base O*NET gérée du Département du Travail US qui analyse 903 métiers en distinguant différentes variables permettant de les caractériser en veillant à ce qu’elles soient mesurables. Ils ont isolé 702 métiers et mis en avant neuf variables mesurant les connaissances et les expériences nécessaires pour exercer un métier donné : la dextérité des doigts et de la main, les « contorsions nécessaires pour exercer le travail », la capacité à développer des idées, les connaissances artistiques, la capacité à comprendre les réactions d’autrui, la capacité de négociation et de persuasion, et la faculté de prendre soins des autres.
A partir de cette base Frey et Osborne ont conçu un algorithme permettant d’évaluer la probabilité d’automatisation d’un métier donné selon le nombre de variables faisant apparaître son caractère automatisable. Chaque métier est ainsi doté d’une note comprise entre 0 et 1. Dès que 70 % des tâches d’un métier donné sont automatisables il est appelé à disparaître.

Les conclusions du rapport Frey & Osborne

Sur cette base ils constatent que 47 % des emplois existants aux USA présentent une probabilité élevée d’être supprimés à l’horizon de 20 ans ([7]). Ainsi plusieurs dizaines de millions de salariés risquent de se retrouver au chômage ([8]). En Grande Bretagne ce pourcentage est plus faible et il n’est que 35 %. En France le cabinet Roland Berger, avec la même méthodologie, a estimé que 42 % des emplois sont menacés.
Les métiers les plus menacés selon Frey et Osborne sont les vendeurs, les caissiers et les employés de bureau, voir le tableau ci-dessous. D’ici 20 ans, aux USA, ils auront complètement disparus. Ces trois métiers représentent 10 millions d’emplois. On a du mal à imaginer des commerces sans aucun vendeur, des supermarchés sans caissières et des bureaux sans employés. De même 5 millions de serveurs de restaurants et de commis de comptoir vont disparaître. A cela s’ajoute 3,3 millions de comptables et 1,8 million de secrétaires vont être supprimés.

Les 15 métiers qui seront supprimés d'ici 20 ans
Pour illustrer ce phénomène Frey et Osborne ont réaliser un très beau graphique multicolore. Il est très joli et a été souvent repris. Mais, honnêtement, il n’est pas franchement clair. A gauche il y a les métiers peu ou pas menacés. A droite il y a les 47 % d’emploi menacés. Cela ne veut pas dire grand-chose mais c’est si joli. « It’s so British ».
Probabilité de disparition des métiers selon Frey et Osborne
Panique à bord

Il est probable que peu de gens ont lu l’intégralité des 72 pages du rapport Frey et Osborne, mais cela n’a pas empêché de nombreux commentateurs de reprendre le chiffre de 47 % pour étayer leurs sombres pronostics et inquiéter un grand nombre de personnes. Ainsi le Guardian a commencé le bal en titrant en juin 2014 « Docteurs robots, juristes on-line et architectes automatisé : quels futurs pour ces professions ? ». Plus récemment le Monde du 14 mars 2017 a consacré un article de deux pages à : « Tertiaire : vers la fin du travail ? » et d’annoncer la fin des agences bancaires, des caissières de supermarché et des agences de voyages. Le Gartner, qui n’en loupe pas une, en rajoute une louche en annonçant qu’outre les avocats et les médecins qu’une grande partie des informaticiens vont disparaître. Pour le Gartner leur métiers vont disparaître dans les cinq ans à venir : les DSI doivent « identifier les métiers de l’IT voués à devenir une commodité et anticiper un calendrier de cette bascule ». Le ballet des prévisions mortifères continu.
C’est un curieux mélange de sombres prévisions et de craintes millénaires autour de trois grands thèmes :
·     L’Intelligence Artificielle et les robots vont remplacer les hommes pour effectuer tous les types de travaux y compris les plus « nobles ».
·     C’est la fin du travail et tout le monde va bientôt être au chômage. On craint depuis des siècles la Saint Barthelemy des humains par les robots, elle est pour demain ([9]).
·       C’est la fin des temps heureux de l’opulence, de la croissance et de l’amélioration régulière du niveau de vie.
Malheureusement ces menaces n’existent que dans l’esprit de leurs auteurs. La réalité est bien loin de ces affirmations. Non seulement l’emploi des robots ne supprime pas des emplois mais au contraire il en crée. En France on utilise 69 robots industriels pour 10.000 salariés alors qu’en Allemagne il y a 301 soit quatre fois plus. Or le taux de chômage allemand n’est pas supérieur à celui de la France, mais au contraire il est nettement plus faible : 3,9 % contre 9,6 %. A méditer.
Quant aux progrès de l’IA cela fait 40 ou 50 ans que ses défenseurs annoncent régulièrement que des progrès significatifs viennent d’être réalisés. Rappelez-vous tout ce qui a été dit et écrit sur le langage Prolog, le LISP, les systèmes experts, la 5ème génération, les agents intelligents, …. A chaque fois ils ont affirmé avoir trouvé la solution et à chaque fois, à l’expérience, on s’est aperçu que ce n’était pas encore la bonne solution. Cela ne veut pas dire qu’il n’y a pas d’applications réussie de l’IA mais en ce domaine il est conseillé d’être prudent (Sur le sujet de l’histoirede l’Intelligence Artificielle cliquez ici )
Ceci montre, une fois de plus, qu’avec quelques chiffres, isolés de leur contexte, on peut libérer tous les fantasmes même les moins rationnels.

Le rapport de COE (Conseil d’Orientation pour l’Emploi)

Le Conseil d’Orientation pour l’Emploi a, au bout de quatre ans, décidé de réagir au rapport de Frey & Osborne en publiant au début de 2017 un intéressant contre-rapport : « Automatisation, Numérisation et emploi » «  Tome 1 : les impacts sur le volume, la structure et la localisation de l’emploi » (Pour avoir le texte de cerapport cliquez ici
Première page du rapport de la COE : "Automatisation, numérisation et emploi"
Le rapport du COE commence par présenter une intéressante synthèse du débat sur l’emploi et la technologie. Nous sommes dans une phase d’accélération du rythme d’apparition des technologies informatiques or le débat sur l’impact économique du progrès technique sur l’économie est très ancien. Dans ces conditions il est toujours difficile d’apprécier l’impact de l’automatisation et la numérisation sur la structure et le volume de l’emploi.
Pour comprendre cette situation le rapport analyse 19 études rétrospectives et prospectives faites sur ce sujet ces dernières années et notamment le rapport Frey et Osborne. Il est intéressant de noter que sur ces études analysées il n’y a que 3 études de prospectives. Manifestement il est plus facile d’analyser le passé que de prévoir le futur.
Manifestement comme le disait jadis Pierre Dac : « La prévision est difficile surtout lorsqu’elle concerne l’avenir ». Or il est intéressant de constater que les 16 études rétrospectives aboutissent à la même conclusion : « Les études empiriques rétrospectives sur la France au cours des trente dernières années tendent à montrer que les innovations technologiques ont eu globalement un effet positif sur l’emploi ». Mais, curieuse coïncidence, les études prospectives sont pessimistes. Manifestement on a du mal à tirer voir le futur de manière positive et de tenir compte des leçons du passé.
Le rapport du COE se penche en détail la méthode de calcul suivie et n’hésite pas à critiquer la démarche du rapport d’Oxford. Sa plus grande faiblesse est de raisonner par métier et non par tâches. Or les nouvelles technologies impactent des tâches. Elles vont permettre d’automatiser certaines tâches alors que d’autres vont rester comme elles sont. Des tâches, jusqu’alors mineures, vont prendre une importance croissante. Ceci fait que le contenu des métiers change dans le temps : des tâches peuvent disparaître et de nouvelles apparaître. Mais les métiers ne vont pas pour autant disparaître.
Autre phénomène important négligé par Frey et Osborne, l’existence de « des goulets d’étranglement de la frontière technologique » qui se traduisent par des pénuries de main d’œuvre dans des métiers très évolutifs. Dans ces conditions des tâches peuvent être supprimées ou automatisées.
Enfin, curieusement pour des anglais, ils ignorent la contrainte de la rentabilité. Certaines tâches peuvent être techniquement automatisables mais ne le sont pas faute de rentabilité.
Sur la base de ces constatations le COE propose sa propre évaluation des emplois menacés en cherchant à pallier aux insuffisances des études prospectives précédentes et notamment celle de Frey et Osborne. Pour cela il se base sur l’enquête « Conditions de Travail » faite par la DARES du Ministère du Travail faite en 2013 ([10]). Cette enquête faite tous les sept ans en face à face. L’édition 2013 a été faite auprès de 28.000 personnes (Pour avoir plus de détails sur l’enquête Conditions de travail cliquez ici :  ). On demande à chaque personne de décrire leur activité professionnelle et notamment il décrit les tâches effectuées en mettant en avant leurs caractéristiques. A partir de cette base le COE calcule un indice d’automatisation des métiers compris entre 0 (pas de risque) et 1 (emploi très exposé) en se basant sur les réponses à 17 questions dans l’industrie et à 12 questions dans le Services. On obtient une distribution asymétrique avec à droite un faible nombre de métiers menacés par l’automatisation des tâches et à gauche tous les métiers peu ou faiblement impactés.

Distribution de l'indice d'automatisation
On aboutit à des chiffres nettement plus raisonnables que ceux de l’étude de Frey et Osborne. La COE estime que moins de 10 % des emplois sont « exposés » et près de 50 % des emplois sont susceptibles de voir leur contenu évoluer dans les années à venir. De plus, les termes ont un sens, « exposé » ne veut pas dire que ces emplois seront supprimés mais qu’ils sont menacés.
Dans ces conditions la liste des métiers les plus exposés ci-dessous font apparaître des différences significatives par rapport à l’étude Frey et Osborne. Les professions les plus menacés sont les ouvriers (industrie de process, manutention), les agents d’entretien, les cuisiniers et les aides ménagères, les jardiniers, les conducteurs de véhicules, les ouvriers du bâtiment (qualifiés et non-qualifiés), … Ce sont pour l’essentiel des activités de main d’œuvre peu qualifiées. Ce qui est assez logique car l’automatisation concerne surtout les tâches de routines et les travaux faits hors de tout contact avec des tiers.
Liste des métiers les plus exposés
Comme on le voit l’enjeux mis en avant par le rapport de la COE et le niveau de risques ne sont pas les mêmes que dans l’étude de Frey et Osborne. En France la population active au travail est de 25,5 millions d’emploi ([11]). Les emplois menacés, en suivant le pourcentage de 47 % mis en avant par l’étude Frey et Osborne, seraient de l’ordre 12 millions de personnes ([12])([13]) alors que dans l’étude du COE 2,5 millions de personnes sont exposés. Etalée sur 20 ans cela fait 125.000 personnes par an. C’est un volume limité tel qu’une économie dynamique doit pouvoir absorber ce flux.

Quelques observations concernant sur l’étude du COE

On notera que l’étude du COE pas plus que l’étude anglaise ne prend pas en compte les créations d’emploi induite par la transformation numérique. Ils concernent principalement trois secteurs :
·       Les services informatiques, les sociétés de service, les éditeurs de logiciels… Cela représente entre 20.000 et 30.000 emplois crées par an.
·       Les utilisateurs et notamment les responsables des Systèmes d’information se trouvant dans les métiers et leurs équipes. Ce sont notamment toutes les personnes qui vont prendre en charge la transformation numérique. Ces effectifs sont plus difficiles à évaluer mais il est possible qu’ils soient de l’ordre de 50.000 à 100.000 personnes par an, si ce n’est plus si le rythme de la transformation s’accélère.
·       Les nouveaux métiers et les nouvelles activités. Ce sont les start-up mais aussi les spin-off des grandes entreprises. Sur la base de 1.000 entreprises crées par an réussissant effectivement leur démarrage cela représente entre 10.000 à 20.000 nouveaux emplois créés par an.
On est globalement dans une fourchette de 80.000 à 150.000 personnes et probablement avec un chiffre moyen de l’ordre de 120.000 personnes par an, soit un chiffre sensiblement voisin du nombre d’emplois menacés. Par contre ces nouveaux emplois ne correspondent pas aux mêmes qualifications ni aux mêmes niveaux de revenus. On supprime des emplois à faible valeur ajoutée pour les remplacer par des emplois à forte valeur ajoutée.
Autre silence notable de cette étude : rien n’est dit sur la période de transition et notamment le chômage lié à la phase de reconversion. Or il peut exister des écarts significatifs entre le volume d’emploi supprimé et celui d’emplois créés qui peuvent se traduire par un chômage temporaire ou, à l’inverse, par des pénuries de main d’œuvre.
De plus on raisonne comme si la population active était stable or nous l’avons vu (4) elle augmente régulièrement. Mieux, au cours des 7 dernières années on a assisté à une augmentation des effectifs de 1,5 % alors qu’on a connu une crise particulièrement. Si une croissance solide revient on peut estimer que la population active va augmenter à un rythme plus élevé.
En réalité, la simulation du COE, comme l’étude de Frey et Osborne, ignore le phénomène de déversement de la population active qui, depuis plus de deux siècles, va des secteurs à faible productivité vers des secteurs plus efficaces. Au cours de la deuxième partie du 20ème siècle le nombre d’agriculteurs est passé de 10 millions en 1945 à moins d’un demi-million aujourd’hui. Ces personnes sont passés à l’industrie, puis plus récemment vers les services. C’est un processus fondamental expliquant une grande partie de la croissance de productivité globale et donc le montant de la valeur ajoutée par tête créée et finalement la croissance globale constatée depuis la 2ème Guerre Mondiale.

Quelques réflexions pour conclure

Comme on le voit la prévision des évolutions de l’emploi est un exercice difficile, particulièrement en matière de qualification et de métier. Ceci est probablement dû aux silences de la théorie économique concernant ce domaine ([14]). Il est aussi très difficile de prévoir l’évolution du chômage. Récemment des hommes politiques ont longtemps attendu le « retournement de la courbe du chômage » comme les peuples primitifs attendaient l’arrivée de la pluie. Mais rien ne s’est passé comme prévu.
Or depuis huit ans on assiste à une montée inéluctable du chômage et on est tenté de croire qu’elle est inéluctable. On a recherché des boucs émissaires (L’Europe, la Chine, les technologies,…) et on a oublié qu’il est essentiellement lié à des causes économiques :
·    Pendant la période qui a suivi la crise la population active disponible a augmenté. Seul problème, le taux de croissance de l’économie française n’a pas été depuis suffisante pour créer suffisamment d’emplois.
·   Cette faible croissance s’est accompagnée d’une baisse du rythme de croissance de la productivité en France. Le ralentissement est important. Durant les trente glorieuses la productivité augmentait de 5,2 % par an, dans les années 75-85 elle était de 3,1 %, de 1986-2002 elle est de 2,1 % et entre 2003 et 2014 elle est tombé à 0,7 %. Cette évolution est assez préoccupante.
Cette baisse est due à la conjonction de quatre facteurs :
-     La crise de 2008-2009 a été suivie d’une période de faible croissance entre 2012 à 2014. Il a fallu attendre le 1er trimestre 2016 pour que le PIB/tête retrouve son niveau d’avant la crise.
-    La faiblesse du niveau des investissements constaté depuis une dizaine d’année et notamment à la suite de la crise. La baisse a été brutale, de l’ordre de 12 %. Ensuite, la reprise des investissements a été lente et hésitante. C’est tout particulièrement le cas des TIC.
-  Les hésitations du management en ce qui concerne les priorités en matière d’investissement. En général, il a une forte tendance à considérer queles TIC sont accessoires ou secondaire. Or l’observation de nombreuses économies notamment celles des pays d’Europe du Nord, de Grande-Bretagne, des USA (et tout particulièrement de la Californie) montre que l’investissement dans les TIC est un des moteurs essentiels de la croissance.
-     Les grandes entreprises sont les principaux investisseurs mais depuis une vingtaine d’année elles concentrent leurs investissements hors de France de façon à arriver à avoir une taille mondiale. De ce fait elles n’investissent que le strict nécessaire en France.
La conjonction de ces quatre facteurs explique en grande partie la baisse du taux de productivité et l’importance du taux de change. La bonne nouvelle est que ces quatre facteurs sont réversibles. Pour débloquer la situation il suffit de déterminer des politiques claires et les faire appliquer. Les entreprises sont de plus en plus décidées à engager leur transformation vers le numérique. Cela devrait être un facteur d’accélération des investissements dans les TIC, de la croissance économique et donc de l’emploi.
Pour conclure il est possible de faire deux autres constations importantes. Contrairement à ce qui est souvent affirmé et répété il n’existe pas de lien à long terme entre les gains de productivité et la diminution du volume de l’emploi. L’expérience montre qu’au contraire ces gains permettent de développer l’emploi. Autre constatation importante : il existe un lien fort entre les gains de productivité et l’augmentation de la valeur ajoutée créée par salarié. C’est la base même du phénomène de la croissance économique. Faute de tenir compte ces deux règles la croissance du PIB risque de stagner entre 1 et 1,5 % et le chômage restera à l’actuel niveau élevé.





[1] - Aristote La Politique : Livre I, Chapitre II, page 13.
[2] - Contrairement à une idée couramment acceptée les Canuts ont surtout revendiqué un salaire garanti face à des négociants qui répercutaient toujours à la baisse les fluctuations du marché et « oubliaient » de les remonter à la hausse. Les bris de machine n’était qu’une des manifestations de la révolte et les métiers de Jacquard n’ont été particulièrement la cible des Canuts mais l’image est restée.
[3] - Mais ce n’est pas la première révolte ouvrière contre les machines. Il y a eu en 1744 à Lyon, en 1749 à Lodève, en 1788-1789 à Sedan, Saint-Etienne, Rives et Rouen, en 1819 à Vienne, en 1819-1823 à Clermont-l’Hérault, à Alençon et Lodève.
[4] - Entre 2008 et 2015, donc pendant les années de crises et la période de faible croissance qui a suivi la population active est passée de 26.338.000 à 26.741.000 soit une augmentation de 403.000 personnes.
[5] - Il est curieux de constater que Robert Gordon semble oublier qu’en 2008-2009 le monde, et en particulier les USA, ont connu la plus grave crise économique qui soit jamais survenu, pire que celle de 1929.
[6] - Il est à noter qu’ils ne s’intéressent pas au nombre d’emplois qui vont être créé par les nouvelles technologies.
[7] - Une baisse de 47 % en 20 ans correspond à une baisse annuelle de 3,2 %.
[8] - La population active des USA en 2016 est de 162,8 millions de personnes. Les 47 % d’emplois menacés représentent 76,5 millions de personnes. On se rappellera qu’en 1990 la population active des USA était de 128,2 millions de personnes. En 28 ans on a assisté à une progression de 27 % ce qui représente une croissance annuelle de 0,86 % malgré la forte diffusion des nouvelles technologies au cours de cette période et non une baisse considérable de la population active comme auraient plus le prévoir en 1989 des Frey et Osborne s’ils avaient existé en ce temps-là.
[9] - Ainsi Stephen Hawking pense que les machines vont un jour devenir plus intelligentes que les humains et vont finir par les exterminer. En 2015, Bille Gates, Elon Musk et Bill Joy ont fait part des mêmes craintes. Il ne faut pas confondre leurs protestations avec la pétition  signée par Stéphane Hawking, Elon Musk, Steve Wozniak, Noam Chomsky,… contre les robots tueurs actuellement testés par les armées (Pour lire la pétition cliquez ici) qui sont effectivement conçus pour tuer des humains. Certains prophètes auto-proclamés comme Moshe Vardi annoncent l'intelligence artificielle va rapidement mettre 50% de l'humanité au chômage ce qui pose la question de la survie de l'espèce humaine. Frissons garantis.
[10] - DARES : Direction de l'Animation de la Recherche, des Etudes et des Statistiques du Ministère du Travail.
[11] - A ces 25,5 millions d’actifs au travail s’ajoute 2,9 millions de chômeurs pour faire un total d’actif de 28,4 millions de personnes. 
[12] - 12 millions d’emplois supprimés en 20 ans cela fait un volume de 600.000 personne par an. C’est beaucoup.
[13] - Si on prend le pourcentage de l’étude du cabinet Roland Berger calculé pour la France, 42 %, cela correspond à 10,7 millions d’emplois supprimés.
[14] - Ainsi, aucune théorie économique explique l’augmentation ou une baisse de la population active. Quant aux variations du chômage on connait la loi d’Okun (Pour avoirplus de détails sur cette loi voir Wikipédia cliquez ici) mais, bien que datant de 1962 elle n’est pas encore généralement adoptée.