Photo Dossier copyright Tim LiC’est une étude de l’Université d’Oxford qui l’annonçait en 2013 : l’évolution des technologies numériques pourrait avoir des conséquences majeures sur le marché du travail. Dans les décennies à venir, un emploi sur deux serait ainsi menacé par les robots. Cette vision est toutefois à relativiser. Elle se base en effet sur une conception trop simpliste du travail. L’expérience l’a montré : les innovations technologiques n’ont pas toujours conduit aux prévisions alarmistes attendues. Et si pareil discours n’avait pour unique but que de faire accepter des conditions d’emploi plus défavorables aux salariés ?


D’ici quinze à vingt ans, entre un tiers et la moitié des emplois seraient fortement menacés par une nouvelle génération de robots et de technologies numériques : 47 % aux États-Unis, 54 % dans l’Union européenne, 35 % en Belgique ou en Allemagne. Les médias ont abondamment relayé ces prévisions pessimistes 1 provenant d’une série de consultants ou de bureaux d’études, qui s’appuient tous sur un même document de travail publié à l’automne 2013 par deux chercheurs du programme de recherche sur les impacts des technologies du futur de l’Université d’Oxford, Carl-Benedikt Frey et Michael Osborne 2.
Pour analyser le bien-fondé de ces prévisions, il faut décortiquer les hypothèses et la méthode d’estimation utilisées par Frey & Osborne. Tout d’abord, qu’est-ce donc que cette nouvelle génération de technologies numériques ? On peut la caractériser par deux mots : convergence et performance.
La convergence s’observe dans l’intégration croissante de diverses technologies qui font de plus en plus partie de notre univers quotidien : l’omniprésence d’Internet, les applications mobiles sur les smartphones et les tablettes, la géolocalisation permanente, le stockage massif de données dans les emplacements virtuels (le « cloud »), l’interconnexion d’objets via Internet et la sollicitation continue à agir et interagir via les outils numériques. Les entreprises de l’économie digitale ont accumulé une quantité gigantesque de données numérisées (« big data ») sur nos habitudes de consommation, de déplacement, de loisirs et de communication, tout en capitalisant un patrimoine énorme de textes, d’images, de sons et d’archives de toutes sortes, depuis la littérature et les arts jusqu’à la cartographie, les codes juridiques et les bases de données scientifiques et médicales. Une nouvelle génération de logiciels de fouille de données (« data mining ») permet aujourd’hui d’extraire, à partir de ces données massives, des modèles de comportement, des profils de consommateurs, des modèles de déplacement, des cartes d’interaction, des raisonnements juridiques, des diagnostics médicaux, des simulations énergétiques ou environnementales, etc.
La performance, quant à elle, se mesure à la capacité d’exploiter et de modéliser cette quantité gigantesque de données grâce à des algorithmes informatiques de plus en plus puissants. Il ne s’agit pas seulement de faire réaliser, par des ordinateurs, des exploits de sport cérébral au jeu d’échecs ou au jeu de go. Il s’agit aussi de domaines tels que la reconnaissance et la synthèse de la voix, la reconnaissance des formes, la vision numérique à trois dimensions, la perception des distances et des volumes. Qu’ils aient ou non une apparence humanoïde, les nouveaux robots voient, se déplacent, communiquent et apprennent par essai et erreur. Dans leur ouvrage Le deuxième âge de la machine 3, Erik Brynjolfsson et Andrew McAfee caractérisent les progrès actuels par cette formule : « peu à peu, puis tout d’un coup ». En termes mathématiques, on parlera d’une croissance exponentielle des performances. Un exemple : les logiciels classiques de traduction étaient des outils linguistiques informatisés, qui travaillaient à partir de règles de sémantique et de syntaxe connues des experts en linguistique. Aujourd’hui, un logiciel de traduction travaille tout autrement : il analyse instantanément un corpus énorme de documents numérisés dans toutes les langues, dont le volume dépasse très largement l’entendement humain, et cherche dans ce corpus la traduction la plus vraisemblable.
La puissance économique des grands acteurs de l’économie digitale (les « GAFA » [Google-Apple-Facebook-Amazon], mais aussi Microsoft et toujours IBM) tient à leur maîtrise de la convergence et de la performance.
Ce n’est plus dans les usines de montage automobile qu’il faut aller observer les dernières générations de robots. Allons plutôt dans le secteur de la logistique, dans un entrepôt d’Amazon, par exemple. Les colis, les véhicules, les structures d’entreposage et, bien entendu, les salariés, sont devenus des objets communicants, truffés de puces et de capteurs, localisés et orientés en permanence. Ils sont suivis tout au long de la chaîne d’approvisionnement et de livraison 4.

Les hypothèses de travail

Frey et Osborne ont élaboré un modèle qui calcule, pour 700 métiers figurant dans la classification américaine des professions, la probabilité qu’un emploi soit remplacé par un ordinateur ou un robot. Ils partent de l’hypothèse suivante : traditionnellement, on considère que les emplois les plus exposés à l’informatisation sont ceux qui comportent des tâches routinières, qu’elles soient manuelles (des opérations d’usinage ou d’assemblage, par exemple) ou intellectuelles (le calcul du remboursement d’un prêt, la rédaction d’une police d’assurance, etc.). Aujourd’hui, les performances exponentiellement croissantes des technologies numériques laissent entrevoir, à un horizon d’une ou deux décennies, la possibilité d’informatiser et de robotiser des tâches non routinières, comportant une dimension cognitive importante ou une dimension intuitive.
Deux domaines technologiques sont privilégiés par les chercheurs d’Oxford : les machines apprenantes et la robotique mobile. Sous l’appellation « machines apprenantes », les auteurs englobent tous les dispositifs, matériels ou immatériels, qui exploitent les données massives, la vision électronique, la reconnaissance des formes et des langages, l’intelligence artificielle, et qui sont capables d’améliorer eux-mêmes leurs performances en fonction d’une analyse de leur expérience. Sous la dénomination « robotique mobile », les auteurs font non seulement allusion à la capacité des robots de se déplacer dans des environnements complexes, mais aussi à leur capacité de communiquer avec des objets connectés répandus dans leur environnement (« Internet of things »). Selon ces termes, la voiture sans conducteur de Google est un robot mobile, par exemple.
Ce sont les machines apprenantes et la robotique mobile qui vont permettre de transformer des tâches cognitives en tâches routinières, donc informatisables. Ainsi, les nouveautés à attendre dans l’informatisation des tâches cognitives non routinières concernent le repérage et la correction d’erreurs d’encodage, la réduction des erreurs humaines dues à une maîtrise imparfaite de l’information, l’élaboration de diagnostics techniques, juridiques ou médicaux, l’automatisation de procédures administratives, le remplacement des tâches d’inspection et de surveillance par des capteurs, la production et la traduction de textes standardisés (modes d’emploi, communiqués de presse, courrier officiel). Dans l’informatisation des tâches manuelles non routinières, les nouveautés concerneront la maintenance d’installations techniques, la logistique, la conduite de véhicules (notamment les véhicules industriels et agricoles, avant l’automobile). Pour ce qui concerne les tâches manuelles routinières, qui sont actuellement automatisées et/ou délocalisées dans des pays à bas salaires, les auteurs envisagent que la diminution future du coût des machines apprenantes et mobiles pourrait rendre la robotisation plus rentable que la délocalisation lointaine.
Toutefois, les possibilités techniques de la substitution du travail par les machines sont limitées par ce que les auteurs appellent les « goulots d’étranglement de l’ingénierie », qui sont les tâches pour lesquelles la technologie n’est pas assez compétitive par rapport à l’être humain.
Ils identifient trois types de goulots d’étranglement :
Les tâches de perception et de manipulation : les limites concernent les tâches non structurées ou les environnements non structurés, les environnements exigus ou désordonnés, la finesse des perceptions sensorielles, la réaction aux imprévus. Cependant, les progrès en matière de capteurs et de reconnaissance des formes font reculer constamment ces limites.
Les tâches d’intelligence créative : des robots ou des logiciels peuvent faire d’eux-mêmes des choses nouvelles, mais cette créativité ne se substitue pas à la créativité humaine, elle l’enrichit.
Les tâches d’intelligence sociale : tâches relationnelles ou émotionnelles, de négociation, de persuasion, de soins personnels, de conversation non codifiée.
« La diminution future du coût des machines apprenantes et mobiles pourrait rendre la robotisation plus rentable que la délocalisation lointaine. »

Cette vision du travail révèle une grande ignorance (ou alors un mépris profond) par rapport aux sciences de l’organisation et aux sciences du travail. Une tâche ne peut être définie que par rapport à une organisation collective, à des modalités de spécialisation ou de polyvalence qui peuvent varier considérablement d’une entreprise à l’autre. Tout savoir-faire professionnel, pratique ou abstrait, comporte à la fois une dimension individuelle et collective, toutes deux construites par l’expérience et l’interaction. L’organisation du travail est aussi le fruit de rapports de force entre acteurs. Mais pour Frey & Osborne, tout se réduit à la technologie...

La méthode et les résultats

Le modèle élaboré par les chercheurs d’Oxford utilise les descriptions de tâches de la classification nord-américaine des professions, qui diffère de la classification ISCO de l’Organisation internationale du travail (OIT) utilisée en Europe. Il repose sur un échantillon de 702 métiers, qui représentent environ 90 % des emplois aux États-Unis en 2010. Le modèle calcule une probabilité de substitution du travail par le capital, en tenant compte, dans chaque métier, de deux types de tâches (substituables et non substituables). Les tâches non substituables sont celles pour lesquelles il existe au moins un des trois goulots d’étranglement de l’ingénierie. Il s’agit d’une logique typiquement technocratique : dès qu’un emploi est considéré comme techniquement substituable, les auteurs supposent qu’il le sera tôt ou tard.
Les résultats distinguent trois catégories de métiers : ceux qui ont une faible probabilité de substitution par la machine (probabilité inférieure ou égale à 30 %), une probabilité moyenne (entre 30 % et 70 %) et une forte probabilité (supérieure ou égale à 70 %). Les premiers représentent 33 % des emplois en 2010 aux États-Unis, les seconds 19 %, les troisièmes 47 %. C’est ce dernier chiffre qui explique le message « un emploi sur deux menacé par les robots ».
Les emplois à forte probabilité de substitution par l’informatisation ou la robotisation se trouvent dans les métiers suivants : production industrielle en grande ou en petite série, logistique et manutention, transports, travail de support administratif, services domestiques et commerce (caisses, réassort, comptoir, télémarketing).
Les emplois à probabilité moyenne de substitution sont ceux pour lesquels un des goulots d’étranglement de l’ingénierie. subsistera au cours des deux prochaines décennies, même si des progrès seront effectués, notamment dans le domaine de la perception et de la manipulation. On y trouve notamment les métiers de l’installation, de la maintenance et de la réparation d’équipements industriels, professionnels, domestiques, etc. Leur degré de substitution dépendra aussi de la restructuration des tâches dans ces métiers, car une simplification des procédures peut mener à une substitution plus facile.
Les emplois à faible probabilité de substitution sont ceux dans lesquels les tâches d’intelligence créative et/ou d’intelligence sociale resteront dominantes au cours des deux prochaines décennies. Cela comprend notamment les métiers du management, des arts, de la recherche scientifique, de la pédagogie, de l’argumentation (négociation, persuasion, plaidoyer), de la consultance et des soins personnels. Cependant, la plupart de ces métiers seront profondément transformés par la présence de nombreux assistants informatiques ou robotiques, qu’il s’agisse de robots matériels, comme dans les soins de santé, ou de robots virtuels, comme dans la recherche scientifique ou dans le diagnostic médical.
L’étude ne donne pas d’horizon précis pour les prévisions. Les auteurs écrivent souvent « dans une ou deux décennies », car ils reconnaissent ne pas pouvoir prévoir le rythme de diffusion des innovations. Dans les commentaires, c’est toutefois devenu 15-20 ans ou à l’horizon 2030.

Extrapolation trop facile et peu crédible

Les chiffres cités pour les pays européens proviennent d’une extrapolation des calculs des chercheurs d’Oxford. Une extrapolation pure et simple n’est pas difficile : en annexe à leur article, Frey et Osborne fournissent la liste complète des 702 métiers considérés, avec leur probabilité de substitution par la machine. Ils donnent aussi les codes dans la nomenclature nord-américaine, ce qui permet de les transposer à la nomenclature européenne ISCO. C’est ainsi que les résultats de Frey & Osborne ont été répliqués au niveau européen par le think tank Bruegel, en Belgique par le service d’études de la banque ING, aux Pays-Bas par le bureau de consultance Deloitte, en France par le bureau de consultance Roland Berger, etc. Aucune de ces études ne modifie ni les hypothèses ni les calculs probabilistes des chercheurs d’Oxford ; il s’agit bien d’une réplication pure et simple. À titre d’exemple, la réplication effectuée pour la Belgique par ING donne les résultats suivants, par catégorie de professions (salariés et indépendants confondus) :
Dirigeants, cadres, professions supérieures scientifiques, médicales, pédagogiques ou de gestion : 9 % d’emplois ayant une probabilité de substitution moyenne, moins de 5 % ayant une probabilité forte.
Professions intermédiaires de techniciens, gestionnaires, assistants, superviseurs et métiers paramédicaux : 18 % d’emplois ayant une forte probabilité de substitution, 40 % une probabilité moyenne.
Employés administratifs : 93 % ayant une forte probabilité de substitution.
Vendeurs, commerçants et autre personnel des services aux particuliers (sécurité, aide sociale, agents des transports publics) : 50 % ayant une forte probabilité de substitution, 30 % une probabilité moyenne.
Agriculteurs et ouvriers qualifiés de l’agriculture et de la sylviculture : 85 % ayant une forte probabilité de substitution, 14 % une probabilité moyenne.
Métiers qualifiés de l’industrie et de l’artisanat : 55 % ayant une probabilité forte, 30 % une probabilité moyenne.
Conducteurs d’installations et ouvriers d’assemblage : 45 % ayant une probabilité forte, 55 % une probabilité moyenne.
Emplois peu qualifiés : 22 % ayant une probabilité forte, 78 % une probabilité moyenne.

Les résultats sont les mêmes que ceux de l’étude originale d’Oxford, ce sont juste les proportions qui sont différentes, puisque la composition de l’emploi n’est évidemment pas la même qu’aux États-Unis. Le document ING met en évidence, sans les commenter, quelques résultats surréalistes de l’étude d’Oxford : tous les emplois agricoles seraient exposés à la robotisation, deux tiers des emplois d’aide-ménagère disparaîtraient, les emplois de bureau et les emplois de vendeur disparaîtraient à plus de 90 %. C’est dire que l’extrapolation pure et simple de l’étude d’Oxford est peu crédible. Et ce n’est pas la seule critique qu’on peut lui adresser.

 Digitalisation de l’économie : le conte de fées et sa part d’ombres


Auteur d’une étude 1 pour l’Institut syndical européen (ETUI), Christophe Degryse propose une analyse sur les impacts sociaux de la digitalisation de l’économie. Si celle-ci apportera incontestablement son lot de progrès et d’opportunités, ce sont ses risques et ses dangers sur lesquels se focalise le chercheur. Il en identifie au moins trois : une perte massive d’emplois, une polarisation accrue de la société et une déréglementation des marchés risquant toutes de peser sur le financement de la sécurité sociale et d’éroder les bases fiscales. Sans compter les enjeux liés à la protection des données.
Selon Christophe Degryse, l’affaissement de la classe moyenne et l’augmentation concomitante des inégalités risquent d’être encore accentués, car les emplois à moyenne qualification et moyenne rémunération seront les plus touchés par la numérisation de l’économie. Ce qui créera donc des sociétés de plus en plus polarisées : on trouvera, d’un côté, des emplois peu nombreux à très haute qualification dans les domaines de l’informatique, de l’ingénierie, des réseaux... et de l’autre, l’explosion d’emplois très faiblement qualifiés, d’encodeurs, de filtreurs de données...
Il en résultera une précarisation des conditions de vie et de travail. Aujourd’hui déjà, des plateformes numériques offrent aux employeurs des millions de « crowdworkers », c’est-à-dire des gens du monde entier prêts à réaliser des petites tâches informatiques que les superordinateurs ne sont pas encore capables de réaliser eux-mêmes. Ces « crowdworkers » sont soit payés à la pièce, pour quelques centimes la tâche, soit à l’heure, et les tarifs commencent à quelque trois dollars de l’heure. « Sans aucune sécurité sociale ni réglementation d’aucune sorte, cela va sans dire », précise le chercheur.
Les risques d’« ubérisation » des marchés du travail sont également mis en avant : « les start-ups visent une croissance rapide et ne s’encombrent guère des questions de respect des réglementations et législations existantes. Ce qui est susceptible d’aboutir progressivement à des phénomènes de déstructuration des normes et modèles sociaux, d’effacement progressif de la frontière entre vie privée et professionnelle, d’abandon des règles de santé et de sécurité, d’intensification du travail ».
Si l’idée de l’auteur n’est évidemment pas de prôner un arrêt des progrès technologiques, il insiste sur la nécessité d’une analyse de ses impacts sociaux, afin d’en anticiper les effets. En Belgique, l’agenda Digital Belgium, lancé par le vice-Premier ministre et ministre de l’Agenda numérique Alexander De Croo, promet « davantage d’emplois, de croissance et de prospérité ». La réalité risque d’être plus nuancée au vu des constats tirés plus haut. « Un scénario sans doute évitable si, à l’instar de l’Allemagne, l’ensemble des acteurs politiques et économiques, mais aussi académiques, culturels, sociaux et syndicaux étaient impliqués dans le débat », conclut Christophe Degryse. #



1. « La digitalisation de l’économie et ses impacts sociaux », téléchargeable en français et en anglais sur le site de l’ETUI (http://www.etui.org).

Les leçons du passé

Dans un document de travail pour l’Institut syndical européen intitulé Le travail dans l’économie digitale : continuités et ruptures 5, nous avons mis en évidence l’absence de relation directe de cause à effet entre l’innovation technologique, la productivité et l’emploi. Mais les chercheurs d’Oxford et leurs émules ont une vision simpliste de cette relation : le processus d’informatisation et de robotisation n’est, en ce qui les concerne, freiné que par des goulots d’étranglement de l’ingénierie.
Cette vision technocratique et déterministe a toujours conduit dans le passé à des prévisions fausses, car les effets attendus sont systématiquement exagérés. La transformation des entreprises et des organisations est un processus beaucoup plus complexe que la simple substitution travail/capital. Dans les années 80, l’arrivée du traitement de texte faisait craindre un effondrement des emplois de secrétariat. Aujourd’hui, ces emplois sont plus nombreux, plus diversifiés et plus qualifiés. Au début des années 2000, l’expansion des progiciels de gestion intégrée (ERP) allait « dégraisser » tous les services comptables. Aujourd’hui, les spécialistes de la comptabilité constituent toujours un métier en pénurie. Les exemples de ce type sont nombreux. L’informatisation s’est avérée à la fois un outil de rationalisation, qui peut détruire des emplois, et un outil de réorganisation, qui peut mener à de nouveaux produits et services et à de nouvelles opportunités professionnelles.
La question du rythme de diffusion des innovations n’est jamais abordée dans le raisonnement de Frey & Osborne. Les innovations sont implicitement considérées comme immédiatement disponibles pour tous, dès qu’elles existent. Or, il y a un décalage entre, d’une part, le rythme d’accroissement exponentiel de la performance des technologies et, d’autre part, le rythme beaucoup plus lent d’adoption et d’appropriation des innovations dans les entreprises et les autres organisations. L’adoption d’une nouvelle génération de technologies est un processus inégalitaire. Des disparités importantes se manifestent selon la taille des entreprises, leur localisation géographique, leur secteur d’activité, la disponibilité d’une main-d’œuvre qualifiée, etc.


« La transformation des entreprises est un processus plus complexe que la simple substitution travail/capital. »


Enfin, le raisonnement basé sur les tâches substituables ou non substituables par la machine révèle une conception simpliste du travail. Un même métier peut comporter, d’une entreprise à l’autre, un mélange très variable de tâches, qui est le reflet de changements organisationnels et technologiques antérieurs. De plus, un métier ne se définit pas seulement par un mix de tâches, mais aussi par un positionnement dans une organisation, par des compétences acquises dans la formation et par l’expérience, par une trajectoire ou une carrière et par l’appartenance à un collectif. Dans Le deuxième âge de la machine 6, Brynjolfsson & McAfee, qui partagent avec Frey & Osborne une conception assez semblable du déterminisme technologique, arrivent pourtant à des conclusions différentes. Ils suggèrent d’arrêter de faire la compétition contre les machines et d’apprendre à faire la course avec elles. La capacité de formuler de nouveaux projets, la créativité, la subjectivité, la capacité de partager des émotions ou des opinions, les innovations organisationnelles et sociales sont des spécificités humaines. Selon eux, l’avenir du travail sera conditionné par notre capacité à exploiter pleinement l’avantage comparatif des humains par rapport aux machines intelligentes.
Pour terminer, on s’interrogera sur la portée politique de ces discours alarmistes sur la robotisation et l’emploi. En agitant le spectre d’une catastrophe prochaine, ne vise-t-on pas à faire accepter, sous prétexte de la menace, des conditions d’emploi et de travail de plus en plus défavorables aux salariés ? Poser la question, c’est déjà y répondre...


Gérard Valenduc : Professeur invité UCL et UNamur, directeur de recherche à laFondation
Travail-Université (FTU)

Credit photo : Tim Li


1. À l’heure où ces lignes sont écrites (début avril 2016), on trouve toujours sur le site de la BBC une page web où on peut calculer la probabilité que son propre emploi soit remplacé par un robot. Voir : http://www.bbc.com/news/technology-34066941
2. Carl Benedikt Frey & Michael A. Osborne, « The future of work : how susceptible are jobs to computerisation ? », Oxford University, Working paper of the Programme on the impacts of future technology, 2013.
3. Erik Brynjolfsson, Andrew McAfee, Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique, Paris, Odile Jacob, 2015.
4. Pour comprendre le rôle résiduel attribué au travailleur dans ces systèmes d’avant-garde, on peut lire le reportage de Jean-Baptiste Malet (Jean-Baptiste Malet, En Amazonie. Infiltré dans le « meilleur des mondes », Paris, Fayard, 2013).
5. Gérard Valenduc, Patricia Vendramin, « Le travail dans l’économie digitale : continuités et ruptures », Working Paper ETUI 2016.3, European Trade Union Institute, mars 2016.
6. Erik Brynjolfsson, Andrew McAfee, ibid.