Archives pour la catégorie Management

Manager comme… Le Commissaire Gordon

Gotham City est une réplique surréaliste du Chicago des années 1930 et rivalise en noirceur avec les villes les plus dangereuses du monde. Ses notables et ses fonctionnaires sont tous corrompus et ses habitants résignés. Les super-vilains qui règnent sur le crime organisé ne sont qu’une personnification du cauchemar sans fin dans lequel vivent les citoyens de Gotham : clowns maléfiques, savants fous et mutants côtoient parrains de la mafia et caïds en tous genres. Et dans cette sinistrose permanente, un homme veut rétablir l’ordre et faire émerger les traces d’une humanité il y a longtemps ensevelie, presque oubliée, sous le poids du crime.

Combattre le mal par le mal

Personnage exposé à l’opinion du public, le Commissaire James Gordon, pour réussir, doit incarner la droiture parfaite. Mais pour faire tourner les rouages d’une justice gangrénée par la corruption, il doit toutefois composer avec les pratiques nauséabondes qu’il combat et parfois s’allier à ses pires ennemis. Comment se mouiller sans trahir ses valeurs ?

Gandhi lui-même acceptait les compromis, dans la mesure où ceux-ci le rapprochaient de son « exigence pour la vérité ». Comme lui, Gordon comprend qu’il est seul face à de trop nombreuses et trop influentes parties-prenantes, et qu’il ne possède pas la puissance de frappe pour provoquer le retournement d’une société à la seule force de son élan progressiste. Avec peu de ressources, une poignée de policiers qui lui sont fidèles, il exploite celles des autres pour inverser la courbe de la criminalité et insuffler le mouvement qu’il souhaite donner à la cité de Gotham. Il voit loin et accepte de composer avec les forces et les influences en place pour progresser, petit pas par petit pas, sans perdre de vue son objectif.

Il procède par étapes, faisant chuter les voyous les uns après les autres, remontant les filières, s’attirant tantôt les foudres des organisations criminelles, tantôt leurs faveurs pour mieux les décapiter le moment venu, en les montant les unes contre les autres. Il tisse des liens avec le Pingouin ou Don Falcone, deux gangsters notoires avec suffisamment de sang sur les mains pour alimenter les boucheries de Gotham en boudin noir toute l’année. Il use de méthodes efficaces, donc, mais pas toujours avouables : naviguer en eaux troubles impose de faire quelques détours.

En représentation permanente, il prend ainsi le risque de se compromettre. Alors, pour réussir sans trop entamer son intégrité, il doit fixer des limites et toujours avoir sur ses détracteurs le « coup d’avance » nécessaire pour éviter les pièges.

Faire beaucoup avec peu

C’est un planificateur fin et un gestionnaire du risque sans commune mesure, qui sait conquérir des territoires et faire avancer ses projets sans déployer une armée de collaborateurs pour occuper le terrain. Il est typiquement le meneur de changements d’ampleur : digitalisation, transformation des comportements ou encore introduction d’une innovation de rupture. Il sait rassembler sans ascendance hiérarchique, mais en maniant un réseau influent et bien cultivé. Gordon est jeune mais expérimenté, il mise tout sur sa constance, son exemplarité et emmagasine les faits d’arme qu’il s’assure de mettre en visibilité de tous.

C’est un profil fast-tracker repéré très tôt et qui a jusqu’ici mené toute sa carrière au sein de la même entreprise – le département de police en l’occurrence – ce qui lui a permis de nouer les liens nécessaires à sa progression rapide. Éclairé et bien formé, il choisit ses combats en adéquation avec sa progression et la maturité de son réseau. C’est un pion extrêmement puissant pour les managers qui savent composer avec son ambition. Pour ses collaborateurs et ses pairs, c’est plus ambigu. Car on l’a vu, il se met en danger et peut entrainer ses subordonnés.

Homme de pouvoir robuste et charismatique, le Commissaire Gordon est le manageur de transition idéal, celui qui rend possible l’évolution de la culture d’une entreprise. C’est aussi celui qui peut concrétiser un projet de redressement d’activité, à la suite d’une acquisition par exemple, et mettre en place les verrous nécessaires avant de se retirer et de laisser la place à un manageur gestionnaire.

C’est d’ailleurs ce rôle qu’il joue dans la série « Gotham », qui retrace la jeunesse du Batman de Frank Miller et l’ascension de ses ennemis : le rôle d’un justicier avant l’heure qui prépare la cité à l’arrivée du Dark Knight.

Illustration: copyright Mark Seliger/FOX

Manager comme… Le Capitaine Kirk

« Pleine puissance, Monsieur Sulu ! » Le Capitaine James T. Kirk, enfoncé dans son fauteuil de commandement et dans un « col V » jaune rescapé des sixties, agrippe l’un des deux accoudoirs d’une main crispée et appuie son coude sur l’autre. Égrenant un chapelet invisible d’une main soucieuse, il dispatche ses ordres sans relâche, d’un bout à l’autre de ce cockpit mythique dans lequel se déroule une bonne partie de l’histoire de Star Trek.

Aux commandes de l’Enterprise

Il dirige une équipe restreinte, dix subordonnés tout au plus, qui prennent soin de rester à portée de voix du Commandant. Dans un futur visiblement très automatisé, l’équipage a déserté le pont et la salle des machines. Toute la responsabilité de la manœuvre revient ainsi à cette petite équipe confinée dans la salle des commandes. Chacun des membres de la garde rapprochée du Capitaine Kirk connaît sa fonction par cœur et l’exerce comme une routine bien huilée. La raison d’être du Capitaine n’est pas d’indiquer à chacun ce qu’il doit faire, il est d’ailleurs loin de maîtriser l’ensemble des systèmes composant le bâtiment. Il donne la cadence et maintient la coordination des opérations : il optimise les performances de son vaisseau, tout en évitant aux nombreux systèmes complexes qui composent l’Enterprise d’entrer en conflit. Car il n’est rien de plus irritant que d’atterrir sur une planète inconnue et hostile avant d’avoir sorti le train d’atterrissage…

Dès que le vaisseau se pose, le très habile Capitaine n’hésite pas à bondir de son fauteuil pour marcher en tête de ses subordonnés partis explorer les environs et tomber gaiement dans la majorité des pièges tendus par les ennemis de la Fédération. Car le Capitaine est un homme d’action doublé d’un négociateur aguerri, aussi bien à l’aise aux commandes d’un vaisseau que pour dépatouiller ses équipes des plus délicates situations, souvent par la diplomatie.

Humaniste, il entretient une certaine proximité avec ses subalternes directs, ce qui donne beaucoup de couleurs à ce militaire galonné, dont on attendrait un peu de froideur, mais qui n’hésite pourtant pas à détourner les ordres pour partir secourir l’un des siens.

Un gestionnaire de complexité

En somme, ce manager-dispatcher proche de ses équipes, qui les coordonne sans ingérence, se contente de donner le rythme la plupart du temps. Se libérant ainsi du temps mais aussi de la charge cognitive, il réinvestit son énergie dans la gestion des difficultés au fur et à mesure qu’elles se présentent. La hiérarchie militaire étant ce qu’elle est, construite toute en profondeur, le Capitaine Kirk a su déléguer des responsabilités managériales à ses subalternes directs, ne gardant en vision qu’un ensemble prédigéré d’informations. C’est ce que l’on appelle la « vue d’hélicoptère ».

Sauf que le quotidien appelle à sortir régulièrement du pilote automatique pour plonger au cœur des problématiques, ce que le Capitaine Kirk fait avec brio lorsqu’il abandonne l’Enterprise pour affronter l’inconnu. La coordination croisée d’un grand nombre de métiers et les multiples niveaux hiérarchiques du monde militaire mettent en évidence une souplesse intellectuelle quasi-contorsionniste. A moins d’être au bout d’une carrière bien remplie, qui l’aurait amené à exercer la plupart des fonctions qu’il encadre, Kirk doit compter sur une aptitude – rare – à manager dans l’incertitude. Justement, le Capitaine sait prendre des décisions même lorsque certains paramètres lui échappent, ou que la situation ne lui est pas totalement claire. De l’intuition, donc, mais aussi une certaine appétence au risque et le courage d’assumer les conséquences.

Alors, si Kirk se décidait à quitter son vaisseau, son pull jaune et le 23ème siècle, pour rejoindre l’industrie de notre époque, où le trouverait-on ? Certainement aux commandes d’un programme automobile ou aéronautique, ou d’une démarche de transformation d’entreprise majeure. Son aisance à manœuvrer dans la complexité fait de lui le candidat parfait. Touche-à-tout, mais expert de rien, vif d’esprit et déterminé, il rassemble et inspire. Il sait s’entourer et débloquer les situations. C’est le croisement parfait entre un gestionnaire de portefeuille de projets et un responsable d’activité, la vision stratégique en moins.

La quantité croissante de données à gérer rend aussi ce profil particulièrement attrayant pour des strates intermédiaires de l’entreprise. A l’heure du Big Data et d’un réseau d’objets connectés en constante expansion, un nombre incommensurable de données est à disposition des entreprises. Les décisions reposent désormais sur des clusters d’analyses, c’est à dire des ensembles d’études croisées entre elles, qu’il faut réussir à s’approprier et à manipuler, tout en acceptant de ne pas en maîtriser tous les aspects.

Illustration : Composition VII | J. Kandinsky | The State Tretyakov Gallery, Moscou

Changer !

« Changement ».

Derrière ces quelques lettres se cachent la promesse d’un renouveau propice à l’activité, un projet d’ampleur et probablement de l’anxiété pour vos équipes. Thématique en vogue dans la littérature managériale, la gestion du changement reste pourtant le parent pauvre du projet d’organisation. D’abord parce qu’il est le moins déterministe des mécanismes à l’œuvre dans un projet : il n’existe ni méthode prête à l’emploi, ni planning-type pour ancrer efficacement de nouvelles pratiques dans une société. Davantage encore que la phase de construction d’une cible d’organisation, la façon de préparer la bascule vers de nouveaux modes de travail doit prendre en compte la profondeur des changements, le rapport de force des acteurs en place et bien sûr le passif avec les organisations syndicales. Si l’on y ajoute les temps forts de l’activité, les contraintes réglementaires et la multiplicité des parties-prenantes, « changer » devient un véritable programme à l’intérieur du programme. Et le sociologue Alain Touraine de nous mettre en garde : « le changement du monde n’est pas seulement création, progrès, il est d’abord et toujours décomposition, crise ». Changer c’est accepter de se déstructurer – temporairement. Mais que cette entrée en matière ne nous décourage pas pour autant ! Car il est tout à fait possible de réussir une bascule sainement. Voici six bonnes pratiques autour desquelles construire votre démarche.

Circonscrire

Le changement, c’est avant tout un effort. Avant et pendant la bascule et jusqu’à plusieurs mois après. Cet effort ne peut pas s’opérer sans l’implication d’acteurs locaux qui relaieront les messages et serviront de point d’entrée sur le terrain. Mais bien au delà de leur force de démultiplication, des relais engagés en prise directe avec les équipes opérationnelles rendent la démarche crédible. Il est donc crucial de bien choisir les relais du changement et de s’assurer de leur embarquement.

Happer

Les relais ne se sentiront solidaires du changement que dans la mesure où ils participent aux réflexions et aux décisions. Les mobiliser et les responsabiliser suffisamment tôt dans le processus est clé pour garantir leur implication : confiez des lots complets du projet à quelques relais importants et faites-y participer les autres. Faire entrer le loup dans la bergerie peut parfois avoir du bon : mandater un acteur ostensiblement réfractaire peut participer à une stratégie de retournement de l’opinion.

Aiguiller

Les entretiens et ateliers de travail visant à comprendre dans le détail ce qu’il faut faire évoluer se veulent souvent riches. Il va sans dire qu’une condition de succès de l’opération est de valoriser ce qu’il en ressort. Pour autant, la conduite du changement reste une course contre la montre, que l’on ne peut gagner qu’en étant focalisé. Beaucoup d’énergies sont mises en œuvre qu’il faut canaliser, en distinguant dans la profusion ce qui s’apparente à de l’irritant de ce qui relève du dysfonctionnement, puis en priorisant l’effort.

Nourrir

Le déploiement est aussi une tentative de conversion des équipes aux nouvelles pratiques. Vos équipes ne se satisferont pas d’un discours travaillé jusque dans le traitement des objections. Vos collaborateurs hocheront peut-être la tête en signe d’approbation, mais reviendront à leurs habitudes de travail à la moindre difficulté – et il y en aura. Il faut démontrer sur le terrain, sans se contenter de faire faire, ni chercher à faire pour mais en faisant avec. Le changement prend ainsi la forme d’un programme d’accompagnement et de montée des opérationnels en compétence. C’est un effort que beaucoup de managers sous-estiment.

Guider

Aussi fine soit-elle, la cible imaginée ne peut prendre tous les cas de figure en considération. Il faudra vous faire une raison : la maquette powerpoint d’une organisation n’est jamais bonne du premier coup. La progression dans le déploiement de nouveaux modes de fonctionnement révèle ainsi les « trous dans la raquette » : des difficultés imprévues et parfois même quelques incohérences. Le dispositif d’accompagnement sur le terrain doit être en mesure de réagir en dosant savamment les modifications à apporter à la cible. Ne pas traiter une difficulté peut créer un irritant majeur qui condamne l’adoption d’une nouvelle façon de travailler ou d’un outil, il faut parfois accepter de dégrader la vision de départ.

Entretenir

Mais le plus dur reste à faire. Pour institutionnaliser le changement, il faut maintenir l’effort par le biais du middle management. Pour qu’il prenne au sein des équipes, un travail de longue haleine indispensable attend vos encadrants : contrôler en permanence la bonne application des règles définies, les rappeler sans relâche, tenir bon face aux éléments récalcitrants et prendre des mesures coercitives autant que nécessaire. Un travail de fond qui dure de 12 à 18 mois.

Ces quelques éléments ne constituent pas une démarche en l’état. Celle-ci est à construire en repartant de la cible et les moyens à mettre en œuvre sont à instancier au contexte. Cependant ces six pratiques-clés du changement sont incontournables pour en garantir le succès sur le long terme. Changer n’est pas une entreprise facile, mais une opération périlleuse. Aussi le résultat attendu doit-il valoir l’effort qu’il faudra consentir à fournir.

Illustration : Nu descendant un escalier n°2 | M. Duchamp | Philadelphia Museum of Art

Davy Rey – Mars 2015

L’Entreprise Fantôme

« Des hommes, des chariots et des machines qui bossent ! »

C’est la réponse que j’obtiens généralement lorsque je demande à mes interlocuteurs de faire un tour sur eux-mêmes, au beau milieu de leur atelier et d’opérateurs circonspects, et de décrire ce qu’ils voient. En réalité, leur fais-je remarquer, la plupart de ces hommes, de ces chariots et de ces machines qui « bossent » est masquée par des palettes ou des caisses pleines de produits. On les remarque moins parce que l’agitation qui règne dans une usine contraste avec leur immobilité : c’est l’effet « meuble ». Les opérateurs ont beau s’affairer en permanence, la plupart du temps, les produits dorment.

La fabrique d’anti-valeur

En réalité, seul un tiers de la structure d’une entreprise s’attelle réellement à créer de la valeur. Ce chiffre peut paraître surprenant. Pour vous en convaincre, trois prérequis : le premier est d’accepter de voir les choses différemment, le second est un lot de production – ou un document dans le cas d’un processus administratif – et le troisième est un chronomètre. A suivre ce lot du début à la fin de sa fabrication, comme on suivrait un colis sur internet, vous vous apercevrez certainement qu’il passe le plus clair de son temps à… ne rien faire. Il patiente : en stock, dans une file d’attente sur un poste ou en transit dans un véhicule. Au final et dans le meilleur des cas, un lot se voit ajouter de la valeur un tiers de son temps.

Emploi du temps d'un lot de fabrication en tannerie
Exemple : emploi du temps d’un lot de fabrication en tannerie

Et cela ne se distingue pas dans les indicateurs classiques de la productivité tels que le taux de service ou le taux de rendement synthétique (TRS). Ce phénomène, qui alourdit malicieusement les coûts dans l’ombre des indicateurs de performance, se nomme l’Usine Fantôme. Et il prend tout son sens lorsqu’il est étendu à l’entreprise toute entière.

Les cinq cachettes de l’Entreprise Fantôme

Tous les auteurs de fantastique et les meilleurs médiums vous le confirmeront, les outils du monde visible ne sont plus efficaces lorsqu’il s’agit de traquer un spectre. Des traces disséminées dans toute l’entreprise permettent néanmoins de dévoiler la présence d’anti-valeur, dont s’alimente l’Entreprise Fantôme.

  1. L’entropie générée par la productivité : les gains certains issus des démarches d’amélioration de la productivité sont directement observables dans le monde visible. Mais au-delà d’un certain seuil, la spécialisation et l’automatisation du travail s’accompagnent de contreparties : transfert de la charge directe de production vers la charge indirecte de maintenance plus coûteuse, perturbation de la production et rigidités (voir mon article L’automatisation juste nécessaire). Il en va de même pour le pilotage de la performance qui transforme des initiatives d’actions en systèmes d’analyse complexes, coûteux, jamais très fiables et inexploitables. C’est souvent le cas des entreprises qui se lancent dans un suivi fin du TRS et de ses causes de perte.
  2. L’inflation naturelle des services indirects. La charge de départements tels que la qualité ou les ressources humaines n’est pas directement proportionnelle au volume d’activité. Ambition, guerres de territoire, volonté de bien faire et excès de zèle induisent de la charge supplémentaire dans les services supports et administratifs. Cette inflation a des implications jusque dans les strates managériales et se combat lors des remaniements de l’organisation.
  3. Le temps travaillé sans valeur ajoutée : il s’agit des mauvaises priorisations, du temps passé sur des dossiers qui n’aboutiront jamais et des délais d’attente évoqués plus haut. Tous amplifient la structure et nécessitent d’arbitrer ou de provisionner du risque, donc de mobiliser des moyens supplémentaires.
  4. Les immobilisations financières : chaque bâtiment, chaque machine et tout autre actif immobilisé se financent sur les fonds de l’entreprise ou par de l’emprunt. Dans tous les cas, un investissement dans le présent représente une ponction de la capacité à investir dans le futur et un risque d’obsolescence. Que faire de cette usine flambant neuve si le marché qui était sensé la rentabiliser s’écroule ?
  5. L’instabilité de l’activité : la structure étant le moteur du flux de valeur – la richesse créée à partir des ventes – elle se construit autour de lui. Pour vendre des véhicules, on bâtit des usines automobiles, dont l’outillage est relativement spécialisé. Si le flux s’accentue, à partir d’un certain niveau, il faut investir, si les ventes baissent au profit d’un autre modèle ou d’une autre catégorie, il faudra peut-être investir dans de nouvelles capacités et ainsi de suite. Si la structure n’est pas assez agile, elle grossit irrémédiablement.

Entreprise fantôme

Un mal nécessaire qu’il est possible de soulager

Il ne s’agit pas tant de se transformer en chasseur de fantômes que de prendre conscience de l’existence de cette autre dimension de l’organisation et d’en comprendre les mécanismes.  Au lieu de tenter de débusquer l’Entreprise Fantôme en tordant leurs indicateurs, nos entreprises doivent prendre la mesure de ce que les décisions d’organisation peuvent avoir comme implications moins immédiates pour leurs charges fixes. En s’appuyant sur les cinq sources détaillées dans cet article, peut-être accepteront-elles, par exemple, que l’amélioration des processus peut s’effectuer en l’absence d’indicateurs.

Ce modèle, couplé à des conditions plus difficiles dans les années à venir qui ajoutent au risque d’inflation de l’Entreprise Fantôme, milite également pour faire évoluer processus et organisation vers davantage d’agilité et de résilience (voir mon article Survivre à 2030, l’entreprise agile et résiliente).

Illustration : Le Parlement, Effet de Brouillard | C. Monet | Museum of Fine Arts, St Petersburg, Florida

Davy Rey – Janvier 2015

Manager comme… « Hannibal » Smith

Le Colonel John « Hannibal » Smith est le patron charismatique de l’Agence tous risques, un commando formé de 3 vétérans de la guerre du Vietnam. Accusés à tort à leur retour aux États-Unis, ils œuvrent dans la clandestinité au service des faibles et des innocents. La série relate les tribulations de cette équipe de mercenaires, aux compétences complémentaires et à l’humour décapant.

Chaque membre est expert dans un domaine bien précis, mais Hannibal encadre surtout des collaborateurs aux singularités très prononcées : elles sont d’ailleurs le moteur du comique de situation. Barracuda est l’homme fort mais aussi l’élément colérique. Sa colère, il la dirige sur Looping, le plus expansif du groupe, instable à ce point qu’il faut le sortir de l’hôpital psychiatrique à chaque épisode : un effort auquel Hannibal doit consentir car il a besoin des compétences de ce pilote hors pair. Futé agît lui en véritable second et c’est, de tous, le meilleur élève… dès lors qu’il ne craque pas pour la guest-star de l’épisode.

Alors, comment Hannibal réussit-il cinq saisons de missions périlleuses en gardant intacts une équipe aussi hétéroclite et son sens de la répartie ?

Le Chef d’équipe terrain par excellence

Avant d’énumérer les nombreuses qualités du Colonel, reconnaissons tout de même qu’il bénéficie d’une conjoncture propice. En effet, les personnages sont soudés dans l’adversité : ils ont tissé des liens fraternels en combattant dans le même camp au Vietnam, sont recherchés ensemble par l’armée américaine et poursuivis régulièrement par toutes sortes d’antagonistes. L’histoire les a poussés à développer un esprit de corps en réaction à des pressions extérieures fortes. Bergson, qui n’est pas un amateur notoire de la série, confirme tout de même que « la cohésion sociale est due en grande partie à la nécessité pour une société de se défendre contre d’autres ». L’Agence tous risques est une équipe stable qui fonctionne donc efficacement.

Aussi fertile soit le terreau, un superviseur auto-proclamé ou parachuté ne tiendrait pas deux heures avec des militaires aussi bourrus. Hannibal est un leader crédible, parce qu’il a gagné sa légitimité. Avant tout, il est du sérail : s’il a atteint le grade de Colonel, c’est en faisant ses classes et en gagnant ses galons sur le théâtre des opérations. D’ailleurs, il accompagne toujours ses troupes sur le terrain et prend part aux scènes d’action. Il a lui-même sa spécialité, le déguisement et l’infiltration, donc un accès privilégié à l’information. Il est aguerri et respecté par ses collaborateurs.

Colonel déchu, il entretient mordicus sa posture en assumant les responsabilités qui s’imposent. Véritable guichet d’accueil, il établit toujours le premier contact avec le client – la veuve ou l’orphelin à secourir – et conserve l’exclusivité sur toute forme de négociation. Dans une organisation plus large, Hannibal serait le raccord parfait entre une hiérarchie donneuse d’ordre et une force productive que la structure et les horaires décalés auraient éloignées l’une de l’autre. Car un bon superviseur est un émissaire intransigeant de la Direction, qui relaie avec fermeté les messages de celle-ci sur le terrain, et sait défendre ses équipes lorsque la situation le requiert.

Même si l’on n’assiste à aucun recadrage formel du Colonel sur ses subalternes, son autorité naturelle fait de lui le seul à avoir l’écoute de ses éléments au tempérament bien trempé. Il a le sens des situations et sait prendre des décisions difficiles lorsque celles-ci s’imposent. L’incertitude sur l’issue des missions ne lui fait pas peur et il n’hésite pas à placer ses collaborateurs en situation de danger. Danger mesuré néanmoins, car il a le sens de la maîtrise du risque : lors du premier contact avec le client, il ne se dévoile jamais avant d’avoir jaugé son interlocuteur.

Opérationnel accompli, Hannibal est aussi un fin tacticien, à l’aise sur le papier comme dans l’imprévu. Soyons honnêtes : les fameux « plans sans accroc » dont il raffole ne se déroulent jamais vraiment comme prévu. En revanche, il ne démarre les hostilités qu’après avoir testé son adversaire dans un affrontement préliminaire, pour mesurer le rapport des forces. Ce pauvre Barracuda, qui supporte mal le transport aérien, est la première victime de la subtilité du Colonel et ne compte plus les traces de somnifère injecté à son insu.

La limite du « modèle Hannibal » : la crise managériale…

Légitime, inflexible et courageux, Hannibal a bien l’étoffe du Chef terrain… pour une équipe commando. Ce profil est intéressant notamment dans la maintenance ou pour superviser des spécialistes techniques, que leurs qualifications ont enfermés dans des rôles-clés.

Mais à bien regarder, il mène ses troupes au travers d’épisodes construits selon les mêmes schémas, sans jamais vraiment remettre en cause le rôle des uns et des autres au sein de l’équipe. Être poursuivi par la Terre entière n’est pas non plus une excuse pour ne pas développer ses collaborateurs ! Si Hannibal venait à prendre la tête d’une équipe de production, il devrait composer avec un inévitable renouvellement des effectifs et des fluctuations en production qui lui imposeraient de changer fréquemment de configuration.

De ce point de vue, la « méthode Hannibal » est finalement assez statique et n’offre aucune « promesse ». Plus encore que les nombreux projectiles qui fusent dans les scènes d’action, un collaborateur aspire à sa propre trajectoire au sein de l’entreprise. Obtenir le meilleur de lui-même nécessite de donner du sens et de la perspective à sa carrière, de valoriser sa progression en somme. Un collaborateur emprisonné dans son rôle sans espoir d’évolution exprimera son mal-être plus ou moins distinctement.

Si cet appel devient collectif et qu’il n’est pas entendu – et il est inaudible dans le registre d’Hannibal – il peut enfler au point du conflit social. Il s’observera au travers d’actions épidermiques, souvent mal coordonnées, qui voileront dans un premier temps un malaise devenu social, mais qui conduiront inexorablement à la crise.

Voilà donc un modèle de gestion du temps réel sur le terrain, qu’il faut compléter par davantage d’anticipation, en planifiant convenablement les compétences de ses équipes.

Davy Rey – Novembre 2014

Illustration : Travailleurs rentrant chez eux | E. Munch | Munch Museet Oslo

La supply chain (réellement) agile

Si, comme moi, vous tombez dans la catégorie du bricoleur du dimanche, celui qui n’a pas le compas dans l’œil, vous vous êtes certainement déjà surpris, au rayon visserie, à contempler la créativité des quincaillers. Des vis 6 pans, à tête cylindrique ou bombée, fraisée, creuse, en étoile, fendue et même des vis sans tête. Des vis pour l’extérieur, pour l’intérieur, en acier, en inox, en laiton. Pour percer le bois, la brique, le métal… Si vous êtes comme moi donc, vous finissez toujours par sélectionner le type de vis qui vous semble faire le mieux l’affaire, mais sans vraiment être sûr. Du coup vous choisissez également un second paquet, juste au cas où.

Félicitations, vous venez d’enclencher un effet « boule de neige » qui aura des répercussions jusque chez les fournisseurs des fournisseurs de votre quincailler. Il s’agit d’un phénomène qui voit s’accumuler les stocks tout au long de la chaîne d’approvisionnement, la supply chain. Car si vous hésitez vous-même entre deux types de vis, imaginez que votre quincailler n’a aucune idée de votre besoin avant que vous ne franchissiez le pas de sa porte. Il va devoir garder du stock sur l’ensemble de son catalogue, juste au cas où.

Imaginez maintenant la taille des stocks sur toute la chaîne, sachant qu’à chaque étape, la visibilité sur votre besoin s’amenuise.

Agile ou flexible ?

L’effet « boule de neige », c’est une incertitude qui s’accroit à mesure que l’on s’éloigne du client final. Les fournisseurs de votre quincailler ne perçoivent de votre besoin que ce que celui-ci veut bien leur en dire : il leur faut interpréter les commandes passées par le quincailler pour deviner les ventes à venir. Cette analyse est d’autant plus difficile que l’on remonte la chaîne : les fournisseurs des fournisseurs auront certainement moins confiance en leurs prédictions et devront se couvrir par davantage de stocks.

Or les stocks sont des actifs circulants qui « bouchonnent » et alourdissent la structure en ajoutant à la congestion de la supply chain. Comme sur une autoroute où les estivants s’accumulent aux péages les jours de grands départs, ces actifs circulent moins bien lorsqu’ils sont en trop grand nombre et allongent mécaniquement les délais en production. Ces délais appellent, à leur tour, à mettre en place toujours plus de stock pour ne pas faire attendre le client. Un formidable cercle vicieux dans lequel tombent nombre d’organisations (voir mon article La Productivité n’est plus un pari d’avenir, juin 2014).

L'effet "boule de neige"
L’effet « boule de neige »

Traditionnellement, les entreprises éclairées luttent contre l’effet « boule de neige » en progressant le long de trois axes :

  • L’alignement de la supply chain pour réduire la perte en ligne : coordination des systèmes de planification et de pilotage de la production chez les partenaires, généralement à grand renfort d’échange de données électroniques,
  • L’adaptabilité de la supply chain pour améliorer la réponse aux signaux : des plans de réactivité pour activer la croissance ou la décroissance des capacités de production à partir de seuils définis et en maîtrisant les délais de mise en œuvre,
  • L’accélération de la production pour réduire la distance au consommateur : typiquement un programme lean agrémenté d’actions locales de type SMED, 5S, Zéro défaut et, en dernier lieu, Juste à temps.

Ces trois chantiers ont fait leurs preuves : nous les menons régulièrement chez nos clients pour engranger d’importants gains opérationnels. Cependant, il s’agit de flexibilité et non d’agilité à part entière, ces leviers n’éliminent pas la cause profonde : la distorsion du signal consommateur.

Le « PIC agile »

Pour lutter contre la perte en ligne, il est impératif de puiser l’information là où le signal est généré : au plus proche du client. Il s’agit ensuite d’asservir la supply chain à ce signal.

L’un de nos clients, un acteur historique du haut de gamme automobile, avait pour objectif de doubler ses ventes en cinq ans. Il s’agissait de développer des filiales très autonomes aux profils commerciaux différents : si la quasi-totalité du catalogue était proposée dans le monde entier, un article pouvait avoir un succès mitigé dans un pays A et être un véritable blockbuster dans un pays B. La supply chain du groupe délivrait alors un niveau de réactivité insuffisant pour rendre possible la croissance des filiales : le traditionnel Pareto trouvait ici ses limites.

Pour éliminer l’effet « boule de neige » avec des marchés très hétérogènes, nous avons conçu et déployé avec notre client un Plan industriel et commercial agile, ou PIC agile, sur la base de trois principes.

Principe n°1 : la voix du client est bien plus audible sur le terrain. Les prévisions ne sont plus seulement le résultat de l’analyse quantitative des ventes réalisée en central, elles sont proposées par les forces de vente locales. Car, paradoxalement, le volume de vente n’est pas nécessairement le moteur des filiales : un article de niche qui se vend peu peut néanmoins être un vecteur de fidélisation et de recrutement de nouveaux clients. Un autre produit qui se vend bien n’est peut-être que l’alternative à d’autres références plus stratégiques mais moins disponibles. En contact direct avec les clients, les commerciaux bénéficient d’une visibilité terrain sur les opportunités et l’évolution des affaires, les promotions et le risque d’attrition qui sont un bien meilleur baromètre du business à venir. Par conséquent, la filiale décide également des produits à conserver sur ses propres étagères et ceux pour lesquels un délai de livraison est acceptable pour le client. Le signal est prélevé à la source et remonte sans retraitement intermédiaire, donc sans perte en ligne.

Principe n°2 : l’information circule mieux lorsqu’elle est aiguillée. Une mécanique simple mais bien huilée, articulée autour de trois rendez-vous réguliers et rassemblant une trentaine de managers et sept filiales internationales, resserre l’analyse du signal sur une maille mensuelle. Plus le rythme de la routine est rapide, plus l’information circule vite et moins les décisions se font attendre. Des raccourcis existent et une partie des capacités de production est réservée aux urgences, pour réagir rapidement sans perturber les ateliers. Ces rituels sont les rouages du PIC agile : les tenir garantit que l’évolution des marchés entraîne bien les ajustements nécessaires du système de production et du réseau logistique.

Principe n°3 : les opérationnels doivent s’engager les uns vis-à-vis des autres. La direction de la supply chain adapte son réseau de sorte à rendre les produits disponibles dans les marchés qui les réclament. Elle consacre beaucoup de temps et d’attention aux produits stratégiques sélectionnés par chaque filiale pour les mettre à disposition aux bons endroits et aux bons moments, sans faire exploser les coûts. La direction industrielle maintient les capacités de production à niveau et provoque les mutations nécessaires à long terme. En retour, les filiales respectent quelques engagements, tels que l’équilibre du portefeuille entre produits stratégiques et non stratégiques, et une certaine stabilité pour éviter les à-coups et la désorganisation permanente de la supply chain. Il s’agit d’un véritable pacte opérationnel.

L'agilité en 6 chantiers pour la supply chain
L’agilité en 6 chantiers pour la supply chain

Une supply chain résiliente ?

Ce système pragmatique a permis d’augmenter considérablement la qualité du service rendu : lorsque les commerciaux locaux identifient une tendance non anticipée dans la consommation, ce changement se répercute immédiatement sur la supply chain. Celle-ci se réaligne en trois à six mois et les clients sont livrés dans les temps. Quant au stock global, il est resté à son niveau de départ, et il a même pu être réduit pour certaines références.

Le PIC agile, couplé aux actions de flexibilité présentées plus haut, est un outil redoutable pour rendre la supply chain plus résiliente. Pour résister aux chocs de plus en plus fréquents et aux retournements soudains sur leurs propres marchés, les entreprises doivent repenser dès maintenant leurs processus de planification et de pilotage et s’assurer d’être en mesure de répondre à cette question :

« En combien de temps sommes-nous capables de satisfaire nos clients si les besoins de ceux-ci venaient à changer brusquement ? »

Davy Rey – Septembre 2014

Illustration : Val d’Aoste, Tempête de neige, Avalanche et Orage | J. M. W. Turner | Art Institute of Chicago

L’automatisation juste nécessaire

D’après la définition qu’en donne le Larousse, l’automatisation est la suppression totale ou partielle de l’intervention humaine dans l’exécution de tâches (…), celles-ci pouvant être manuelles ou administratives. Au delà du désir inavouable de remplacer l’homme par la machine, pourquoi cherche-t-on à automatiser ? Pour aller plus vite sans doute, pour verrouiller des manipulations complexes ou hasardeuses ou éliminer des gaspillages. Pour redonner un peu de sens à l’emploi en délestant les opérateurs de tâches répétitives. Évidemment, ce sont toutes d’excellentes raisons et l’histoire ne manque pas de réussites en la matière, telles que la robotique et le progiciel. A un détail près cependant : l’intervention humaine se trouvant considérablement réduite, elle n’est pour autant jamais totalement supprimée.

Aristote, s’il ne s’est pas vraiment intéressé à l’automatisation, enseigne que la vertu de toute chose se trouve en un juste milieu plutôt qu’à l’extrême. Alors, à la lumière des progrès réalisés jusqu’ici, l’automatisation est-elle une fin en soi irrévocable ou doit-elle se pratiquer avec mesure ?

Un système tout puissant

Un véritable mantra industriel persiste : plus le système de production est robotisé plus il est productif. Le Président de la République lui-même, lors de son discours du 12 septembre 2013 sur la Nouvelle France industrielle, l’exprime clairement dans la présentation du dernier des 34 plans de reconquête.

"Nous construisons la France de la troisième révolution industrielle. Avec moins de 35 000 robots de production installés en France contre plus de 150 000 en Allemagne et près de 65 000 en Italie, la France (...) doit rattraper son retard." Voir la source

Alors que la France, 6ème au classement du Conference Board, est au même niveau de productivité horaire que l’Allemagne (7ème) et loin devant l’Italie (19ème). Voir la source

A regarder de plus près, au-delà d’un certain seuil, les gains supposés de la robotisation sur la main d’œuvre engendrent en contrepartie une charge de réglage, de maintenance, de reprise et de gestion indirecte. Il s’agit du sourcing du matériel, de son acquisition, puis de sa supervision, mais aussi des charges cachées telles que l’amélioration continue, la formation et le stockage de pièces de rechange. Les coûts complets ne les laissent pas toujours transparaître et elles restent difficiles à distinguer dans le compte de résultat, le P&L.

Comme pour la production, le tout-automatisé sur la main d’œuvre indirecte, celle qui prend les décisions, ne peut pas être une fin en soi, sous peine de désillusion et de choix malheureux pour l’entreprise. Car il est tentant de faire converger ses processus de gestion sur les « bonnes pratiques classiquement admises », celles sur lesquelles repose le fonctionnement standard du système d’information. En témoigne cet exemple de déploiement d’un système d’Enterprise Resource Planning (ou ERP) chez l’un de nos clients.

Si le système est malade, c’est le processus qu’il faut soigner

2006 dans les locaux d’une prestigieuse PME française en passe de devenir une entreprise de taille intermédiaire. Des consultants affûtés présentent avec conviction la dernière version d’un ERP. Cette solution informatique intégrée permettrait de garder le cap face aux difficultés que rencontre désormais ce fleuron du premium hexagonal : des produits de plus en plus nombreux et complexes, des marchés de plus en plus lointains et des coûts opérationnels à maîtriser dans une période de croissance.

2014, huit ans après le démarrage, le système est complètement délité et les modules sont contournés : les opérations manuelles ont survécu aux bonnes pratiques pourtant garanties par l’ERP mais incompatibles avec le contexte et le besoin de l’entreprise. Au terme de trois tentatives infructueuses de mise en œuvre de l’ERP, puis de remise sur pied, les utilisateurs, plus nombreux que jamais pour absorber une charge dédoublée, sont désabusés et n’entretiennent même plus les bases de données. Le déploiement de l’ERP a finalement créé plus d’entropie qu’il n’a généré de gains opérationnels.

En réalité, un système d’information défaillant n’est souvent que le symptôme d’un processus malade. C’est donc en repartant du métier, en définissant les principes stratégiques, les routines opérationnelles, les points de rencontre, les activités et les livrables que nous avons pu, en trois mois, bâtir un système fonctionnel. Loin des « bonnes pratiques génériques » promises à l’achat de la solution informatique, mais à grande dose de bon sens imprégné de la réalité de l’activité, des marchés, de l’ambition et des moyens de l’entreprise. La solution informatique s’inscrit alors dans ce processus clarifié, sans s’y substituer, et dans la limite de ce qu’elle sait faire. C’est-à-dire qu’elle intervient en support d’une partie des activités et que certaines tâches peuvent sans complexe être réalisées hors système, en évitant toutefois les redondances.

En l’occurrence, la version standard du leader sur le marché des ERP ne réalise même pas de plan industriel et commercial (ou PIC) exploitable. C’est pourtant la clé de voute du système de planification et de pilotage de la supply chain. Pas d’inquiétude, un PIC est tout à fait réalisable dans un simple tableur.

Vers la dés-automatisation

On dit souvent qu’une solution informatique doit permettre de tenir trois à cinq ans. Avec le raccourcissement des cycles d’innovation, les changements pour les entreprises pourraient s’intensifier. Dans les décennies à venir, les entreprises pourront d’autant moins reposer sur ces solutions informatiques intégrées car celles-ci sont bien trop rigides.

Aujourd’hui déjà, il est préférable de maintenir des tableaux ludiques et visibles pour la gestion de la production. Ceux-ci sont infiniment plus simples à animer et à faire évoluer s’ils restent hors système. Prenons l’exemple d’un géant du transport aérien qui n’a rien trouvé de mieux qu’un grand tableau et des fiches « T » pour piloter cette usine gigantesque qu’est l’aéroport d’une grande capitale européenne.

Ainsi, pour s’adapter aux changements brusques de l’environnement dans lequel elle évolue, l’entreprise de demain devra-t-elle réduire son taux d’automatisation, afin de préserver un maximum d’agilité et de résilience.

Dans un monde où les enjeux vont naturellement se déplacer de la recherche de productivité à celle de la résilience, un idéal plus mesuré en matière d’automatisation aurait certainement plu au père de l’Éthique et de la Vertu.

Davy Rey – Août 2014

Illustration : Buste d’Aristote. Marbre, copie romaine d’un original grec en bronze de Lysippse (vers 330 av. J.-C.). Musée National de Rome.

Peut-on structurer sans alourdir ?

« Nous sommes une entreprise créative et notre savoir-faire est artisanal. » Tout est dit, comment dès lors satisfaire un objectif réaffirmé d’amélioration de la performance ? Évoquer la possibilité de structurer des pratiques pour en augmenter l’efficacité n’est manifestement pas une réponse adaptée. Car elle raisonnerait comme de la rigidité pour ce dirigeant d’une grande maison que nous accompagnons depuis plusieurs années. A juste titre ?

L’attrait du « petit et rapide »

Avec l’accélération certaine des cycles d’innovation et de vente, et la possibilité conférée à tout un chacun de supplanter les multinationales sur leurs propres segments, les petits acteurs sont une menace réelle. Leur taille, aux yeux des plus gros, est synonyme de souplesse et de vitesse, autrement dit d’ « agilité ».

Et c’est vrai, l’information circule plus vite, souvent instantanément ; les décisions ne sont pas soumises à de multiples instances de validation. Sans allocation de budgets, ni pilotage chronophage, un entrepreneur dispose d’une vision à 360° sur ses opérations. Celles-ci reposent sur l’intuitu personæ et le travail en équipe, sur lesquels il exerce une emprise directe. Pourquoi s’encombrer de processus qui menaceraient cette flexibilité, puisque c’est la force de la petite structure ?

Rappelons néanmoins qu’un processus sert avant tout à gérer de la complexité. Il s’agit de donner corps à une activité qui réunit des collaborateurs et des moyens autour d’un objectif commun. En la verbalisant d’une part, c’est à dire en racontant l’enchaînement de ses étapes, et en l’équipant d’outils en tout genre qui permettront de simplifier, d’accélérer l’activité ou de limiter ses accrocs : des rituels, des penses-bêtes, des formats-types, des solutions informatisées… Tout ce qui permet d’aiguiller efficacement les décisions, de rendre simple ce qui est complexe et de limiter le champs des possibles, c’est à dire de garder l’aléatoire à bonne distance.

Si l’entrepreneur conserve effectivement le contrôle sur ses opérations au début de sa croissance, limitant le besoin de figer les points de rencontre avec ses collaborateurs, il se retrouvera dépassé lorsque ceux-ci seront séparés géographiquement ou n’auront plus les mêmes chefs. De même, peut-on imaginer une chaîne de production tourner convenablement sans avoir établi au préalable une liste des tâches, leur enchaînement et leur répartition ?

Quand il devient nécessaire de structurer un processus

Mais est-ce uniquement la taille d’une entreprise qui motive l’harmonisation des pratiques ? D’ailleurs, doit-on construire systématiquement l’ensemble de ses processus ou une partie peut-elle suffire ? C’est essentiellement le niveau de complexité qui rend pertinente la standardisation.

La complexité d’une activité se mesure au travers de quelques inducteurs :

  • Le nombre de tâches à organiser et à cadencer, et celui des acteurs à réunir,
  • La transversalité de l’activité, c’est-à-dire le nombre d’entités internes ou externes à l’entreprise, de départements ou de services différents auxquels reportent les acteurs, et autant de chefs à fédérer pour les décisions majeures,
  • Le spectre de métiers différents à coordonner, du chercheur chevronné à l’agent commercial par exemple, qui constitue autant de barrières de langage, de « façons » de travailler et de rythmes différents.

Il n’est pas nécessaire de décrire l’intégralité d’un système pour déployer les bonnes pratiques. Au contraire, il est important de concentrer l’effort sur la complexité et d’être opportuniste en ciblant des activités avec un maximum de récurrence, telles que les projets de développement ou une chaîne de fabrication. La standardisation peut aussi conduire à des synergies, comme le regroupement des compétences partagées : un bureau d’étude central au service de business units par exemple.

Peut-on concilier standardisation et souplesse ?

Tous les processus ne sont pas mécanistes : l’innovation, la création et le design sont autant d’exemples qu’il est difficile de standardiser et de décrire dans le détail sans brider. Avant tout parce que les artistes, stylistes, designers et chercheurs produisent le résultat d’un travail de recherche continu et itératif. Ces activités sont également assujetties à des facteurs externes comme la mode et les évolutions technologiques. Ces processus peuvent être rythmés par des rendez-vous réguliers et des « attendus de réception », c’est-à-dire que l’on peut leur imposer un certain format de restitution. En revanche, essayer de les verrouiller en enchaînement d’activités et en durées reviendrait à contraindre des métiers qui trouvent leur inspiration dans une certaine forme de liberté. Ce serait, au final, source de frustration, de ralentissement et de destruction de valeur pour l’entreprise.

Il s’agit de processus d’exploration, qu’il est tout de même possible de cadrer pour en permettre le pilotage. En traçant des routes où se croisent explorateurs et exécutants, le dirigeant s’assure d’ancrer son staff créatif dans la réalité du business, sans pour autant déstabiliser son univers : des routines opérationnelles régulières sur une maille bien choisie et des points d’entrée clairs pour aiguiller les échanges.

Les processus d’exécution, que ceux-ci soient de production, de développement produit ou de pilotage des opérations, sont eux de formidables machines à gaspiller du temps et de l’énergie… Et donc un gisement d’efficience à exploiter. Une refonte lean permet d’activer ces gains à court et moyen termes, à condition que celle-ci soit maîtrisée, pragmatique et que les outils soient bien choisis.

Le potentiel de standardisation est d'autant plus grand que le processus est complexe et à finalité d'exécution.
Le potentiel de standardisation est d’autant plus grand que le processus est complexe et à finalité d’exécution.

Ainsi peut-on répondre à notre dirigeant qu’il reste possible de préserver toute la créativité de ses artisans et de gagner quelques points d’efficience. Mais, qu’il s’agisse de productivité ou simplement de redonner un peu de visibilité aux métiers, une démarche de structuration des processus n’aura de sens que si ceux-ci ont atteint un certain niveau de complexité.

Ce dirigeant avisé, ou bien conseillé, prendra donc soin de ne pas dérouler une méthode ad-hoc de Business Process Reengineering ou de Cost Killing destructrice. Il commencera au contraire par localiser ses activités sur une cartographie à l’image de celle présentée ci-dessus et de ne structurer que ce qui doit l’être. Et en gardant en vue que chaque pas vers la productivité enracinera un peu plus son entreprise dans le présent, la rendant plus difficile à manœuvrer en cas de changement brusque de son environnement.

Davy Rey – Juillet 2014

Illustration : Briquèterie à Tortosa, L’Usine | P. Picasso | Musée de l’Ermitage de Saint-Pétersbourg

La productivité n’est plus un pari d’avenir

Décrypter les (r)évolutions

Lorsqu’un beau matin de 1961, John Little formula sa célèbre équation, il ne pensait pas encore remettre en cause les fondements du taylorisme et de l’organisation scientifique du travail. Surtout à cette époque, encore marquée par la fin de la guerre et par une accélération constante de la consommation des ménages. Tous les « indicateurs » étant au vert, la tentation était forte de croire à la fin des crises mondiales, qu’elles soient politiques ou boursières, et à la croissance perpétuelle.

Bref, la problématique de l’époque n’était pas tant de vendre sa marchandise que d’en produire toujours plus. Le chiffre d’affaire d’une activité pouvait se mesurer à sa capacité de production. Ce qu’a compris Little à l’époque, sans le formuler comme cela d’ailleurs, c’est qu’une usine met d’autant plus de temps à produire qu’on la sature de matière première, de composants et d’emballages vides. Ce qui aurait pu permettre d’anticiper un peu mieux le changement qui s’opèrerait quelques années plus tard, avec les premiers chocs pétroliers.

Après les Trente glorieuses, suivirent ce que Jacques Généreux nomme aujourd’hui la Grande régression et une inversion progressive du rapport de force entre industriels et consommateurs. La demande se comprima, se segmenta et devint plus exigeante. L’industriel ne savait dès lors plus comment « rentabiliser » ses capacités de production. Lancer un ordre de fabrication se décidait alors sur la promesse de vendre la quantité produite ou s’accompagnait d’une prise de risque. Un tel changement aurait dû être enclin à remettre tout le système en cause.

Pourtant, on continua à lancer « suffisamment » pour occuper les hommes et les machines. La nature humaine étant ainsi faite qu’elle a horreur du vide, on aime aujourd’hui encore mesurer la performance des ateliers par leur « taux d’occupation », leur rendement et l’amortissement des capitaux investis : un bon investissement et une masse salariale dimensionnée au plus juste se caractérisent par un emploi proche de 100% des machines et des hommes, quitte à venir gonfler des stocks de produits finis qui ne seront peut-être jamais vendus. Dans les bureaux, on se rassure sur sa contribution au business en courant partout et dans tous les sens, en partant après le chef. « Je suis sous l’eau, là, mais je vais trouver du temps pour m’occuper de ton dossier ». Etre sous-occupé, c’est faire perdre de l’argent à son employeur.

Imaginez acheter une voiture : feriez-vous des tours de parking, juste pour vous assurer de l’avoir « amortie » ?

Oubliez la productivité, renouvelez l’offre !

En réalité, saturer les ressources est même destructeur de valeur. La productivité, en visant le « zéro temps mort », attire l’entreprise dans une spirale infernale, en poussant toujours plus de matière première à l’entrée des usines. De véritables files d’attente se créent tout au long de la chaîne et, pire, s’autoalimentent. En effet, plus nombreux sont les encours en production (les produits semi-finis qui transitent d’une machine à l’autre dans l’usine), plus les articles mettent du temps à sortir et donc à être facturés. Or le besoin de financement pour approvisionner toujours plus de matières augmente proportionnellement au délai de facturation. Autrement dit, les délais rallongent à mesure que la trésorerie s’atrophie… et pourtant « les employés sont tout le temps occupés ! ».

Ce concept reste difficile à appréhender pour nombre d’industriels. Un argument souvent avancé est qu’il est toujours possible de prioriser et de re-prioriser les commandes une fois lancées en production, ce qui permettrait, dit-on, de moduler les délais de production en fonction de la situation. Pourtant, changer les priorités ne permet non seulement pas de réduire les délais, mais rallonge même le temps moyen pour produire un article. C’est démontrable mathématiquement et l’observation m’a jusqu’ici toujours donné raison : certaines des entreprises que nous avons accompagnées ont pu rapidement diviser leurs délais par 2 ou par 3 en maîtrisant simplement l’accumulation de leurs encours. Voici donc comment on sort d’une spirale infernale en production, en vertu de la loi de Little : réduire ses encours et les tailles de lot, pour sortir et pouvoir vendre ses produits plus vite, et réduire d’autant le besoin de financement de l’activité. Et pourtant, « mon atelier est vide et certains gars sont sous-occupés ! ». Si des outils un peu galvaudés comme le Lean manufacturing ont permis une certaine prise de conscience, il n’en reste pas moins que la productivité est le paramètre numéro 1 du pilotage de nos usines françaises.

Cependant, même le Lean et son dérivé le 6-Sigmas, mal employés et mal interprétés, peuvent, en fait de réduction des coûts et d’accroissement des capacités, détruire de la valeur. En témoignent les services « Amélioration continue », qui ont poussés comme des champignons au sein des équipes de production, des directions qualité et des méthodes, et qui représentent autant de charges fixes permanentes venant alourdir la structure pour, souvent, de maigres résultats en retour. Sans parler de la difficulté à transformer ces gains en points de marge et des impacts sociaux lorsqu’il s’agit de réduction de la masse salariale.

Comment s’apercevoir de ce paradoxe ? Le nombre d’indicateurs de performance : combien de temps cela prend-il pour collecter les données, les analyser, produire le reporting puis l’archiver pour le consolider ultérieurement, mettre à jour l’affichage aux équipes, former et reformer les opérateurs au suivi des données… En général, plus les données sont précises et les indicateurs documentés, plus le gaspillage est grand et plus le besoin se fait sentir de recruter davantage d’ingénieurs, qui viendront eux-mêmes avec leurs propres outils de pilotage… Tout cela pour en revenir systématiquement aux mêmes leviers : standardisation des postes, réduction des temps morts et des encours de production, amélioration de la qualité et cadencement des activités. Qu’apporte un indicateur, lorsque le potentiel d’amélioration peut être évalué par l’observation et le bon sens ? Qu’apporte un indicateur lorsque seul compte, au final, le résultat financier de l’activité ?

Ces quelques exemples, non exhaustifs, témoignent que la réduction des coûts, qu’elle se cache derrière de la « productivité » ou de l’« amélioration continue », ne crée finalement pas de valeur et génère de la structure, c’est-à-dire de la lourdeur autoalimentée. Or la lourdeur, c’est tout l’inverse de l’« agilité », terme qui prend de plus en plus de place dans le vocable des grands groupes, et que nous tenterons de définir par la suite.

Nous sommes actuellement au sommet d’une vague de désindustrialisation en Europe et, à l’heure de l’incertitude économique, les cycles de vie et de renouvellement des produits s’accélèrent. Le centre de gravité des enjeux se déplace donc naturellement de la productivité industrielle (réduction des coûts par unité) vers le développement de nouveaux produits et services (générateur de profit). Or ce dernier souffre des mêmes réflexes, et donc des mêmes maux, que sa grande sœur la production.

Le développement de nouvelles offres est une activité de projets. Lorsque les projets s’enchevêtrent et deviennent trop complexes, lorsqu’il faut renouveler toute une gamme de différents modèles automobiles par exemple, on en fait des programmes. Lorsque les programmes deviennent trop complexes, on outille les équipes avec des processus et des solutions informatiques qui aident à y voir plus clair et à tenir des délais… mais pas à accélérer les projets. Ici également et pour les mêmes raisons invoquées plus haut, il est important de limiter le nombre de projets menés de front pour les accélérer. Raccourcir les délais des projets permet d’introduire plus vite des produits innovants sur des marchés que la concurrence n’a pas encore explorés, de prendre les devants pour ne pas « subir » les cycles d’innovation. Et dans le cas d’un produit destiné à un marché existant, pour le renouveler sans le révolutionner, arriver plus tôt est un puissant catalyseur de valeur.

De surcroit, aujourd’hui comme hier, arriver plus tôt n’est pas gage de succès commercial. Encore faut-il arriver avec la bonne solution : celle qui répondra le mieux au besoin du client, qui saura le plus efficacement traiter sa problématique ou donner le plus envie au consommateur de consommer. Les techniques du développement agile permettent à la fois de réduire encore plus les délais et d’améliorer la pertinence des solutions proposées. Parmi ces techniques, quatre sont majeures :

  • Décomposer l’offre en quelques modules de base à prendre comme points de départ pour les nouveaux développements, pour accélérer la phase de conception.
  • Réduire les développements au « juste nécessaire », en mettant en regard coûts et valeur perçue, pour simplifier les phases de conception et d’industrialisation.
  • Recourir de manière intensive aux moyens de prototypage rapide tels que l’impression 3D et la simulation des interfaces utilisateurs sur terminaux mobiles afin de matérialiser et tester les solutions instantanément.
  • Spécifier et développer les solutions de manière itérative et les valider régulièrement en boucle courte avec le client.

Innovez pour dégager un maximum de valeur

La loi de Moore prévoyait dès 1965 que le nombre de transistors dans les circuits intégrés doublerait tous les 2 ans. Elle s’observe aujourd’hui dans tous les domaines de la technologie.
La loi de Moore prévoyait dès 1965 que le nombre de transistors dans les circuits intégrés doublerait tous les 2 ans. Cette contraction s’observe aujourd’hui dans tous les domaines de la technologie, ici la musique.

Cependant, cette stratégie d’injection rapide de nouveaux produits ne suffit pas sur des marchés toujours plus mouvants. Les cycles d’innovation, poussés par les nouvelles technologies, s’accélèrent conformément aux prédictions de Moore et engendrent des mutations fortes et rapides. « Fortes » car elles modifient profondément les rapports de force sur des segments d’activité et « rapides » parce que les offres des leaders, lorsqu’ils n’ont pas vu le coup venir, sont rendues obsolètes parfois en un temps record. La transition de l’argentique vers le numérique, celle du CD vers le fichier audio monétisé puis la licence unique, la substitution des GPS payants par des applications smartphone gratuites et communautaires sont autant d’exemples de ruptures spontanées. Difficilement prévisibles, ces ruptures s’accélèrent et s’intensifient grâce à la démocratisation des nouvelles technologies : si l’internet a libéré l’information, le web 2.0 et la connectivité ont, eux, fourni à sept milliards d’individus l’accès à des outils économiques puissants. Ils ont doté un public élargi du pouvoir de casser les codes et de transformer des marchés brusquement.

La conséquence pour la survie des grands groupes, comme pour le développement des petits acteurs, est de devoir constamment penser et repenser l’avenir. Il ne s’agit plus ici d’analyser les besoins des consommateurs, mais bien d’anticiper et d’inventer les marchés de demain, de créer les tendances et non plus seulement de les détecter. Pour dépasser le stade du simple vœu pieu, l’entreprise doit :

  • S’ouvrir en mettant en place une organisation qui respire et qui s’inspire : interpréter les tendances sur les secteurs connexes, dans le domaine de la recherche, capter les idées de son microcosme.
  • Interfacer son processus de développement avec une démarche simple et lisible permettant de capturer et de prioriser les innovations et les opportunités.
  • Positionner la « valeur » comme le pivot de l’initiative.

La valeur est un objet a priori intangible et par conséquent difficile à manipuler. Elle prend sa source dans la perception du consommateur, se traduit par un acte d’achat à un prix donné et se mesure comptablement par la « valeur ajoutée ». Il s’agit du produit des ventes auquel sont retranchées les dépenses d’exploitation variables, telles que la matière première et les composants achetés.

L’analyse de la valeur est une terminologie galvaudée, trop souvent restreinte à la (re)définition d’un produit ou d’une solution, et qui conduit généralement à des réductions de matière ou le choix de composants moins chers. Typiquement, elle est l’initiative du service Achat pour identifier 5 à 10% de réduction de coût d’acquisition, qui seront mis en œuvre tant bien que mal et par de la négociation de toute façon.

Par opposition, une démarche de création de valeur repositionne l’analyse sur la « valeur ajoutée », c’est-à-dire, le surplus de valeur dont bénéficie le client en échange d’une dépense qu’il consent à réaliser. Dès lors, c’est la fonctionnalité et le service rendu qui deviennent objets d’étude : on s’intéressera davantage à la manière de planter un clou dans un mur, à l’ergonomie du geste et à la satisfaction de l’utilisateur qui contemple son tableau bien droit, plutôt qu’à la taille du manche du marteau ou à sa quantité de métal. Ainsi, on cherchera à augmenter la qualité du service rendu : après tout, si le besoin de l’utilisateur est de positionner des tableaux bien droits sur le mur de son salon, planter des clous est une solution finalement fastidieuse et qui requiert détermination et dextérité… Un revêtement adhésif invisible demanderait déjà moins d’énergie, des cadres-photos avec un niveau intégré pour une pose plus simple, du papier peint imprimé personnalisé, des vidéos-projecteurs muraux… autant de solutions qui permettent sans doute de (mieux) remplir la même fonction et d’une manière plus ludique. Elles sont issues de réflexions « out of the box » ou s’inspirent simplement de ce qui se fait ailleurs, chez des concurrents ou dans d’autres secteurs d’activité… Et même dans le vivant : les techniques du biomimétisme sont déjà appliquées dans de nombreux secteurs et permettent d’étendre encore la recherche de principes alternatifs. Reste à évaluer leur applicabilité.

Une réflexion autour de la fonctionnalité et de la valeur conduit parfois à remettre en cause le modèle économique : le consommateur doit-il détenir l’outil qui lui permet de planter un clou, ou souhaite-t-il simplement bénéficier du service « positionner ce tableau bien droit sur mon mur » sans disposer de l’outil ? Dans ce dernier cas, les solutions sont à explorer dans le domaine de la location de matériel ou du service à la personne par exemple.

Il s’agit bien de proposer le bon niveau de fonctionnalité au « juste prix » et non plus de simplement réduire les coûts pour survivre. C’est un paradoxe dans notre mode de pensée analytique, alimentée de Kaizen et d’autres outils du lean manufacturing, mais c’est bien en sortant de la recherche du progrès continu que l’on crée de la valeur.

Préparer dès aujourd’hui la transition vers un modèle « agile et résilient »

Changement de paradigme pour l'entreprise !
Changement de paradigme pour l’entreprise !

La recherche de productivité est donc une solution de contournement, car il s’agit en effet d’optimiser un actif déjà financé. Le mal est fait : qu’elle soit amortie ou non, la dépense est réalisée, quelle que soit la pseudo- « rentabilité » de l’actif. Or, à partir du moment où il est investi, le capital est soumis à un risque d’obsolescence. Celui-ci est d’autant plus grand que les cycles d’innovation raccourcissent.

Que faire d’une capacité de production de disques compacts, aussi performante soit-elle, quand les CD disparaissent soudainement au profit de fichiers numériques ? Que faire des bâtiments, des machines, des racks de stockage, du matériel de manutention… ? Sans compter les dépenses afférentes d’entretien et de maintenance.

L’immobilisation, comme son nom l’indique, c’est créer de la structure et la structure, c’est un ancrage dans un présent qui est peut-être déjà révolu. Or une entreprise agile est une entreprise qui anticipe le changement significatif des conditions dans lesquelles elle évolue et qui sait s’adapter avant ses concurrents et suffisamment vite pour limiter l’arrivée de nouveaux entrants.

L’entreprise agile de demain verra donc l’immobilisation comme une lourdeur et la recherche de productivité comme une perte de temps. Sa structure sera moindre et elle sera flexible, ses dépenses seront variabilisées, c’est-à-dire que ses investissements seront réduits au strict minimum. Elle recourra davantage à la sous-traitance de sa production et même de sa chaîne logistique, au partenariat pour le développement de ses propres expertises, car la valeur de celles-ci sera limitée dans le temps.

Les technologies additives permettent dès à présent de produire en local pour des applications allant du jouet à l’aéronautique. D’ici 5 à 10 ans, l’impression 3D sera suffisamment performante pour un emploi industriel élargi.

D’une part, le réseau naissant des « fab-labs », ces centres de production externalisés qui impriment les pièces ou les produits finis de tiers industriels ou particuliers, aura suffisamment développé ses cadences et sa polyvalence pour permettre à une entreprise agile d’opter pour le « fab-less », c’est-à-dire l’externalisation de 100% de sa fabrication. D’autre part, ce réseau aura fortement proliféré de sorte à permettre l’impression en local partout dans le monde, rendant obsolète le fret de produits finis et incitant à externaliser la distribution sur les derniers kilomètres.

Au final, l’entreprise agile, très externalisée sur tout ce qui lui coûte aujourd’hui, sera recentrée sur son générateur de revenu principal : l’animation et le développement de son offre. Une remise en cause profonde de l’offre engendre nécessairement des transformations plus ou moins profondes des métiers et des processus. Si l’entreprise agile est très externalisée, y compris sur ses expertises, elle ne pourra pas compter sans un socle minimum de collaborateurs pour assurer la continuité de gestion de l’entreprise.

Ce qui implique un réalignement du cœur de l’organisation chaque fois que l’offre est à renouveler, et qui n’est envisageable que dans le cas où chaque collaborateur se définit (et se reconnait) davantage par les responsabilités qu’il acquiert dans une organisation, et qui peuvent évoluer dans le temps, plutôt qu’au travers d’un rattachement hiérarchique figé dans un organigramme.

Un tel système, qualifié d’holomorphe, s’expérimente depuis les années soixante en France. Il présuppose l’abolition de l’organigramme et le rassemblement de cellules ou de cercles très autonomes autour d’un leader charismatique. Lorsque l’environnement de l’entreprise évolue au-delà d’un certain seuil, une nouvelle cellule est générée ou mute. Elle définit et redéfinit elle-même ses missions et attribue des responsabilités et des rôles temporaires à chacun de ses membres, ses brins d’ADN. Ainsi l’entreprise agile holomorphe s’aligne-t-elle en permanence avec l’émergence de nouveaux marchés ou la maturation de nouvelles technologies exploitables. Le suivi d’indicateurs, hormis ceux jugés utiles par la cellule, n’est plus l’enjeu et est réduit à néant. Le leader charismatique mesure la performance au mois ou au trimestre par le compte de résultat.

Ce modèle flexible permettra à l’entreprise agile de s’adapter au raccourcissement des cycles d’innovation et de respirer au rythme des évolutions de son environnement. Il facilitera aussi sa résilience face aux crises économiques et financières (car très externalisé), et politiques (car peu d’immobilisation en marché local), tout en préservant une logique de développement de ses collaborateurs (mutation des cellules au gré des besoins).

Mais surtout, ce modèle rendra l’entreprise capable de capturer la valeur au moment où celle-ci est accessible et dans les meilleures conditions, c’est-à-dire à dépenses d’exploitation raisonnables et sans investissement. Puis de changer, à nouveau, pour se désengager instantanément d’activités obsolètes au profit de nouvelles opportunités prometteuses.

Davy Rey – juin 2014