Histoire du Supply Chain Management

De l’organisation industrielle au supply chain management : un siècle d’innovation continue[1]

par Alain Spalanzani, Professeur à l’Universite Pierre Mendès France, Grenoble, France

Introduction

S’il est un domaine dans lequel l’innovation a été importante, c’est bien celui de l’organisation industrielle. Cette innovation porte sur au moins cinq points essen-tiels : l’outil de production et les méthodes de travail, les processus de décision et de gestion, la gestion des ressources humaines, les systèmes d’information et les relations partenariales.

L’innovation dans le domaine de l’organisation industrielle peut être analysée en trois phases distinctes. La première de ces phases, 1900-1975[2], est celle de l’émergence et de la maturité de l’organisation industrielle dans une logique de pro-duction de masse ; le « fordisme » et le « taylorisme » caractérisent cette période. La seconde phase, 1975-1995, post-crise pétrolière, marquée par le « toyotisme » et le mouvement de la qualité, est celle de l’excellence industrielle. Les acquis de cette seconde phase ont été très importants et donneront lieu à un large développement dans une seconde partie. Enfin, la troisième phase, dans laquelle nous sommes immergés depuis une décennie, est celle de la mondialisation, de l’entreprise en réseau, des technologies de l’information et de la communication et du supply chain management. Cette phase en pleine construction fait porter le regard du chercheur sur les problèmes de coopération et de collaboration.

Toutes ces périodes sont, tant sur le plan industriel que sur le plan managérial, des périodes fortes d’innovation.

1. Phase 1(1900-1975) : Naissance et construction de l’organisation industrielle moderne

1.1.- L’ère des pionniers

Le terme « révolution industrielle » qui, à la fin du 18e siècle, a vu au sein des usines le regroupement d’artisans et l’utilisation de technologies nouvelles (machines à vapeur, utilisation de l’électricité, métiers à tisser mécaniques,…) est en lui-même évocateur. Cette période, avec Adam Smith, Thomas Jefferson, Eli Whitney et l’émergence de concepts comme la division du travail, la mesure du travail ou l’in-terchangeabilité, voit aussi naître les premières réflexions sur la gestion industrielle.

C’est bien évidemment avec Frederic Taylor et son ouvrage Principles of scientific management, paru en 1911 puis, et surtout avec Henry Ford I dans Today and tomor-row paru en 1926, que sont formulées les premières grandes idées novatrices en matière d’organisation industrielle. Ces idées ont donné lieu à l’industrie moderne.

Les principes du « management scientifique » de F. Taylor sont sous-tendus par au moins deux idées nouvelles pour l’époque. La première idée avance qu’il n’y a pas, a priori, de structure ou division du travail idéale ; l’organisation du travail est une science expérimentale qui cherche à éliminer les gaspillages (de matières, de temps, d’argent,…)[3], qui ne relève d’aucun déterminisme et qui doit s’appuyer sur l’observation et la mesure systématique. La seconde idée concerne le management fonctionnel[4] (un subordonné peut avoir plusieurs chefs, des spécialistes) et l’idée de la nécessité d’une coopération étroite, basée sur la confiance, entre le mana-gement et les ouvriers. Bien que très critiqué par l’école des ressources humaines pour sa conception sommaire de la psychologie du travail, le management scien-tifique s’appuie sur un modèle, une forme d’idéal d’entreprise, basé sur une logique de type « gagnant-gagnant » pour les partenaires de l’entreprise : la prospérité de l’employeur entendue comme un stade permanent de prospérité de l’entreprise et la prospérité de l’employé, financière mais aussi concernant son développement personnel. Par bien des aspects, F. Taylor pose les principes des cercles de qualité qui naîtront quelques 50 ans plus tard au Japon[5].

H. Ford, considéré par beaucoup comme le plus grand industriel de son siècle, établit, à travers la « production répétitive de masse », les principes de l’industrie moderne des produits standardisés et de grande consommation. Ces principes, connus universellement, consistent à organiser en flux continus des opérations de production par nature discontinues et à jouer sur les effets de volume (d’échelle et d’expérience). Par ailleurs, son obsession à économiser le travail humain et les ressources engage l’entreprise Ford dans une démarche d’innovation à tous les niveaux, des processus industriels jusqu’au niveau des transports. Certains des chapitres[6] dans « Propos d’hier pour aujourd’hui » sont révélateurs de cette volonté permanente d’innovation que résume l’auteur dans les termes suivants : « … et aujourd’hui comme naguère, les idées ne manquent pas. Il suffirait de peu pour les mettre en application et sortir le monde de ses ornières, éliminer la misère et procurer des emplois décents à tous ceux qui ont la volonté de travailler. Seules les vieilles notions font obstacle à ces idées neuves. Le monde s’invente des chaînes, se bande les yeux et s’étonne de ne pouvoir courir ». Ces propos universels, toujours d’actualité et qui annoncent déjà les principes de la conduite du changement, ont fait dire, quelques 50 années plus tard, à Taiichi Ohno, père du « toyotisme », qu’Henri Ford était un visionnaire.

Pour conclure sur cette ère des pionniers qui a constitué la première grande phase de rupture en matière d’organisation industrielle, on peut associer, sous l’angle du management, le nom d’Alfred Sloan (1963), non seulement pour « l’invention » du management décentralisé des sites industriels, mais aussi pour son concept de « contradiction créative », repris quelques 30 années plus tard par R. Pascale (1990) dans l’étude des entreprises qui se transforment en « machines à questions ».

Ce qui caractérise l’ère des pionniers, c’est qu’elle a systématiquement placé l’innovation au centre de son action au quotidien, annonçant les démarches de progrès de type « Kaizen », des années 80.

1.2.- Le contexte et l’état de l’art à la fin des années 70

Les années 75-80 peuvent être considérées comme la fin de la phase 1. Jusqu’au milieu des années 70, la production industrielle évolue dans un contexte écono-mique globalement porteur, peu générateur de perturbations majeures susceptibles d’engendrer une adaptation en profondeur de l’organisation de la production industrielle. Globalement, les délais de livraison au client sont importants, la personnalisation des produits modérée et la production relativement standard. Les outils de gestion de la production utilisés à la fin des années 70 sont alors conçus autour des systèmes MRP[7] (Orlicky, 1975) et la gestion dite « scientifique » des stocks (Hadley et Whitin, 1966). Les logiciels « vedettes » s’appellent COPICS, MM 3000, TZAR, pour les grosses organisations, MAPICS pour les PME-PMI, et fonctionnent en mode « batch » sur quelques familles d’ordinateurs dont les perfor-mances nous apparaissent maintenant dérisoires. L’évolution de la technologie informatique rend accessibles les premières mises à jour en temps réel, par des « pointeaux d’atelier », de l’avancement de la production au sein même de l’atelier, accélérant ainsi le retour d’information sur le déroulement de cette même pro-duction. Le paramétrage de ces systèmes de pilotage intègre un important excédent organisationnel, soit à travers des règles de temps – « on fabrique un composant la première quinzaine du mois qui précède son montage », soit à travers des règles de volume et de sécurité, par l’intermédiaire de calculs « optimisants » des stocks (modèle de la quantité économique flottante) et l’introduction de stocks de sécurité (couverture de n fois l’écart-type de la demande pendant le délai de livraison…). Enfin, le pas de la « replanification » est souvent le mois, voire le trimestre, et les périodes dites « gelées », d’une durée de deux ou trois mois pendant lesquelles on s’interdit de modifier le plan de production, sont d’un usage fréquent.

L’innovation pendant toute la phase 1 et plus particulièrement dans le domaine de la production de type masse, porte pour l’essentiel sur la recherche de la perfor-mance de l’outil de production et concerne plus particulièrement le développement des lignes de production (ou lignes transferts). La recherche de la productivité de volume est l’objectif visé par tous. Les productions de type atelier restent confinées dans une logique de flexibilité opérative, à rendement faible.

Dans ce « monde d’ingénieurs », la recherche en gestion de production est alors fortement influencée par la recherche opérationnelle et s’oriente principalement autour des modèles d’optimisation des stocks (gestion dite « scientifique des stocks »), de la modélisation des flux et des processus et des heuristiques d’ordon-nancement d’atelier.

Une telle organisation, dont le manque de flexibilité et de réactivité conduit à une production dite en « flux poussés » peut, dans une période de croissance écono-mique forte, paraître satisfaisante du point de vue de l’industriel. Elle est cependant génératrice de stocks très importants par la gestion par lots qui préside à son fonctionnement et par l’ensemble des sécurités qu’elle s’impose à tous les niveaux du processus de production (parfois plus de trois mois de stocks). L’impact sur le besoin en fonds de roulement et la trésorerie, voire sur la rentabilité, est très négatif, et la performance de la commande de production est assez faible.

2. La phase 2 (1975-1990) : l’émergence de l’excellence organisationnelle et l’ère du lean management [8]

Cette période, qui succède à une crise économique va être en quête de performance et d’excellence au niveau du fonctionnement des organisations de production. C’est une période très importante en matière d’innovation car différentes évolutions majeures émergent en Europe, dès la fin des années 70. Citons : le concept de productique et les ateliers flexibles, les systèmes d’information et les commandes numériques, le mouvement de la qualité, et l’ensemble des méthodes issues du toyotisme. C’est principalement sous ce courant du « toyotisme », dont les principes conçus par Taiichi Ohno dans son ouvrage Toyota Seisan Hoshiki paru en 1978, qu’ont été élaborées les innovations les plus spectaculaires en matière de gestion industrielle. Tout comme F. Taylor ou H. Ford, la chasse aux gaspillages (le pire est l’excès de production et la prolifération des stocks) est l’une des préoccupations principales de T. Ohno, qui pose les principes d’une entreprise qualifiée de « fru-gale » et « agile ». Il fonde alors les principes du toyotisme autour de deux piliers : le juste-à-temps (inspiré du fonctionnement du supermarché) ou la logique de flux tirés qui définit la façon dont doivent se comporter les acteurs de la production (l’attitude doit être celle du chasseur plutôt que celle de l’agriculteur), et l’auto-activation (ou autonomation) qui correspond à la capacité qu’a l’entreprise à arrêter en temps réel, à l’aide de systèmes de prévention (ou « poka-yoke », (Shingo, 1987)), le dysfonctionnement des ressources activées (individus ou machines). La qualité des prévisions, le lissage de la production, les lots de petite taille et la réactivité sont essentiels dans le système Toyota[9]. Les principes d’économies mis en œuvre par    T. Ohno prennent à contre-pied (« penser à l’envers ») les principes dérivés du fordisme, fondés sur une logique de grands volumes et sur une planification dite « poussée ».

Cependant, tout comme H. Ford que T. Ohno tenait en grande estime[10], l’inno-vation par la remise en cause permanente des acquis et des modes de pensées[11] et la compréhension du terrain (l’usine d’abord et pas d’art sans pratique[12]) constituent un mode fondamental du management de l’entreprise.

2.1.- Le contexte économique de la fin des années 70 et l’émergence d’un besoin d’innovation

La fin des trente glorieuses et les différents chocs pétroliers bouleversent le contexte économique, le faisant passer d’une relative stabilité à une période de turbulence forte liée à une période de crise économique. La traduction de cette turbulence au niveau de la gestion industrielle se manifeste par un changement de niveau du réglage des paramètres externes sur lesquels s’appuie l’organisation de la production industrielle.

Les principaux changements observés concernent la réduction des délais, l’incer-titude sur les volumes, la personnalisation plus forte des produits et la réduction des prix. À titre d’illustration, le délai de livraison au client d’une famille de transformateurs électriques passe de trois mois au milieu des années 70, à 15 jours voire une semaine début des années 90, les prévisions en volume de gros engins de terrassement, fiables à 3% au niveau européen, ne sont plus connues qu’à 3 mois avec une fiabilité de 30%. Les audits qualité des grands équipementiers fixent des objectifs de réduction des coûts de production à leurs fournisseurs de 5% par an sur trois ans, hors achat. Par ailleurs, ce changement des seuils du paramétrage de la planification s’effectue par effet de contagion de l’aval vers l’amont, du client au fournisseur du fournisseur, chaque client du processus global de production cherchant à transférer à son fournisseur direct une partie des perturbations qu’il a lui-même reçues de son propre client.

Enfin, les critères d’efficacité ne sont pas les seuls concernés, les critères d’efficience le sont aussi. En particulier, le niveau des stocks et des encours devient un indicateur de performance d’autant plus sensible que le niveau de l’inflation (supérieur à 10%) est élevé et le coût de financement des actifs important.

En résumé, coûts de revient faibles, délais de livraison courts, incertitude sur les volumes, stocks minimums constituent alors les éléments du nouveau référentiel de l’organisation industrielle qui va passer d’un paradigme en « flux poussés » vers un nouveau paradigme en « flux tirés ».

Dès lors, le nouveau contexte économique impose aux entreprises une adaptation, voire une évolution, en profondeur de leur organisation de la production.

Cette évolution consiste pour l’essentiel en une recherche de la flexibilité et de la performance économique. La flexibilité permet à l’entreprise de mieux s’adapter aux variations de volumes et de nature de la demande. La performance économique est recherchée pour son impact direct sur les coûts de production.

Cette adaptation qui va donner naissance à de nombreuses innovations dans le domaine de la l’organisation et la gestion industrielle, peut s’analyser, de manière très classique, au niveau des trois systèmes : le système de commande ou de pilotage, le système physique de production et le système d’information.

2.2.- L’innovation au niveau de la commande de production

La recherche de la flexibilité et de la productivité qui concerne simultanément les hommes et les processus de pilotage, va faire émerger une cascade d’innovations.

a) Au niveau des individus, fait révélateur pour l’époque et lourd de symbole, la fonction de chef du personnel s’efface au profit de celle de directeur des ressources humaines. Le mouvement qualité, à travers les cercles de qualité ou de pilotage (il y en avait encore 30000 en 1987), la médiatisation de grands « gourous » (Crosby, Juran, Deming,…) et sous l’impulsion (principalement) de l’AFCERQ[13], émerge en France dès 1980. Ce mouvement de la qualité va être à l’origine d’un florilège d’innovations tant au niveau des outils de mobilisation des individus, en particulier d’animation de groupes de personnes, que des pratiques managériales.

La « théorie Z » de W. Ouchi (1982) et le management « à la japonaise » confortent les managers dans le bien-fondé d’une nouvelle approche participative qui implique l’individu et donc le responsabilise. Le concept de polyvalence, voire de poly-compétences, vient concurrencer celui de spécialiste que l’on considère comme générateur de cloisonnement organisationnel et donc, moins adapté à un environ-nement turbulent. La vision globale des acteurs, ainsi acquise, est un élément important d’anticipation et de lutte contre l’incertitude.

Les idées majeures qui émergent du mouvement qualité sont alors : management participatif, initiative, autonomie, confiance, compétence, responsabilisation… et for-mation[14]. Le management, à tous les niveaux, doit donc évoluer vers une plus grande capacité à dynamiser l’individu, principale source de productivité et d’innovation.

L’orientation « résolution de problèmes » prise au début des années 80 relève d’une logique projet qu’elle fait émerger à nouveau comme acte managérial. Elle constitue, de notre point de vue, une première démarche de management de la connaissance. Les outils développés et mis en œuvre (outils dits de la « première génération » : méthode des « quatre-quatre », graphique Ishikawa,…) n’ont pas d’autre finalité que (1) l’extraction d’un savoir tacite et sa codification en savoir explicite (phase de formalisation ou d’externalisation du modèle SECI[15] de I. Nonaka, 1995) et (2) l’amorce d’une boucle de progrès de type PDCA[16] de W.E. Deming (1986). La multiplication des cercles de qualité au sein d’une même struc-ture constitue une première forme de conduite de changement et place, dès cette époque, l’organisation dans une logique d’entreprise apprenante[17].

Les approches développées dans un second temps : plans d’action qualité (1985), normes ISO 9000 (1987, 1994, 2000), peuvent, elles aussi, être rattachées à ce processus.

La méthode « 6sigma » beaucoup plus récente (1995), sous couvert d’une approche qualité relève, elle aussi, d’une démarche de conduite du changement. Cependant ces nouvelles méthodes cherchent, à travers la création d’un langage et une culture com-mune, à mieux construire la phase d’intériorisation du modèle de Nonaka et essaient de mieux boucler la spirale de l’apprentissage organisationnel (Spalanzani, 2003).

L’évolution des fonctions de l’encadrement intermédiaire est une des conséquences les plus spectaculaires de la mise en œuvre des démarches qualité. On demande à l’encadrement intermédiaire de développer des compétences de formateur et d’animateur et on diminue le nombre de niveaux hiérarchiques dans les ateliers (de 5 à 2 chez certains constructeurs automobiles) afin de faciliter la responsabilisation et la communication. L’encadrement intermédiaire évolue dans une logique de meilleure prise de décision collective.

Enfin, au-delà de l’impact sur la gestion des ressources humaines, ces démarches placent au centre de l’entreprise son premier partenaire, le client, et la valeur qu’il perçoit des produits et services. Une des définitions de la qualité totale est alors « la satisfaction des spécifications client (efficacité) au moindre coût (efficience) ». Cette redécouverte, pourtant naturelle, est perçue, à l’époque, comme une réelle innovation au sens où les préoccupations de tous les acteurs de l’entreprise doivent s’aligner sur un même point de mire. Le client (roi) redevient le principal partenaire de l’entreprise, et impose à tous le respect des principes de conformité et d’idonéité, (Neuville, 96). La qualité devient un levier d’action pour le management.

b) Au niveau des processus, l’innovation peut être observée à travers une quadruple évolution.

  • La première évolution, peut-être la plus spectaculaire, est l’abandon du principe de synchronisation des flux par la mise en place d’une cascade de stocks. La consé-quence est l’obsolescence soudaine (en moins de cinq années) de toute une famille d’outils d’aide à la décision dont la gestion « scientifique » des stocks. Le modèle de Wilson et ses développements sont mis dans la catégorie « jurassic management ». La raison est double : (1) les hypothèses, en particulier de stabilité, sur lesquelles est fondée cette famille de modèles ne sont plus idoines, (2) les nouvelles valeurs des paramètres pris en compte par le modèle aboutissent à une décision proche de celle du juste à temps. À titre d’illustration, les changements rapides d’outils (méthodes SMED) ont pour conséquence une diminution très grande du coût de réglage des machines dont la conséquence est une proposition systématique des modèles de tailles de lots de production faibles. Le vieux modèle de Wilson se « réincarne » alors en juste à temps. Comme le souligne J.-C. Tarondeau (1992), « de variable de commande, la quantité économique devient objectif à minimiser ; de paramètre physique, le coût de réglage devient variable de commande ; d’objectif à optimiser, la fonction coût s’est transformée en contrainte à satisfaire ».

La gestion a une histoire et la gestion des stocks, après plus de 50 ans de bons et loyaux services, disparaît des logiciels de production des entreprises. Avec sa disparition, tout un pan de la recherche opérationnelle s’effondre.

  • La seconde évolution d’importance, conséquence directe de l’évolution précédente, est l’intérêt renouvelé pour les techniques de planification glissante et le raccourcissement du pas lors de leur mise en œuvre. La raison de cette redécouverte est liée d’une part à l’évolution des capacités informatiques, et d’autre part à l’instabilité du marché, des commandes clients et à la difficulté d’effectuer, à terme, des prévisions suffisamment fiables. Dans un tel contexte, une politique de stocks est inefficace (« on n’a jamais le bon stock ») et l’absorption des aléas lors de la réalisation des plans de fabrication et d’approvisionnement s’effectue par la mise en œuvre des systèmes MRP qui sont alors activés beaucoup plus fréquemment (toutes les semaines, voire quotidiennement, avec un horizon à un mois au lieu du trimestre). La turbulence du marché a pour conséquence une redéfinition à la baisse des notions de court, moyen et long terme.
  • L’avènement du juste-à-temps (JàT) constitue la troisième évolution à travers une révolution par la simplicité. Le JàT met le client au centre de la production (« au commencement était le besoin »), et doit concilier efficacité et efficience. La logique de flux tirés doit permettre de livrer la juste quantité, au juste moment, au juste endroit…

L’évolution, à cette époque, de l’industrie des transports et le développement important des infrastructures de communication (routières, téléphoniques,…) ont facilité l’avènement du JàT.

  • La quatrième évolution est celle de la combinaison des systèmes précédents dans une démarche de différenciation retardée. Elle constitue un compromis entre les principes de planification poussée et de planification tirée, entre personnalisation des produits, coûts et délais. En effet, le JàT, aveugle et peu anticipateur, ne peut se substituer totalement au calcul des besoins en composants (MRP). La diffé-renciation retardée est d’autant plus justifiée que la personnalisation des produits s’effectue au dernier moment. C’est par exemple le cas dans le domaine informatique ou celui de la fabrication de meubles en grandes séries, dans laquelle les caissons sont standards et la personnalisation ne s’effectue qu’au niveau des portes et des poignées.

À l’évidence, la différenciation retardée ne peut devenir réellement efficace qu’avec la complicité (parfois nouvelle) des bureaux d’études lors de la conception des produits.

2.2.1- L’innovation au niveau du système physique de production

Pendant cette seconde phase (1975-1995), la recherche de la flexibilité et de la productivité concerne simultanément les produits (les flux) et l’appareil de production.

a) Les actions entreprises au niveau des produits, au-delà de la satisfaction du client soutenue par l’approche qualité, ont pour objectif de faciliter la mise en oeuvre des nouveaux modes de commande de la production. L’analyse de la valeur, la standardisation ont pour objet la simplification (ou « decontenting »)[18] des flux de production et par conséquent la gestion d’un moins grand nombre de références en stock et une plus grande flexibilité de production (« avec un nombre de références réduit, on a plus de chance d’avoir le bon stock »). La « juste qualité » technologique est, par ailleurs, indispensable au fonctionnement continu du juste à temps.

Les stratégies de réduction du portefeuille fournisseurs (la règle de la division par deux du nombre des fournisseurs est souvent énoncée) sont en partie la conséquence de l’évolution de la commande de production. Très rapidement, une approche privilégiée jusqu’alors en termes de prix-quantité (relevant d’une culture d’économie d’échelle), fait place à une approche beaucoup plus multicritères de la relation client-fournisseur, en introduisant d’autres critères tels que la qualité ou le respect du délai (notion de taux de service) mais aussi la flexibilité commerciale ou technologique. La santé financière, dans une logique de partenariat fidélisé, devient elle aussi un critère fondamental : on ne peut s’engager dans un partenariat à long terme avec un nombre de fournisseurs restreint que si ces derniers sont pérennes. Les stratégies de recherche et de sélection des fournisseurs, du ressort de la fonction achat, évoluent et l’on voit apparaître les premiers soubresauts d’une plus grande coopération entre les fonctions achat et de production.

b) Les innovations mises en œuvre au niveau de l’appareil de production constituent de véritables révolutions technologiques dont la plus spectaculaire est la création des ateliers flexibles. Le problème majeur posé est celui de la productivité. On estime qu’une pièce n’est usinée que 5% de son temps de passage en atelier (un vilebrequin, sur un temps de passage de 9 jours en atelier, est usiné seulement pendant 1 heure).

Ces nouvelles technologies de production s’appuient sur d’autres technologies alors en plein essor : la robotique et l’informatique. Leur objet est de trouver un compromis entre flexibilité et productivité, production de type atelier et production de type masse. Les investissements dans les ateliers flexibles sont excessivement importants et les résultats des calculs de retour sur investissement souvent négatifs. En réalité, les ateliers flexibles correspondent à des innovations technologiques de rupture qui permettent de passer d’une courbe de cycle de vie technologique à une autre.

La montée du niveau de qualification des opérateurs devient alors nécessaire pour une maîtrise des nouvelles technologies et un pilotage performant de ces ateliers (certaines entreprises peuvent consacrer à la formation près de 5% de leur masse salariale, 60 000 heures par an de formation pour moins de 2 000 personnes). La dimension productive directe de l’individu disparaît au profit d’une dimension de pilotage, de suivi, de maintenance… voire de conception et d’évolution de la machine (le technicien supérieur remplace le diplômé d’un CAP ou d’un brevet professionnel[19]). La conséquence indirecte de cet accroissement de la qualification est l’accélération du turn-over des opérateurs plus diplômés, donc plus ambitieux et, en réponse pour lutter contre cette fuite de compétences, une reconsidération des niveaux de compétences et de qualification sur une même machine.

2.2.2- L’impact des systèmes d’information 

La réalisation d’un certain nombre d’actions d’adaptation présentées précédemment n’aurait pas été possible sans l’évolution contingente, mais essentielle, de la techno-logie informatique et des systèmes d’information.

a) L’évolution spectaculaire de la capacité informatique : puissance de calcul, interactivité et délocalisation des terminaux de saisie.

C’est à l’évolution de la dimension technologique (hardware) des systèmes d’information qu’il convient d’attribuer la capacité de mise en œuvre de politiques plus flexibles. Plus de vingt années après la construction de l’ENIAC par E. Eckert et J. Mauchly en 1946, Gordon Moore montre dès 1965 que l’évolution de la performance des ordinateurs suit une loi du doublement, tous les 18 mois, du nombre de transistors montés sur circuit de même taille. La réalité, bien que dif-férente des prévisions de la loi de Moore, reste malgré tout très significative de cette évolution technologique. La conséquence est la multiplication par plus de 15000 de la performance (mesurée par la fréquence en Mhz du Control Process Unit) de calcul des ordinateurs, à un moindre coût. Les performances en matière de capacité de stockage ont elles aussi considérablement évolué pour passer de quelques dizaines de mégas à plusieurs terabytes.

C’est cette évolution de la performance technologique qui rend accessible la lutte contre l’incertitude par une mise en œuvre plus fréquente des systèmes MRP et la régénération plus fréquente (à la semaine ou journalière) de la planification de la production jusqu’alors inaccessible . Par ailleurs, les observations dans les entre-prises montrent que la saisie, in situ, de données relatives au suivi de la production développe non seulement plus de réactivité de la commande de production, mais parallèlement donne confiance aux opérateurs dans les informations fournies par le système de planification. À ce titre, on peut avancer que la technologie permet alors au système d’information d’acquérir un nouveau statut.

b) La naissance du *AO (assisté par ordinateur)

Au cours de cette première phase d’évolution, on observe une prolifération des logiciels en « AO » : GPAO, CAO, CFAO, MAO… Ces progiciels constituent les premières architectures des systèmes d’aide à conception, à la planification et à la décision. Face à leur prolifération, les problèmes d’interface, la multiplicité des langages de développement, l’hétérogénéité des progiciels du marché… ont rendu complexe le problème de cohérence de ces systèmes et de fiabilité des données saisies souvent à plusieurs endroits. L’ère du *AO sera suivie au début des années 90 par celle des ERP[20].

c) L’émergence de la robotique

L’évolution de la capacité de calcul favorise la mise en œuvre des systèmes robo-tiques par la combinaison de robots polyvalents en îlots de production, eux-mêmes combinés en ateliers flexibles. Les systèmes informatiques et d’information effectuent un pilotage complexe : d’un robot (exécution d’une gamme d’usinage), d’un îlot (affectation d’une tâche à un robot), de l’atelier flexible (coordination au niveau global de l’atelier, pilotage des transports…). Comme indiqué précédem-ment, les investissements lourds ne sont pas, a priori, estimés rentables, mais relèvent du pari stratégique à travers un changement de cycle de vie technologique : « les calculs de retour sur investissement sont mauvais, mais on sait que l’on doit effectuer ce type d’investissement ». Le choix de la technologie des ateliers flexibles apparaît alors comme le résultat d’un alignement sur la stratégie globale de l’entreprise et la recherche de flexibilité, condition essentielle à la survie de celle-ci.

S’il est évident que les constructeurs de machines outils innovent pour répondre aux nouveaux besoins du marché, on peut tout autant affirmer que l’opportunité que représentent les ateliers flexibles encourage un certain nombre d’entreprises à s’orienter vers une stratégie flexible. Cette double mise en cohérence relève bien d’une logique d’alignement stratégique (Venkatranam et al., 1993, Ballaz, 2002) définie comme une recherche, à travers la mise en œuvre des systèmes d’infor-mation, d’avantages concurrentiels durables.

d) La révélation provoquée par un système d’information et de commu-nication simple : le système kanban.

Le juste à temps, produit d’une culture de la frugalité et de la simplification, ne se substitue pas au MRP, mais constitue un sous-système de pilotage complémentaire et utilisé pour le court terme. La logique de flux tirés est alors rendue possible par la création d’une relation client-fournisseur interne, basée sur une relation bilatérale entre un poste aval et un (ou plusieurs) poste(s) amont. Dès lors, le système d’infor-mation de planification de la production peut être réduit à une simple circulation de cartes, ou kanbans, indiquant au poste amont ce dont le poste aval, le client interne, a besoin. Ce système prend à revers toute une école de pensée pour laquelle l’entreprise ne pouvait voir son salut qu’à travers le développement de systèmes d’information sophistiqués de l’ère des « *AO ».

Par ailleurs, le système « kanban » ne constitue pas la seule simplification importée du Japon. La multiplication dans l’atelier des points d’affichage des performances (qualité, délais…) et des diverses actions mises en œuvre (action 5S), l’étude col-lective des dysfonctionnements de pièces, favorisent non seulement l’information mais aussi la communication. L’ensemble de ces mesures (l’usine s’affiche, Greif, 1990) constitue un système d’information simple, souvent performant et accessible.

2.3.- Conclusion sur cette seconde grande phase d’innovation

L’innovation dans le domaine de la gestion industrielle pendant la période 1975-95 est non seulement un champ d’observations privilégié pour la compréhension de la théorie de la contingence structurelle, mais est porteuse d’une véritable révolution culturelle et technologique dans laquelle les systèmes d’information constituent un élément important dans un faisceau de causes, résumé de manière non-exhaustive ci-après.

Dans cette recherche de la flexibilité et de la performance, la gestion industrielle n’agit pas seule, toute l’entreprise est concernée. En particulier, les fonctions vente et achat accompagnent nécessairement cette adaptation : l’absorption des aléas ne peut s’opérer qu’au niveau d’un maillon de la chaîne de la valeur mais nécessite la mise en œuvre d’une relation plus coopérative et partenariale que celle constatée précédemment entre ces fonctions (concept de « materials management »). C’est aussi à cette époque qu’apparaissent les « cercles productiques », ancêtres de l’ingé-nierie simultanée. Au cours de cette période, une nouvelle densité organisationnelle se crée à travers de nouveaux modes de coopération. Certaines grandes entreprises vont aller jusqu’à une réorganisation de leurs ateliers en centres de profit, sortant la production d’une culture en centres de coût peu dynamisante et vieille de plusieurs décennies. À la fin des années 80, Caterpillar conçoit son projet PWAF (plan with a future) autour de cette logique – les ateliers deviennent des centres de profit internes.

a) Non seulement on retrouve, plus particulièrement à travers les démarches qualité, l’esprit de l’école des ressources humaines (le cercle de qualité a ressuscité l’atelier d’Hawthorne), mais on prend conscience que le capital intangible consacré à la création de connaissances et au capital humain a au moins autant d’importance que le capital tangible lié aux investissements. Aux E .U. le capital intangible avait dépassé le capital tangible depuis 1973 (David et Foray, 2002). Cette période est propice à de grands changements au niveau des compétences individuelles et collectives. La culture qualité cherche à s’introduire dans toute l’entreprise.

b) L’entreprise des années 90 cherche à développer sa flexibilité. D’une régulation de la production passive, par la mise en place d’une cascade de stocks, on passe à une régulation active, voire pro-active, par le développement systématique de la flexibilité. La production au rendement, basée sur une culture de lot et génératrice de non-qualité, disparaît progressivement. D’un point de vue théorique, la flexibilité d’une organisation peut être définie comme sa capacité à répondre, par trans-formation, à des événements non anticipés, à conserver sa meilleure trajectoire et à augmenter ainsi sa possibilité de survie.

L’organisation industrielle flexible « est celle qui dispose de surcapacités pour faire face à l’imprévu. Ces surcapacités peuvent être allouées aux produits, aux processus industriels et technologies, ou aux organisations » (Tarondeau, 1999)[21]. La valeur de la flexibilité est alors comparable à une valeur d’option, ou valeur que le décideur est prêt à payer pour conserver sa liberté future de choix. (Cohendet et Lléréna, 1989). « Elle correspond à un prix qu’un agent est prêt à payer pour maintenir ouverte une possibilité pour les périodes à venir » (Reix, 1997).

En fait, la recherche de la flexibilité comme mode de régulation va permettre d’augmenter la variété du système commandé et de s’approcher de la loi de la variété requise : elle permet non seulement d’augmenter la variété de la décision du système de pilotage mais aussi de jouer sur la vitesse d’exécution dans l’action. « Seule la variété peut détruire la variété » disait Ashby (1957). Ces deux éléments font de la flexibilité un élément clé de la stratégie de l’entreprise et de grands courants théoriques tels que la firme évolutionniste (Nelson et Winter, 1982) ou l’écologie des populations (Hannan et Freeman, 1989).

c) Enfin, l’accélération générale qui résulte de cette première phase d’adaptation ne peut être entreprise sans l’émergence parallèle, voire indépendante, des technologies de l’informatique. Les technologies de l’information ont offert à la flexibilité quatre propriétés essentielles (Reix, 1999) : la compression du temps, l’expansion de l’information stockée, la flexibilité d’usage et à un degré moindre la compression de l’espace. C’est de cette combinaison besoin-technologie qu’a pu naître une nouvelle organisation de la production plus porteuse de flexibilité. Une partie de la survie des entreprises, conditionnée par leur capacité de réactivité, dépend de leur aptitude à se saisir de l’opportunité qu’offrent les technologies émergentes de l’époque.

En résumé, pendant la période 1975-1995, l’entreprise industrielle fait essentielle-ment porter ses efforts sur la performance interne de son organisation. L’ensemble des méthodes développées pendant cette période pour la recherche de l’excellence organisationnelle a été classé dans la rubrique lean management.

La troisième période, dans laquelle nous sommes rentrés depuis plus d’une dizaine d’années, se consacre à une performance plus externe, centrée sur les réseaux développés par la firme, sous l’impulsion de la mondialisation.

3. La phase 3 (depuis 1995) : l’émergence du supply chain management (SCM) et de la coopération-collaboration au sein des réseaux industriels

Les évolutions des années 80 ont très fortement remodelé le paysage de la gestion industrielle. Globalement, même si ici ou là on a pu constater des échecs, l’ensem-ble des principes innovants développés pendant cette période constitue un acquis, un corpus de principes d’actions, relativement admis par l’ensemble des acteurs industriels. Les efforts entrepris de recherche, de productivité et de flexibilité ont essentiellement porté sur des principes et des actions à mener au sein d’une entreprise afin d’en optimiser la chaîne de la valeur interne.

La mondialisation des années 90 a amené l’entreprise à externaliser et à délocaliser ses unités de production. Les raisons de ce mouvement ont été multiples. K. Ferdows (1997) propose une classification de six types d’usines s’appuyant sur trois causes principales de localisation à l’étranger : les coûts de production, les compétences et le savoir, la proximité du marché. Ce double phénomène d’exter-nalisation des activités et de relocalisation des fournisseurs et des usines a favorisé l’émergence de l’entreprise en réseau et celle du supply chain management.

Ces nouvelles évolutions concernent donc, à travers le concept de supply chain[22], l’ensemble des entreprises partenaires au sein d’un même processus industriel (filière) ou d’un ensemble de filières connectées entre elles. Le supply chain management cherche non plus à optimiser la chaîne de la valeur d’une seule entreprise, d’un seul maillon de la filière, mais essaie d’optimiser la valeur créée par l’ensemble des entreprises de cette filière. L’étendue de cette chaîne de la valeur peut aller au-delà de la vie du produit et concerner son recyclage ou sa destruction : concept de reverse logistics. Le supply chain management recherche la valorisation du système de la valeur ou chaîne de la valeur étendue (Porter, 1985) : le système de la valeur pouvant être défini comme le chaînage des maillons simples que constituent les chaînes de valeurs internes des entreprises partenaires au sein d’un même processus industriel. Le supply chain management doit faire en sorte que « le tout soit plus que la somme des parties ». Là encore, les systèmes d’information semblent jouer un rôle déterminant, et à l’évolution contingente des années 80 semble succéder une nouvelle connivence production–systèmes d’information. Aux progiciels de planification interne des flux vont se superposer les systèmes d’information interorganisationnels (SIIO).

3.1.- Une innovation de rupture : le supply chain management

Vers le milieu des années 90 apparaît un nouveau concept, celui de supply chain management (SCM). Le SCM peut se définir comme la gestion des flux physiques, de flux d’information et des flux financiers « du client du client » au « fournisseur du fournisseur »[23], afin d’offrir une réponse la plus satisfaisante possible aux besoins des clients. Le champ de vision n’est plus une entreprise mais l’ensemble des acteurs impliqués dans le processus de satisfaction du client. L’approche « supply chain » met en valeur la dimension interorganisationnelle du management. Différents facteurs expliquent l’émergence du SCM.

a) La baisse des coûts de transaction (au sens de Coase, 1937, Williamson, 1985) semble constituer un élément premier explicatif de l’émergence du supply chain. Cette baisse des coûts de transaction serait due aux nouvelles possibilités qu’offre une externalisation des activités industrielles dans un espace mondial. L’amélio-ration des infrastructures de transports donnant l’accès à des zones économiques « à prix bas » ou « low costs » (pays de l’est, Chine, …), l’émergence des nouvelles technologies de communication, le développement d’une sous-traitance organisée et de qualité favorisent ce phénomène d’externalisation.

La supply chain, structure hybride qui relève d’une logique de quasi-intégration, est la forme de gouvernance qui, pour certaines entreprises, semble la plus appropriée au contexte économique actuel : la baisse des coûts du marché par rapport aux coûts de réalisation du produit, favorise le retour vers l’utilisation du marché au détriment de la « hiérarchie » et de l’intégration. Le concept de supply chain, par la dimension collaborative dont il est porteur à travers une nouvelle relation client-fournisseur, donne une force toute particulière à la notion d’entreprise en réseau.

b) La recherche d’une compétence distinctive et d’un avantage concurrentiel. Ce nouveau mode de gouvernance constitue une opportunité permettant alors à un certain nombre d’entreprises de recentrer leur activité sur un maillon de la chaîne de la valeur, sur lequel elles vont chercher à se développer. On rejoint ici la théorie des ressources (Penrose, 1959, Prahalad et Hamel, 1990)[24]. L’exemple caractéristique est celui des constructeurs informatiques qui ont cherché à maîtriser l’interface produit-client en essayant de s’orienter vers une logique service à forte valeur ajoutée[25]. Cette compétence distinctive devient alors un actif spécifique qui ne peut être externalisé sans créer un risque de dépendance pour l’entreprise (notions de « hold up » et d’opportunisme). Cependant, le savoir-faire en matière de pilotage des flux logistiques constitue en lui-même une compétence distinctive, en particulier lorsque les coûts logistiques sont supérieurs à la marge que peut dégager l’entreprise et que le taux de service est un élément clé de la valeur perçue par le client[26].

c) La création de valeur partenariale (Charreaux et Desbrières, 1998) : un réseau performant de fournisseurs et de sous-traitants et une maîtrise de la circulation des flux dans ce réseau peut constituer un élément de la survaleur (goodwill) de l’entreprise[27].

d) La variabilisation des charges fixes et une évolution des performances financières : aug-mentation de la rentabilité des capitaux propres, effet de levier positif, diminution du risque par transferts des investissements vers les partenaires… Cette dimension financière prend d’autant plus d’importance que l’actionnaire est redevenu le « partenaire » principal de l’entreprise. La nombreuse littérature sur la création de la valeur illustre le retour de la dimension financière dans le pilotage des organisations (voir par exemple Albouy, 2000).

e) La diminution du niveau des stocks constitue, à côté d’autres critères comme le taux de service ou la qualité un objectif financier permanent[28]. Une gestion performante de la supply chain permet, à travers une très grande réactivité à la demande du client (logique de flux tirés), de minimiser les stocks et donc le besoin en fonds de roulement. Mais inversement, le supply chain management autorise, par la connaissance instantanée des stocks dans le réseau, une orientation de la demande client (logique de flux poussés) et donc un meilleur écoulement des stocks. Enfin, l’effort qu’impose une logique « stocks minima », dans l’ensemble du réseau a des conséquences indirectes importantes sur l’amélioration des prévisions des ventes ou sur l’impact des actions promotionnelles. On peut penser que la difficulté à gérer les stocks au sein d’un réseau est à l’origine de la renaissance de la fonction de « prévisionniste » des ventes, du « demand planning » et de la résurrection des modèles de prévisions.

f) L’agilité, ou la capacité de s’adapter rapidement, et la flexibilité constituent des motivations fondamentales. Au niveau de la production industrielle, la diminu-tion de l’intégration verticale par la création d’une supply chain est assimilable à une valeur d’option (Kogut et Kulatilaka, 1994) car elle laisse, face aux aléas du marché, un champ plus ouvert aux décisions futures. L’organisation de la supply chain, et c’est sa force, est à géométrie variable : la localisation des choix de fournisseurs et de sous-traitants, les délocalisations de sites de production, l’architecture des réseaux de distribution et l’implantation des plates-formes logistiques peuvent être réorganisées, modifiées de manière flexible et réactive en fonction de l’évolution des marchés. L’agilité n’est plus seulement construite au sein d’un maillon, d’une entreprise, mais à l’articulation de ces maillons, donc sur l’ensemble de l’orga-nisation en réseau.Une grille d’analyse du degré d’intégration des chaînes logistiques est proposée par N. Fabbe-Costes (2007). La commande de la supply chain et la nature de la collaboration entre entreprises, doivent à la fois développer des modes de coordination et des capacités de flexibilité. La flexibilité constitue aussi une forme de transfert du risque.

g) Enfin, la performance de la supply chain peut constituer un argument commer-cial fort[29]. L’augmentation des taux de service (souvent annoncés au-dessus de 90%) constitue un élément déterminant de la compétitivité exprimée en termes de fiabilité et de réactivité. Le partage de l’image entre les partenaires de la supply chain est aussi un objectif recherché à travers des classements de type best in class company (BICC) appliqués à la performance logistique[30].

Les éléments précédents ne constituent sûrement pas une liste exhaustive des cau-ses d’émergence du supply chain management. Par ailleurs, il n’existe pas de modèle unique de supply chain (Fisher, 1997) et différentes solutions peuvent, autour de ses divers domaines d’activités stratégiques, co-exister au sein d’une même organi-sation[31]. Enfin, toutes les entreprises n’investissent pas de manière identique dans une supply chain[32] (Spalanzani et Ballaz, 2000). Une étude récente (PRTM, 2006) semble montrer que si l’intégration des fonctions internes (alignement interne ou cross-fonctionnel des processus) constitue toujours la priorité pour 55%, l’intégra-tion externe et la collaboration interentreprises (alignement des processus avec les fournisseurs) représentent respectivement 22% et 11% des entreprises interrogées en 2006 : les secteurs « high-tech » et de la grande distribution étant les plus en avancés dans les processus d’intégration externe.

Cependant, le supply chain management constitue, de notre point de vue, un pro-longement de ce mouvement de recherche de la performance (toujours exprimée en termes de prix, de qualité, de niveau de stocks, de taux de service client,…) et de la flexibilité déjà amorcé au début des années 80. Excellence organisationnelle et supply chain constituent deux phases successives et contextuées, mais complé-mentaires et relevant d’une même dynamique.

On peut d’ailleurs observer diverses similitudes entre ces deux grandes périodes d’innovation :

a) L’innovation en matière de démarche qualité et la lutte contre la sélection adverse : la lutte contre l’opportunisme lié à l’asymétrie d’information recherchée par les normes Iso (logique de « rassurance » qualité) a été perpétuée par l’arrivée de nouvelles démarches qualité (Iso version 2000, Méthode 6sigma[33], les labels de classe mondiale ou World Class by Principles[34],…) indispensables dans une logique d’externalisation et d’appel au marché. Dans cette période de besoin de coopération, le besoin de lisibilité externe explique le succès de ces méthodes.

b) La coopération entre les acteurs : l’entreprise des années 80 avait cherché à décloisonner ses fonctions internes (relations client-fournisseur internes, ingénierie simultanée, nouveaux modes de coopération avec la fonction achat…), celle des années 90 cherche non seulement à conserver les acquis précédents mais prin-cipalement à améliorer la collaboration avec ses partenaires externes – distributeurs, fournisseurs, sous-traitants, transporteurs… Au même titre que l’assurance qualité, la morale des affaires, l’éthique sont indispensables au bon fonctionnement de la supply chain et de l’entreprise en réseau[35]. L’entreprise étendue ne peut exister qu’à partir d’un certain niveau de confiance entre partenaires, pour fixer des coûts de transaction les plus bas possible. La supply chain devient, autant que faire se peut, un réseau de confiance et la densité de la relation entre les partenaires (quasi-intégration) est proche de celle d’une relation d’agence. Ce réseau de confiance et de coopération peut être considéré comme un actif spécifique pour l’entreprise pilote, dite aussi « entreprise pivot », et sa capacité à organiser et à diriger le réseau est alors assimilée à une compétence distinctive clé.

c) L’apport des progiciels de gestion intégrés (ERP)[36] sur l’amélioration de la cohérence interne. Les ERP cherchent à lutter contre les maladies « organiques et circulatoires de l’information » (Lesca et Lesca, 1995). Conçus pour permettre une gestion transactionnelle (performante) des données, ils apportent plus de rigueur en matière de processus (logique de l’explicite plus forte) et peuvent être connectés entre eux par EDI ou internet, contribuant ainsi à créer plus de densité organisationnelle au sein de la supply chain.

d) Le rôle de plus en plus fondamental des systèmes d’information et des technologies de l’information et de la communication (TIC) : c’est une nouvelle vague d’innovation technologique, concernant les réseaux et la communication, qui va permettre au supply chain management d’émerger. Le développement de standards de communication, d’une nouvelle forme d’infrastructure (Web, EDI,…) et des TIC va développer la facilité d’usage mais va surtout permettre une plus grande compression de l’espace (peu réalisée lors de la période précédente), dont l’impact sur les coûts de transaction par effet de « courtage » (Reix, 1998) est important. La création de standards de communication favorise le développement d’une plus grande flexibilité du portefeuille de partenaires : le web permet de dépasser la relation de type business to business imposée par l’EDI et d’aller vers une relation business to consumer porteuse de plus de variété de coopération. Enfin, l’émergence (difficile) des technologies RFID[37] qui semble concerner plus particu-lièrement les unités logistiques, devrait permettre d’ici quelques années d’effectuer à grande distance la traçabilité des composants et des produits. La RFID devrait favoriser une plus grande anticipation des aléas et accélérer l’information (voire l’implication) du client sur la gestion de ces aléas.

3.2.- Une nouvelle vague d’innovation technologique : les systèmes d’information inter-organisationnels (SIIO) ou les leviers de l’efficacité de la supply chain

Deux grandes familles de SIIO sont apparues au cours de ces 10 dernières années. La première famille, celle des outils du supply chain management, se positionne dans le prolongement des outils traditionnels de la planification et recherche une forme d’optimisation de la planification des flux. La seconde famille de SIIO, celle de la logistique collaborative tente de s’appuyer, pour la planification des flux, sur la co-construction de la planification des flux. Cette seconde approche n’utilise pas de modèles d’optimisation mais privilégie la collaboration entre les acteurs de la supply chain.

3.2.1- les outils traditionnels du supply chain management : une optimisation de la gestion des flux

Les familles d’outils du supply chain management ont pour objet de développer la cohérence entre les différents maillons, sur une partie ou la globalité de la chaîne logistique. Le nombre d’outils du supply chain management est important[38], et sans être exhaustif, ces derniers peuvent être classés en deux grandes catégories :

a) Les outils de la supply chain strategy ou supply chain designer facilitent la conception de l’architecture du réseau : dimensionnement des usines, des entrepôts…, et permettent une évaluation de scénarii portant sur les choix d’externalisation, le panel de fournisseurs… Ils constituent des outils de cartographie de réseau.

b) Les outils de pilotage de la supply chain visent à une meilleure planification des flux physiques de production tout au long de la chaîne de la valeur étendue.

  • Les outils du supply chain planning ou APS (Advance Planning System ou Scheduling systems) sont des progiciels décisionnels dans la mesure où ils cherchent, par anticipation, la meilleure prévision possible des flux physiques et d’informations. Ces logiciels, complémentaires des ERP, apportent des solutions d’optimisation dans la planification des flux. Les APS sont construits autour d’algorithmes d’opti-misation qui prennent en compte un ensemble de contraintes techniques (types de ressources, capacité, coûts, délais…) et autorisent différents paramétrages (types d’activité, intelligence du marché…). Ils peuvent être connectés à un plan directeur de distribution (DRP) ou à une gestion de la relation client (CRM). Plus rapides que les systèmes MRP intégrés dans les ERP, ils ont vocation à les remplacer.
  • Les outils de la supply chain execution ont pour objet principal une gestion cohérente du cycle de traitement des commandes (jusqu’à la facturation). On distingue la gestion avancée des commandes (advanced order management), l’entreposage (warehouse management system) et le transport (transport management system). Ces outils sont interfacés avec un ERP et réalisent des échanges entre « attendus » et « validés ».
  • Le supply chain event management (SCEM) répond à un besoin de visibilité globale du processus et permet de déclencher des alertes ou de mettre en place, de manière préventive, des scénarii alternatifs.

3.2.2- Les outils de la logistique collaborative : une amélioration des prévisions et une plus grande capacité d’anticipation

Les premiers outils de la logistique collaborative ont été développés, dans le cadre de l’ECR[39], entre industriels et distributeurs dans un but de réduction des coûts et de plus grande satisfaction du client. Ces outils ont pour objectif la lutte contre les aléas de la demande à travers l’amélioration des prévisions. Ces démarches relèvent d’une logique d’apprentissage collectif (de rationalité élargie) par le biais d’échanges multiples sur la connaissance des marchés. Ces méthodes s’appuient sur l’idée (nouvelle) qu’un bon prévisionniste n’est pas celui qui sait utiliser des modèles de prévisions mais celui qui connaît son marché.

Les formes actuelles les plus médiatisées d’outils de la collaboration interentreprises sont la GPA[40] et le CPFRâ[41]. Le CPFR, forme actuelle la plus évoluée de la colla-boration, est une démarche qui consiste en un partage des processus de prévision, de planification et de réapprovisionnement entre certains acteurs de la chaîne logistique. Le CPFR permet de formaliser le processus global de prévisions et de gestion des approvisionnements entre un distributeur et ses fournisseurs, tant pour les flux réguliers que pour les campagnes promotionnelles. Le CPFR est donc un processus global de collaboration qui vise une meilleure coordination de la gestion de l’offre et de la demande. Cette démarche a été initiée dans le domaine des produits de grande consommation et s’étend désormais aux secteurs industriels mais sous forme adaptée.

Le partage des prévisions entre acteurs de la chaîne logistique fournit une même base d’information pour tous, favorise la diminution des risques d’aléas et par conséquent se traduit par une diminution des ruptures et des ventes manquées[42]. La diminution de l’opacité dans les échanges d’information doit permettre d’améliorer l’efficacité de la chaîne logistique.

Cependant, la mise en œuvre du CPFR est confrontée à un obstacle permanent, celui de la confiance et du changement des mentalités entre fournisseur et client. Le passage par des pratiques collaboratives intermédiaires telles que la GPA, plus simples à mettre en œuvre[43], semble être une démarche retenue par de nombreuses entreprises malgré ses limites.

La logique collaborative ne se développe pas qu’au sein du champ, stricto sensu, de la supply chain, mais aussi dans un certain nombre de domaines très contingents : le E-procurement à travers les places de marché, le E-development[44] dans la conception des produits par ingénierie simultanée, fondamental pour les produits à cycle de vie court (importance du « time to market »). Le E-development développe l’anticipation jusqu’à la simulation de l’impact d’un nouveau produit sur les postes de travail et les chaînes de fabrication.

La collaboration interorganisationnelle recherche à créer une meilleure articulation des chevilles de liaison entre deux maillons du réseau grâce à une plus grande collaboration dans la relation client-fournisseur. Elle conduit à une meilleure anticipation des événements, contribuant ainsi à une meilleure absorption de l’incertitude commerciale et à une réduction non négligeable des risques externes.

3.3.- En conclusion sur cette troisième phase d’innovation

Au terme de cette brève approche sur le supply chain management, on constate que les modèles de supply chain s’orientent vers une forme très adaptative, flexible, qui révèle non seulement des capacités de visibilité globale des flux, de planification et d’optimisation mais aussi et surtout de collaboration intense entre les acteurs d’une même filière. Comme le souligne Cousins (2002), « l’évaluation de la performance doit plus s’attarder sur la relation que sur le fournisseur ». La capacité des réseaux, la mise en place de standards de communication et la performance des systèmes d’in-formation permettent à la gestion industrielle de pénétrer dans cette troisième phase d’évolution, celle de l’agilité, qui favorise l’adaptation face aux mutations rapides des processus et des marchés. Après les cadences de production, la ponctualité et la vitesse de réaction, l’anticipation constitue le nouveau mode d’action du temps, de repère temporel, auquel doit faire face le SCM.

Peut-être de manière encore plus marquante que celle observée au cours de la phase précédente d’évolution, la puissance de la technologie accélère le phénomène d’alignement de la stratégie industrielle et de la stratégie des systèmes d’information. Il n’en demeure pas moins que, face à la complexité organisationnelle à laquelle ils doivent répondre, l’intégration interorganisationnelle des systèmes d’information logistique reste l’un des points faibles du supply chain management (Fabbe-Costes, 2002). À ce titre, il est intéressant de constater que dans de nombreuses entreprises, la responsabilité de la supply chain et celle des systèmes d’information sont confiées à une même direction.

Conclusion générale

Orienté sous l’angle de l’innovation, cet article a essayé de décrire, autour de trois grandes périodes, « l’aventure » de l’organisation et de la gestion industrielle. La première période a été celle de la recherche de la productivité (dans une optique de cadences) et celle de la ponctualité à travers la mise en place conjointe des systèmes de planification (MRP) et de gestion des stocks. La seconde période a visé l’excel-lence organisationnelle à travers le juste à temps, le lean management, la volonté systématique de simplification et la flexibilité. Enfin la dernière période, dans laquelle nous sommes entrés il y a une dizaine d’années maintenant avec la mondialisation, est celle de l’organisation en réseau et du supply chain management. Chacune de ces périodes a essayé, dans des contextes différents, de répondre aux problèmes du moment par la mise en place d’innovations technologiques et/ou managériales idoines, et parfois par l’abandon des pratiques du passé. Les pratiques de gestion ont, elles aussi, un cycle de vie.

Cependant, la mise en œuvre de ces innovations n’a été possible que grâce à une évolution contingente d’autres grands domaines de la gestion, dont celui de l’informatique, des réseaux et des systèmes d’information. Les TIC ont permis de répondre aux contractions du temps et de l’espace exprimés à travers les besoins de vitesse et d’adaptation et les nécessités imposées par l’expansion géographique de l’espace à planifier.

À ce titre, on peut dire que les solutions innovantes mises en œuvre sont celles des besoins de leur époque, mais aussi celles des technologies de cette époque.

En conséquent, les champs de recherche autour du supply chain management et de l’entreprise en réseau sont nombreux et concernent presque tous les domaines des sciences de gestion[45]. Cependant, le thème de la collaboration interorganisation-nelle, qui constitue l’un des aspects de la gouvernance, semble tout particulièrement porteur par l’importance des besoins de coordination auxquels est confrontée la supply chain. La « densité » organisationnelle de la supply chain va dépendre de sa capacité à développer des chevilles d’articulation efficaces et flexibles dans la relation client-fournisseur. Le réseau défini, la performance du pilotage à travers le couple (individu, système d’information) pose la question de savoir comment se construit (avec succès) la coopération voire la collaboration entre les acteurs de la chaîne logistique.

Dans cette optique, les pistes de recherche actuelles se situent au moins à trois niveaux : le premier concerne, en matière de pilotage, l’apport et la performance des systèmes d’information interorganisationnels (Baile et Trahand, 1999). Le second porte sur la création de la relation et les objets échangés entre acteurs, de la confiance ou des phénomènes d’apprentissage, le développement de compétences « collaboratives » et débouche sur l’idée de Human (T-shaped) Supply Chain. Le troisième est relatif à la structuration dynamique du système de collaboration : comment se construit un système de pilotage interorganisationnel, comment s’ali-gnent progressivement les SIIO et le comportement des acteurs, comment se met en œuvre une spirale de progrès dans un réseau ?

Bibliographie

Albouy M., « Décisions financières et création de valeur ».,Economica, Paris, 2000.

Ashby W.R., “Principles of the Self-Organizing Dynamic System”, Journal of General Psychology, vol. 37, 1947, pp. 125-128.

Baile S., Trahand J., « les systèmes d’information inter-organisationnels. Contri-butions et cadre des recherches », Systèmes d’information et Management, vol. 4, n° 2, p. 3-17, 1999.

Ballaz B., « Le management des achats et de la chaîne intégrée clients-fournisseurs : le rôle clé du système d’information. », in Le management des achats, PUG, p. 87-109, 2002.

Charreaux G., Desbrières P., « Gouvernance des entreprises : valeur partenariale contre valeur actionnariale », Finance, Contrôle, Stratégie, vol. 1, n° 2, p. 57-88, 1998.

Coase R., “The nature of the firm”, Economica N.S.G., November 1937, p. 386-405

Cohendet P., Lléréna P., Flexibilité, information et décision, Economica, Paris, 1989.

David P.A. et Foray D. « Une introduction à l’économie et à la société du savoir », Revue internationale des sciences sociales, n° 171, mars 2002.

Deming E., Out of the crisis. MIT, 1986.

Fabbe-Costes N., « Le pilotage des supply chains. Un défi pour les systèmes d’information et de communication logistiques », Gestion 2000, janvier-février, p. 76-92, 2002.

Fabbe-Costes N., « La gestion des chaînes logistiques multi-acteurs : les dimensions organisationnelles d’une gestion lean et agile », in Paché et Spalanzani, La gestion des chaînes multi-acteurs perspectives stratégiques, PUG, Grenoble, p. 19-42, 2007.

Ferdows K., “Making the most of foreign factories”, Havard Business Review, March-April p. 73-88, 1997.

Fisher M., “What is the right supply chain for your product?”, Havard business review, mars-avril, p. 106-116,1997.

Ford H., Today and Tomorrow. Doubleday, 1926.

Greif M., L’usine s’affiche – la communication visuelle pour mobiliser les hommes. Ed. d’Organisations, 1990.

Gunasekaran A., Patel C., McGaughey R.E., “A framework for supply chain performance measurement”, International Journal of Production Economics, n° 87, p. 333-347, 2004.

Hadley G., Whitin T.W. Études et pratiques des modèles de stocks, Dunod, 1966.

Hannan M.T., Freeman J., Organizational ecology, Harvard Business Press, 1989.

Koenig G., De nouvelles théories pour gérer l’entreprise du XXIe siècle. Ed. Economica, 1999.

Kogut B., Kulatilaka N., “Operating flexibility, Global Manufacturing and Option Value of a Multinational Network”, Management Science, vol. 40, no. 1, p. 123-139, 1994.

Lamming R., Cousins P., « Évaluer la performance des supply chains : mise au point », in Le management des achats, Presses Universitaires de Grenoble, p. 111-128, 2002.

Lesca H. et Lesca E., Gestion de l’information. Qualité de l’information et performances de l’entreprise. Litec, 1995.

Nelson R.R., Winter S.G., An Evolutionary Theory of Economic Change. Harvard University Press, 1982.

Neuville J.-P., « La qualité en question ». Revue française de gestion, n° 108, p. 40-48, 1996.

Nonaka I. and Takeuchi H., The Knowledge Creating Company, Oxford University Press, 1995.

Ohno T., Toyota Seisan Hoshiki. Diamond, inc. Tokyo, 1978.

Orlicky J., Material requirements planning. The new way of life in production and inventory management. Mac Graw Hill, 1975.

Ouchi W., Théorie Z. Faire face au défi japonais. Interéditions, 1982.

Pascale R.T., Managing on the edge. Simon and Schuster, New York, 1990.

Penrose E., The theory of the growth of the firm, John Wiley, 1959.

Porter M., Competitive advantage, The Free Press, 1985.

Prahalad C., Hamel G., “The core compétence of the corporation”, Havard Business Review, may-june, p.122-128, 1994.

Reix R., « Les technologies de l’information, facteurs de flexibilité ? », Revue française de gestion, n° 123, p. 11-19, 1999.

Reix R., Systèmes d’information et management des organisations. 2e éd., Vuibert, 1998.

Reix R., « Flexibilité », in Encyclopédie de gestion, 2e édition, tome 2, Economica, p. 1407-1420, 1997.

Shingo S., Le système Poka-Yoké, zéro défaut = zéro contrôle. Éditions organisation, 1987.

Sloan A.P., My years with general Motors. Doubleday, 1963.

Spalanzani A., « Management du système qualité ou management des hommes ? », Revue des Sciences de gestion, n° 33, p. 35-60, 2003.

Spalanzani A., Ballaz B., “The supply chain management : practices analysis through some case studies”, Modelling, Measurement & Control, Series D, vol. 21, n° 3, 4.

Taylor F., Principles of scientific management. New York, Harper et Brother, 1911.

Tarondeau J.-C., « Introduction : Approches et formes de flexibilité », Revue française de gestion, n° 123, p. 66-70, 1999.

Tarondeau J.C., « Taiichi Ohno : quand l’employé modèle est un révolutionnaire », Revue française de gestion, n° 91, p. 115-123, 1992.

Venkatranam N., Henderson J., “Strategic aligment : leveraging information tech-nology for transforming organizations”, IBM Systems Journal, vol. 32, n° 1, 1993.

Williamson O.E., Markets and Hierarchies, New York, The Free Press, 1975

Notes

[1] Cet article a été publié sous le titre « Organisation industrielle : un siècle d’innovation continue ». In Regards sur la recherche en gestion, l’Harmattan, 2007.

[2] La précision de la période (1900-1975) ne présente que l’intérêt de la commodité. À l’évidence, les périodes d’évolution présentent des zones de chevauchement de plusieurs années.

[3] Ce qui a donné naissance au bureau des méthodes.

[4] Principe rejeté par la suite par des auteurs comme Henri Fayol.

[5] Bien que la promotion, au début des années 80, en France, des cercles de qualité se soit en partie appuyée sur un anti-taylorisme marqué.

[6] En particulier : les opportunités ne manquent pas, apprendre par nécessité, les leçons du gaspillage, économiser les transports…

[7] MRP : materials requirements planning

[8] Le lean management veille à la réduction des pertes générées à l’intérieur d’une organisation et lui permet de fonctionner avec peu de superflu.

[9] Alors que Toyota est n° 1 mondial avec plus de 8 millions d’automobiles vendues par an et un bénéfice de près de 10 milliards d’euros en 2005, 20 années plus tard ces principes restent toujours d’actualité. Voir les « Sept dogmes du modèle Toyota », Usine Nouvelle, n° 3024, p.74, 28 sept 2006.

[10] « Pour ma part, je tiens Henry Ford I pour un grand bonhomme. Je suis convaincu que, s’il avait été encore en vie, il aurait inventé lui-même le système que nous avons mis au point chez Toyota ». Pour T. Ohno, ce qui est en cause dans l’obsolescence du fordisme, c’est le conservatisme des successeurs qui consiste à s’en remettre à des idées anciennes et aux figures marquantes du passé.

[11] Parmi les points de son ouvrage illustrant cette volonté d’innovation, citons : « penser à l’envers », « une révolution mentale est indispensable », « pouvez-vous demander cinq fois : pourquoi ? », « il faut avoir le courage d’aller à l’encontre des idées reçues », « que signifie comprendre »,…

[12] H. Ford avait été apprenti mécanicien et ouvrier itinérant avant de devenir ingénieur à l’Edison Illuminating et T. Ohno, ingénieur lui aussi, ne se qualifiait-il pas de « technicien, c’est-à-dire de praticien de la technique » ?

[13] AFCERQ : Association française pour les cercles de qualité.

[14] « Apprendre par nécessité » avait été un point de vue déjà fortement soutenu par H. Ford.

[15] SECI : Socialisation, Externalisation, Combinaison, Intériorisation.

[16] Le PDCA : Plan Do Check Act est une évolution du cycle PDS(study)A de Shewhart, présenté pour la première fois au Japon, devant la JUSE, en 1950, dans le cadre d’un cours sur la qualité dénommé « Elementary Principles of the Statistical Control of Quality » (Deming, 1994).

[17] Même si les processus d’appropriation par l’ensemble de l’organisation des solutions obtenues par les groupes de résolution de problème ont été, à cette époque, insuffisants.

[18] À titre d’illustration, Ford diminue de 33 à 3, le nombre d’avertisseurs montés sur l’ensemble de ses véhicules et de 17 à 1 le nombre d’allume-cigares. Dès sa conception au début des années 90, le Berlingo Citroën est conçu à partir de 60% de pièces déjà utilisées pour d’autres véhicules. Source Usine Nouvelle, n° 2563, p. 59-81, 26 sept. ­1996.

[19] Entre 1985 et 2004, la proportion d’ouvriers chez les équipementiers est passée de 89 300 à 82 400 alors que celle des « cols blancs » évoluait de 34 000 à 44 300. Usine Nouvelle, op. cit.

[20] Enterprise Resourse Planning (Oracle, SAP,…)

[21] Les chiffres observés en 1992 dans une entreprise d’engins de terrassement – un investissement technologique de 1 milliard de francs, une diminution de 60 à 20 jours des ratios d’inventaire, de 60 à 15 jours des temps de fabrication et de 18 à 4 mois de mise sur le marché d’un nouveau produit, un retour sur actifs de l’ordre de 20%, montrent l’ampleur de l’évolution.

[22] Une partie du processus de pilotage peut être lui-même externalisé. L’émergence d’un nouvel acteur dit « 4PL » ou quatrième partie logistique (à côté du client final, du chargeur et du prestataire logistique) a pour mission l’optimisation du processus de la supply chain. À titre d’illustration, le CA du pôle logistique de Norbert Dentressangles est passé de 150 millions d’euros en 1998 à plus de 600 millions en 2005 et constitue 38% de l’activité du groupe ( source : Assises de la logistique, Paris, sept. 2006).

[23] Le concept de supply chain n’est pas réduit à la seule partie amont (entreprise-fournisseurs) de la filière.

[24] Voire la théorie des capacités dynamiques (Teece, Pisano, Shuen) entendue comme la capacité des entreprises évoluant dans des environnements changeants (in Koenig, 1999).

[25] Les propos de Louis Gerstner, PDG d’IBM, étaient à ce titre éloquents : « C’est dans le service que le chiffre d’affaires va être fortement généré dans les dix prochaines années, en aidant les entreprises à créer des outils d’achat, de chaîne logistique avec des technologies d’internet ». Les Echos, 20 mai 1999.

[26] À titre d’exemple, le groupe Solinest, compte tenu des ses compétences, est prestataire logistique pour un de ses concurrents, Wrigley.

[27] C’est tout particulièrement le cas avec les ODM (original design manufacturer), à qui le donneur d’ordre va jusqu’à confier la conception de ses propres produits. Les ODM, focalisés sur un métier, sont considérés comme plus efficaces que les donneurs d’ordre. À terme, ils peuvent constituer une menace pour ces même donneurs d’ordre.

[28] Guanasekaran et alii, (2004), proposent une grille d’évaluation intéressante pour la mesure de la performance de la supply chain.

[29] Citons Carly Fiorina, PDG HP, manufacturing forum, Pékin, décembre 2002. « We think we have today in HP, one of the best procurement systems in the world. Frankly, as I hope many of you will agree, we think our procurement system is one of the great assets of doing business with us. It makes us more than just a vendor in China – it makes us a true partner ».

[30] Une étude récente semble montrer que les « BICC en SC » ont une rentabilité de 40% plus élevée et un taux de croissance de 25% supérieur aux autres entreprises (PRTM, 2006).

[31] HP a mis en place, dès 2003, une organisation de 5 modèles de supply chain autour de ses 5 « business units ».

[32] En particulier, dans le secteur de l’habillement on peut observer certaines formes spécifiques de management de la supply chain aval dans lesquelles les producteurs confient non seulement l’organisation du transport auprès d’un opérateur externe mais aussi la gestion du risque client.

[33] La méthode 6sigma a été mise au point par Motorola en 1985, mais appliquée à tous les niveaux d’entreprise pour la première fois par General Electric, en 1995. Actuellement, de grands groupes tels que Thalès ou Caterpillar mettent en œuvre cette démarche. La méthode 6sigma s’appuie sur une méthodologie de résolution de problèmes (les « masters black belt » sont des chefs de projets) et constitue un outil de conduite du changement au niveau global de l’entreprise.

[34] Le WCP relève d’une logique de benchmarking des processus, des services, des produits, …avec les concurrents les plus avancés dans chacun des domaines.

[35] Les acheteurs très sensibilisés par la notion d’éthique ont, par l’intermédiaire de leur compagnie, la CDAF, créé, en 2002, une commission « Éthique et Achat » qui vise à la reformulation du code d’éthique des achats.

Le titre l’ouvrage de J.L. Dherse et D.H. Minguet (1998), « l’Éthique ou le Chaos ? », bien que provocateur, est révélateur d’une forme de fragilité des systèmes coopératifs ouverts.

[36] Enterprise resource planning. Oracle, SAP,…sont les noms des éditeurs développant des ERP les plus souvent cités.

[37] RFID ou Radio Frequency Identification est une technologie dont l’avenir est encore discuté. L’utilisation de bande radiofréquence plus large devrait favoriser son développement. La commande vocale, l’informatique embarquée, la capture de données d’identification automatique,…, constituent des technologies parallèles à celle de la RFID.

[38] On peut en recenser plus de 200 sur le site CXP.com, et parmi les éditeurs les plus cités : I2 Technologies, Manugistics, Synquest, SAP,…

[39] Efficient Consumer Response : concept proche de celui du supply chain management mais dont le champ d’investigation est restreint à la partie aval de la chaîne.

[40] La gestion partagée des approvisionnements (GPA) se résume à la prise en charge par l’industriel des approvisionnements de son client, le distributeur, dans le cadre d’une relation de partenariat basée sur des échanges d’information.

[41] Le Collaborative Planning, Forecasting and Replenishmentâ est un concept créé en 1996 par le Voluntary Interindustry Commerce Standards (VICS), et médiatisé par sa mise en œuvre dans la grande distribution. Des sociétés comme Walmart, Henkel, ont été les pionnières dans l’adoption de ce type de démarche.

[42] En termes d’efficience, le CPFR permet une meilleure rotation et une réduction des stocks, et une plus grande adéquation emplois/ressources.

[43] Cette plus grande simplicité permet de mettre en œuvre des pratiques de mutualisation de la GPA entre plusieurs industriels et un logisticien par exemple. Cette technique est appelée « GMA » ou gestion mutualisée des approvisionnements.

[44] Mis en œuvre dans les industries automobiles et aéronautiques depuis déjà plusieurs années, le E-development apparaît dans d’autres industries et en particulier dans le groupe Schneider à travers la mise en œuvre du logiciel du type Pro/Engineer.

[45] Celui de la mesure de la performance est constant et pour chaque époque a suscité des pratiques novatrices. Pour la période du SCM, la mise en œuvre de nouvelles méthodes du type « balance scored card » ou le développement d’outils de mesure spécifiques telle que la méthode SCOR (Supply Chain Opérations Reference-Model), développée par le Supply Chain Council semblent la plus courante. SCOR est un référentiel qui modélise les processus de la SC et autorise ainsi des pratiques « benchmarking ». L’ASLOG (Association française pour la Logistique) propose elle aussi un référentiel de type « qualité » qui relève de la même logique.

Publié dans Histoire, Supply Chain | Laisser un commentaire