Overblog
Suivre ce blog Administration + Créer mon blog

Wikio - Top des blogs - Economie

Recherche

Ce blog va bientôt cesser d'exister, tout du moins de manière autonome. Le blog de l'Observatoire Société et Consommation (L'ObSoCo) prend progressivement la suite. D'ores et déjà les archives de ce blog y ont été transférées et chaque nouveau billet posté ici est également publié sur le site de l'ObSoCo. Je partagerai le blog de l'ObSoCo avec Nathalie Damery et Robert Rochefort, qui ont fondé avec moi l'Observatoire Société et Consommation, ainsi qu'avec l'ensemble des membres du Cercle de l'ObSoCo... A suivre !!

 

 

http://www.asso-lobsoco.org/le-blog-de-l-obsoco.html

 

 

Contact

28 octobre 2013 1 28 /10 /octobre /2013 20:40

Vous avez été nombreux à me demander de mettre en ligne les autres volumes de mon "manuel" d'étude de secteurs (lequel, je le rappelle, commence à dater et n'a jamais été achevé). Voici donc le volume 4, consacré à l'analyse des stratégies d'entreprises. Il se décompose en deux sous-chapitres : "le positionnement stratégique" et "les moyens de la stratégies". Ce dernier sous-chapitre n'a pas été traité avec le niveau d'approfondissement requis, faute de temps.

 

Si c'était à refaire aujourd'hui, j'ajouterais (comme je le fais dans mon cours) un sous-chapitre sur la notion de modèle économique ("business model").

 

La suite, très bientôt...

 

Télécharger le volume 4

Partager cet article
Repost0
25 octobre 2013 5 25 /10 /octobre /2013 12:10

La dernière étude conduite par Le Lab[1], Péoléo[2] et l’ObSoCo[3] sur l’état de la confiance des Français dans les sociétés d’assurance montre que pour 9 Français sur 10, la confiance est considérée comme un élément important pour être client d’une société d’assurance. Pourtant ils sont nombreux à nourrir un sentiment de défiance à l’égard du secteur de l’assurance. 80 % des personnes interrogées considèrent qu’il convient de se méfier quand on a affaire aux sociétés d’assurance et la note moyenne de confiance qu’elles attribuent à celles dont elles sont clientes ne s’élève qu’à 5,3 sur 10 ! Le secteur de l’assurance n’est pas donc pas épargné – loin s’en faut – par le climat général de défiance, qui touche particulièrement l’univers de la grande entreprise, doublé ici d’une proximité du monde de la finance. C’est pour en savoir plus que cette étude inédite de l’état de la confiance des Français dans les sociétés d’assurance a été initiée. Non seulement, elle ne se limite pas à mesurer le degré de confiance des Français à l’égard des sociétés d’assurance ; mais elle évalue de manière méthodique sur quoi repose la confiance et identifie ainsi les zones de force et les points faibles.

 

Ainsi, l’étude révèle que le sentiment de défiance que suscitent les sociétés d’assurance découle d’un déficit d’image sur le plan de l’intégrité et, plus encore, sur celui de la bienveillance : leurs prix ne seraient pas des prix justes, elles auraient tendance à pratiquer des hausses de tarif abusives, ne récompenseraient pas comme il se doit la fidélité de leurs clients… Bien sûr, les moyennes cachent des disparités. L’étude analyse la manière dont les consommateurs évaluent 21 sociétés d’assurance dont ils sont clients. Sur bien des points, les mutuelles creusent l’écart…

 

Cette difficulté qu’éprouvent les sociétés d’assurance à susciter la confiance de leurs clients se traduit par un attachement peu solide. Si beaucoup de Français se révèlent fidèles à leur société d’assurance, c’est moins par la force d’un lien affectif se nourrissant d’un niveau élevé de satisfaction qu’en raison d’une inertie des comportements. Une inertie qui favorise la reconduction des contrats sans remise en concurrence. Alors que la loi sur la consommation vise précisément à réduire cette inertie en rendant plus facile l’interruption de la relation, le déficit de confiance dont témoignent les sociétés d’assurance est un facteur de fragilité. Il entrave également leur potentiel de diversification dans de nouvelles activités. Plus grave sans doute, il favorise chez une proportion significative de consommateurs une attitude a priori positive face au scénario d’offre de produits d’assurance de la part de grands acteurs aujourd’hui extérieurs au secteur.



[1] Le LAB (Laboratoire Assurance Banque) est un « think tank », carrefour d’échanges professionnels pour l’Assurance et les Services Financiers. Contact : Gilles-Emmanuel BERNARD – gilles-emmanuel.bernard@cerclelab.com

[2]  L’agence conseil en communication PéoLéo a créé en 2010 le Labo de la Confiance dont la vocation est de décrypter le phénomène complexe de confiance des consommateurs dans les Marques afin d’identifier les dispositifs précis capables de restaurer ou d’accroître cette confiance. Contact : Philippe Sachetti p.sachetti@peoleo.fr 06 76 20 38 38.

[3] L’ObSoCo (l’Observatoire Société et Consommation » analyse les mutations du modèle de consommation, du commerce et de l’organisation des marchés de consommation. Contact : Nathalie Damery n.damery@lobsoco.com, 06 71 55 23 63

Partager cet article
Repost0
18 juin 2012 1 18 /06 /juin /2012 10:26

Le volume 3 traite du régime de concurrence. Il a été publié en novembre 1997 dans la collection des Cahiers de Recherche du Crédoc, n° C109 et n'a pas été mis à jour.

 

Télécharger le rapport

Partager cet article
Repost0
8 février 2011 2 08 /02 /février /2011 09:51

Une petite note que j'ai rédigée pour préparer l'émission Service Public du lundi 7 février, consacrée au livre numérique, sur France Inter. Elle puise largement dans l'étude que nous avons réalisée pour le ministère de la Culture sur la prospective de la distribution physique des biens culturels.

 

 

 

 

Comparé aux marchés de la musique, de la vidéo ou à celui de la presse, le marché du livre se porte plutôt bien. Le livre, il est vrai, est peu piraté sur Internet. Il n’y cependant pas de quoi pavoiser : la croissance est molle, ses ressorts de long terme fatigués et, surtout, l’arrivée du numérique plante un gigantesque point d’interrogation sur le futur du marché et la manière dont il est organisé.

 

Un marché qui se maintient malgré une dynamique de lecture inquiétante

Si les sources sont contradictoires dans le détail, elles s’accordent sur l’image d’un marché dont le taux de croissance flirte chaque année avec le 0, avec une variabilité sans lien direct avec la conjoncture macroéconomique. Cette stabilité tendancielle contraste avec l’augmentation continue du nombre de titres mis sur le marché (620 000 références en vente en 2009, en hausse de 45 % par rapport à 2004). Ce dynamisme éditorial contribue probablement à la stimulation de la demande ; il témoigne aussi de l’abaissement du seuil de rentabilité avec l’introduction du numérique dans la production du livre, qui encourage les éditeurs à multiplier les lancements dans l’espoir de réussir à entrer dans la liste convoitée des best-sellers. A la clé, une diminution tendancielle du tirage moyen et un encombrement des tables des libraires (et du bureau des critiques…) qui réduit la durée de vie commerciale des titres.


Et puis, si le marché se maintient, le poids des achats de livres dans le budget des ménages s’inscrit dans une tendance à la baisse depuis le début des années 1970, qui s’accélère depuis quelques années. Il est vrai que la mise en place progressive de la gratuité des manuels scolaires dans les lycées à partir de 2001 a contribué au mouvement, de même que l’augmentation du poids des livres de poche dans la structure des ventes. Plus inquiétant, les enquêtes du ministère de la Culture sur les pratiques culturelles des Français ont mis en évidence un recul du nombre des forts et moyens lecteurs depuis les années 1980. Désormais, 53 % des Français admettent lire peu ou pas du tout. Le recul de la lecture s’observe dans toutes les tranches d’âge, mais il est particulièrement marqué chez les plus jeunes. Autrement dit, les jeunes d’aujourd’hui lisent moins que leurs aînés au même âge. La clientèle a donc tendance à vieillir. Et quand on sait de surcroît que, passé la cinquantaine, les achats de livres déclinent avec l’âge, on comprend que la démographie est doublement défavorable au marché du livre.


 

Un réseau de libraires qui s’étiole


Le marché du livre se distingue également de la plupart des autres marchés de produits culturels par la structure de sa distribution. Alors que les disquaires ont pour ainsi dire disparu, les librairies réalisent encore à peu près un quart des ventes de livres  (y compris les maisons de la presse et les librairies-papeteries). Cette spécificité de la distribution du livre doit beaucoup, bien sûr, à la loi sur le prix unique du livre (loi Lang de 1981), dont l’objectif était précisément de maintenir un réseau dense de librairies en les protégeant des effets d’une concurrence par les prix. Ce soutien réglementaire – régulièrement remis en question – est justifié par le rôle que les libraires jouent dans la promotion de la création littéraire et de la diversité culturelle.


Pour autant, la situation des libraires est préoccupante. Depuis une douzaine d’années, leur part de marché recule régulièrement (elle était de 33 % en 1994). Elles ont à faire face à la concurrence des grandes surfaces spécialisées dans le commerce de biens culturels (22% du marché). Ce format de vente a connu un développement très important au cours de la dernière décennie, au travers de l’expansion du réseau des enseignes leaders (la Fnac et Virgin), mais aussi par le développement de réseaux plus jeunes implantés en périphérie, en particulier Cultura et les « Centre culturels » Leclerc. Les libraires doivent également affronter la concurrence des grandes surfaces alimentaires qui représentent près de 20 % du marché. Pour les hypers, la loi sur le prix unique rend la vente de livre particulièrement rentable… Leur offre, souvent concentrée sur les « meilleures ventes », touche un large public. Face à la crise du marché de la musique et de celui de la vidéo, grandes surfaces spécialisées et hypermarchés ont eu tendance à réallouer leurs surfaces de vente au profit du livre (mais aussi du jeu vidéo), renforçant la pression sur les libraires. Le plus souvent implantés en centre-ville, ceux-ci souffrent de la montée des coûts de l’immobilier commercial qui, combinée à des frais de personnel importants, étrangle la rentabilité des entreprises. Celle-ci, qui a eu tendance à se dégrader au cours des dernières années, atteint souvent des niveaux alarmants. Les libraires affrontent donc les défis de la numérisation en état de faiblesse.


 

Le e-commerce, la première vague de la révolution numérique


Comme tous les secteurs du commerce, la distribution du livre a été affectée par la naissance du e-commerce. Les produits culturels ont d’ailleurs été parmi les premiers produits vendus en ligne. Malgré la loi sur le prix unique, qui a empêché l’apparition de « cyberdiscounters », le e-commerce s’est emparé en une quinzaine d’années de près de 10 % du marché du livre, pris pour une large part sur les librairies.


Les vendeurs de livres du monde physique se sont rapidement portés sur ce nouveau canal de vente. La Fnac, Cultura, Carrefour… vendent des livres en ligne. Les librairies ne sont pas en reste : Joseph Gibert, Le Furet du Nord, Decitre, Sauramps… ont leur site de e-commerce, mais aussi beaucoup de petites librairies qui s’appuient pour cela sur les services de prestataires ou qui se regroupent pour mutualiser des moyens (comme les 8 libraires réunis autour du groupement Librest en région parisienne). Très prochainement ouvrira le site 1001librairie.com, créé à l’initiative du Syndicat de la librairie française avec le concours du Centre national du livre ; il offrira une plateforme commune aux libraires indépendants désireux de se lancer dans la vente en ligne. En dépit de toutes ces initiatives, le e-commerce du livre est largement dominé, en France comme à l’échelle mondiale, par Amazon…


 

Le ebook, la deuxième vague de la révolution numérique


Le numérique, c’est aussi la dématérialisation du support. Le « livre électronique » est déjà une vieille histoire… Mais, jusque-là, l’histoire d’un échec. Voilà plus de 10 ans que l’on annonce l’avènement du ebook, lancement de nouveaux terminaux de lecture à l’appui… Mais à ce jour, rien de commun avec ce qu’a connu la musique et la vidéo, pour le pire (le piratage) comme pour le meilleur (de nouvelles formes d’accès aux contenus et de valorisation des œuvres). Les raisons de cet échec sont multiples : des terminaux peu performants commercialisés pour l’essentiel par des « start-up », l’attachement des consommateurs au support matériel, la résistance des éditeurs échaudés par l’expérience de leurs homologues de la musique…


Et pourtant, il semble bien que les choses soient en train de changer… Le marché américain a donné le coup de sifflet du démarrage. La courbe des ventes de ebooks (le contenu) a décollé en 2009. Le marché de gros a été multiplié par 3,4 entre le troisième trimestre 2008 et le troisième trimestre 2009. Depuis, la courbe est exponentielle. Le marché a été multiplié par 2,4 entre le troisième trimestre 2009 et le troisième trimestre 2010. L’institut Forrester estime le marché (consommateurs) à 966 millions de dollars en 2010 et anticipe qu’il atteindra 3 milliards de dollars en 2015. Le décollage du marché américain doit beaucoup à l’action d’Amazon, qui n’a pas encore été transposée en Europe. Le marché du livre électronique est beaucoup plus modeste en France. En 2010, il aura – au mieux – représenté 1,5 % du total du marché du livre. C’est très peu comparé à la part de marché du numérique dans le domaine de la musique, de la vidéo ou du jeu vidéo (autour de 10 %). Mais, en France aussi, une nouvelle dynamique semble avoir été amorcée.

 


Les vannes sont ouvertes


Que s’est-il donc passé ? La technologie, d’abord, a beaucoup progressé. Il est désormais possible de commercialiser des terminaux assurant une lecture confortable, disposant d’une forte autonomie, d’un faible poids, pour un prix raisonnable. Aux terminaux spécialisés (les « liseuses » utilisant la technologie de l’encre électronique) se sont ajoutées les tablettes rétroéclairées d’un usage polyvalent. Le succès de l’iPad a surpris plus d’un observateur. Selon Gfk, il s’est vendu en France 435 000 tablettes en 2010. Dans le monde, le cabinet iSupply prévoyait 13 millions d’exemplaires vendus de la tablette à la pomme pour 2010 et 50 millions pour 2012. Si les tablettes sont rarement achetées d’abord pour la lecture de ebooks, elles contribuent à un apprentissage global d’autres usages, de nouvelles pratiques de lecture, qui ouvre la voie au livre numérique bien au-delà du cercle des clients potentiels des liseuses. Les terminaux sont appelés à se perfectionner et à voir leur prix baisser. Les concurrents de l’iPad sont de plus en plus nombreux et l’arrivée prochaine des écrans couleurs devrait donner un coup de fouet au marché des liseuses.


Mais au-delà de la technologie, c’est l’entrée en scène d’acteurs puissants qui a permis d’enclencher le processus d’émergence du livre numérique. Amazon a joué un cet égard un rôle important, tout au moins aux Etats-Unis. Dès 2007, le leader de la vente en ligne s’est engagé de manière résolu sur ce nouveau marché. En 2009, il aurait été à l’origine de 75 % du montant des ventes de livres électroniques, grâce notamment à une politique tarifaire agressive.  Pour conforter sa position et favoriser l’émergence du marché, Amazon - à l’instar de ce qu’Apple avait fait dans la musique - s’est lancé dans la promotion de sa propre liseuse, le Kindle. Au cours du deuxième trimestre 2010, les ventes en volume de ebooks sur le site d’Amazon auraient très largement excédé les ventes de livres « reliés » ; au cours du 4ème trimestre 2010, les ventes de ebooks ont dépassé les ventes de livres « souples » (l’équivalent de nos livres de poche). En 2011, il est très probable qu’Amazon vende plus de ebooks de que livres papiers… Amazon commence à étendre son offre en Europe. Après l’ouverture d’un Kindle Store au Royaume Uni, le pure player s’apprête à se déployer en Allemagne. L’attaque du marché français butterait sur des négociations difficiles avec les éditeurs… Mais d’autres grands acteurs sont d’ores et déjà actifs. Apple, bien sûr, dont l’activité du iBook Store est tirée par la diffusion de l’iPad et le iPhone. Mais aussi Google qui, après avoir diffusé les livres libres de droit, a ouvert aux Etats-Unis sa librairie numérique (Google Edition) en décembre 2010. L’ouverture en Europe est annoncée pour 2011. Au total, les internautes pourront ainsi avoir accès à pas moins de 3 millions d’ouvrages.


L’histoire des techniques témoigne de ce que le processus d’émergence de nouveaux marchés est sensible aux effets de seuil, aux dynamiques cumulatives. La présence de grands acteurs, ayant investi des moyens importants, est un signal en direction des autres acteurs moins spontanément enclins à s’engager dans la voie de la nouveauté. A commencé par les consommateurs qui se trouvent encouragés à rompre avec leurs habitudes, à investir dans de nouveaux équipements et dans l’apprentissage de nouvelles pratiques, par la de ceux qui leur propose les nouvelles offres. Les grands distributeurs ont suivi : en dehors d’Amazon, il est possible d’acheter des ebooks sur les sites de la Fnac, de Virgin, de Carrefour… Mais cet effet d’entrainement est particulièrement important pour ce qui concerne les éditeurs qui, désormais, peuvent craindre de rater le départ du train, voire, par leur refus du numérique, de favoriser l’entrée dans leur secteur d’acteurs qui lui sont étrangers. Dès lors que toutes les catégories d’acteurs anticipent l’émergence du marché, cette émergence se produit effectivement : l’augmentation du nombre de clients incite les éditeurs à étendre leurs catalogues ; la richesse accrue de l’offre encourage la demande ; les pionniers se font prosélytes et convertissent leur entourage à de nouvelles pratiques ; le développement du marché réduit le prix des terminaux et encourage les investissements dans les innovations technologiques…

 

 

Des obstacles subsistent


Pour autant, la partie n’est pas encore gagnée. Le livre électronique restera-t-il cantonné à un marché de niche ? Ou bien, le livre papier doit-il craindre de finir au rayon des vielles reliques, aux côtés des disques vinyles ?


Le principal obstacle, ou tout du moins celui qui est le plus souvent mis en avant aussi bien par l’homme de la rue que par les professionnels de l’édition, est l’inertie des habitudes de lecture. L’attachement au livre papier est sans doute beaucoup plus fort que ne l’est l’attachement au CD, en particulier de la part des gros lecteurs. La réticence des consommateurs à préférer la version électronique du titre recherché peut être alimentée par la diversité des formats proposés, la pluralité des plateformes de téléchargement, les restrictions au droit d’usage (nombre de copies limitées, fichier non-interopérables…)... Mais de nouvelles pratiques de lecture ont commencé de s’installer au travers notamment des blogs et des journaux en ligne. La perspective du gain de place (au prix de m2 dans Paris, il devient intéressant de calculer le coût que représente sa bibliothèque…) s’ajoute aux bénéfices environnementaux de la dématérialisation. Enfin, il est probable que, très rapidement, le ebook cessera d’être « homothétique » (simple conversion numérique du livre papier) et donnera lieu à une évolution significative de la manière d’éditer, voire de la manière d’écrire. Reste la question du prix…


Le fond du problème semble être celui du partage des revenus et, plus généralement, du contrôle de la filière. La dimension mondiale des acteurs en passe de s’imposer comme des passages obligés pour toucher les consommateurs effraient des éditeurs qui, jusque-là, régnaient sur la filière. La politique tarifaire agressive d’Amazon pèse sur leurs revenus et leur fait craindre la cannibalisation à rythme rapide du marché du livre papier. Si la formule retenue par Apple leur laisse la liberté de fixer les prix, le pouvoir de négociation dont jouit la firme à la pomme a de quoi rebuter. La mobilisation des éditeurs – et l’écoute dont ils bénéficient auprès des pouvoirs publics – pourrait faire que le développement du marché du livre électronique prenne en France une voie particulière. Le principe de l’application du taux de TVA réduite au livre électronique a été adopté, comme devrait l’être - ce qui est autrement plus structurant - celui du prix unique, qui assure aux éditeurs la maîtrise du prix de vente aux consommateurs. Si ce principe devait être définitivement adopté, il est probable que les éditeurs s’engageront de manière plus volontaire sur ce nouveau marché. Auront-ils alors à cœur de stimuler la croissance du marché par une politique de prix incitative ?


 

Un impact considérable sur la distribution


Le e-commerce du livre papier a déjà porté un coup sévère à la distribution physique. L’impact de la dématérialisation sera plus fort encore. Si certains points de vente disposent de bornes de téléchargement, on imagine mal que le téléchargement en magasin soit le mode privilégié d’acquisition des ebooks. Le marché du livre numérique se développera donc pour l’essentiel hors des magasins.


Libraires et distributeurs de biens culturels pourront bien-sûr tenter de capter ce marché par l’ouverture de plateformes de téléchargement, comme ils ont déjà commencé de le faire. Pour autant, les leaders de la distribution de contenus numériques (Amazon et Apple) misent avant tout, et pour l’instant avec succès, sur l’enfermement de leurs clients. Si le principe du prix unique était effectivement adopté, les libraires pourraient se lancer dans l’aventure sans être désavantagées par leur taille sur le terrain du prix. Mais face à la concurrence des grandes plateformes de téléchargement, dont le champ d’action déborde très largement le livre, le volume d’affaires qu’ils peuvent espérer sera sans doute très inférieur au manque à gagner sur la vente de livres papier.


La révolution numérique pourrait donc au final porter un coup sévère aux commerces physiques du livre. Les grandes surfaces spécialisées et les hypermarchés pourront toujours tenter de récupérer le volume d’activité perdu en réallouant leur surface de vente en faveur d’autres produits. Cette option est évidemment plus problématique pour les libraires. Plus que jamais, leur résistance à ce nouveau contexte passera par la valorisation de ce qui fonde leur avantage comparatif par rapport aux autres formes d’accès aux contenus culturels : le service, la proximité, l’expertise, la convivialité… Une chance pour eux : il s’agit là de valeur en vogue chez les consommateurs.

 

Ph. Moati


 

Pour aller plus loin :


BENHAMOU F., GUILLON O. [2010], Modèles économiques d’un marché naissant : le livre numérique, Culture Prospective, n°2, téléchargeable sur www.culture.gouv.fr/deps


MOATI Ph. [2010], Prospective du commerce physique de biens culturels, Culture Prospective, n°3, téléchargeable sur www.culture.gouv.fr/deps

Partager cet article
Repost0
28 janvier 2011 5 28 /01 /janvier /2011 14:08
Voila des années que je désirais approfondir la question de la subjectivité dans la prise de décision stratégique et l'encadrement de cette subjectivité par la "culture microcosmique" qui règne (avec plus ou moins de force) à l'intérieur des secteurs. Au début de ma carrière d'analyste sectoriel, j'ai été à plusieurs reprise confronté à ce phénomène et j'ai pu mésurer à la quel point il pouvait influé sur la dynamique sectorielle secteurs du jouets, des articles de sport, de l'édition littéraire...) 
Convaincu de l'importance de la culture sectorielle dans la dynamique du secteur de la distribution, j'ai engagé l'été dernier une enquête auprès d'un échantillon de cadres dirigeants d'entreprises de la distribution afin de recueillir, au travers de leurs visions du commerce en 2020, l'état de leurs représentations sur leur secteur d'activité, et d'évaluer le degré de convergence de ces représentations à l'intérieur du secteur. Le rapport issu de cette enquête, ainsi que sa synthèse en 4 pages, ont déjà été mis en téléchargement sur ce blog (ils sont également disponibles sur le site du Crédoc). La première partie du rapport consiste en un survol de la littérature en économie et en gestion afin de fixer les bases conceptuelles de l'intégration de la subjectivité des représentations dans l'analyse des dynamiques sectorielles. Ce billet (et le suivant, car le texte est trop long...) est directement issu de ce texte. L'objectif est de laerendre accessible à des chercheurs ou des praticiens de l'analyse sectorielle intéressés par le sujet et qui n'auraient pas eu l'idée d'aller fouiller dans un rapport sur le commerce.

 

 

 

L’analyse économique traditionnelle de l’entreprise considère que ses comportements sont déterminés de manière à répondre de façon optimale aux caractéristiques de l’environnement, en vue de maximiser son profit. L’entreprise doit donc s’adapter à son environnement[2]. Si elle échoue, elle s’expose à la sélection opérée par le jeu concurrentiel qui conduirait à ce que seules survivent les firmes qui se sont adaptées à leur environnement[3]. La traduction pratique de cette approche est à la base de la démarche stratégique classique. La définition de la stratégie de l’entreprise démarre par un diagnostic le plus détaillé possible de l’environnement dans ses différentes composantes (technologique, réglementaire, concurrentielle, sociétale…). Ce diagnostic doit déboucher sur l’identification d’un ensemble de menaces et d’opportunités, de facteurs clés de succès, auxquels l’entreprise devra s’adapter. Dans cette approche, la stratégie est en quelque sorte contenue dans les caractéristiques de l’environnement. Le modèle LCAG (Learned, Christensen, Andrews et Guth), développé aux États-Unis dans les années 1960 et qui figure encore en bonne place dans tous les manuels de stratégie, s’inscrit très largement dans ce sillage, de même que le modèle développé par Michaël Porter dans Choix stratégiques et concurrence[4], dans lequel il livre une méthodologie de diagnostic de l’environnement sectoriel devant aider les entreprises à définir leur positionnement stratégique.


Les développements de la théorie de l’entreprise intervenus au cours des cinquante dernières années au carrefour de l’économie et des sciences de gestion ont conduit à envisager la question de la définition de la stratégie de manière beaucoup plus complexe. Nous n’aborderons pas ici les approches fondées sur les ressources et les compétences[5] qui soulignent les contraintes découlant de ce que les ressources nécessaires à la mise en œuvre de la stratégie ne sont pas des biens librement échangeables et que leur exploitation exige des capacités organisationnelles idiosyncrasiques. La problématique de ce rapport nous invite à concentrer notre attention sur les approches théoriques de la manière dont les acteurs économiques se forgent une représentation des caractéristiques de leur environnement, et des biais cognitifs qui sont susceptibles d’intervenir dans la formation de ces représentations. Après avoir insisté sur la subjectivité des représentations de l’environnement, nous aborderons les dispositifs susceptibles de faire converger les subjectivités autour de points de référence partagés à l’échelle d’un secteur d’activité. Nous nous intéresserons alors à la manière dont la subjectivité des représentations interfère dans la trajectoire d’évolution des secteurs d’activité. Enfin, nous tenterons l’application de la grille d’analyse découlant de ce survol de la littérature académique à la dynamique du secteur du commerce de détail.

 

1.  La subjectivité des représentations de l’environnement des entreprises

 « Le stratège qui connaitrait de façon certaine l’évolution future de son environnement aurait peu de mal à concevoir une stratégie adaptée en fonction de cette évolution et des ressources de son entreprise »[6]. En réalité, la connaissance objective et complète de l’environnement et de son évolution est un leurre. Elle se heurte à l’incertitude et à la rationalité limitée des décideurs.

1.1      Le règne de l’incertitude

L’incertitude rend illusoire toute tentative de connaissance exhaustive de l’environnement. Spender [1989] la définit comme « une condition de déficience de l’information dans laquelle les données par elles-mêmes ne contiennent, ni ne déterminent la solution » (p. 176). Shubik [1954] insiste sur deux de ses dimensions. L’incomplétude renvoie au caractère incomplet des informations disponibles sur l’environnement. Elle est croissante avec la complexité de l’environnement. Réduire l’incomplétude suppose d’engager un effort de recherche d’information. Cet effort est coûteux, en argent, en temps, en mobilisation de ressources cognitives. L’application du principe marginaliste implique que l’effort de recherche d’information soit poursuivi jusqu’au point où le coût marginal de cette recherche égalise son rendement marginal escompté[7]. Passons sur la difficulté d’évaluer la portée d’une information avant d’en avoir pris connaissance (le fameux paradoxe d’Arrow) pour souligner que, sauf à considérer que le coût de recherche de l’information est très faible, la définition de la stratégie à toutes chances de s’opérer dans un contexte d’information incomplète. Et à supposer même que toute l’information utile soit intégralement disponible sans coût[8], le traitement exhaustif de cette masse d’information risquerait de buter sur la rationalité limitée du décideur, sur les limites de ses capacités de cognition. L’indétermination est la seconde dimension de l’incertitude relevée par Shubik. Elle découle de la présence dans l’environnement d’autres acteurs, ayant leurs logiques d’action propres, dont les actions et les réactions (notamment aux comportements de l’entreprise elle-même) ne peuvent être anticipées avec certitude.


Incomplétude et indétermination ne sauraient cependant suffire à décrire un environnement incertain, dans un sens qui rendrait illusoire l’approche rationnelle de la définition de la stratégie. On peut imaginer, en effet, pouvoir pallier une information incomplète ou une incertitude sur le comportement des parties prenantes par l’application de probabilités aux informations manquantes ou aux comportements possibles[9]. Cette option est cependant peu réaliste, sur le plan à la fois des capacités cognitives prêtées aux décideurs et du caractère probabilisable de l’environnement. Il revient à Knight [1921] d’avoir opéré la distinction devenue classique entre les situations de risque et d’incertitude. Il est toujours possible d’attribuer des probabilités aux différents états possibles d’une situation « risquée », à l’image de ce que font les actuaires dans les compagnies d’assurances. Ceci est impossible dans les situations « incertaines » dans la mesure où c’est l’ensemble des cas possibles qui n’est pas connu, où peuvent survenir des configurations qui n’avaient pas même été envisagées. Ainsi, appliquée à l’incomplétude de l’information, l’incertitude au sens de Knight renvoie à des situations d’ignorance pure et simple de certaines caractéristiques de l’environnement ; appliquée à l’indétermination, elle signifie que certains comportements des parties prenantes ne sont simplement pas envisagés, si bien que leur occurrence prend le décideur par « surprise »[10].


Si l’incertitude est probablement de règle pour caractériser l’environnement qui sous-tend la décision stratégique, on devine qu’elle est à son comble lorsqu’il s’agit d’anticiper l’environnement tel qu’il se présentera demain. Or, le processus stratégique s’inscrit dans le temps. Le diagnostic de l’environnement est une première étape qui doit déboucher sur la formulation d’une stratégie, puis sur sa mise en œuvre. Ce processus s’opère dans le contexte social d’une organisation, ce qui suppose à la fois le suivi de procédures permettant la coordination des collaborateurs impliqués, des jeux de pouvoir, l’expression de résistances… Le temps requis pour la mise en œuvre est d’autant plus grand qu’elle implique l’acquisition ou la création de nouvelles ressources, la mobilisation de nouvelles compétences. Compte tenu de ce délai de gestation, la planification stratégique ne doit pas s’opérer sur la base de l’état de l’environnement au moment de l’amorce du processus, mais sur une anticipation de cet état au moment de l'achèvement du processus et de la mise en œuvre effective de la stratégie.


Dans le contexte d’environnements à la fois complexes et témoignant d’une forte variabilité – comme ceux que rencontrent de plus en plus couramment les entreprises –, l’incertitude est particulièrement importante (Duncan [1972]), et l’état actuel de l’environnement est souvent un bien piètre indicateur de son état futur. La complexité des processus qui gouvernent l’évolution de l’environnement est telle que l’identification ex ante de l’ensemble des états possibles (et l’attribution à chacun d’une probabilité subjective) est illusoire. La prise de décision stratégique s’effectue alors nécessairement en situation d’incertitude. Dès lors, comme l’écrit Penrose [1963, p. 45], « ce sont les "prévisions" et non les faits objectifs qui déterminent de façon immédiate le comportement d’une entreprise ».

1.2      Jugement et rationalité procédurale

Cette situation d’incertitude entrave l’identification de la stratégie optimale telle qu’elle résulterait de l’application d’une rationalité substantielle[11], ou même d’une démarche qui relèverait de la seule analyse[12]. La définition de la stratégie découle alors de l’application d’une rationalité procédurale, qui fait intervenir des heuristiques plus ou moins formalisées, mais aussi le jugement, l’intuition… bref, la subjectivité des décideurs[13]. Ce sont moins les caractéristiques objectives de l’environnement qui guident les décisions stratégiques que les représentations que les managers s’en font[14]. Ces représentations sont le produit d’un processus en deux temps[15] : l’attention, qui définit les caractéristiques de l’environnement effectivement prises en compte, et l’interprétation, c'est-à-dire le sens qui est accordé aux données ayant franchi sur le seuil de l’attention[16]. Le processus de décision s’achève par la définition, sur la base des représentations ainsi construites, des actions à engager.


L’attention et l’interprétation sont des processus cognitifs. En tant que tels, ils sont fortement subjectifs. Ces processus font intervenir des « cartes mentales » (Hayek [1953]), des « cartes cognitives » (Eden [1998], Calori et al. [1994]), des « schèmes organisateurs » (Walsh [1995], Huff et Huff [2000])[17]… Dans un contexte d’information pléthorique, complexe et ambiguë, ces schémas orientent l’attention des managers, qui tendent à concentrer leur observation de l’environnement (scanning) sur un nombre limité de dimensions, privilégiées de manière plus ou moins consciente car considérées comme étant les plus pertinentes[18]. Aux données observées, le décideur « ajoute quelque chose de lui-même » (Spender [1989]) qui est de l’ordre de la croyance, du ressenti, et qui se substitue au savoir défaillant. L’interprétation de cet ensemble fait également intervenir un système de croyances, des « jugements ». Au cours de ce processus cognitif, la personnalité du décideur, son « système nerveux » (Hayek [1978]), ses capacités, ses expériences, ses motivations… jouent un rôle critique. De même, le passage de la représentation de l’environnement à l’action ne découle pas uniquement d’une analyse ; en réponse aux limites de la rationalité, il fait généralement intervenir des règles d’action activées de manière plus ou moins conscientes.


Dès lors, comme l’évoque Simon [1982, p. 290], nous ne pouvons plus prédire la décision du décideur (et donc le comportement de l’entreprise) sur la seule base des caractéristiques objectives de son environnement. Ainsi, des décideurs confrontés à un même environnement « objectif » sont susceptibles d’en construire des représentations divergentes conduisant à des décisions différentes[19]. Dans la mesure où la dynamique d’évolution d’un secteur ne découle pas simplement des changements exogènes intervenant dans l’environnement, mais également des stratégies des entreprises elles-mêmes, toute tentative d’anticipation du devenir d’un secteur d’activité doit s’efforcer de prendre en considération, non pas seulement la dynamique des conditions de base du secteur, mais aussi la manière dont se forment et évoluent les représentations que les acteurs se font de leur environnement et de ses perspectives d’évolution. Ces représentations, qui sont à la base des stratégies conduites ou appelées à être mises en œuvre dans l’avenir, contribueront à définir ce que deviendra effectivement l’environnement sectoriel.

1.3      L’importance du profil des dirigeants

La charge de définir une stratégie pour l’entreprise est généralement conçue comme relevant du top management[20]. La nature de la stratégie de l’entreprise, en tant que produit du processus de décision engagé par les cadres dirigeants, se trouve donc en partie influencée par leur « qualités personnelles » (Penrose [1959, p. 41]), c'est-à-dire, si l’on suit Hambrick et Mason [1984], à la fois leurs « bases cognitives » et leurs valeurs dont découlent notamment les objectifs poursuivis. L’influence de la base cognitive sur le processus de décision a été beaucoup plus étudiée que celle des valeurs. La base cognitive sur laquelle se fonde le processus de décision est construite sur l’expérience vécue par les décideurs : formation initiale, champ de spécialisation fonctionnelle, évènements rencontrés, échecs et succès vécus dans le passé… Cette expérience nourrit le jugement et offre des règles d’action.


De nombreuses études empiriques se sont attachées à déceler l’effet du profil des dirigeants sur tout ou partie du processus décisionnel. Geletkanycz et Black [2001], par exemple, recensent plusieurs travaux portant sur la manière dont la spécialité fonctionnelle des cadres dirigeants influe sur leurs représentations de l’environnement et des problématiques de l’entreprise. Elles aboutissent à des résultats mitigés : si le profil fonctionnel du dirigeant ne semble pas avoir d’effet systématique sur la manière de percevoir l’environnement, il influence significativement la manière de penser les problèmes que rencontre l’entreprise. Ces différences de perspectives sont susceptibles d’influer sur les décisions. Ainsi, Song [1982] a montré que les PDG ayant un profil de financier avaient une plus forte propension à privilégier les acquisitions comme stratégie de croissance. Gupta et Govindaraja [1984], de leur côté, ont observé que les dirigeants ayant un passé dans le domaine commercial ou marketing ont tendance à opter pour des stratégies de croissance par la conquête de parts de marchés[21]. En France, l’enquête menée par Ardenti et Vrain [2000] auprès d’un échantillon de dirigeants de PMI a conduit au constat d’une influence de la trajectoire professionnelle du dirigeant sur les choix stratégiques (principalement abordés dans cette enquête sous l’angle organisationnel) et sur le style de management. « La plupart des chefs d’entreprise reproduisent le type d’organisation et appliquent des méthodes de gestion qu’ils ont connues antérieurement »[22].

1.1.4      La convergence des représentations au sein de l’entreprise

La subjectivité des représentations de l’environnement et l’ensemble des biais cognitifs qui interviennent au cours du processus de décision à l’échelle individuelle peuvent nuire à la performance de l’entreprise si cela conduit à un ensemble de décisions incohérentes entre elles[23]. Le risque est réel puisque les décideurs dans l’entreprise se distinguent les uns des autres par leur formation, leur spécialité fonctionnelle, leur trajectoire professionnelle, sans parler de considérations plus personnelles (l’âge, l’origine sociale et ethnique…) susceptibles d’intervenir dans la formation des « cartes mentales » impliquées à chacune des étapes du processus de décision. En réalité, différents mécanismes assurent généralement un minimum de convergence des représentations et des modèles d’action parmi les cadres de l’entreprise. Le premier réside dans le rôle particulier que joue le dirigeant dont le statut et le profil font qu’il est en charge de définir une « vision » dont découlent les grandes lignes de la stratégie, qu’il doit faire partager aux membres de l’équipe dirigeante et qui doit finalement s’inscrire dans la « culture d’entreprise »[24] et dans ses procédures (ses « routines » au sens de Nelson et Winter [1982]). A ce titre, c’est avant tout au dirigeant que revient la charge d’exercer son jugement face à l’incertitude. Ce faisant, il crée pour les autres membres de l’équipe dirigeante un « contexte limité de certitude »[25]. La culture d’entreprise, entendue comme un ensemble de valeurs, de normes de comportements, de représentations partagées, de modes de pensée, n’est pas seulement issue de la vision du dirigeant. Elle se nourrit également de l’histoire de l’entreprise, de ses réussites, de ses échecs, des évènements qu’elle a traversés. Les routines, en offrant à chaque collaborateur un répertoire d’actions à engager selon les circonstances, autorisent une économie de rationalité et limitent la marge de subjectivité (d’autant plus que l’on descend dans la hiérarchie et que les procédures se font plus précises). Un autre mécanisme par lequel les processus de décision individuels convergent à l’intérieur de l’entreprise réside dans le caractère social du traitement de l’information[26]. Les membres de l’entreprise ont de multiples occasions d’entrer en interaction, de manière formelle et informelle, ce qui leur donne l’opportunité de se transmettre des informations sur l’environnement, d’échanger des visions… Enfin, évoquons l’effet homogénéisant des critères de recrutement qui, bien souvent, à l’échelle des équipes dirigeantes, conduit à une certaine endogamie, ainsi que l’ensemble des dispositifs de socialisation formels ou informels (formations « maison », séminaires d’intégration, évènements de « team building », effet cafeteria ou machine à café…) qui contribuent à la diffusion de la culture d’entreprise et à l’homogénéisation des modes de pensée.

 

 

2.     Homogénéité et hétérogénéité des représentations à l’intérieur des secteurs

Si un certain nombre de mécanismes sont à l’œuvre à l’intérieur de l’entreprise afin d’assurer un minimum de convergence dans les représentations et les modes de pensée et d’action, qu’en est-il entre les firmes d’un même secteur d’activité ? Tout ce qui vient d’être dit sur la subjectivité du processus de décision face à l’incertitude qui recouvre l’environnement et la rationalité limitée des décideurs incite à penser que, même si les firmes d’un même secteur sont a priori confrontées au même environnement objectif, il est très probable que leurs managers s’en fassent des représentations différentes. A la diversité des perceptions des menaces et opportunités que recèle l’environnement, des anticipations de sa dynamique d’évolution… s’ajoute l’hétérogénéité des bases de compétences (qui définissent pour chaque entreprise le champ du possible), pour conduire à des stratégies différentes, quand bien même les objectifs des dirigeants seraient identiques. L’hétérogénéité des stratégies poursuivies par les entreprises d’un même secteur est un phénomène aujourd’hui bien documenté, dont les nouvelles théories de la firme sont en mesure de rendre compte, et qui a donné lieu à la construction d’outils opérationnels, tels que la notion de groupe stratégique popularisée par Michael Porter.

Pour autant, une homogénéité plus ou moins prononcée des représentations de l’environnement et des modes de pensée parmi les entreprises d’un même secteur d’activité a été observée à de multiples reprises[1], dans le cadre de monographies[2] et au moyen d’études économétriques trans-sectorielles[3]. Spender [1989] a forgé la notion d'« industry recipes » – des recettes sectorielles – pour désigner ces « structures cognitives supra-individuelles définies au niveau sectoriel ». Plus précisément, les recettes sectorielles sont « un ensemble de croyances et d'hypothèses partagé par le top management des organisations d'un même secteur. Il contient un ensemble d'axiomes qui établissent ce que le secteur considère généralement comme les questions que le management doit traiter pour assurer la viabilité de l’entreprise. Il renvoie également à un système de signification complet grâce auquel les managers peuvent donner du sens à leurs expériences et interpréter les actions des autres » (Brownlie et Spender [1995, p. 42-43]). On reconnaîtra une notion proche de celle de « paradigme » telle que développée par Kuhn pour l’étude du développement de la connaissance scientifique, et appliquée au développement technologique par les économistes évolutionnistes[4].


Dans nos propres travaux, nous évoquions les expressions de « culture microcosmique » ou de « culture sectorielle » pour désigner non seulement les représentations partagées au sein d’un secteur, mais aussi les valeurs et les normes de comportements qui s’imposent à ses acteurs[5]. Ce type de point de vue suppose de se défaire de la vision d’un secteur comme un ensemble d’entreprises qui prennent leurs décisions de manière autonome, reliées par le seul processus concurrentiel, en faveur d’une approche institutionnaliste qui souligne le contexte social dans lequel les entreprises sont « encastrées »[6], qui lie des acteurs au-delà des seuls rapports marchands et concurrentiels, les forment en communautés régulées par des institutions formelles et informelles canalisant leurs modes de pensée et d’action. Le secteur d’appartenance constitue ainsi une structure sociale qui interfère dans les processus décisionnels individuels. Sous certaines conditions, le territoire d’implantation peut jouer un rôle similaire, notamment lorsqu’il est générateur d’une « proximité culturelle » porteuse de conventions[7]. Ainsi, les cartes mentales à partir desquelles les managers fondent leurs représentations ne sont pas le seul produit de caractéristiques personnelles ou liées à leur entreprise, mais résultent également d’apprentissages socialement situés, effectués dans un contexte d’immersion dans un collectif pourvoyeur de connaissances[8] et de normes.


S’inscrivant dans cette perspective, DiMaggio et Powell [1983] ont fourni une grille d’analyse complète des mécanismes concourant à la convergence des représentations à l’intérieur d’un secteur (qui est un cas particulier de ce qu’ils nomment isomorphisme mimétique). Ces auteurs distinguent trois mécanismes de diffusion de visions communes :


- le mécanisme coercitif. Il s’agit d’un ensemble de règles formelles qui s’imposent de manière non équivoques à l’ensemble des entreprises du secteur : lois et réglementations émises par la puissance publique, normes et règles édictées par les organisations professionnelles, accords conclus entre partenaires sociaux…


- le mécanisme mimétique. C’est ce mécanisme qui est à l’œuvre lorsque les entreprises s’efforcent d’imiter les stratégies gagnantes de leurs concurrents. Dans certains secteurs oligopolistiques, suivre le leader est un mode de coordination qui peut limiter les effets d’une concurrence destructrice. Mais le mécanisme mimétique peut également agir de manière plus indirecte, par exemple au travers des mouvements de personnel d’une entreprise à l’autre du même secteur, par l’intervention de consultants…


- le mécanisme normatif. Il agit directement sur les cartes mentales des décideurs au travers d’un processus de socialisation opéré à l’échelle du secteur. Les associations professionnelles, les institutions de formation (initiale ou continue), mais aussi bien sûr la presse professionnelle, les salons, séminaires, congrès et conférences qui rassemblent les décideurs des entreprises du secteur, favorisent les partages d’expérience, les exposent aux mêmes informations et analyses, quelquefois aux mêmes « récits » (les cas d’école, les bonnes pratiques, les grandes figures…), et peuvent jouer un rôle déterminant dans la formation d’une culture sectorielle largement partagée.


L’adoption des recettes sectorielles par les décideurs se trouve donc à la fois contrainte par le cadre institutionnel, encouragée par l’attitude stratégique, et effectuée de manière partiellement inconsciente du fait de l’immersion au sein d’un microcosme. Spender [1989] ajoute que l’adoption des recettes sectorielles est également une réponse des managers à l’incertitude, qui les conduit à rechercher dans la référence à des normes collectives des guides dans l’exercice de leur jugement. De leur côté, DiMaggio et Powell [1983], de même que Porac et al. [1989], mettent en avant que le mimétisme stratégique peut constituer un moyen pour les décideurs d’obtenir une légitimité qui leur facilite l’accès aux ressources dont l’entreprise a besoin (attraction des clients, confiance des fournisseurs et des partenaires potentiels, accès au financement, aux aides publiques, acceptation par l’opinion publique…)[9]. L’isomorphisme n’est donc pas uniquement la conséquence de dispositions moutonnières. Certaines études ont même pu montrer que les firmes qui adoptent des stratégies proches de celles de leurs concurrents (au moins jusqu’à un certain point) bénéficient de meilleures performances[10].



[1] Voir les études citées par Abrahamson et Hambrick [1997].

[2] Spender [1989] pour les secteurs de la fonderie des métaux, de la location de chariots élévateurs et pour l’industrie laitière, Moati [1989] pour le secteur des articles de sport et Moati [1992] pour celui de l’édition, Salais et Storper [1993] pour le secteur du matériel militaire…

[3] Par exemple, Sutcliffe et Huber [1998] ont réalisé une enquête auprès de 307 cadres appartenant à 58 entreprises de 19 secteurs d’activité, visant à recueillir la manière dont ils qualifient l’environnement de leur entreprise. Il ressort qu’environ 40% de la variance des perceptions individuelles sont expliqués par l’appartenance du cadre à l’entreprise et de l’entreprise au secteur. Autrement dit, les perceptions individuelles sont significativement similaires à l’intérieur des firmes mais aussi à l’intérieur des secteurs.

[4] Dosi [1982].

[5] Moati [1996].

[6] Granovetter [1985, 2000].

[7] Storper [1995], Zimmerman [2008].

[8] Les « connaissances tacites et inconscientes » de Hayek [1960], que les acteurs absorbent jour après jour par le biais des interactions sociales (voir Aréna et Festré [2002]).

[9] Pfeffer et Salancik [1978], Deephouse [1996].

[10] Voir Deephouse [1999] et les références citées dans l’article.

 

(à suivre)



[1] Cette partie, qui précise le cadre dans lequel s’inscrit ce travail, peut sans dommage être contournée par le lecteur d’abord intéressé par les résultats de l’enquête.
[2] Les théories plus récentes admettent que les stratégies de l’entreprise puissent également viser, de manière proactive, à agir sur l’environnement.
[3] Alchian [1950].
[4] Porter [1982].
[5] Pour un tour d’horizon de ces approches, voir Barney et Clark [2007].
[6] Atamer et Calori [1998, p. 382].
[7] Stigler [1961].
[8] Les technologies de l’information ont effectivement fortement réduit le coût de l’information et permis un accroissement considérable de la quantité d’information à la disposition des décideurs.
[9] Savage [1954].
[10] L’indétermination radicale des comportements des parties prenantes découle fondamentalement de la remise en cause de l’hypothèse de rationalité substantielle. Si l’on ne peut prêter aux autres acteurs – eux-mêmes soumis à l’incertitude – des comportements substantiellement rationnels (à l’inverse de ce que suppose la théorie de jeux), il devient impossible d’anticiper leur comportement. (Jacquemin [1985], Arrow [1986]).
[11] En présence de l’incertitude, « seul Dieu sait quelles politiques seraient réellement optimales » (Nelson et Winter [1982, p. 128]).
[12] Brownlie et Spender [1995].
[13] Georgescu-Roegen [1954], Spender [1989].
[14] « L’environnement est considéré […] comme une représentation, dans l’esprit de l’entrepreneur, des possibilités et des restrictions auxquelles il est confronté » (Penrose, [1959, p. 5]).
[15] Abrahamson et Hambrick [1997].
[16] « Nous percevons le monde avant de réagir à lui, et nous réagissons non pas à ce que nous percevons, mais toujours à ce que nous inférons » (Knight, [1921, p. 201]).
[17] Des nuances distinguent ces différentes expressions. Dans la suite de ce texte, nous privilégierons l’expression de carte mentale.
[18] Voir les résultats d’études empiriques citées par Stewart et al. [2008].
[19] « Les agents sont hétérogènes “quant à leur capacité, à partir de la perception et de l'inférence, à former des jugements corrects concernant le cours futur des évènements dans leur environnement” » (Knight [1921, p. 241]).
[20] Child [1972], Pfeffer et Salancik [1978], Hambrick et Mason [1984], Brownlie et Spender [1995]...
[21] Ces deux études sont citées par Geletkanycz et Black [2001].
[22] Ardenti et Vrain [2000, p. 92].
[23] Sutcliffe et Huber [1998] citent un certain nombre d’études qui mettent en évidence un lien entre le degré d’homogénéité des représentations de l’environnement au sein de l’équipe dirigeante et les performances de l’entreprise. Voir aussi Carmeli et Schaubroeck [2006].
[24] Schein [1985].
[25] Spender [1989, p. 175]. « En théorie, les subordonnés exercent dans ce contexte protégé et, soulagés du fardeau du leadership intellectuel, deviennent de purs preneurs de décisions logiques ».
[26] Sutcliffe et Huber [1998], McCabe et Dutton [1993].
Partager cet article
Repost0
28 janvier 2011 5 28 /01 /janvier /2011 14:06

3     Subjectivité des représentations et dynamique sectorielle

Au total, ce que nous enseigne la littérature académique est que, face à l’incertitude de l’environnement et à la rationalité limitée des agents, les représentations que les responsables d’entreprise adoptent de leur environnement et de ses évolutions possibles comportent une forte part de subjectivité contribuant à l’observation d’une diversité de stratégies parmi les entreprises d’un même secteur. Cette hétérogénéité intra-sectorielle se trouve cependant plus ou moins contrebalancée par le jeu de mécanismes assurant une certaine convergence à l’intérieur des secteurs dans les manières de percevoir l’environnement, ainsi que dans les modes de pensée et d’action.


La balance entre les forces de divergence et de convergence des représentations est inégale selon les secteurs[1]. DiMaggio et Powell [1983], à la suite de Cyert et March [1963], soutiennent que l’« isomorphisme mimétique » est d’autant plus important que le niveau d’incertitude est élevé : face à l’incertitude, se conformer à des règles collectives revêt un caractère rassurant. Confronté à sa propre ignorance, chaque décideur est en droit de supposer que les autres disposent d’une information qu’il n’a pas et de décider rationnellement de se conformer à leur manière de voir et de faire. En outre, il est sans doute plus confortable de se tromper en même temps que les autres plutôt que tout seul… Malheureusement, les études empiriques manquent pour identifier avec précision les déterminants sectoriels du degré de convergence des représentations. Abrahamson et Hambrick [1997] ont toutefois réussi à mettre en évidence un effet négatif, sur la convergence des champs sur lesquels porte l’attention des managers, de l’importance de leur latitude d’action au sein de leur secteur[2].


Un certain consensus règne dans la littérature académique autour de l’idée que le degré de convergence est plus important dans les secteurs associés à un environnement stable ou à évolution lente (même si ce type d’environnement expose à une moindre incertitude). Plusieurs arguments viennent à l’appui de cette proposition. La stabilité de l’environnement assure la continuité du processus d’apprentissage qui, progressivement, réduit l’incertitude, améliore l’acuité des représentations et fait converger les représentations individuelles en direction de l’état réel de l’environnement. La stabilité de l’environnement favorise par ailleurs la formation et la consolidation des recettes sectorielles qui, en s’institutionnalisant, gagnent en capacité d’influence. Enfin, dans un environnement stable, les firmes dont les performances sont inférieures à celles de leurs concurrents sont incitées, plus encore qu’ailleurs, à s’engager dans un processus d’imitation des leaders.

3.1      L’inertie des représentations

Que se passe-t-il lorsque l’environnement connait un changement profond ? La littérature insiste sur les facteurs d’inertie qui s’opposent à une adaptation rapide des représentations de l’environnement, préalable au changement stratégique. Le principal facteur d’inertie réside dans la dynamique cumulative qui préside à la formation des cartes mentales qui, tant qu’elles ne sont pas remises en cause, tendent à se renforcer au fil du temps[3]. Le temps renforce la confiance que le décideur place dans ses visions du monde, et s’appuyer sur elles en évitant de s’interroger en permanence sur leur validité économise en rationalité. Une longue période de stabilité au sein d’un secteur est donc susceptible de conduire à la calcification des cartes mentales, de même que l’ancienneté du décideur dans la firme et dans le secteur, voire dans la fonction[4]. Ces cartes mentales, on l’a vu, jouent comme un filtre dans l’acquisition et l’interprétation des signaux émis par l’environnement. Les informations les plus importantes par rapport aux cartes mentales en usage sont celles qui ont le plus de chance d’attirer l’attention ; les autres risquent de demeurer inaperçues, même à supposer que le décideur ait été exposé à elles[5]. Quand bien même seraient-elles perçues, les cartes mentales en usage pourraient conduire à les interpréter de manière erronée[6]. L’acquisition de nouvelles informations se trouve ainsi biaisée en faveur de celles qui confortent les représentations en vigueur.


De nombreux auteurs insistent sur le fait que le risque de rigidification des représentations de l’environnement serait particulièrement élevé dans les entreprises qui ont longtemps connu le succès[7]. Les cas célèbres d’IBM face à l’apparition du PC, ou bien de Polaroïd ou de Kodak face à celle de la photo numérique, fournissent de remarquables illustrations de l’inertie cognitive qui menace les leaders qui ont dominé trop longtemps leur secteur. Une partie de l’explication réside dans le fait que le succès renforce la confiance que les décideurs accordent à leurs croyances et à leur jugement. La perception d’informations susceptibles de démentir ces croyances est à l’origine de dissonances cognitives, dont on sait depuis Festinger [1957] qu’elles activent des mécanismes de défense des représentations en usage. Par la « réfutation », le décideur tend à nier l’information dissonante, ou tout au moins à en minimiser la portée ; par la « rationalisation », il cherche à modifier son contenu ou sa signification afin de la rendre compatible avec son système de pensée.


Si la stabilité de l’environnement tend à favoriser la convergence des cartes mentales à l’intérieur d’un secteur tout en conduisant à leur rigidification, on comprend que ce ne sont pas simplement des entreprises isolées qui peuvent devenir les victimes de l’inertie de leurs représentations mais un secteur dans son ensemble. Là aussi, les exemples de secteurs ayant raté le virage d’une mutation structurelle ne manquent pas[8]. Citons, parmi d’autres, l’industrie horlogère franco-suisse dans les années 1970 qui n’a pas su anticiper l’évolution de la demande mondiale vers des produits bon marché que rendait possible la technologie du quartz[9] ; le secteur français de la fabrication d’articles de sport qui, au tournant des années 1980-1990, n’a pas su percevoir le glissement du marché d’une logique de compétition-performance vers une logique de loisir-mode[10] ; ou plus récemment les majors de la filière musicale qui ont beaucoup tardé à prendre la mesure des conséquences de la dématérialisation du produit sur la structuration de leur activité.

3.2      L’évolution des représentations

Les représentations sont-elles à ce point rigides qu’elles ne puissent définitivement pas prendre en compte les mutations intervenues dans l’environnement, condamnant par là les entreprises concernées en raison de leur insuffisante capacité d’adaptation ? Évidemment non, car les individus comme les organisations sont dotés de capacités d’apprentissage de nouvelles représentations par évolution de leurs cartes mentales. La littérature académique dans le champ de la théorie de la firme adopte généralement sur ce plan une approche voisine de celle élaborée par Piaget dans celui de la psychologie de l’enfant. L’ajustement des représentations et modes de pensée à l’évolution de l’environnement s’opère à la fois par « assimilation » et par « accommodation ». L’assimilation consiste à interpréter de nouvelles informations sur la base des cartes mentales existantes, quitte – si ces informations se révèlent peu compatibles avec les représentations en vigueur – à procéder, comme on l’a vu, à leur réfutation ou leur rationalisation. Cependant, lorsque la dissonance cognitive (Piaget évoque le « conflit cognitif ») est trop forte, c’est le mécanisme d’accommodation qui entre en jeu. Le décideur tente alors d’ajuster ses structures cognitives afin d’intégrer la nouvelle information dans sa vision du monde. Ce type d’approche a été appliqué à l’étude des organisations, notamment par Argyris et Schön [1978] qui distinguent l’apprentissage organisationnel en « simple boucle » consistant, face à une information dissonante, à corriger à la marge ce qu’ils nomment les « theories in use », de l’organisation de l’apprentissage en « double boucle » qui conduit à la révision de ces « theories in use »[11]. C’est typiquement la persistance de dysfonctionnements, la dégradation durable des performances de l’entreprise, l’incapacité à atteindre les objectifs… qui déclenchent le passage d’un apprentissage en simple boucle à un apprentissage en double boucle, de l’assimilation à l’accommodation…


Évidemment, la capacité de remise en cause de ses représentations par un décideur et, au-delà, par une entreprise, fait intervenir un faisceau de facteurs. La radicalité des changements intervenus dans l’environnement, le nombre, la diversité et la persistance des informations dissonantes favorisent l’apprentissage de nouvelles représentations. A l’inverse le degré d’institutionnalisation des recettes sectorielles constitue un frein. A l’intérieur de l’entreprise, le profil des dirigeants, mais aussi les caractéristiques de l’organisation, l’efficacité des dispositifs mis en œuvre pour appréhender l’environnement (système de veille, d’intelligence économique…), la facilité avec laquelle l’information circule à la fois verticalement (de bas en haut) et verticalement… et plus généralement sa « capacité d’absorption »[12] et ses « compétences dynamiques »[13] interviennent dans la capacité à rompre l’inertie des formes de pensée et à engager l’effort d’adaptation nécessaire. La nature des facteurs à l’œuvre fait que la capacité de remise en cause et d’adaptation est fortement idiosyncrasique et constitue donc une source supplémentaire de diversité intra-sectorielle.

3.3      Évolutions des représentations et dynamique sectorielle

L’inégale capacité des individus et des entreprises à prendre acte des changements intervenant dans l’environnement et des nouvelles menaces et opportunités qui leur sont associées a été identifiée depuis longtemps par la théorie économique comme un facteur influant sur la dynamique des structures. Les économistes de la tradition autrichienne, en dépit de ce qui différencie leurs approches, s’accordent sur l’idée que les individus n’ont pas la même capacité à identifier les potentialités de leur environnement. Mises [1949/1985] distingue ainsi les « hommes ordinaires » des « promoteurs », ces derniers bénéficiant « d’un coup d’œil plus prompt que la foule ». « Ce sont les pionniers qui poussent et font avancer le progrès économique » (p. 169). Schumpeter [1919/1951] distingue quant à lui les « leaders » des « imitateurs ». Les leaders se caractérisent pas un « besoin instinctif de domination » (p. 15) et par leur « excédent d’énergie » (p. 34). Ces leaders sont les acteurs de l’innovation. Pour Kirzner [1979], les individus sont inégaux dans leur capacité à ressentir, anticiper, deviner… et à diriger ces capacités dans le sens d’une action économique. Certains bénéficient d’une plus grande « vigilance entrepreneuriale » qui leur permet de détecter dans l’environnement des opportunités non perçues par les autres. Notons au passage que cette capacité à percevoir ce que les autres ne voient pas peut se rencontrer plus couramment auprès d’acteurs n’appartenant pas au secteur et dont les représentations ne sont donc pas influencées par les « recettes sectorielles ». On pense bien sûr aux entrepreneurs créateurs d’entreprise, mais aussi aux entreprises étrangères du même secteur[14], ou aux entreprises originaires d’autres secteurs d’activité en quête de diversification ou de redéploiement.


Certains acteurs auraient donc cette faculté de percevoir, dans l’environnement (les attentes des clients, le potentiel offert par les technologies, les failles de la règlementation…), des opportunités de mise en œuvre de nouveaux comportements susceptibles d’être porteurs d’un avantage sélectif. Ils introduisent donc la nouveauté au sein du secteur. La dynamique sectorielle passe alors par un processus de diffusion des éléments de nouveauté perçus comme pertinents. Les auteurs autrichiens soulignent en particulier le rôle des comportements d’imitation. Ainsi, les « hommes ordinaires » de Mises, naturellement enclins à suivre des routines, se décident à suivre les « promoteurs » une fois leur succès avéré. Les « imitateurs » de Schumpeter, comme leur nom l’indique, imitent les innovations réussies par les « leaders » et contribuent à l’institutionnalisation de nouvelles représentations. Comme le souligne Spender [1989], la probabilité de diffusion à l’intérieur du secteur des représentations et des comportements innovants est notamment liée à la réputation à l’intérieur du secteur dont bénéficient les acteurs qui en sont à l’origine. Alors qu’un comportement innovant peut passer inaperçu lorsque c’est un nouvel entrant qui l’introduit, il peut rapidement s’imposer comme un nouvel ingrédient des « recettes sectorielles » si c’est un leader ou une entreprise du secteur bénéficiant d’une forte légitimité qui en est à l’origine.

3.4      Un modèle de dynamique sectorielle avec firmes hétérogènes

L’approche évolutionniste du changement économique initiée par Nelson et Winter [1982] a fourni un cadre théorique permettant de rendre compte de la manière dont l’hétérogénéité des entreprises sur le plan de leurs représentations, de leurs compétences et, finalement, de leurs comportements interfère avec la dynamique des secteurs d’activité. En conclusion de cette introduction méthodologique, tentons de résumer la vision d’ensemble qui découle de ce cadre, pour ensuite tenter une application au secteur du commerce.


Situons-nous dans le contexte hypothétique d’un secteur qui vient seulement d’émerger, peuplé de nouvelles entreprises sans histoire. Cette collection d’entreprises en concurrence ne constitue pas encore une « communauté ». Les décideurs, qui ne peuvent tabler sur les recettes sectorielles pour les guider, fondent leurs représentations de l’environnement et la définition des stratégies opportunes sur la base de leur jugement, alimenté par l’information perçue. La subjectivité des processus cognitifs à l’œuvre conduit à une diversité de représentations à l’intérieur du secteur, laquelle conduit à son tour à la diversité des stratégies mises en œuvre[15]. Les caractéristiques effectives de l’environnement (les conditions de base du secteur, mais aussi l’ensemble des stratégies suivies par les firmes en concurrence) définissent les caractéristiques du régime de concurrence sur la base duquel sont sanctionnées les différentes stratégies, en fonction de leur degré d’adaptation aux caractéristiques de l’environnement.


Ainsi, les entreprises dirigées par les managers ayant réalisé les perceptions les plus justes et qui ont pu sur cette base élaborer les stratégies les plus adaptées[16], enregistrent les meilleurs résultats en termes de rentabilité et de croissance. Celles dont les stratégies se sont fondées sur des perceptions particulièrement erronées de l’environnement sont sanctionnées : elles ne parviennent pas à atteindre leurs objectifs, ou même voient leur existence menacée par le niveau de leur rentabilité. Le succès rencontré par les premières (qui se traduit notamment par la croissance de leurs parts de marché) tend à conforter la confiance de leurs dirigeants dans leurs représentations. Leurs cartes mentales se consolident. Les difficultés dans lesquelles se trouvent les secondes jouent comme une invitation pour leurs dirigeants à réviser les leurs. Parmi eux, certains approfondissent la démarche d’observation et d’analyse de l’environnement et en déduisent une représentation révisée. D’autres s’efforcent d’imiter les stratégies des entreprises ayant rencontré le succès. Ainsi, par l’emprise croissante des leaders sur le marché, la mise en œuvre de stratégie d’imitation, la correction progressive des erreurs d’analyse de l’environnement, voire la disparition des entreprises ne parvenant pas à réviser leurs stratégies…, les représentations adoptées par les firmes tendent à s’homogénéiser. Avec le temps, les évènements vécus en commun à l’échelle du secteur, la mobilité du personnel, la multiplication des relations interpersonnelles entre les dirigeants des différentes entreprises, la formation d’organisations professionnelles, la création d’une presse spécialisée… tendent à institutionnaliser ces représentations qui deviennent un élément de connaissance commune à l’échelle du secteur, des « recettes sectorielles ».


Sous réserve d’un environnement relativement stable, le secteur s’installe alors dans un certain régime de croissance. Un régime de croissance peut être défini comme un « ordre », c’est-à-dire un mode de fonctionnement du secteur relativement cohérent, qui se traduit par une certaine permanence de ses principales caractéristiques : ses structures (l’ordre de grandeur du nombre d’entreprises en présence, l’intensité des flux d’entrées et de sorties d’entreprises, leur taille moyenne, leur âge moyen…), les formes de la concurrence dont découlent les « facteurs clés de succès » qui s’imposent aux entreprises, la nature des ressources et des compétences requises pour prospérer dans le secteur, les caractéristiques du ou des modèles économiques appliqués par les firmes, les modes d’organisation les plus couramment adoptés... Le régime de croissance définit donc un cadre dans lequel s’exercent l’activité des entreprises et la dynamique concurrentielle qui les relie. Au régime de concurrence est également associé un ensemble de représentations partagées sur des questions aussi diverses que la nature des attentes des clients, le design des produits, les priorités en matière de développement des technologies, les qualifications à apporter à la main-d’œuvre, les formes d’organisation les plus adaptées à la nature de l’activité…


La convergence des représentations parmi les entreprises du secteur n’est cependant que relative. Malgré les points d’appui collectifs dont ils disposent pour établir leur jugement, les décideurs continuent de mobiliser leur subjectivité dans le processus de décision stratégique. Si les barrières à l’entrée ne sont pas insurmontables, de nouveaux acteurs pénètrent le secteur, souvent avec des représentations originales. Certaines entreprises en place engagent des stratégies d’adaptation davantage fondées sur l’innovation que sur l’imitation… En outre, l’environnement n’est jamais statique. Même sans connaître des ruptures majeures, il est en évolution permanente : les conditions de base ont leur dynamique propre (évolution des attentes des clients, développement des technologies, dynamique des secteurs fournisseurs…) et l’environnement concurrentiel est redéfini en permanence par la mise en œuvre des stratégies d’adaptation et l’arrivée de nouveaux entrants. Les changements qui interviennent dans l’environnement sont une invitation à ajuster en permanence les représentations, ce que les entreprises parviennent à réaliser de manière plus ou moins efficace en fonction du degré de rigidité de leurs cartes mentales… Ainsi, même dans le cadre d’un régime de croissance stabilisé, les structures du secteur ne sont jamais totalement inertes en raison de la dynamique qui nait de l’enchaînement : hétérogénéité stratégique => sélection => stratégies d’adaptation => hétérogénéité stratégique…


Le régime de croissance sectoriel peut se trouver déstabilisé par des mutations de l’environnement : une rupture technologique, une modification majeure du cadre réglementaire, un changement profond intervenant du côté des clients, l’entrée d’un concurrent porteur d’une innovation de rupture… Les recettes perdent de leur efficacité ; les performances des entreprises se dégradent. Le secteur engage alors sa transition vers un nouveau régime de croissance. Ce passage peut cependant rencontrer des résistances. L’inertie des représentations individuelles, alimentée par l’institutionnalisation des recettes sectorielles, s’oppose à la prise de la juste mesure des adaptations qui s’imposent. Les entreprises en place peuvent éprouver de grandes difficultés à mesurer la profondeur des mutations en cours, et tenter de préserver leurs cartes mentales en sous-estimant la portée du changement ou en l’analysant de manière erronée. Les plus promptes à prendre la mesure des mutations, à réviser leurs cartes mentales et à adopter les stratégies d’adaptation qui s’imposent bénéficient d’un avantage sélectif. Les autres assistent à la dégradation de leurs performances et sont menacées de disparition. Des nouveaux entrants, qui n’ont pas d’héritage cognitif à assumer, pénètrent le secteur et contestent la position des firmes en place…


Les difficultés que les entreprises peuvent rencontrer dans leurs tentatives d’adaptation sont, bien sûr, considérablement renforcées lorsque les mutations de l’environnement appellent de nouvelles stratégies qui exigent des compétences que les entreprises du secteur n’ont pas et qui ne sont pas librement accessibles. Les facteurs d’inertie cognitive en jeu dépassent alors le seul champ des représentations de l’environnement pour s’étendre à la problématique de l’apprentissage de nouveaux savoir-faire. Les difficultés auxquelles les entreprises sont confrontées dans leurs tentatives d’acquisition de nouvelles compétences s’ajoutent ainsi à toutes les formes de résistance au changement pour les encourager à tenter de résoudre la dissonance entre les comportements routiniers et les nouvelles représentations des stratégies qui s’imposent par des manœuvres consistant à bloquer le processus concurrentiel, à infléchir le cours de l’évolution de l’environnement.


Les entreprises disposent en la matière d’un vaste répertoire d’actions allant de l’adoption d’une politique de prix prédateurs pour contraindre à la sortie les nouveaux entrants innovants, aux actions collectives (notamment via les organisations professionnelles) visant à influencer le cadre réglementaire ou à promouvoir l’adoption des standards qui leur soient favorables. En règle générale, si un minimum de pression concurrentielle existe à l’intérieur du secteur et si les barrières à l’entrée ne sont pas insurmontables, le secteur finit par basculer vers un nouveau régime de croissance, au terme d’un épisode de crise qui aura plus ou moins profondément déstabilisé les structures du secteur et conduit au renouvellement de sa population d’entreprises. De nouvelles représentations collectives s’institutionnalisent enfin dans des recettes sectorielles redéfinies.

 

4     Application au secteur du commerce de détail

La révolution commerciale amorcée à la fin des années 1950 a consacré la « grande distribution » comme forme commerciale dominante. A mesure qu’elle étendait son emprise sur le commerce, le secteur entrait dans un nouveau régime de croissance, que nous avons proposé de qualifier d’extensif[17]. Ce régime de croissance est marqué par la prégnance dumodèle économique du discount. A grands traits, rappelons que ce modèle repose sur une proposition de valeur centrée sur le prix bas, qui s’adosse à un back-office tendu vers l’exploitation des effets de dimension à tous les niveaux, et au service d’un modèle de rentabilité fondé sur la vitesse de rotation du capital. De la prégnance de ce modèle économique découlent d’autres dimensions du fonctionnement du secteur associées au régime de croissance extensive : le développement des concepts commerciaux exploités en réseaux de grandes surfaces, la localisation du commerce en périphérie, la conflictualité des relations industrie-commerce…


Le régime de croissance extensive s’appuie sur un ensemble de dispositifs qui fondent et diffusent une culture sectorielle marquant les représentations et les comportements des acteurs du commerce. Si les « inventeurs du commerce moderne » (pour reprendre le titre d’un ouvrage d’Etienne Thil) présentent des profils biographiques hétérogènes, la plupart sont liés par un fil invisible qui a fortement contribué à l’amorce de la formation de cette culture sectorielle : la fascination pour le modèle de distribution en plein développement dans les États-Unis de l’après-guerre. Cette fascination va les conduire à participer aux « missions de productivité » organisées par le Commissariat Général au Plan pour observer sur le terrain les méthodes américaines. Un peu plus tard, ils se succéderont dans les fameux séminaires donnés par Bernardo Trujillo à la National Cash Register Company. Chatriot et Chessel rappellent que, sur les quelque 13 000 personnes qui ont assisté aux séminaires de Trujillo entre 1957 et 1966, on pouvait compter 2 347 Français[18]… dont la plupart de ceux qui devaient devenir les grandes figures de la distribution hexagonale. Ils allaient fidèlement mettre en application les principes clés martelés par le gourou, et en faire ainsi le socle de la culture sectorielle en construction : le libre-service, le prix bas, le parking et le spectacle.


Ces enseignements ont ensuite été relayés dans les structures de formation (Chatriot et Chessel insistent sur le rôle des stages organisés dans les années 1970 par la FNEGE (Fondation nationale pour l’enseignement de la gestion des entreprises)), et via l’apparition d’une presse professionnelle spécialisée. Libre Service Actualités (LSA) – appelé à devenir, par son audience au sein du microcosme, une véritable institution sectorielle – est créé en 1958. Ce titre (comme la presse dans son ensemble qui, jusqu’à aujourd’hui, s’intéresse beaucoup aux soubresauts du secteur) va servir de caisse de résonance à la formidable réussite des pionniers de la révolution commerciale. Pour la plupart, il s’agit d’autodidactes partis de rien ou presque. En quelques années seulement, certains vont bâtir des empires. Ils deviennent ainsi l’incarnation du succès, la figure du « self-made man » qui réussit grâce à sa fidélité à ses intuitions et à son acharnement au travail. Pendant longtemps, la culture du secteur a été nourrie du récit de ces réussites individuelles. Dès 1966, Etienne Thil, qui est alors journaliste avant de rejoindre le groupe Carrefour, très proche de Bernardo Trujillo, publie Les inventeurs du commerce moderne, qui glorifie les pionniers et souligne les principes à la base de leur succès. D’autres ouvrages du même type suivront[19] qui partagent de rendre compte du succès de la grande distribution, moins par la rencontre d’un modèle économique et d’une époque, que par le talent visionnaire de grands entrepreneurs et de leur fidélité à des principes fondateurs, parmi lesquels l’idée que le prix bas est la raison d’être du commerce moderne.


La culture sectorielle associée au régime de croissance extensive est également très fortement imprégnée du modèle de la « roue de la distribution », élaboré par le chercheur américain Malcom McNair[20] et popularisé en France dans le milieu professionnel par Etienne Thil[21]. La simplicité de ce modèle, et sa pertinence apparente au vu d’un survol de l’histoire du commerce, expliquent sans doute son succès. Il est régulièrement relayé dans la sphère professionnelle, explicitement ou implicitement, au travers des formations commerciales et de la littérature manageriale[22]. Il renforce la légitimité des représentations et invite les responsables d’enseignes à réagir aux dégradations de leurs résultats par plus de rigueur dans l’application du modèle.


Le régime de croissance extensive manifeste cependant ses premiers signes d’essoufflement dès la fin des années 1980 qui vont conduire à son entrée en crise[23]. Deux séries de facteurs sont à l’origine de cette évolution. La première, endogène au secteur, réside dans la saturation progressive d’un potentiel de croissance basé sur la prise de parts de marchés aux formes de commerce traditionnelles. La seconde renvoie aux mutations de l’environnement économique et social dans lequel le secteur du commerce se trouve encastré. Or, que ce soit sur le plan économique (crise du fordisme et émergence d’une économie post-fordienne) ou sur le plan sociétal (dépassement de la modernité emblématique des Trente Glorieuses), cet environnement amorce dès la fin des années 1960 une phase de mutation profonde qui conduit à la redéfinition d’un certain nombre de conditions de base du secteur du commerce influant sur son régime de croissance. Le modèle du discount, ainsi que les caractéristiques dominantes de l’appareil commercial qui en est issu, apparaissent de plus en plus déphasés par rapport à un environnement économique et social qui invite à une refondation de la manière de satisfaire les besoins des consommateurs. Pourtant, la marche vers un nouveau régime de croissance se révèle longue et laborieuse.


Une des raisons de la lenteur relative de cette entrée dans le nouveau régime de croissance réside probablement dans le fait que le commerce est progressivement devenu un secteur dominé par un nombre relativement restreint de grandes entreprises ayant une forte maîtrise de leur marché. Par contraste, à l'aube des années 1960, le secteur était composé d'une nébuleuse de structures familiales, sans pouvoir de marché ni réelles capacités d'adaptation. En outre, alors que le capitalisme contemporain est marqué par la mondialisation – qui a conduit de nombreux secteurs à la restructuration –, l'internationalisation du commerce de détail est demeurée pendant longtemps modeste. Elle s'est accélérée depuis environ une quinzaine d'années, mais le degré d'ouverture internationale de cette activité demeure limité dans les pays industrialisés par rapport à ce qu'il est dans la grande majorité des autres secteurs de l'économie. Cette spécificité, qui trouve son explication à la fois dans les différences de cadres réglementaires nationaux et dans la persistance de dissemblances significatives dans les habitudes de consommation, a entretenu le caractère oligopolistique du secteur et contribué ainsi à ralentir les mutations.


Cette relative stabilité des structures du secteur a contribué à la calcification de la culture sectorielle. La permanence des organisations professionnelles, l’ancienneté dans le secteur d’un grand nombre de dirigeants, un modèle de gestion des ressources humaines qui fait la part belle à l’ascenseur social mais, du même coup, fait que les dirigeants se recrutent au sein même du microcosme, la mobilité des journalistes et des consultants spécialisés vers les carrières dans les entreprises du secteur… sont des facteurs qui ont activement participé à cette rigidification des cadres de pensée. C’est cette rigidification – confortée par des performances financières qui demeurent pendant longtemps très confortables – qui explique pourquoi les entreprises du secteur ont réagi si souvent aux premières manifestations de remise en cause du régime de croissance extensive par le retour à l’orthodoxie dans l’application du modèle qui avait fait leur succès. C’est ainsi que l’évènement perturbateur qu’a constitué la percée du hard-discount et sa conquête rapide de parts de marché a eu tendance à être analysé comme un nouveau tour de la roue de la distribution. Celui-ci se serait trouvé facilité par la vulnérabilité croissante d’une grande distribution désormais « embourgeoisée » qui, en raison de sa position dominante, aurait pris ses distances vis-à-vis de sa vocation à casser les prix pour développer le choix, le confort d’achat, la « théâtralisation de l’offre »… Cette croyance en la roue de la distribution a contribué à inciter les distributeurs, du milieu des années 1990 au milieu des années 2000, à concentrer leur énergie stratégique à tenter d’endiguer l’évasion d’une partie de leur clientèle vers le hard-discount, en restaurant la compétitivité-prix de leurs enseignes et/ou en créant de nouveaux concepts commerciaux résolument positionnés sur le prix bas.


De manière générale, les entreprises du secteur ont eu tendance à réagir aux limites de plus en plus manifestes du régime de croissance extensive en s’efforçant…. d’en prolonger le règne[24]. Éprouvant des difficultés à faire le deuil d’une croissance rapide, qui se trouve – rappelons-le – au cœur du régime de croissance extensive[25], leur énergie s’est ainsi longtemps concentrée sur la recherche de nouveaux leviers de croissance. Elles les ont trouvés avec plus ou moins de bonheur dans la diversification de leur activité vers d’autres catégories de produits et de services, les opérations de croissance externe et, surtout, l’internationalisation. La saturation du potentiel de croissance sur le marché national s’est cependant intensifiée au cours du temps, à mesure que se densifiait le maillage du territoire en points de vente et que les contraintes réglementaires pesant sur les ouvertures de nouveaux magasins se durcissaient. Dans un tel contexte, l’apparition avec Internet d’un nouveau circuit de distribution disposant d’avantages distinctifs très marqués constitue bien évidemment un facteur aggravant.


Il semble cependant que le mouvement de révision des représentations partagées au sein du secteur ait connu une accélération à partir des premières années de la décennie 2000. Il est difficile d’identifier avec précision les facteurs à l’origine de cette évolution. L'accélération de l'internationalisation[26], le renouveau de la vente à distance avec l'arrivée de l'Internet, mais aussi l'approfondissement des mutations économiques et sociales, semblent s’être conjugués pour accélérer la prise de conscience de la nécessité d’une adaptation et de l’entrée dans le nouveau régime de croissance. Le renouvellement et le rajeunissement des équipes à la tête des grandes entreprises de distribution, ainsi que le fait que les dirigeants aient de plus en plus fréquemment mené l’essentiel de leur carrière hors du secteur, ont également joué en faveur de la révision du contenu de la culture sectorielle et la remise en cause des modèles établis.


Il est désormais de plus en plus couramment admis que les formes de distribution héritées de la précédente révolution commerciale souffrent de n’avoir pas su suffisamment s’adapter aux évolutions de l’environnement, et en particulier aux comportements de consommation. Ce diagnostic se concentre autour de deux points : la crise de l’hypermarché et, plus globalement, la perte d’attractivité du commerce en grandes surfaces de périphérie au profit du commerce urbain ; de manière plus ténue, la prise de conscience de la nécessité de dépasser une culture du produit afin d’amorcer un mouvement de centrage sur le client fait également son chemin. Ces transformations des représentations sont perceptibles à la fois au plan du discours que tiennent les acteurs et que véhicule la littérature professionnelle, et au travers d’actions conduites par certains professionnels du secteur. Il n’entre pas dans le propos de ce rapport de se livrer à une analyse détaillée de chacun de ces deux points. Nous nous contenterons de procéder par touches impressionnistes.


Au plan du discours, la presse professionnelle commence à se faire l’écho des difficultés de l’hypermarché au début des années 2000, en réaction notamment à la publication des premières statistiques faisant état de l’essoufflement de la dynamique du format. Ainsi, LSA en mai 2002 fait sa une avec « hypermarché : le modèle s’essouffle ». Les statistiques de l’INSEE confirment celles de la Fédération du Commerce et de la Distribution et de Nielsen ou Secodip : depuis plusieurs années, les hypers cèdent du terrain. Une analyse du phénomène est proposée en 2003, alors que LSA célèbre les 40 ans de l’hypermarché. Dans le chapeau de l’article d’ouverture du dossier consacré à l’évènement, on peut lire : « malgré les incertitudes qui pèsent sur ce format désormais mature en France, [les grands acteurs de cette success story] restent sereins pour l’avenir »[27]. Deux facteurs sont mis en avant pour expliquer le tassement de la part de marché des hypermarchés. Conformément aux enseignements de la roue de la distribution, le premier est l’augmentation des marges qui a réduit l’avantage de compétitivité-prix de l’hyper par rapport aux formats concurrents. Gérard Mulliez, le patron-fondateur d’Auchan, s’inscrit dans la rhétorique de la théorie de la roue de la distribution lorsqu’il déclare : « L’hyper de 1963 était un peu le hard-discount d’aujourd’hui et les hypers d’aujourd’hui, par certains côtés, peuvent ressembler aux grands magasins des années 1970 ». Une « certaine lassitude de la clientèle » est désignée comme le second facteur de la perte de dynamisme de l’hyper.


Mais, au total, les responsables interrogés par LSA se veulent rassurants. Ainsi : « Qui menace vraiment l'hyper aujourd'hui ?, interroge par exemple Michel-Édouard Leclerc, le coprésident des centres E. Leclerc. Il représente la forme de distribution la plus performante et la plus fréquentée. C'est vrai que ce format est grignoté à la marge, que les très grands hypers ont moins la cote auprès de certains clients, et que le hard-discount fait un retour en force. Mais ce que perd l'hyper, c'est la partie indue, la partie de son succès pour lequel il n'était pas fait. Dépoter les yaourts à l'unité, par exemple, n'est pas dans sa vocation première ! Quant à la reprise des parts de marché de la proximité en zone urbaine, elle va permettre à l'hyper de revenir à sa vocation initiale de grand distributeur proposant des prix attractifs sur des segments larges.» Et le patron du groupement d’annoncer des objectifs ambitieux de croissance…


Progressivement, la représentation d’une crise profonde de l’hypermarché s’installe. Seule une révision en profondeur du modèle serait de nature à la contrer. Cette accélération de la révision des croyances intervient grosso modo vers le milieu des années 2000. Les entretiens que nous avons réalisés en 2007 auprès de dirigeants d’entreprises de la grande distribution alimentaire, dans le cadre du Contrat d’étude prospective réalisée par le CRÉDOC, ont permis de prendre la mesure des révisions des représentations. En particulier, il est désormais admis que l’hypermarché est un concept qui a atteint une phase avancée de son cycle de vie. Il rencontre des difficultés structurelles d’adaptation à son environnement, qui pèsent durablement sur ses résultats.

Le livre publié par GS1 en 2008[28], construit autour d’entretiens réalisés auprès de patrons d’entreprises de la grande distribution, fournit un précieux point à date des représentations qui dominent alors le microcosme sectoriel. Le diagnostic de l’arrivée à maturité de ce qui est désigné comme le « modèle français » est clairement établi. Pour Serge Papin, PDG de Système U, « le modèle de l’hyper, du grand hyper, est un modèle mature » [29]. « La fréquence des visites et le nombre d’enseignes fréquentées sont en baisse. C’est un phénomène de fond, structurel » ajoute Jean-Français Cherrid, directeur du marketing d’Auchan[30]. Les limites du modèle du discount sont clairement reconnues. « La différence ne se fait pas qu’au travers des prix et des promotions… Il faut apporter autre chose » déclare Gérard Lavinay, directeur organisation, système et supply chain de Carrefour[31]. Dans une section de l’ouvrage intitulée de manière significative « place à la différenciation », les auteurs résument les propos des dirigeants interrogés en identifiant quatre axes stratégiques pensés comme devant structurer l’évolution du secteur pour les 10 années à venir : « le rôle de l’enseigne comme marque, le succès annoncé du format intermédiaire, la multiplication de magasins spécialisés et enfin le développement de services pour mieux servir les consommateurs »[32]. Il est désormais clairement établi que la crise de l’hyper n’est pas que la simple conséquence d’un embourgeoisement ayant porté atteinte à la compétitivité-prix du format.


L’évolution des représentations concernant l’avenir de l’hypermarché est également perceptible au plan des stratégies des acteurs et de leur évolution. Au cours de la première moitié des années 2000, l’énergie des groupes de distribution alimentaire est concentrée sur les moyens de contenir l’évasion de la clientèle vers le hard-discount (mise en place de « nouveaux instruments promotionnels », développement des gammes premier prix…). Puis, le palier observé dans le développement du hard-discount s’ajoute aux marges de manœuvre en matière de politique tarifaire regagnées à l’occasion de la réforme par étapes de la loi Galland pour encourager les distributeurs à déplacer progressivement le centre de gravité de leur stratégie et à rechercher le soutien à la compétitivité de l’hyper au-delà du seul argument du prix. De manière significative, alors que Wal-Mart et les hard-discounters allemands s’étaient érigés comme modèles, les yeux se tournent de plus en plus vers Tesco, le leader de la distribution alimentaire britannique qui fonde sa formidable croissance sur la connaissance de ses clients et la maîtrise des outils de marketing relationnel.


Les états-majors des groupes sont renouvelés, rajeunis, et font entrer en scène des dirigeants provenant d’autres horizons professionnels (industriels, distributeurs étrangers…). Chacune à sa manière, les enseignes ont engagé une réflexion approfondie sur les manières de relancer la dynamique du format et procèdent à des expérimentations. Par exemple, Carrefour a lancé en 2009 un plan de transformation intitulé "réinventer l'hypermarché pour enchanter nos clients" qui se déploie autour de 5 axes : passer de courses pénibles à des courses plaisir, enrichir le service commercial, développer les rayons de produits frais, animer le point de vente, et affirmer une vocation de spécialiste sur chaque catégorie de produits traités. Ce plan a débouché en août 2010 sur l’expérimentation du modèle « Carrefour Planet » dans deux hypers de la région lyonnaise. Les autres enseignes inscrivent leurs réflexions à peu près sur les mêmes axes. De son côté, Auchan afin de "réenchanter l'hyper", a défini un ensemble de 14 "partis pris d'enseigne" sur lequel le groupe a décidé de concentrer ses efforts pour affirmer son identité, répondre aux attentes des clients tout en se différenciant.


La traduction en acte de l’évolution des représentations est également sensible à l’échelle, non pas seulement des enseignes, mais des groupes, au travers du rééquilibrage des priorités entre les formats exploités. Ainsi, ces dernières années ont été riches en création de nouveaux concepts, sur petites ou moyennes surfaces, dits de « proximité » : Monop, Chez Jean, U Express, Carrefour City… Les acteurs qui ont été à l’origine de la précédente révolution commerciale, qui ont inventé le commerce périphérique en grandes surfaces, déploient aujourd’hui une part importante de leur capacité d’innovation et de développement en direction de formats qui semblaient il y a peu encore condamnés. Les dirigeants, dans leurs anticipations de l’avenir du commerce, intègrent de plus en plus les changements intervenus dans l’environnement sociétal : le vieillissement de la population et la réduction tendancielle de la taille des ménages, le coût croissant de la mobilité automobile, la différenciation du rapport que les consommateurs ont au temps, l’évolution des valeurs en faveur de la recherche du lien social, la sensibilité croissante de l’opinion publique aux problématiques du développement durable…, autant de facteurs pensés comme portant atteinte à l’attractivité de l’hyper (et plus généralement du commerce de périphérie en grandes surfaces) et qui réhabilitent le commerce de proximité.


Le repositionnement de l’hypermarché ainsi que le déploiement des nouveaux concepts commerciaux illustrent également une transformation des représentations portant les attentes des consommateurs. En dépit de la concurrence des formules hard-discount et d’une conjoncture du pouvoir d’achat morose, il semble acquis que les attentes des clients ne s’épuisent pas dans la question du prix bas. Les consommateurs sont perçus comme de plus en plus hétérogènes, et exprimant des attentes complexes qui supposent de développer de nouveaux outils et de nouvelles compétences pour les appréhender et tenter d’y répondre. Fonction souvent délaissée au profit des achats, le marketing devient central dans l’organisation des groupes de distribution. Il lui revient de cibler la clientèle, de différencier l’enseigne, et de nourrir avec les clients une relation susceptible de les fidéliser. La figure du client est de plus en plus mobilisée dans le discours des dirigeants et la littérature professionnelle. Simultanément, l’accent est souvent mis sur l’idée que l’offre commerciale, au-delà de l’accès au produit à des prix compétitifs, doit s’enrichir de services : praticité, accessibilité, gain de temps, pertinence des réponses apportées aux problèmes… La dimension servicielle du commerce est, semble-t-il, de plus en plus perçue comme un axe de son évolution.


Les déclarations des dirigeants, les retouches apportées aux formats existants, la création de nouveaux concepts par les acteurs en place ou par de nouveaux entrants… témoignent de la transformation des représentations de ce que le commerce doit être aujourd’hui et, plus encore, ce qu’il devra être demain. Une double question se pose : jusqu’où les représentations associées au régime de croissance intensive ont-elles été remises en cause ? Les « nouvelles » représentations sont-elles suffisamment partagées parmi les acteurs du secteur pour conduire à leur institutionnalisation, et pour en faire le pourvoyeur de « recettes sectorielles » associées à un nouveau régime de croissance ? Répondre à ces questions par la réalisation d’un point à date sur les représentations des acteurs du commerce est précisément l’objectif de l’enquête dont nous allons à présent détailler la méthodologie et les résultats.



[1] Voir les études citées par Abrahamson et Hambrick [1997].

[2] Cette latitude d’action, la marge de manœuvre stratégique dont disposent les managers, est appréhendée au travers d’un certain nombre de caractéristiques du secteur d’activité : l’intensité des contraintes réglementaires, la concentration des structures (en ce qu’elle renforce le degré d’interdépendance stratégique entre les firmes), le pouvoir de négociation des parties prenantes, la différenciabilité des produits, la croissance du marché et l’instabilité de la demande.

[3] Cyert et March [1963].

[4] Miller [1991], Hambrick et al. [1993], Geletkanycz [1997, 2001].

[5] Huff et Huff [1980].

[6] Saldago et al. [2002].

[7] Nystrom et Starbuck [1984], Prahalad et Bettis [1986], Levinthal et March [1993], Hambrick et al. [1993], Geletkanycz [1997]…

[8] Bien entendu, la rigidité des représentations et des modes de pensée est rarement seule en cause. Les mutations de l’environnement appellent généralement un changement stratégique profond impliquant la mobilisation par les entreprises en place de nouvelles compétences qui peuvent se révéler très difficiles à acquérir ou à créer.

[9] Perrin [1993].

[10] Moati [1989].

[11] On trouve également dans la littérature l’opposition entre l’« adaptative learning » et le « generative learning » (voir, par exemple, Santos-Viande et al. [2005]), ou entre les mécanismes d’« accretion » et de « tuning » (Rumelhart et Norman [1978]).

[12] Cohen et Levinthal [1990].

[13] Teece et al. [1997], Pierce et al. [2002].

[14] Si le marché n’est pas totalement intégré, il est très probable que les recettes sectorielles soient différentes. En outre, plusieurs études ont mis en évidence l’influence de la culture nationale sur la cognition des décideurs économiques (voir Geletkanycz et Black [2001] et les références citées dans l'article).

[15] Afin de nous concentrer sur la question des représentations, on admettra que la mise en œuvre des stratégies ne rencontre aucune contrainte du côté des compétences à mobiliser.

[16] Toujours sous l’hypothèse que la stratégie est directement définie par rapport à ce que la perception de l’environnement définit comme souhaitable, sans faire intervenir ce que les compétences de l’entreprise délimitent comme les options stratégiques faisables.

[17] Moati [2001].

[18] Chatriot et Chessel [2006].

[19] Parmi les ouvrages récents, retenons Les grandes voix du commerce, livre d’entretiens publié en 1997 par Claude Sordet, et La Saga du commerce français de Frédéric Carluer-Loussouam et Olivier Dauvers [2004]. Les grandes figures de la naissance de la grande distribution ont également souvent pris la plume pour raconter leur aventure.

[20] McNair [1931, 1958].

[21] Thil [1966].

[22] Là aussi, Etienne Thil a beaucoup contribué à la diffusion de cette théorie au sein du milieu professionnel. La théorie de la roue de la distribution a encore aujourd’hui ses chauds partisans qui continuent à lui assurer une certaine audience dans le microcosme. Voir en particulier les écrits (et les interventions orales) d’Olivier Dauvers, journaliste spécialisé (www.olivierdauvers.fr, Dauvers [2003]).

[23] Pour une analyse approfondie des facteurs à l’origine de la crise du régime de croissance extensive, voir Moati [2001].

[24] Moati [2001].

[25] La croissance rapide a également fortement influencé les politiques en matière de gestion des ressources humaines. Dans le sillage du récit de la réussite des pionniers, les entreprises de la grande distribution ont longtemps pu mobiliser l’énergie de leurs salariés par la perspective d’une carrière rapide en raison de l’efficacité de l’ascenseur social. De fait, le majeure partie de l’encadrement, à la fois dans les magasins et aux sièges, a été occupée par des salariés ayant souvent commencé leur carrière en bas de l’échelle hiérarchique. L’efficacité de la pompe aspirante est cependant directement liée à la vitesse de croissance des entreprises qui définit le rythme auxquels se créent les emplois d’encadrement et les possibilités de promotion. Avec le ralentissement de la croissance, c’est donc l’ascenseur social qui tombe en panne et un levier majeur de mobilisation de la main-d’œuvre qui s’épuise.

[26] On notera que les restructurations les plus lourdes sont souvent intervenues dans les sous-secteurs du commerce qui ont dû faire face à l'entrée de concurrents étrangers innovants : Ikea dans le meuble, Zara et H&M dans l'habillement...

[27] « Les 40 ans de l’hyper », LSA, 29 mai 2003.

[28] Georget et al. [2008].

[29] Georget et al. [2005, p. 18].

[30] Ibid., p. 20.

[31] Ibid, p. 23.

[32] Ibid. p. 35.

 


 

Bibliographie


ABRAHAMSON E., HAMBRICK D.C. [1997], "Attentional Homogeneity in Industries: The Effect of Discretion", Journal of Organizational Behavior, vol. 18, pp. 513-532.

ALCHIAN A.A. [1950], "Uncertainty, Evolution, and Economic Theory", Journal of Political Economy, vol.58, n°3, June, pp.211-222.

ARENA R., FESTRE A. [2002], "Connaissance et croyances en économie : l'exemple de la tradition autrichienne", Revue d'Économie Politique, vol. 112, n°5, pp. 635-657.

ARGYRIS C., SCHÖN D.A. [1978], Organizational Learning: A Theory of Action Perspective, Addison-Wesley.

ARROW K.J. [1986], "Rationality of Self and Others in an Economic System", Journal of Business, vol. 59, n°4, pp.385-399.

AXELROD Robert [1976], Structure of the Decision: the Cognitive Maps of Political Elites, Princeton University Press.

BROWNLIE D., SPENDER J.C. [1995], "Managerial Judgement in Strategic Marketing. Some Preliminary Thoughts", Management Decisions, vol. 33, n°6, pp. 39-50.

CALORI R., JOHNSON G, SARNIN P. [1994], "CEO's Cognitive Maps and the Scope of the Organization", Strategic Mapping Journal, vol. 15, pp. 437 457.

Carluer-Loussouam F., Dauvers O. [2004], La Saga du commerce français, Éditions Dauvers.

CARMELI A., SCHAUBROECK J. [2006], "Top Management Team Behavior, Decision Quality, and Organizational Decline", The Leadership Quarterly, vol. 17, n° 5, pp. 441-453.

CHATRIOT A., CHESSEL M.-E. [2006], "L'histoire de la distribution : un chantier inachevé", Histoire, Économie et Société, vol. 25, pp. 67-82.

CHILD J. [1972], "Organization Structure, Environment, and Performance: The Role of Strategic Choice", Sociology, vol. 6, pp. 1-22.

COHEN W., LEVINTHAL D. [1990], “Absorptive capacity : a new learning perspective on learning and innovation”, Administrative Science Quarterly, vol.35.

CYERT R.M., MARCH J.G. [1963], A Behavioral Theory of the Firm, Prentice Hall, Englewood Cliffs, New York.

DAUVERS O. [2003], "Bob le hardeur, assassiné pour avoir bloqué la roue de la distribution", in Le commerce en 2053, IFM, Paris, pp. 12-16.

DEEPHOUSE D.L. [1996], "Does Isomorphism Legitimate?", Academy of Management Journal, vol. 39, n°4, pp. 1024-1039.

gb" xml:lang="en-gb">DEEPHOUSE D.L. [1999], "To Be Different, or To Be the Same? It's a Question (and Theory) of Strategic Balance", Strategic Management Journal, vol. 20, pp. 147-166.

DiMAGGIO P.J., POWELL W.W. [1983], “The Iron Cage Revisited: Institutional Isomorphism and Collective Rationality in Organizational Fields”, American Sociological Review, vol. 48, pp. 147-160.

DUNCAN R.B. [1972], Characteristics of Organizational Environments and Perceived Environmental Uncertainty", Administrative Science Quarterly, vol. 17, pp. 313-327.

EDEN C. [1988], "Cognitive Mapping", European Journal of Operational Research, vol. 36, n°1, pp.1- 13.

EHLINGER S. [1996], "Interaction et développement de représentations organisationnelles lors du processus de formation de la stratégie au sein d’organisations multidivisionnelles", Thèse de doctorat, Université Paris-Dauphine.

Festinger L. [1957], A theory of Cognitive Dissonance, CA, Stanford University Press.

GELETKANYCZ M.A. [1997], "The Salience of "Culture's Consequences": The Effects of Cultural Values on Top Executive Commitment to the Status Quo", Strategic Management Journal, vol. 18, n° 8, pp. 615-634.  

GELETKANYCZ M.A., BLACK S.S. [2001], “Bound by the Past ? Experience- Based Effects on Commitment to the Strategic Status Quo”, Journal of Management, vol. 27, n°1, pp. 3-21.  

GEORGESCU-ROEGEN N. [1954], “Choice, Expectations and Measurability”, The Quarterly Journal of Economics, vol.67, pp.503-534.

GRANOVETTER O. [1985], "Economic Action and Social Structure: The Problem of Embeddedness", American Journal of Sociology, vol. 91, n°3, pp. 481-510.

GUPTA A., GOVINDARAJAN V. [1984], “Business Unit Strategy, Managerial Characteristics, and Business Unit Effectiveness at Strategy Implementation”, Academy of Management Journal, vol. 27, pp. 25-41.

HAMBRICK D.C., GELETKANYCZ M.A., FREDRICKSON J.W. [1993], "Executive Commitment to the statu quo: Some Tests of its Determinants", Strategic Management Journal, vol. 14, pp. 401-418.

HAMBRICK D.C., MASON P. [1984], "Upper Echelons: The Organization as a Reflection of its Top Managers", Academy of Management Review, vol. 9, pp. 193-206.

HAYEK F. [1953], Scientisme et sciences sociales, Plon, Paris.

HAYEK F.A. [1978], "The Primacy of the Abstract", in New Studies in Philosophy, Politics, Economics, and the History of Ideas, Routledge and Keagan Paul, London.

HUFF A. [1990], Mapping Strategic Thought, Wiley, New York.

HUFF A.S., HUFF J.O., with BARR P.S. [2000], When Firms Change Direction, Oxford University Press, Oxford.  

JACQUEMIN A. [1985], Sélection et pouvoir dans la nouvelle économie industrielle, Economica-Cabay, Paris, Louvain-La-Neuve.

KIRZNER I.M. [1979], Perception, Opportunity, and Profit. Studies in the Theory of Entrepreneurship, The University of Chicago Press, Chicago & London.

KNIGHT F.H. [1921], Risk, Uncertainty and Profit, H. Schnaffer & Marx, New York.

LEVINTHAL D.A., MARCH J.G. [1993], "The Myopia of Learning", Strategic Management Journal, vol. 14, pp. 95-112.

McCABE D.L., DUTTON J.E. [1993], "Making Sense of the Environment: The Role of Perceived Effectiveness", Human Relations, vol. 46, n°3, pp. 623-643. McNair [1931, 1958].

MILLER D. [1991], "Stale in the Saddle: CEO Tenure and the Match between Organization and Environment", Management Science, vol. 37, pp. 34-52.

MOATI P. [1989], La filière sport, rapport pour le ministère de l’Industrie et le secrétariat d’Etat à la Jeunesse et aux Sports, CRÉDOC, Paris.

MOATI P. [1992], "La filière du roman : de la passion à la rationalité marchande", Cahiers de l'économie du livre, n°7, mars, pp.103-138. 

MOATI P. [1996], "Méthode d'étude sectorielle", vol.2, Cahier de recherche CRÉDOC, n°93, sept.

MOATI P. [2001], L'avenir de la grande distribution, Odile Jacob, Paris.

NELSON R.R., WINTER S.G. [1982], An Evolutionary Theory of Economic Change, The Belknap Press of Harvard University Press, Cambridge Mass.

NYSTROM P.C., STARBUCK W.H. [1984], "To Avoid Organizational Crises, Unlearn", Organizational Dynamics, spring, pp.53-65.

PENROSE E. [1959], The Theory of the Growth of the Firm, Basil Blackwell, Oxford.

PENROSE E. [1963], Facteurs, conditions et mécanismes de la croissance de la firme, Éditions Hommes et Techniques, Paris.

PERRIN J.C. [1993], “Décentralisation et milieux locaux : étude comparative”, in C. Dupuy et J.P. Gilly (eds), Industrie et territoires en France, La Documentation Française, Paris, pp.71-93.

PFEFFER J., SALANCIK G. [1978], The External Control of Organizations: A Resource Dependence Perspective, Harper & Row, New York.

PIERCE J.L., BOERNER C.S., TEECE D.J. [2002], “Dynamic Capabilities, Competence and the Behavioral Theory of the Firm”, in M. Augier, J.G. March (eds), The Economics of Choice, Change and Organization. Essays in Memory of Richard M. Cyert”, Edward Elgar, Cheltenham, Northampton, pp. 81-95. 

PORAC J.F., THOMAS H., BADEN-FULLER C. [1989], « Competitive groups as Cognitive Communities: The Case of Scottish Knitwear Manufacturers », Journal of Management Studies, vol. 26, pp.397-416.

PORTER M.E. [1982], Choix stratégiques et concurrence : techniques d'analyse des secteurs et de la concurrence dans l'industrie, Economica, Paris.

PRAHALAD C.K., BETTIS R.P. [1986], “The Dominant Logic: A New Linkage between Diversity and Performance”, Strategic Management Journal, vol. 7, pp. 485-501.

RALLET A. [2010], "Le commerce à l'ère de l'économie numérique : tendances et éléments de prospectives", in L'évolution du commerce à l'ère de l'économie numérique, Prospective et Entreprise, n° 11, février, Chambre de Commerce et d'Industrie de Paris, pp. 7-32.

Rumelhart D.E., Norman D.A. [1978], Accretion, tuning and restructuring: Three modes of learning. In JW Cotton & RL Klatzky (Eds), Semantic factors in cognition. Hillsdale,NJ Erlbaum.

SALAIS R., STORPER M. [1993], Les mondes de production. Enquête sur l’identité économique de la France, Éditions de l’École des Hautes Études en Sciences Sociales, Paris.

SALGADO, STARBUCK W.H., MEZIAS J.M. [2002], “The Accuracy of Managers’ Perceptions: A Dimension Missing from Theories about Firms”, in M. Augier, J.G. March (eds), The Economics of Choice, Change and Organization. Essays in Memory of Richard M. Cyert, Edward Elgar, Cheltenham, Northampton, pp. 168-185.

SANTOS-VIJANDE M.L., SANZO-PEREZ M.J., ALVAREZ6GONZALEZ L.I., VASQUEZ- CASIELLES R. [2005], "Organisational Learning and Market Orientation: Interface and Effects on Performance", Industrial Marketing Management, vol. 34, pp. 187- 202.

SCHEIN E. [1985], Organizational Culture and Leadership, Jossey Bass.

SIMON H.A. [1982], Models of Bounded Rationality, vol.2, The MIT Press, Cambridge.

SONG J.H. [1982], “Diversification Strategies and the Experience of Top Executives of Large Firms”, Strategic Management Journal, vol. 3, pp. 377- 380.

Sordet C. [1997], Les grandes voix du commerce, Liaisons Ed.

STEWART W.H., MAY R.C., KALIA A. [2008], "Environmental Perceptions and Scanning in the United States and India: Convergence in Entrepreneurial Information Seeking", Entrepreneurship Theory and Practice, Jan., pp. 83- 105.

STIGLER G. [1961], "The Economics of Information", Journal of Political Economics, vol.69, n°3, june, pp.213-225.

STORPER M. [1995], "La géographie des conventions : proximité territoriale, interdépendances hors marché et développement économique", in Rallet A., TORRE A. (eds), Économie industrielle et économie spatiale, Economica, Paris, pp.111-127.

SUTCLIFFE K.M., HUBER G.P. [1998], "Firm and Industry as Determinants of Executive Perceptions of the Environment", Strategic Management Journal, vol. 19, pp. 793-807.

TEECE D.J., PISANO G., SHUEN A. [1997], “Dynamic Capabilities and Strategic Management”, Strategic Management Journal, vol. 18, ° 7, pp. 509-533.

THIL E. [1966], Les inventeurs du commerce moderne. Des grands magasins aux bébés-requins, Arthaud, Paris.

WALSH J.P. [1995], "Managerial and Organizational Cognition: Notes from a Trip down Mamory Lane", Organization Science, vol. 6, n°3, pp. 280-321.
Partager cet article
Repost0
9 novembre 2010 2 09 /11 /novembre /2010 09:25

Je vous propose une courte note sur l'état du marché de la musique réalisée à partir des éléments que j'ai réunis pour l'émission de Service Public sur France Inter du 8 novembre consacrée à ce sujet. Etaient présents dans le studio Pascal Nègre (Universal) et Yves Riesel (Abeille Musique et Qobuz). Pour postcaster l'émission. Des éléments de notre étude prospective sur la distribution physique des biens culturels seront bientôt disponibles sur le site du ministère de la Culture.

 

Le marché de la musique est associé aujourd’hui à deux grands paradoxes. Le premier est que l’on n’a sans doute jamais autant écouté de musique. Et pourtant, le marché de la musique enregistrée s’est effondré. Le second est que ce marché en crise se trouve à la pointe de l’expérimentation de nouveaux modèles de consommation et de nouveaux modèles économiques d’entreprise…

L’écoute de la musique stimulée par les nouvelles technologies…

 

Les nouvelles technologies ont profondément renouvelé la manière d’écouter de la musique. L’invention du walkman au milieu des années 1980 par Sony avait déjà ouvert la voie à une écoute nomade. La numérisation permet aujourd’hui d’écouter la musique sous toutes ses formes (titres, albums, radio, clips vidéo…), n’importe quand, n’importe où, dans son salon, sa voiture, devant son ordinateur, dans la rue… La musique, devenue ubiquitaire, n’a jamais été aussi présente dans la vie quotidienne. Selon l’enquête Ipsos/France Soir réalisée en juin 2010, c’est encore la radio qui est la source d’accès à la musique le plus fréquemment utilisée (83 % des Français de 15 et plus déclarent écouter régulièrement de la musique à la radio). Le lecteur MP3 n’est encore utilisé pour écouter de la musique que par 36 % des Français, derrière l’ordinateur (43 %). Les jeunes, qui sont de loin ceux qui écoutent le plus de musique, ont cependant massivement basculé sur les nouveaux moyens d’écoute : 74 % des moins de 35 ans écoutent régulièrement de la musique sur Internet, 64 % sur leur lecteur MP3…


… mais un marché qui s’effondre

 

Et pourtant… Le marché du disque connaît sans doute la pire crise de son histoire. Depuis 2003, en sept ans seulement, le marché a fondu de 60 % en valeur… Le DVD musical qui, pendant un temps, est venu à la rescousse du CD, plonge à son tour à partir de 2006. Cet effondrement du marché n’est pas propre à la France. Selon l’IFPI (l’association internationale des producteurs de musique), le marché mondial de la musique enregistrée aurait chuté de 55 % entre 2000 et 2009 (le Royaume Uni est l’un des rares grands pays consommateurs à avoir réussi à limiter les dégats). La distribution est entraînée dans la chute. Les hypermarchés, qui détenaient 50 % du marché en 2003, se désengagent pour consacrer leurs précieux mètres carrés à des produits ou des services plus porteurs. Ils ne représentent plus aujourd’hui (selon les données de l’Observatoire de la musique) que 32 % du marché. Ce sont les grandes surfaces spécialisées (les Fnac, Virgin… mais aussi les Centres culturels Leclerc) qui en profitent, leur part de marché passant de 40 % en 2003 à 55 % en 2010. Mais le roi est nu… car la croissance de la part de marché est loin d’être suffisante pour compenser la baisse du marché. Et l’espace consacré à la musique dans les grandes surfaces spécialisées diminue régulièrement, ce qui, on s’en doute, n’est pas de nature à réveiller le désir d’acheter des CD… Le peu de disquaires indépendants qui avaient survécu à la concentration de la distribution souffre… Et, tranquillement, les e-marchands du commerce électronique grignotent des parts de marché. Ils réalisent aujourd’hui 8 % des ventes, et davantage encore sur les marchés de niche que la profondeur de leur offre permet de mieux exploiter que les magasins (le e-commerce représente 13 % des ventes de musique classique et 11 % de jazz).

 

Que s’est-il passé ?

 

On ne peut évidemment qu’être troublé entre la concomitance de l’effondrement du marché et l’arrivée d’Internet dans les foyers, la diffusion des fichiers MP3 et la progression du taux d’équipement en baladeurs numériques… Une large partie de la profession accuse le piratage et n’a eu de cesse d’œuvrer pour sa répression. La responsabilité du piratage dans la crise du disque – même si elle est difficile à chiffrer avec précision – semble peu contestable. Et si le piratage n’expliquait pas tout ?...

Cette crise n’est pas la première. Entre 1981 et 1986, les ventes d’albums avaient chuté de 40 %... sans qu’une quelconque forme de piratage puisse être mise en cause. Fort heureusement, l’arrivée du CD, qui a incité nombre de consommateurs à renouveler leur discothèque, a puissamment relancé le marché. L’engagement massif des grandes surfaces alimentaires sur ce qui apparaissait alors comme un marché porteur a contribué à doper le marché en travaillant des segments de clientèle moins acquis à la musique. Mais l’effet CD s’est progressivement épuisé…

Des voix se sont élevées dans la profession pour mettre en cause la politique des majors (qui représentent les trois quarts du marché) qui, avides de rentabilité à court terme, auraient précipité la chute du marché en multipliant les « coups » à grand renfort de dépenses marketing, en surexploitant le fond de catalogue par la multiplication des compilations… au détriment du travail de fond qui consiste à découvrir de jeunes talents et à construire patiemment des carrières d’artistes.

Le numérique commence à prendre le relais

 

Le remède est cependant en train de naître du mal… En effet, l’offre marchande de musique numérique décolle. Au plan mondial, les ventes ont augmenté de 13 % en 2009, et elle représente désormais environ un quart du marché total. Aux États-Unis, cette part flirte avec les 50 %. L'Europe est à la traîne. Et la France, plus encore. Selon les derniers chiffres de l'Observatoire de la musique, le numérique aurait atteint au premier semestre 2010 la barre symbolique de 10 % du marché de la musique enregistrée. C’est encore peu, mais le marché croît au rythme de 25 à 30 % par an. Ce n’est pas encore assez pour retourner la tendance d’ensemble du marché, qui a accusé une nouvelle baisse de 3,9 % en valeur au premier semestre 2010. La récente mise en application de la loi dite HADOPI ainsi que le lancement de la carte musique sont susceptibles d'accélérer la tendance, d'autant que le marché de la musique numérique est désormais travaillé par de nouveaux poids lourds comme Orange et bientôt Google.

Une grande diversité de modèles économiques

 

Le développement du marché numérique est certainement aussi encouragé par la diversité des propositions de valeur offerte collectivement par les acteurs de l'offre. Trois grands modèles peuvent être identifiés : la vente à l'acte (iTunes, AmazonMP3, FnacMusic, Qobuz…), qui domine aujourd'hui largement le marché numérique, les Web radio, et le streaming (Deezer, Spotify…). La pénétration du streaming a été favorisée par un modèle initialement fondé sur la gratuité (le site se rémunère par les revenus publicitaires). Depuis la fin 2009, les offres par abonnement sont désormais disponibles et constituent une nouvelle voie de monétarisation. À la fin du premier semestre 2010, Deezer revendiquait 20 000 abonnements Premium. Après l'entrée d'Orange à son capital durant l'été 2010, Deezer dispose d'un puissant levier de développement. Orange table sur 1 million d'abonnés d'ici fin 2011. Le développement du modèle du streaming est également porté par l'enrichissement de l'offre : les abonnés peuvent désormais écouter leur musique sur PC, tablettes, et téléphone mobile, en ligne mais aussi hors ligne. De nombreux projets sont en cours d’élaboration autour du « cloud computing » (les contenus culturels sont « localisés » sur des serveurs distants). La consommation de musique, définitivement dématérialisée, deviendra alors associée à la personne au lieu d’être attachée à une catégorie de terminaux de lecture.

La musique, fer de lance dans l'entrée dans l'économie de l’usage

 

La crise que traverse l'industrie musicale au travers de la dématérialisation du support s'accompagne d'une restructuration très profonde de la filière allant de l'artiste aux consommateurs, mais aussi des modèles économiques en usage.

Le modèle traditionnel de l'industrie musicale était, comme ailleurs, la vente à l'unité de supports, supposant une transaction ponctuelle au cours de laquelle était transféré un droit de propriété. La rentabilité de l'ensemble des acteurs de la filière dépendait ainsi du nombre de supports vendus et de leur prix.

Ce modèle continu d'exister dans le numérique. C'est en apparence le modèle iTunes (en apparence seulement, puisque le modèle d'Apple est un modèle global fondé sur bouquet qui englobe la vente de terminaux et l'accès à une plate-forme de téléchargement multimédia). Mais l'offre numérique fait également émerger des modèles en rupture dans lesquelles ce qui est vendu est moins la propriété d'un bien que la satisfaction d'une fonction. Dans ses formes les plus abouties, il s'agit d'offrir aux clients un accès à la musique sous toutes ses formes et toutes les modalités assorties d'une capacité de préconisation, d'informations, d’une participation à la vie d'une communauté... Le client ne paie pas pour devenir propriétaire d'un produit, mais accéder à un ensemble de ressources (à géométrie variable) permettant de satisfaire globalement un besoin (lui-même à géométrie variable). On reconnaît ici une forme élaborée d'économie de l’usage, le modèle de l' « économie de la fonctionnalité ». Reste à évaluer le bilan écologique de ce nouveau modèle comparé au modèle de la vente à l'acte de supports physiques (et de toute la logistique qu'il implique). Il est peu douteux qu’il soit favorable.

Une chance pour la diversité culturelle ?

 

A priori, le basculement du marché de la musique vers le numérique fait tomber un certain nombre d'obstacles qui s’opposaient à la mise en avant de contenus musicaux et d'artistes à faible potentiel de vente (rareté des linéaires dans le commerce et d’espace dans les grands médias). De fait, la richesse de l'offre accessible en ligne est sans commune mesure avec ce qui est en mesure de proposer le plus grand magasin de produits culturels. Pourtant, les ventes de musique numérique reste concentrées sur un petit nombre de titres très « marketés ». En outre, il est frappant de constater que le secteur de la distribution numérique de la musique, pourtant encore en phase d'émergence, est d'ores et déjà très concentré, et tend à se concentrer encore. Apple domine très largement le marché mondial. Seuls Amazon et Google semblent en mesure de le déstabiliser. En tout état de cause, le marché semble destiné à être dominé par une poignée d'acteurs de dimension mondiale, extérieurs à la filière musicale traditionnelle. Ces poids-lourds disposent d'un fort pouvoir de négociation à l'égard des producteurs, même les Majors, avec lesquels elles sont capables de négocier un accès privilégié à leur catalogue. Les petits acteurs locaux (producteurs et distributeurs) sont nettement désavantagés et risquent donc d'être les victimes de la consolidation de ce secteur alors qu'ils assurent souvent un rôle important dans l'accès à la diversité culturelle, par la mise en ligne d’une l'offre plus confidentielle ainsi que par leur capacité de préconisation et d'animation de communautés.

À ce jour, les pouvoirs publics se sont surtout attachés à intervenir dans la filière musicale au travers de la répression du piratage. Il est sans doute temps qu'ils se préoccupent de la structuration du marché du numérique et veillent à ce qu'il y règne à la fois une concurrence effective assurant aux consommateurs l'accès à une offre de qualité à un coût raisonnable et sans risques de captivité excessive, ainsi qu’une véritable diversité profitant à la création artistique.

 

Philippe Moati

 

 

Pour aller plus loin :

http://observatoire.cite-musique.fr/observatoire/ : les statistiques sur les ventes de CD et de musique numérique. Un état des lieux des sites de musique numérique.

http://www.culture.gouv.fr/nav/index-stat.html : mise en ligne prochaine de la synthèse de l’étude sur la prospective de la distribution physique de biens culturels que nous avons réalisée au Crédoc.

 

 

Partager cet article
Repost0
22 juin 2010 2 22 /06 /juin /2010 16:02

Je mets en ligne le volume 2 de mon "manuel d'étude de secteurs". On y trouve la fin du chapitre consacré aux conditions de base et le chapitre 2 traitant des "structures".

 

Contrairement au texte du volume 1, ce texte - publié en 1996 - n'a fait l'objet d'aucune mise à jour.

 

Télécharger le volume

Partager cet article
Repost0
23 avril 2010 5 23 /04 /avril /2010 09:27

Il y a près de 15 ans, je me suis engagé dans un projet pharaonique : rédiger un manuel pour la réalisation d’études sectorielles. Ce manuel avait l’ambition de délivrer une méthode opérationnelle devant permettre de réaliser rapidement une analyse de secteur, tendue vers la prospective, s’appuyant sur une méthodologie rigoureuse, issue de l’économie industrielle et de la théorie évolutionniste. Je tenais à ce que ce manuel comporte une présentation claire des concepts de base, l’ensemble des indicateurs utiles (et des sources pour les calculer), les tendances générales observées dans l’économie susceptibles de se retrouver en toile de fond de la plupart des secteurs… La méthodologie présentée dans ce manuel se nourrissait à la fois de mes lectures et mes travaux académiques (en particulier sur la question des dynamiques évolutionnistes) et de ma pratique de l’analyse sectorielle, au CRÉDOC, en tant que responsable du département « Dynamique des marchés ». La démarche était si ambitieuse, que sa réalisation s’est faite au rythme de l’escargot…

 

Le travail, engagé en 1995, s’est étiré jusqu’en 2003. Entre ces dates, chaque année, un chapitre du manuel a été publié dans la collection des Cahiers de Recherche du CRÉDOC. Lorsque le dernier volume (sur la prospective sectorielle) a été terminé, il est apparu clairement que  les transformations du système productif, le développement littérature théorique et empirique, ainsi que mon propre cheminement intellectuel rendait nécessaire une mise à jour. J’ai commencé à retouché le volume 1. J’ai très vite compris que je la mise à jour me prendrait quasiment autant de temps que la rédaction initiale, que je m’engageais dans un processus sans fin alors que la vie m’amenait à consacrer mon énergie à d’autres sujets (notamment, le commerce). J’ai donc renoncé à ce projet de publier un jour un manuel d’étude de secteurs. Je continue toutefois d’enseigner cette méthodologie et, si le principe même de l’analyse sectorielle est aujourd’hui en discussion en raison de la perte de pertinence de la notion de secteur pour rendre compte de l’organisation du système productif, les praticiens de l’analyse sectorielle sont encore nombreux et les éléments de méthodologie opérationnelle peu courants.

 

C’est la raison pour laquelle, je me décide à mettre en ligne – progressivement - les 9 volumes rédigés (dont seuls les plus récents sont téléchargeables sur le site du CRÉDOC). Plutôt que de les laisser vieillir, autant qu’ils puissent être utiles, notamment à mes étudiants. Si je devais m’y replonger je serais sans doute conduit à changer beaucoup de choses (au-delà des inévitables mises à jour), mais j’estime que sur l’essentiel (le plan, les concepts clés, les indicateurs…) les grandes lignes de la démarches demeurent valides.

 

 

Télécharger le volume 1 : Partie introductive + Les conditiosn de base (1)  1995 (partiellement révisé en 2003).  Cliquer ici

Partager cet article
Repost0
17 juin 2007 7 17 /06 /juin /2007 09:07

L'Usine Nouvelle, n° 3060, 14-20 juin 2007

Modèle économique exigeant, le low cost s'étend à un nombre croissant de secteurs d'actiité : transport aérien, hôtellerie, commerce de détail, services... Le low cost est doublement déstabilisant : il destabilise l'équilibre concurrentiel sur les marchés auxquels il s'attaque ; il constritue à la promotion d'une culture de "l'achat malin", jette le doute sur la vérité des prix et entretien un sentiment de défiance à l'égard de l'offre.

Lire la chronique

 

Partager cet article
Repost0

Les Articles Récents