Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Wikio - Top des blogs - Economie

Recherche

Ce blog va bientôt cesser d'exister, tout du moins de manière autonome. Le blog de l'Observatoire Société et Consommation (L'ObSoCo) prend progressivement la suite. D'ores et déjà les archives de ce blog y ont été transférées et chaque nouveau billet posté ici est également publié sur le site de l'ObSoCo. Je partagerai le blog de l'ObSoCo avec Nathalie Damery et Robert Rochefort, qui ont fondé avec moi l'Observatoire Société et Consommation, ainsi qu'avec l'ensemble des membres du Cercle de l'ObSoCo... A suivre !!

 

 

http://www.asso-lobsoco.org/le-blog-de-l-obsoco.html

 

 

Contact

14 octobre 2010 4 14 /10 /octobre /2010 16:52

J'ai eu le plaisir d'être par les organisateur du Café de la Statistique a plancher le 8 juin 2010 sur ce thème ô combien délicat, que j'avais eu l'occasion de rencontrer lors de la rédaction du rapport CAE écrit avec Robert Rochefort sur la mesure du pouvoir d'achat. Je garde un excellent souvenir de ce "café", de la gentillesse des organisateurs et de la qualité des échanges qui ont suivi mon intervention. Un excellent compte rendu de la séance a été rédigé, que vous trouverez in extenso ci-dessous.

 

Si vous préférez un format PDF, le fichier est téléchargeable sur le site de la Société Française de Statistique à l'adresse suivante : http://www.sfds.asso.fr/ressource.php?fct=ddoc&i=733. L'occasion de consulter les archives des comptes rendus des séances du Café de la Statistique.

 

 

De plus en plus souvent, les médias confrontent une statistique publiée au sentiment personnel de "témoins" individuels. C'est généralement pour souligner un décalage, ou une opposition entre les deux. Qu'il s'agisse de prix à la consommation, ou d'évolution des inégalités, on voit l'opinion savante et l'opinion générale diverger de façon croissante.
Est-ce nouveau ? Est-ce inquiétant ? Que faire pour y remédier ?

 

Invité :
Philippe Moati
Professeur à l’université Paris Diderot
Directeur de recherches au CREDOC

 

 

Exposé introductif :


L’intervenant explique tout d’abord comment il a été amené à s’intéresser au sujet. Il y a trois ans, le Conseil d’analyse économique a demandé à Robert Rochefort, alors directeur du CREDOC, et à lui-même un rapport pour éclairer la question : « Pourquoi les Français ne se reconnaissent-ils pas dans les statistiques officielles sur leur pouvoir d’achat ?». En effet, ces statistiques étaient de plus en effet, au domaine du pouvoir d’achat, mais existe quand il s’agit des données sur le chômage, la
délinquance, la sûreté nucléaire…


1° Le cas du pouvoir d’achat


En 2007, les chiffres de l’Insee indiquaient pour les années récentes une croissance moyenne lente du pouvoir d’achat des ménages français, alors que les enquêtes d’opinion, depuis le milieu des années 2000, témoignaient d’un sentiment subjectif d’appauvrissement. C’est donc le rapport entre la croissance des revenus (numérateur) et la croissance des prix (dénominateur) qui faisait l’objet d’un conflit d’interprétation. Le débat public s’est focalisé sur la mise en doute de l’indice des prix.
 

 

Depuis 2000-2002, un écart important et persistant s’est creusé entre l’inflation mesurée par cet indice et l’inflation perçue par l’opinion, selon les sondages de l’Insee lui-même (cf. graphique en annexe). Ultérieurement il est apparu que l’interprétation du numérateur pouvait aussi être problématique. On peut envisager trois sources possibles de cet écart perception-mesure : les biais de perception des consommateurs, le conflit « micro-macro », la défiance propre à notre époque.
 

 

Biais de perception : les ménages ont d’autres lunettes que les statisticiens pour constater et interpréter la réalité à laquelle ils sont confrontés. S’agissant de l’inflation, ils ont tendance à généraliser ce qu’ils observent sur un tout petit nombre de prix, ceux des produits ou services qu’ils achètent quotidiennement : produits alimentaires courants, essence, etc. – une petite dizaine de prix peut-être. Or au moment du passage à l’euro en 2000-2002 un certain nombre de ces prix ont dérapé, la grande distribution en particulier ayant alors quelque peu « poussé les étiquettes ». Cette tendance à la généralisation, cet effet de « halo » autour de quelques prix, explique l’intérêt porté par les ménages à des démarches comme « le prix du caddie » ; à la limite elle peut s’accompagner d’une part de mauvaise foi empêchant de reconnaître les baisses de prix. Un autre biais de perception peut résulter d’une divergence d’évolution entre « la capacité à acheter » d’une part, « l’appétence pour la consommation » d’autre part. Si la seconde croît plus vite que la première, on a le sentiment de s’appauvrir. Or les années dont nous parlons ont été marquées par l’arrivée massive sur le marché de nouveaux produits issus des nouvelles technologies de l’information et de la communication : téléphones portables, écrans plats, ordinateurs… Pour satisfaire rapidement leurs envies par rapport à ces nouveaux produits, certains ont dû réduire d’autres parties de leur consommation, parfois même leur budget alimentaire courant, et ont eu le sentiment d’une diminution de leur pouvoir d’achat. Relève également du biais de perception le refus d’inclure les « dépenses contraintes » dans sa propre consommation. Pour les statisticiens, la consommation contient quasiment toutes les dépenses ordinaires du ménage. Les ménages, quand ils parlent de leurs « achats », font plutôt référence aux dépenses qu’ils consentent pour « ce qui fait plaisir », en excluant les dépenses contraintes comme le loyer, le remboursement des emprunts, voire les produits alimentaires ou l’essence de la voiture. Or, des études ultérieures l’ont montré, la part des dépenses contraintes dans le budget des ménages a connu une croissance vive en 2007-2008.
 

 

Conflit micro-macro : alors que l’INSEE travaille dans une perspective macro-économique et considère l’ensemble des ménages comme un seul « secteur institutionnel » de la comptabilité nationale, les consommateurs pensent de manière individuelle. Une source très importante de l’écart entre les deux points de vue réside dans les effets d’agrégation. Le plus simple d’entre eux est l’effet taille : le « gâteau » consommation peut bien augmenter, si le nombre des consommateurs augmente aussi, la part de chacun pourra stagner, voire diminuer. Il faut donc diviser l’agrégat par le nombre de ménages, ou le nombre de personnes, ou mieux le nombre « d’unités de consommation ». C’est ce que font de plus en plus les statisticiens, ce qui d’ailleurs n’empêche pas l’évolution du revenu unitaire de rester positive. Intervient aussi la manière de répartir le « gâteau » : si un convive particulièrement avide en prend une part de plus en plus grande, un grand nombre d’autres convives constateront une diminution, même si la taille totale augmente. Cela renvoie aux « effets de structure » de la population étudiée : ainsi, le revenu moyen des ouvriers augmente au fil du temps, parce que la population des ouvriers compte de plus en plus d’ouvriers qualifiés, sans que nécessairement le revenu moyen augmente dans chaque catégorie, qualifiés et non qualifiés. Même remarque sur le revenu des retraités considérés dans leur ensemble. La résolution des conflits de type « micro-macro » appelle des statistiques de plus en plus finement décomposées, ce qui nécessite des méthodes de collecte et de traitement appropriées, certainement plus coûteuses.
 

 

Défiance propre à notre époque : dans les sondages d’opinion, les indicateurs de défiance ont décollé. Ce phénomène est particulièrement accentué en France ; la défiance s’exerce surtout par rapport à tout ce qui « vient du haut » (sous-entendu : du haut de la société) et par rapport à ce qui est « abstrait ». La statistique officielle relève de ces deux catégories. Le soupçon de « manipulation » s’exprime. Les « gens d’en haut » vivant dans un « autre monde » construisent des outils adaptés à leur monde. Dans la campagne publicitaire – évoquée plus haut - de défiance par rapport aux statistiques du pouvoir d’achat, le caricaturiste avait représenté un milliardaire avec piscine et cigare, et un cosmonaute sur la lune…

 

 

2° Considérations générales


Philippe Moati suggère la possibilité d’un lien entre cette remise en cause des statistiques publiques et l’émergence d’une « société de personnes » se substituant à la « société de masse ».
 

 

Il rappelle que la statistique est un produit de la « modernité » et en particulier des Lumières, pénétrées de l’idée de rationalité : tout est mesurable, explicable par des chiffres y compris l’économie, on peut tout mettre en équation. Et la mesure devient le guide de l’action, elle permet une maîtrise sur les choses, sur la nature, puis aussi sur la société. Réguler par des mesures est un aboutissement de ce « rêve prométhéen ». Dans cette vision, on peut dire que la statistique publique traditionnelle est un produit du « programme institutionnel » d’une société dans laquelle le social transcende l’individu.


La société de personnes s’oppose à ce programme par son hyper-individualisation. Chaque individu se conçoit comme un être singulier, non comme le produit d’un milieu. Ses choix sont essentiellement individuels. Il ne peut se reconnaître dans un miroir qui lui renvoie de lui-même l’image d’un « mouton dans un troupeau ». Certes c’est un individu social, et sociable : mais il s’agit d’une sociabilité choisie, d’une mosaïque de réseaux variables dans le temps. Les collectifs qu’elle forme sont à géométrie variable, les appartenances sont choisies et peuvent être remises en cause : on est loin des assignations fixes à des postes de nomenclatures rigides. C’est pourquoi, même quand la statistique se désagrège, elle le fait en utilisant des segmentations étrangères à celles des individus. 

 

Par ailleurs la raison a reculé, elle a perdu son monopole, et cela se traduit par une crise de la notion de progrès. Les gens ne pensent plus que l’avenir de leurs enfants sera meilleur que ce qu’ils ont connu grâce au progrès technique ou social : au contraire, ils manifestent leur crainte de l’avenir, convaincus que demain sera moins positif qu’aujourd’hui. Le recul de la raison et de l’idée de progrès réhabilite les affects, les émotions, la sensation. Toutes choses qui sont absentes de l’esprit de la statistique publique, et qu’elle ne sait pas bien saisir. Les sondages d’opinion le savent un peu mieux.


Peut-être est-il temps pour la statistique d’évoluer dans ses fondements, dans son épistémologie. Comment on mesure : cela est, et restera un problème technique. Mais qu’est-ce qu’on mesure ? Peut-on continuer à le définir à l’aide de catégories dépassées, pures conventions sociales d’un
temps révolu ? Au moment de la campagne présidentielle de 2007, les deux candidats ont donné raison à l’opinion contre les statisticiens sur la question du pouvoir d’achat. On peut y voir du pur électoralisme. Mais le président de la République a créé ensuite la commission Stiglitz pour réexaminer la pertinence de l’indicateur PIB – produit intérieur brut. Et la commission a ouvert la boîte de Pandore de la subjectivité en consacrant un chapitre de son rapport aux mesures du « bien-être », notion floue s’il en est, et qui pourtant fait l’objet d’une demande sociale de mesure
incontestable. Les recommandations pour avancer sur la mesure de cette notion complexe suggèrent une multiplicité d’indicateurs, et de façons de les combiner ou de les synthétiser. Faire « du multicritères à dimensions subjectives sur des objets flous », cela peut paraître une gageure, mais n’est-ce pas le défi que doit relever la statistique pour retrouver une légitimité ?

 

 

Débat :

 

1 – Des constats partagés
 

 

Pour illustrer la montée du pessimisme dans la société française, un participant a rappelé les résultats de l’enquête sur « le moral des Français » conduite par l’INSEE depuis des décennies. L’indicateur synthétique des réponses, différence entre le pourcentage de ceux qui pensent « amélioration » et celui de ceux qui pensent « détérioration », est longtemps resté négatif mais en augmentation, au point qu’on pouvait afficher plaisamment comme un signe positif que « bientôt les Français auraient le moral à zéro » ! Cette montée de 1994 à 2001 - liée à la croissance économique et à l’euphorie de la « nouvelle économie » - s’est arrêtée avec l’éclatement de la « bulle Internet », suivie par une dégringolade vertigineuse de cet indice, symbole du pessimisme ambiant.


En 2006-2007, l’indicateur est remonté très vite, 6 mois avant et 6 mois après l’élection présidentielle, après quoi il a connu une nouvelle chute, paradoxalement et brièvement interrompue par une remontée au moment de la crise des « subprimes » (4e trimestre 2009), peut-être par un effet de soulagement devant la cristallisation sur un objet précis d’une angoisse diffuse. Un participant se demande si ce pessimisme est spécifique aux Français : le « malaise existentiel » serait-il particulièrement important dans ce pays ? On ne sait trop. Cette montée du pessimisme s’accompagne depuis 2000 au moins d’une montée de la défiance par rapport aux institutions et par rapport aux statistiques publiques. Une défiance qui épargne largement les sondages d’opinion, comme le souligne l’intervenant : c’est pourquoi le CREDOC avec seulement 60 salariés reçoit une telle audience face à l’Insee qui en compte 6000 !


Simultanément, on constate l’essor d’une statistique « bas-de-gamme » : enquêtes Internet sans méthodologie, micro-trottoirs… Une participante fait état de son expérience personnelle de la production des informations dans une grande chaîne de télévision. Un journal télévisé d’une vingtaine de minutes comporte 8 sujets, les sujets économiques sont traités en moins de 1 minute 15, l’angle social est privilégié par rapport à l’explication, la donnée statistique si elle est présente vient après l’expression « émotive » d’un témoin et elle est choisie pour légitimer cette émotion. Cette pratique « formatée » permet aux journalistes d’opérer dans un confort intellectuel trompeur.
 
Un autre participant fait état d’un recul de la rigueur et de la compétence statistique dans les rédactions de la presse écrite (confusion PIB-PNB dans « un grand journal du soir »). Mais de plus en plus, « les gens se font leur journal eux-mêmes » ; c’est une information « non certifiée » (sousentendu : par une institution) qui suscite l’intérêt ; on fait confiance à « ses pairs » ou « ses semblables » : en témoigne l’essor des blogs3, des avis d’internautes, simultanément au recul de l’audience des grands journaux télévisés. En face de la statistique publique se développe une
statistique privée rapide, peu coûteuse, fondée sur des sondages d’opinion commandés par des médias, qui renvoient à leur public un reflet statistique de leurs préoccupations.


Un participant souligne que dans cette évolution, ce ne sont plus les outils statistiques qui sont contestés, ce sont les objets que mesure la statistique publique qui apparaissent décalés ou non pertinents. S’agissant de l’indice des prix, les questions techniques (mesure de l’effet qualité par exemple) sont passées au second plan, derrière la remise en cause des concepts. Comme autre exemple, l’intervenant évoque les secteurs d’activité économique, nomenclature de classement traditionnel des entreprises : ils continuent à jouer un rôle majeur dans la production statistique, alors que leur pertinence n’est plus reconnue. Les catégories doivent évoluer, sans cela l’édifice entier chancelle…

 

 

2 – Statistique et demande sociale, un lien toujours nécessaire


A propos du pouvoir d’achat et de l’indice des prix, plusieurs participants ont rappelé les événements historiques et les dispositions juridiques qui attestent du lien entre outils statistiques et demande sociale. L’indice des prix actuel est l’héritier de l’indice des 250 articles qui dans les années 50 présidait à la fixation du salaire minimum et intervenait dans la négociation des conventions collectives. Les négociations annuelles obligatoires qui existent aujourd’hui dans les entreprises supposent de tels outils. La contestation de l’indice à la fin de la décennie 70 était le fait des syndicats ouvriers, qui jugeaient qu’il portait atteinte aux intérêts de leurs mandants : c’était donc une contestation « institutionnelle » bien différente de celle d’aujourd’hui, censée émaner de « l’homme de la rue ».


Pour l’intervenant, ce lien est un lien nécessaire : la statistique ne peut pas être sourde à la demande sociale, un indicateur statistique n’est pertinent que s’il a une « force conventionnelle », qui permet aux parties en présence de s’en saisir. Le rôle du Conseil national de l’information statistique (CNIS) a été alors naturellement évoqué : ne serait-ce pas à lui de faire les arbitrages en cas de conflit sur les concepts statistiques ?


Pour d’autres, le risque d’un « relativisme culturel » existe : les excès du
conventionnalisme amèneraient à placer tout sur le même plan, sous l’intitulé « conventions », voire à envisager, pour arbitrer entre diverses conventions, des « votations » à la suisse… qui leur sembleraient déraisonnables. Un autre participant souligne que le CNIS se situe dans le champ institutionnel, puisque participent à ses débats des représentants mandatés par des groupes sociaux institués. Peut-il en ce cas relayer correctement la demande d’une société d’individus qui remettent en cause les appartenances figées ? Ce doute n’est pas partagé par un autre participant qui estime que le CNIS a beaucoup élargi le champ de la concertation, et fait place à des personnalités « non institutionnelles » (universitaires, personnalités qualifiées) ; et d’ailleurs, « institutionnel n’est pas un gros mot ! ».

 

Un participant témoigne de l’importance de la référence communautaire aux Etats-Unis : la campagne de communication du recensement de la population de 2010 incite les citoyens à participer à cette opération statistique explicitement pour défendre les intérêts de leur communauté (ethnique, en l’occurrence). Faut-il y voir un exemple à suivre ? Plutôt non, lui est-il répondu, en pensant aux risques qu’évoque en Europe l’affirmation des communautés (le mot de « névrose communautaire » a été prononcé). De toute façon, l’individualisation à l’oeuvre pousse les membres d’une communauté à ne pas se reconnaître exclusivement comme tels.
 

 

Alors, qui porte la nouvelle demande sociale vis-à-vis de la statistique ? Plus que de vouloir représenter une « société » finalement indéfinissable, celle-ci, selon l’intervenant, doit se donner pour but d’apporter constamment des « instruments de cohésion sociale » permettant non pas une « macro-régulation », mais des compromis, des accords entre des groupes sociaux à géométrie variable.

 

 

3 – Sommes-nous vraiment devenus « une société d’individus » ?

 

Cette thèse centrale proposée par l’intervenant n’a pas fait l’unanimité, et certains participants l’ont remise en cause, à partir de points de vue divers. Pour l’un d’eux, ce qui est à l’oeuvre est une volonté de contrôle accru du pouvoir politique sur l’appareil statistique. Les remises en cause du « monstre froid rationnel » au nom de la chaleur affective dans le débat sur le pouvoir d’achat ne seraient que des prétextes pour la mise en concurrence des administrations statistiques publiques avec des organismes privés. Et cette entreprise serait menée avec la complicité active de certains médias, qui joueraient le particulier contre le général en relayant des critiques du sens commun. D’ailleurs, la subjectivité des autres n’est-elle pas toujours différente de sa propre subjectivité ? Est-ce en superposant des points de vue qu’on peut dégager une vérité ?


Un autre participant oppose l’hypothèse d’une « société de personnes » avec l’importance croissante de la publicité et des médias. Il évoque la force de pseudo « vérités médiatiques » et la crédulité d’un grand public. Il invite à prendre en compte les modes de manipulation et leur évolution : « la sagesse collective est souvent l’occasion pour ceux qui ne sont pas dans les arcanes du pouvoir politique de faire valoir leurs opinions en faisant parler les masses ». Il évoque aussi, de façon critique, l’émergence d’une « intelligentsia » utilisant certains concepts sans bien les maîtriser : les blogs ne donnent pas toujours une image réconfortante du point de vue de la connaissance. Une participante le rejoint en mettant en doute la diversité individuelle qui passerait à travers ces filtres médiatiques : certes il y a de plus en plus de chaînes de télévision, mais c’est toujours la même télévision…
 

 

Alors, l’hyper-individualisation, réalité ou mythe ? L’intervenant, on s’en doute, maintient sa position. Il souligne que publicité et médias sont en crise eux aussi. L’audience des chaînes généralistes de télévision baisse continûment, on assiste à un émiettement. Les hypermarchés sont obligés de recourir à des approches de plus en plus segmentées de leur clientèle. Le marketing est soumis aux mêmes remises en cause que la statistique publique et doit adapter ses pratiques de la même façon. Google connaît un développement fulgurant de ses recettes en s’appuyant sur un ciblage individuel des publicités qu’il véhicule. Le processus de dé-massification de la société est patent : non, « la masse ne se porte pas bien » !

 

 

4 – Que faire ?

 

Un premier groupe de recommandations émane de ceux qui n’acceptent pas l’évolution esquissée, soit qu’ils en contestent la réalité, soit qu’ils lui supposent des motivations inacceptables, soit qu’ils n’en acceptent pas les implications. Des participants soulignent le risque qu’il y aurait pour une statistique publique à trop coller à une demande fugace : selon eux, la statistique a besoin de permanence dans le temps. Un participant rappelle que s’il faut construire de nouveaux outils, il faut rester attaché aux règles de la science. Plusieurs évoquent les dangers de la multiplication indéfinie
des indices pour se rapprocher des situations particulières. Dans le cas de l’indice des prix, des indices catégoriels ont été calculés en faisant varier les pondérations des postes de dépense : ils évoluent peu ou prou comme l’indice général5. Une « calculette » a même été proposée pour que chacun puisse utiliser la structure de son propre budget : mais la notion même de statistique n’apparaît plus nettement dans un tel exercice, et on ne voit guère comment un tel outil pourrait servir dans une négociation collective6. Un participant s’émeut du risque d’atomisation des
statistiques : quelle sera in fine la validité, la qualité de cette information, si elle s’appuie sur des échantillons petits, hétérogènes, non retravaillés ?

 

N’y a-t-il pas un risque de décrédibiliser la statistique ? A propos du PIB et du rapport Stiglitz, un autre participant a souligné que cet indicateur sortait intact de cet examen : la réponse aux critiques formulées à son encontre, d’ailleurs très anciennes pour certaines, se trouve dans des prolongements et des précisions, et non pas dans une remise en cause.


Au-delà de ces réactions « conservatrices », un large accord s’est exprimé pour dire que la statistique doit bien aller dans le sens de l’affinement, de la prise en compte de la multiplicité des situations.


Dépasser le chiffre unique pour prendre en compte les dispersions, les caractéristiques de la distribution, c’est jugé désormais indispensable, même si cela pose de redoutables problèmes de communication. Un participant évoque la remise en cause des statistiques du chômage début 2007 : le travail du groupe CNIS animé par Jean-Baptiste De Foucauld et réunissant toutes les catégories d’utilisateurs a abouti à définir une impressionnante batterie d’indicateurs en soulignant les limites et les risques d’un taux de chômage global. Une autre voie d’affinement, c’est la plus grande prise en compte des trajectoires individuelles : en matière de pauvreté monétaire, les changements de situation sont fréquents, et des statistiques de trajectoires sont plus proches de la réalité vécue que le
découpage statique de la population en deux catégories.

 
Autre point d’accord, la nécessité pour la statistique publique de faire leur place à des aspects subjectifs. Selon un participant, si « la raison a reculé au profit des affects », il ne s’agit pas pour autant de se laisser entraîner par l’irrationnel, mais il est temps « d’avoir la raison de faire leur place aux affects », c’est-à-dire de construire des mesures autour des dimensions subjectives et affectives de l’individu. C’est un processus déjà largement commencé, malgré les réticences anciennes de certains statisticiens : un exemple est donné par les enquêtes de victimation, comportant à la fois des questions objectives (« Avez-vous été victimes de… ? ») et des questions subjectives sur le sentiment d’insécurité. Le rapport Stiglitz dans son chapitre sur le bien-être donne de nombreuses pistes dans ce sens. Il cite les premières tentatives de « comptabilité des états subjectifs », heureux ou malheureux. Les travaux de Kahnemann aux frontières de la psychologie et de l’économie poussent un participant à évoquer les flux d’émotions comme un éventuel « numéraire » d’une future comptabilité, et la possibilité de mesurer ces flux à l’aide d’une puce électronique implantée dans un cerveau humain : réponse objective à la demande de prise en compte de la subjectivité... On est loin de l’économie comme « science de la décision rationnelle », paradigme dans lequel sensations et affects n’ont pas de place et qui inspire beaucoup des concepts de la statistique.


Quatrième et dernier groupe de recommandations, celles qui s’attachent à la pédagogie des statistiques. Dans « l’ancien monde » des années 1970, l’effort pédagogique a eu une grande place pour tenter de rapprocher la statistique et les citoyens : l’Insee a recruté un journaliste chevronné et les statisticiens de l’Insee, à son instigation, ont animé des séances d’information et d’échanges avec d’autres journalistes. Lors de la violente polémique sur l’indice des prix à la consommation peu avant 1980, une brochure destinée au citoyen éclairé a été rédigée à l’initiative d’Edmond Malinvaud et a joué un rôle dans la clarification des enjeux. De tels efforts se poursuivent aujourd’hui, notamment par la mise à disposition de documents pédagogiques sur les sites Internet des organismes statistiques : le meilleur niveau de formation de la population doit accroître l’utilité de ces documents. Ils sont d’autant plus indispensables que la production statistique devient plus diverse et plus complexe, en réponse aux demandes d’affinement. Trop souvent, la communication de multiples indicateurs leur fait subir une « compression » dont le résultat a été comparé par l’intervenant à une sculpture de César ! C’est peut-être que l’effort d’explication reste en deçà de ce qui serait nécessaire. Une participante évoque aussi la place réservée à la statistique dans la formation initiale, au programme de mathématiques.

 

5 – Une question et une boutade


Pour répondre au défi posé à la statistique par l’individualisation de la société, il faudrait donc… plus de statistiques : des décompositions plus fines, la prise en compte des subjectivités, plus de pédagogie…Tout cela en maintenant les meilleurs standards de qualité. Il y faudrait donc des
moyens croissants : or seules des perspectives de contraction sont en vue pour la statistique publique, comme pour les administrations publiques en général. Comment vont se faire les arbitrages indispensables ? N’est-il pas normal que l’on constate des différences entre le ressenti et les résultats statistiques ? On n’a pas forcément pris conscience de cette normalité aux échelons les plus élevés de la société.

Partager cet article
Repost0

commentaires

Les Articles Récents