IPeut - écrits et documents
ManagementMarketingEconomieDroit
ss
Accueil # Contacter IPEUT




economie générale icon

ECONOMIE

L’économie, ou l’activité économique (du grec ancien οἰκονομία / oikonomía : « administration d'un foyer », créé à partir de οἶκος / oîkos : « maison », dans le sens de patrimoine et νόμος / nómos : « loi, coutume ») est l'activité humaine qui consiste en la production, la distribution, l'échange et la consommation de biens et de services. L'économie au sens moderne du terme commence à s'imposer à partir des mercantilistes et développe à partir d'Adam Smith un important corpus analytique qui est généralement scindé en deux grandes branches : la microéconomie ou étude des comportements individuels et la macroéconomie qui émerge dans l'entre-deux-guerres. De nos jours l'économie applique ce corpus à l'analyse et à la gestion de nombreuses organisations humaines (puissance publique, entreprises privées, coopératives etc.) et de certains domaines : international, finance, développement des pays, environnement, marché du travail, culture, agriculture, etc.


NAVIGATION RAPIDE : » Index » ECONOMIE » economie générale

économie et méthodologie

économie et méthodologie
Lorsque des économistes, dans une controverse, sont A  court d'arguments concrets, ils se reprochent des erreurs de méthode.


J. SCHUMPETER.


La - méthodologie ascendante -, faA§onnée par le milieu économique lui-mASme, participe du débat général en sciences sociales entre l'essentialisme, A  la recherche de principes explicatifs profonds des phénomènes, et le positivisme, A  la poursuite de lois empiriquement validées. Ce débat, ouvert par les grands économistes du siècle dernier et poursuivi par les méthodologues de l'économie au début de l'actuel, se retrouve en filigrane dans les notations méthodologiques des économistes contemporains ou la discussion des grandes doctrines comme le monétarisme. Aux lendemains de la guerre, il s'est surtout cristallisé en deux controverses exemplaires concernant, d'une part la dépendance des observations aux théories (Koopmans-Vining), d'autre part le réalisme des hypothèses théoriques (Samuelson-Fried-man). Si elles ont mis aux prises trois futurs prix Nobel, ces controverses ont perdu aujourd'hui de leur acuité, mais si les économistes s'accommodent fort bien d'une position floue sur le statut des théories, le fossé depuis lors consacré entre ceux qui théorisent et ceux qui observent ne cesse de faire problème.


Les précurseurs.


Les pères fondateurs de l'économie, tout en émaillant leurs travaux de remarques épistémologiques. en sont restés A  une méthodologie implicite, celle d'A. Smith étant plutôt inductive et historique, celle de D. Ricardo plus déductive et mASme prédictive. Au XIXe siècle, les traités spécifiques dus A  N.W. Senior (1827, 1836), A  J.S. Mill (1836. 1848), A  J.E. Cairnes (1875) et A  J.N. Keynes (1891) considèrent tous l'économie comme une discipline abstraite, confirmée intuitivement ou indirectement, mASme si le dernier est plus empiriste. Les propositions économiques sont obtenues par déduction A  partir d'un nombre restreint d'hypothèses résultant de l'introspection ou de l'évidence immédiate, les observations empiriques n'ayant pour rôle que de révéler les facteurs perturbateurs qui les accomnent ou de cerner leurs domaines d'application. Seule l'école Historique Allemande (Ros-cher, Schmoller, Knies) demande que l'on parte d'une investigation historique concrète des systèmes économiques pour obtenir, par induction, des lois empiriques, qui restent toujours relatives aux époques considérées.
Au xxc siècle, la position de Robbins (1935) apparait au premier abord comme plutôt réaliste puisqu'il reconnait que les postulats de base de Yhomo œconotnicus, la rationalité instrumentale (adéquation fins-moyens) et surtout cognitive (information parfaite) doivent AStre considérés comme des hypothèses simplificatrices du comportement. En fait, lui aussi est amené A  hiérarchiser les hypothèses et A  distinguer des postulats fondamentaux (individualisme méthodologique, rationalité individuelle) qui, immédiatement évidents et universellement valides, autorisent une investigation fructueuse, et des postulats subsidiaires (spécification des fins ou des représentations individuelles) qui permettent d'adapter une théorie aux situations concrètes. Le rôle des études empiriques n'est pas alors de valider des théories préalables ou mASme de découvrir de nouvelles lois empiriques, mais de suggérer des postulats auxiliaires, de fournir des estimations numériques des paramètres associés et de préciser le champ d'application des théories.
La vérile contestation vient de Hutchison (1938) qui, sous l'influence de l'empirisme logique et de Popper, dénonce la vacuité de propositions théoriques qui, par un pur jeu logique, résultent A  la fois d'hypothèses explicites d'origine obscure et d'hypothèses implicites jugées invariantes (clauses ceteris paribus). Il ne nie pas l'apport du formalisme, A  sair l'utilisation d'un langage précis et l'articulation rigoureuse des propositions ; il considère mASme l'approche - intros-pective- ou - compréhensive - comme féconde pour suggérer ou interpréter des hypothèses, mais il affirme nettement qu'elle ne se prASte pas A  généralisation et n'apporte aucune preuve valide. Aussi exige-t-il que toutes les propositions A  contenu empirique puissent AStre traduites en un langage d'observation et testées, du moins indirectement (dans leurs conséquences conjointes) et en principe (A  travers des expériences idéales) ; ce travail empirique permet par ailleurs de dégager des régularités statistiques ou de vérifier certaines propriétés techniques (rendements décroissants par exemple).
Simultanément, l'école Autrichienne, et en particulier n Mises (1933), revient A  la méthodologie traditionnelle et professe mASme un apriorisme radical où la théorie économique - n'est pas dérivée de l'expérience, mais préalable A  l'expérience -. Les axiomes de base de l'économie (comportement rationnel, équilibre concurrentiel), bien qu'empiriquement significatifs, reposent sur l'évidence introspective ou sur la seule raison et n'ont pas A  AStre testés, leur remise en question ne pouvant résulter que de l'apparition d'une incohérence logique. Opposé lui aussi A  l'ultra-empirisme de Hutchison sans AStre aprioriste, Machlup (1954) considère que - les tests de la plupart de nos théories ont plutôt le caractère d'illustrations que de vérifications d'un type opératoire, menées A  travers des expériences reproductibles et contrôlées, ou de situations répétitives et totalement identifiées -. Il admet l'existence d'une hiérarchie de propositions situées A  des niveaux théoriques différents, testées qualitativement et surtout globalement (problème de Duhem), si bien que les hypothèses les plus profondes doivent AStre considérées comme des - conventions -.

La controverse Mitchell-Koopmans.

Le National Bureau of Economie Research (NBER) a été créé aux Etats-Unis en 1926 par des - empiristes - qui, excédés par les discussions sans fin et sans fondements solides des économistes de l'époque, veulent s'en référer aux faits et mASme s'y tenir. Dès sa naissance, il affiche sans ambiguïté la couleur dans une résolution : - le NBER a pour objectif de vérifier et de présenter au public de faA§on scientifique et impartiale les faits économiques importants et leur interprétation - (Burns-Mitchell, 1946). Au fil des ans, il se charpente solidement et comprend une équipe d'une vingtaine de chercheurs (dont Copeland. Stigler et Friedman), animée par Bums et encadrée d'une pléthore de directeurs prestigieux aux solides convictions (Kuznets, Haberler, Schultz). En 1946, le travail d'A. Burns sur les cycles économiques est précédé d'un manifeste de W. Mitchell, qui s'en prend surtout aux promoteurs de l'économétrie naissante, coupables de considérer les faits comme n'acquérant une signification qu'A  travers une vision préalable des choses.
Mitchell s'en prend plus précisément A  la tendance A  ne considérer la recherche systématique des faits que comme une étape en aval de la production d'une théorie, destinée exclusivement A  sa validation empirique (statistique ou plus qualitative). Il déplore d'abord que le - théoricien s'arrASte souvent avant que son travail ne soit terminé, laissant la validation empirique A  d'autres, qui peuvent aussi bien la faire que ne pas la faire -, et souvent ne la font pas. Il constate aussi que la théorie que l'on veut tester, si elle est logiquement impeccable, est toujours très simplificatrice, sa confrontation aux faits étant dès lors problématique et ne permettant vérilement ni de la confirmer, ni de la réfuter. Enfin, il remarque que les mASmes faits peuvent AStre compatibles avec plusieurs théories alternatives, et qu'il est donc incorrect de s'en tenir A  une théorie unique, tout comme il est impossible d'engendrer toutes les théories a priori possibles.
L'un des pères de l'économétrie. T. Koopmans (1947), s'attaque A  la forteresse du NBER et, tout en étant fort élogieux pour le travail considérable accompli par Burns et Mitchell, regrette qu'ils se soient lontairement cantonnés au seul niveau empirique. Il oppose, pour sa démonstration, Tycho-Brahé ou Kepler, qui ont su tirer le meilleur parti de leurs observations avec un minimum d'hypothèses (mais non sans idées préconA§ues), A  Newton, qui a su proposer une loi A  la fois plus élémentaire et plus générale. Il considère alors que les deux auteurs se situent au niveau de Kepler, car - ils s'intéressent exclusivement aux caractéristiques des fluctuations cycliques et non aux comportements sous-jacents des agents économiques-. Il affirme enfin que seul le passage au niveau de Newton, reposant sur une utilisation plus complète des concepts et des hypothèses de la théorie comme partie intégrante du processus d'observation et de mesure, peut apporter une vérile intelligibilité A  l'origine des cycles.
Koopmans fonde ainsi sa critique de l'approche du NBER sur l'idée que le choix, le regroupement et la lecture des observations exigent un minimum de théorie, que les faits économiques ne parlent pas d'eux-mASmes, mais sont -construits- par le modélisateur. Il souligne d'abord l'impasse A  laquelle conduit le refus d'une théorie lorsqu'il s'agit, A  partir d'une batterie d'indicateurs mesurés, ne serait-ce que de caractériser le phénomène dynamique auquel ils participent, en l'absence d'hypothèse sur leur couplage. Il insiste aussi sur l'incapacité, si l'on s'en tient A  l'observation des élutions des variables sans identifier les facteurs qui les conditionnent et les relations structurelies qui les sous-tendent, A  obtenir des prévisions fiables, fondées sur l'élution des variables explicatives et des paramètres. Il constate enfin l'impossibilité, si l'on se contente d'une analyse descriptive sans procéder A  une inférencc statistique, de cerner l'influence cumulative des chocs exogènes sur la durée et l'ampleur des cycles, ou de er des cycles d'allures différentes.


La controverse Koopmans- Vining.


Deux ans plus tard, T. Koopmans est pris A  partie par R. Vining (1949), qui supporte mal sa - morgue - et lui reproche de rejeter toutes les méthodes qui ne sont pas celles qu'il préconise, sans pour autant mettre ces dernières concrètement en pratique. En fait, il déplace le conflit sur le terrain de l'individualisme méthodologique et s'en prend A  l'affirmation selon laquelle il faudrait descendre au niveau du comportement des agents élémentaires pour air de vériles relations structurelles utilisables en prévision. Vining affirme d'abord que les - régularités significatives pour la discussion des problèmes économiques mettent en jeu des comportements d'organisations sociales, qui sont distinctes de la simple agrégation algébrique d'individus consciemment optimisateurs -. Il va mASme plus loin et prétend que - l'agrégat a une existence propre, supérieure A  celle des unités individuelles, et a des comportements caractéristiques, qui ne peuvent se déduire des comportements des éléments qui le composent -.
Koopmans (1949) rétorque qu'il ne fait pas abstraction des phénomènes sociaux (effets de mode, vagues d'optimisme), mais il maintient que - de tels phénomènes naissent nécessairement des actions d'individus comme membres d'un groupe -. Il postule, en fait, la possibilité d'un passage logique entre le niveau des individus et celui du groupe, mASme si la formalisation précise des choix de chaque agent en fonction de ceux des autres, susceptible de faire naitre les phénomènes globaux, peut AStre délicate. Vining (1949) réplique en argumentant qu'aucune entité particulière ne s'impose a priori comme unité ultime pour rendre compte des phénomènes observables et que le choix de l'une d'elles doit AStre fondé sur des critères de aison de théories alternatives. Pour lui. la procédure scientifique impose que l'on définisse des théories ordonnant logiquement des régularités empiriques et que l'on retienne la théorie de ce type qui fasse appel au plus petit nombre d'hypothèses supplémentaires inexpliquées.
Avec du recul, A.J. Auerbach (1982) peut affirmer que, - si le succès d'une méthode particulière d'analyse économique se mesure par sa longévité, alors l'usage, pour la prévision des cycles économiques, d'indicateurs économiques avancés comme ceux qui sont développés au NBER devrait se trouver très près du sommet -. En fait, la survie d'une méthode ne prouve pas grand-chose, et Steckler et Schepsman, dans une étude antérieure (1973), ont montré que la prévision des points de retournement semble air été très médiocre, les indicateurs avancés fournissant un grand nombre de faux signaux, plus d'ailleurs sur les bosses que sur les creux. Cet exemple met clairement en évidence la difficulté de trouver des critères permettant de juger de la validité de prévisions, car si les indicateurs avancés peuvent se révéler faux ou décalés (en un sens A  préciser), ils sont néanmoins bien corrélés avec les variables cycliques (production industrielle) qu'ils sont censés annoncer.
Peu A  peu, le débat a perdu de son pouir mobilisateur, et les économistes se sont résignés A  une division de leur profession en deux classes, les théoriciens et les praticiens, mASme s'il faut mettre des bémols A  ce diagnostic général. D'une part, une coupure existe au sein mASme de l'économie théorique entre les micro-économistes, qui élaborent des modèles abstraits sans contrepartie empirique directe, et les macro-économistes, qui travaillent sur des concepts opératoires et des relations directement tesles (ir I, 6). D'autre part, un clivage est également apparu au sein mASme de l'économétrie entre les classiques, qui affirment la nécessité de spécifications théoriques préalables confrontées aux faits, et certains modernes, qui cherchent A  minimiser les hypothèses a priori pour leur substituer des tests (ir III, 3). Actuellement, le fossé entre la théorie et l'empirie tend quelque peu A  se combler (ir III, 5) ; en tout cas, chaque camp respecte et mASme envie l'autre, car il reconnait son utilité sans pour autant pouir ou uloir faire ce qu'il fait.

La position de Samuelson.

Samuelson (1947) affiche d'emblée une position résolument positiviste, quand il affirme qu'- une théorie n'a pas de signification au sens opérationnel si elle n'implique pas des restrictions sur les grandeurs observables, par lesquelles elle pourrait AStre réfutée -. Il est proche du réfutationnisme de Hutchison quand il demande que l'on construise des - théorèmes opérationnellement significatifs -, désignant sous ce cable - une hypothèse concernant des faits empiriques qui ne s'avère pas impossible A  réfuter, du moins dans des conditions idéales -. Il semble mASme parfois uloir opter pour une validation empirique relativement indépendante et directe, quand il exige que - toute proposition théorique doit pouir AStre testée A  travers une proposition empirique logiquement équivalente -. Mais il reste néanmoins très en retrait de l'- opérationnalisme - de Bridgman ( 1927), qui considère que tout concept doit AStre opératoire, c'est-A -dire mesurable A  l'aide d'une procédure appropriée ; cet opérationnalisme est défendu en économie par Ramsey qui pense qu'-il est concevable que les degrés de croyance puissent AStre mesurés par un psychogalvanomètre - ou ceux qui veulent mesurer les utilités (en - utils -) A  l'aide d'un hédonimètre.
Prenant comme exemple la théorie du consommateur, Samuelson stigmatise d'abord le fait que - en prenant un peu de mauvaise psychologie, en ajoutant une pincée de mauvaise philosophie et de morale, et une bonne dose de mauvaise logique, n'importe quel économiste peut prouver que la courbe de demande d'un bien a une pente négative -. Il considère comme exemplaire le travail de Slutsky, qui non seulement examine sous quelles conditions précises la théorie de l'utilité permet d'élir ce résultat, mais met en évidence que cette théorie impose des restrictions A  la fonction de demande dérivée, qui sont tesles si elle est connue sous forme analytique. Comme autre prototype de -théorème significatif-, il cite l'équivalence entre la théorie de l'utilité et l'axiomatique des préférences révélées de Hout-thaker (1950, 1961), cette dernière étant directement tesle A  partir de l'observation des s de consommations retenus par un agent dans diverses conurations de prix et de revenu (ir II, 2).
Cet exemple montre cependant que Samuelson est implicitement confirmationniste plutôt que réfutationniste, car l'axiome des préférences révélées ne peut AStre infirmé, compte tenu du nombre a priori infini de couples prix-quantités A  tester (Wong, 1978), tout comme la courbe de demande ne peut rigoureusement AStre construite, car elle exige une infinité d'observations. Par ailleurs, l'équivalence entre théorie de l'utilité et axiome des préférences révélées, utilisée pour valider la première, s'applique A  chaque agent en particulier sous l'hypothèse supplémentaire de préférences sles, alors que les observations ne peuvent porter que sur des décisions séquentielles et non simultanées. Enfin, la validation est ici relativement aisée, puisqu'elle porte sur des ordres de préférences entre paniers de biens (en évitant les équivalences) et s'avère d'ailleurs toujours plus facile lorsqu'il s'agit de tester une inégalité (signe d'un paramètre) qu'une égalité (valeur numérique d'un paramètre).
Nombre de critiques de Samuelson s'adressent en fait A  Bridgman et n'ont aucune peine A  montrer que certains termes théoriques n'ont aucune contrepartie opératoire (ou plusieurs) et que - des théories qui ne seraient faites que de concepts opératoires ne représenteraient qu'une généralisation de bas niveau des phénomènes empiriques- (Machlup, 1964). D'autres, mieux ciblées, montrent que le passage direct de propositions théoriques générales A  des propositions spécifiques vérilement tesles est délicat ; Samuelson (1947) reconnait d'ailleurs qu'- un théorème significatif peut AStre faux ; il peut AStre valable, mais de portée limitée ; sa validité peut AStre restreinte et pratiquement impossible A  déterminer -. Aussi n'est-il pas étonnant que l'on ait pu montrer (Machlup, 1964) que Samuelson, dans ses nombreux travaux théoriques, par exemple sa théorie de l'égalisation des prix des facteurs au niveau international, n'a pas suivi sa propre méthodologie et a posé des jeux d'hypothèses peu tesles et pour le moins simplificatrices.


La position de Friedman.


Friedman (1953) considère qu'une théorie A  contenu empirique ne saurait AStre jugée en priorité sur ses hypothèses de base, mais doit l'AStre sur ses conséquences prévisionnelles qui, seules, peuvent AStre confrontées (grossièrement) A  l'expérience. De ce fait, sa vision a été rapprochée un peu rapidement de l'- instrumentalisme - (Boland, 1979), qui considère que toute théorie doit AStre avant tout un outil efficace pour la prévision et l'action, plus qu'un schéma valide d'explication et mASme de description. En fait, s'il considère effectivement que certaines hypothèses ne sont valables que pour certaines applications, il reste proche du conventionnalisme de Machlup en traitant les hypothèses de base comme des conventions (- tout se passe comme si -), A  la fois simples et fécondes. Il ajoute qu'une théorie pertinente peut air des hypothèses irréalistes et va mASme jusqu'A  prétendre que, pour AStre suffisamment générale tout en restant maniable, - plus une théorie est significative, plus ses hypothèses sont irréalistes -.
Comme exemple d'une hypothèse particulièrement féconde, Fried-man retient le comportement de l'agent qui maximise une fonction-objectif sous contraintes. Ce comportement ne suppose pas un calcul conscient de sa part, A  l'instar du joueur de billard qui détermine son coup sans mobiliser les lois physiques précises du mouvement et du choc des boules ; il ne suppose mASme pas un calcul implicite, A  l'image des feuilles d'une te qui se positionnent de manière A  maximiser la quantité de lumière reA§ue, selon un processus purement causal. Fried-man cherche toutefois A  conforter cette hypothèse de faA§on théorique par un argument de - sélection naturelle -, A  sair que, dans la concurrence entre entreprises, ne survivent que celles qui maximisent leur profit ; sur le empirique également, il constate que l'hypothèse est soutenue par - l'expérience de ses innombrables applications A  des problèmes spécifiques et les échecs répétés des tentatives pour contredire ses implications -.
Cependant, on ne peut que constater que l'argument empirique cité n'est accomné d'aucun exemple ; quant A  l'argument théorique, très qualitatif, il est contournable, car une entreprise n'est vraiment incitée A  maximiser que si les autres le font, et, mASme si certaines le font, d'autres peuvent survivre sans maximiser (ir II, 2). Prototype d'une - hypothèse qui explique beaucoup par peu, c'est-A -dire abstrait les éléments communs et cruciaux de la masse des circonstances complexes et détaillées concernant le phénomène étudié -, le modèle opti-misateur est é par Friedman A  la loi de la chute des corps, valable dans nombre de circonstances où les facteurs secondaires (résistance de l'air) sont négligeables. Cependant, bien qu'il admette que - les hypothèses ne sauraient aider A  déterminer les circonstances où la théorie tient -, et donc que la théorie et son domaine de validité doivent AStre définis simultanément, Friedman ne cherche pas, contrairement A  ce qui se passe en physique, A  expliciter les facteurs secondaires qui agissent et A  préciser les circonstances où ils sont négligeables (Mongin, 1986).
Les critiques de Friedman rappellent que le jugement d'une théorie d'après ses prédictions n'est pas seul intéressant et reste souvent insuffisant ; il faut cependant reconnaitre qu'il a eu le mérite d'appliquer concrètement son critère (théorie du revenu permanent, monétarisme) et qu'il propose lui-mASme des critères supplémentaires, mASme s'ils peuvent paraitre arbitraires et flous. Ils avancent aussi que des preuves directes (farables et défarables) ne sont pas forcément plus difficiles A  obtenir sur les hypothèses que sur les conséquences d'une théorie et doivent dès lors la renforcer, car - si la théorie n'est pas considérée comme fournissant une image approximativement vraie des phénomènes analysés, le succès des prévisions reste inexplicable- (Putnam, 1981). Plus profondément, ils arguent que si la confrontation des prévisions aux faits ne permet chaque fois que de mieux cerner le domaine de validité d'une théorie, celle-ci n'est pas vérilement explicative et mASme prédictive, puisqu'elle ne permet pas de sair dans quelle mesure elle s'applique A  des situations nouvelles.

La controverse Friedman-Samuelson.

Samuelson (1964, 1966) a violemment attaqué Friedman en qualifiant sa position de distorsion-F (F-twist), distorsion faible si seule est jugée pertinente la validation empirique des conséquences d'une théorie et non le réalisme de ses hypothèses, distorsion forte s'il est reconnu comme mérite A  une théorie l'irréalisme de ses hypothèses comme garant de son caractère universel. Sa thèse centrale est que toute théorie est tautologique, au sens où il existe une équivalence logique entre l'ensemble minimal de ses hypothèses et l'ensemble exhaustif de ses conséquences, ce qui fait qu'hypothèses et conséquences ont forcément le mASme degré de réalisme. Il en conclut qu'il est contradictoire de soutenir que les conséquences peuvent AStre vraies alors que certaines hypothèses sont fausses et, par suite, qu'il est erroné de ne pas éliminer des hypothèses dont certaines conséquences s'avèrent réfutées.
La réponse de Samuelson a été vivement critiquée A  son tour, car elle postule la possibilité d'élir une correspondance explicite et bi-unique entre hypothèses et conséquences (Wong, 1973 ; Machlup, 1964). En réalité, seules certaines conséquences sont connues et peuvent d'ailleurs AStre vraies, malgré des hypothèses fausses ; inversement, toutes les hypothèses ne sont jamais énumérées, et la réfutation d'une conséquence ne permet pas de déterminer celle(s) qu'il faut mettre en cause. Si, comme il semble, Samuelson assimile de plus conséquences et conséquences tesles (comme pour les théorèmes significatifs), sa position devient - descriptiviste - en ce qu'il considère une théorie comme une simple condensation et reformulation de propositions empiriques. Mais on peut remarquer, d'une part qu'une éventuelle équivalence formelle entre hypothèses et conséquences ne saurait AStre identifiée A  une équivalence - sémantique - entre leurs interprétations respectives, d'autre part qu'une théorie est plus générale et - explicative -, non seulement que chacune de ses conséquences, mais aussi que leur ensemble.
Le nœud de la discussion porte, en fait, sur le sens A  donner A  l'-irréalisme des hypothèses- (Nagel, 1963), irréalisme qui, en tout état de cause, - ne saurait AStre considéré comme une vertu, mais seulement comme un mal nécessaire- (Simon, 1963). Il est certes inacceple s'il renie A  une hypothèse que l'on a prouvée empiriquement fausse ou mASme improbable ; il est en revanche insignifiant s'il renie, toujours dans un sens empirique, A  une hypothèse abstraite, non tesle directement (parce qu'elle inclut, par exemple, des concepts théoriques) ; il est enfin incontournable s'il vise une description simplement jugée partielle ou incomplète de l'objet modélisé. Simon (1963), ne ulant retenir que le sens (lui-mASme ambigu) d'hypothèse - idéale - ou - approchée -, tente alors une conciliation et propose le - principe de continuité des approximations - (les conséquences d'hypothèses approximativement correctes le sont également), mais ce principe est lui-mASme très sujet A  caution du fait de l'insilité structurelle des systèmes (ir II, 4).
Finalement, dans le débat entre positivisme et essentialisme, la position de Samuelson, quand il se rapproche de l'ultra-empirisme en ulant réduire toute théorie A  des propositions directement tesles, apparait comme une version extrASme du premier, comme l'apriorisme de Mises est une version extrASme du second. La position de Friedman est plus centrale, plutôt dans le premier camp quand il défend que les théories ne peuvent AStre testées qu'A  travers leurs conséquences opérationnelles, et dans le second quand il juge les hypothèses de base non tesles directement et séparément, et posées comme conventions. Actuellement, les économistes se satisfont d'un dualisme méthodologique fort proche, où essentialisme et positivisme dominent respectivement en économie théorique et appliquée, mais sous une forme atténuée, dans une zone moyenne du spectre épistémologique. L'économie théorique est souvent proche du conventionnalisme, consciente que la relation entre théorie et observations est distante, multiforme et touffue (ir I, 5) ; l'économie appliquée est proche de l'instrumenta-lisme, désireuse qu'elle est d'adapter les modèles empiriques A  leur rôle prévisionnel (ir III, 6).


Le débat sur le monétarisme.


En dehors des controverses méthodologiques, des débats plus techniques ont eu lieu sur l'entreprise, la fonction de production, le capital, la relation de Phillips, la maximisation de l'espérance d'utilité ou la liaison entre salaire et éducation. Se situant A  la fois sur un théorique et empirique, le débat le plus exemplaire, dont l'histoire précise reste A  faire, a opposé le monétarisme au keynésianisme, des années cinquante A  nos jours, débat personnifié d'abord par Friedman et ses détracteurs, puis par Lucas (1981) et Tobin (1981). Articulé autour d'un petit nombre de propositions, le monétarisme se veut une méthode empirique d'analyse des cycles dans la ligne des travaux du NBER, une tentative d'interprétation théorique des régularités ainsi mises en évidence, et une analyse des conséquences A  en tirer en matière de politique économique. Il a engendré de violentes critiques, non exemptes d'arrière-pensées politiques et idéologiques, et qui n'échappent pas toujours au reproche d'- antimonétarisme primaire -, mais il a conduit aussi A  des évaluations plus rigoureuses, quant A  sa cohérence et A  ses fondements empiriques, mASme si celles-ci s'avèrent bien moins conclusives.
Pour Gurley (1969), -Friedman s'est jeté sur le keynésianisme comme un bouledogue, mordant ses gros déficits et aboyant après sa trappe de liquidité ; bien qu'il n'ait probablement pas eu de grande stratégie quant A  la manière d'abattre le monstre, on perA§oit néanmoins un programme au service de ses multiples attaques -. Suit une description caricaturale de ce programme qui conclut que -ce que Friedman et ses associés ont fait de mieux a consisté A  aligner une masse impressionnante d'évidences afin de montrer que la monnaie est importante-. Pour Kaldor (1985), -la grande renaissance du monétarisme restera dans l'histoire comme un curieux épisode, semblable, par sa virulence, aux explosions périodiques d'hystérie de masse au Moyen Age, telles les chasses aux sorcières. En fait, je ne connais aucun autre exemple d'une doctrine économique aussi complètement fausse ayant connu un tel succès en l'espace de quelques années -.
De faA§on plus constructive, un groupe de travail de l'OCDE (1975), portant sur la vérification des thèses monétaristes, conclut de faA§on nuancée et relève l'arbitraire des choix d'indicateurs (masse monétaire), les difficultés des tests (silité du comportement du secteur privé) ou certaines faiblesses explicatives (anticipations de prix). Une entreprise plus poussée de vérification empirique (Desaï, 1981) bute aussi par l'ambiguïté fondamentale des résultats des tests et conclut que - l'évidence en faveur du monétarisme est loin de faire l'unanimité-. Friedman lui-mASme (1956) était d'abord péremptoire et affirmait qu'- il n'y a peut-AStre aucune relation empirique dont on ait observé aussi uniformément le retour dans des circonstances aussi variées que le rapport, sur des espaces de temps très brefs, entre des variations substantielles du stock de monnaie et les prix -. En fait, il atténuera sa proposition qui, sous la forme : - il s'écoule des délais longs et variables entre les variations de la masse monétaire et leur influence sur les revenus et les prix -, devient pratiquement irréfule (Desaï, 1981).
Il n'empASche que le monétarisme, en présentant des perspectives nouvelles tout en absorbant des idées déjA  bien élies, est apparu comme une alternative crédible au keynésianisme et a influencé les politiques économiques et monétaires de plusieurs pays. S'il a séduit les économistes des milieux financiers, c'est parce qu'il les valorisait en mettant un accent privilégié sur le rôle de la monnaie, mais ceux-ci n'ont pas toujours vu qu'il limitait en fait leur rôle A  une régulation grossière de cette monnaie. Sans trop se prononcer sur le fond de la doctrine, les banques centrales se sont presque toujours fixé des normes de croissance de la masse monétaire, le seul problème A  résoudre étant d'en trouver un bon indicateur. Tel indicateur (Ml) éluant de faA§on perverse, le comité américain de l'Open Market n'a d'ailleurs pas hésité, en 1982, A  en changer (M2), c'est-A -dire A  adopter un nouveau thermomètre quand l'ancien se refusait A  donner la - bonne - température (ir III, 1).




Privacy - Conditions d'utilisation




Copyright © 2011- 2024 : IPeut.com - Tous droits réservés.
Toute reproduction partielle ou complète des documents publiés sur ce site est interdite. Contacter