IPeut - écrits et documents
ManagementMarketingEconomieDroit
ss
Accueil # Contacter IPEUT




economie générale icon

ECONOMIE

L’économie, ou l’activité économique (du grec ancien οἰκονομία / oikonomía : « administration d'un foyer », créé à partir de οἶκος / oîkos : « maison », dans le sens de patrimoine et νόμος / nómos : « loi, coutume ») est l'activité humaine qui consiste en la production, la distribution, l'échange et la consommation de biens et de services. L'économie au sens moderne du terme commence à s'imposer à partir des mercantilistes et développe à partir d'Adam Smith un important corpus analytique qui est généralement scindé en deux grandes branches : la microéconomie ou étude des comportements individuels et la macroéconomie qui émerge dans l'entre-deux-guerres. De nos jours l'économie applique ce corpus à l'analyse et à la gestion de nombreuses organisations humaines (puissance publique, entreprises privées, coopératives etc.) et de certains domaines : international, finance, développement des pays, environnement, marché du travail, culture, agriculture, etc.


NAVIGATION RAPIDE : » Index » ECONOMIE » economie générale

économie théorique et économie empirique



économie théorique et économie empirique
L'économie se compose de propositions théoriques qui n'ont jamais été validées et de régularités empiriques qui n'ont jamais été expliquées.




M. Kalecki.


Le passage des propositions théoriques aux énoncés empiriques s'effectue déductiment, A  trars des niaux sémantiques d'abstraction et de généralité décroissants, et selon des cheminements A  la fois multiples et denses. La confrontation d'un modèle au matériau empirique met alors en jeu des hypothèses A  ces différents niaux, les plus empiriques étant d'abord mises en cause en cas d'infirmation par les faits ou ajustées pour se mouler sur les observations. La validation empirique d'une théorie A  trars ses conséquences tesles n'est cependant pas un critère exclusif de jugement ; elle s'accomne, outre d'une validation plus indirecte A  trars des illustrations exemplaires, de critères de cohérence formelle ou de souplesse d'utilisation. Le travail théorique tend d'ailleurs A  s'autonomiser par rapport au substrat empirique, les théoriciens manipulant de petits modèles qui isolent et simplifient un phénomène particulier, et sont plus ou moins bien articulés entre eux.


Structure sémantique des théories.


L'étude syntaxique des modèles (voir II, 4) montre qu'une théorie a pour objet d'enchainer des propositions de - mASme niau - (énoncés logiques, propriétés qualitatis, variables quantitatis) par un mécanisme déductif (inférence logique, démonstration fonctionnelle, calcul numérique): P'>Q. L'exemple typique est l'équivalence, pour le consommateur, entre la maximisation de l'utilité de sa consommation sous contrainte de renu et la définition de sa consommation par une fonction de demande dépendant des prix et du renu. Par ailleurs, les propositions peunt AStre exprimées A  différents niaux de spécification, le passage de l'un A  l'autre s'effectuant en précisant la forme des relations ou en donnant une valeur numérique aux paramètres : P'>p. Toujours dans la théorie du consommateur, on peut donner une forme analytique plus précise A  la fonction d'utilité, en la supposant séparable ou non par rapport aux biens, ou en postulant que les biens sont complémentaires ou substituables.
Le modèle déductif-nomologique de l'explication (voir I, 1) repose sur un processus mixte, qui associe A  une proposition générale F et A  une hypothèse spécifique q une proposition spécifique r: P & q--r [équivalent A  P'>(q->r)]. Ainsi, si l'on suppose qu'un consommateur a une fonction d'utilité de la forme Cobb-Douglas (séparable et A  biens substituables), on en déduit une fonction de demande de Stone, qui exclut la possibilité de biens inférieurs. Cette démarche admet comme cas particuliers la spécification des propositions (q donne une valeur particulière A  un paramètre a de P), tout comme l'application des propositions A  un champ circonscrit (q fixe un domaine particulier A  une variable z de P). Ainsi, de ce que la demande d'un consommateur pour un bien non inférieur décroit ac son prix, on en déduit que si le prix du chocolat augmente, M. Dupont en consommera moins, toutes choses égales par ailleurs.
Si le mécanisme de déduction peut AStre répété A  un mASme niau (P->Q'>R), si le mécanisme de spécification peut AStre répété entre niaux successifs (P '> P '> p), le mécanisme mixte conduit de mASme A  des enchainements en cascade (P '> Q '>- r). D'un point de vue syntaxique, on passe ainsi des propositions les plus - générales - quant A  la spécification des relations, ou des plus - unirselles - quant A  leur domaine de validité, aux propositions les plus - particulières - et les plus -locales-. D'un point de vue sémantique, ce mASme principe permet de passer des propositions les plus - théoriques - aux propositions les plus -empiriques- A  trars une structure hiérarchique d'explications. A l'interface de la syntaxe et de la sémantique, un tel raisonnement formel a l'avantage de conserr la valeur de vérité en passant des hypothèses aux conclusions (des hypothèses vraies donnent une conséquence vraie), alors que la démarche inrse d'- affirmation du conséquent - est illicite (une conclusion vraie ne résulte pas forcément d'hypothèses vraies).
Ce processus permet en particulier de réduire les structures non fonctionnelles (système axiomatique, programme d'optimisation) en structures fonctionnelles, et d'éliminer des relations les concepts théoriques qui jouent le rôle de variables - cachées - intermédiaires. Ainsi, on peut éliminer l'utilité du consommateur par résolution de son programme d'optimisation, ou ses anticipations de prix par référence A  un schéma d'anticipation implicite (anticipations rationnelles) ou explicite (anticipations extrapolatis). Il permet également de rendre les grandeurs plus opératoires en leur associant un processus d'observation, d'élir des relations plus précises entre ces grandeurs en spécifiant les paramètres, et de mieux cerner le domaine d'application de ces relations. Ainsi, l'utilité et surtout les anticipations sont parfois considérées comme directement observables par interrogation dans des situations concrètes ; quant A  la proposition générale : - une augmentation exogène de l'offre d'un bien abaisse son prix -, elle conduit A  la proposition empirique : - la décourte d'or en Amérique au xvie siècle a fait chuter son prix de moitié en dix ans en Esne -.
Ce graphe distingue en fait, de faA§on conntionnelle, quatre niaux qui ne sauraient AStre trop précisément définis ; le terme mASme de - théorie - s'applique d'ailleurs sount A  un niau plus ou moins élevé conceptuellement (de la théorie keynésienne A  celle du renu permanent) ou formellement (de la théorie des jeux A  celle du duopole). Il est également - ourt - aux deux bouts, car il n'existe pas de niau théorique suprASme (toute théorie est généralisable) ni de niau observationnel autonome et ultime (toute observation est empreinte de théorie). La principale caractéristique de ce graphe est cependant d'AStre étonnamment touffu, A  savoir que la relation entre deux niaux est dense et multivoque, particulièrement aux niaux intermédiaires. Tout d'abord, un modèle empirique est sount formé d'équations qui s'inspirent de sources théoriques distinctes, au point d'apparaitre comme un - cocktail théorique - (modèle DEçA) ; de mASme, un modèle théorique peut très bien associer des propositions issues de champs théoriques concurrents (modèle keynésien ac anticipations rationnelles).
Surtout, en remontant dans les niaux, on peut d'abord montrer que les mASmes données sont compatibles ac plusieurs relations empiriques ; ainsi, une chute des instissements s'explique aussi bien par une diminution des profits des entreprises que par une baisse de la demande anticipée par elles. Ensuite, une mASme relation empirique admet fréquemment plusieurs justifications théoriques ; la liaison entre renu individuel et nombre d'années d'études est expliquée par la théorie du capital humain de Becker (rémunération du capital intellectuel accumulé par l'individu) ou la théorie du signal de Spence (rémunération de l'individu A  sa productivité, supposée corrélée A  l'éducation). Enfin, un mASme concept ou énoncé théorique se prASte A  des lectures théoriques dirgentes ; le profit des entreprises est vu par les néoclassiques comme la rémunération du facteur - capital - ou de facteurs organisationnels, et par les marxistes comme le résultat de l'exploitation des travailleurs.
En descendant dans les niaux, une mASme théorie qualitati se cristallise en dirses spécifications théoriques ; ainsi, la théorie keynésienne donne lieu aussi bien aux schémas du type IS-LM qu'aux équilibres A  prix fixes dynamisés. La mASme proposition théorique peut également se concrétiser en relations empiriques distinctes ; ainsi, l'-hypothèse de taux naturel de chômage- exprime la production instantanée en fonction de la production - naturelle - et d'une erreur de prévision sur les prix, mais admet de nombreuses variantes où interviennent les productions passées et d'autres facteurs explicatifs.
Enfin, une mASme relation empirique s'adapte A  des situations spatiotemporelles distinctes ; une fonction d'importation qui lie les imports au PIB du pays, A  la moyenne des PIB étrangers et au prix relatif des biens du pays par rapport A  ceux de l'environnement international, est suffisante pour s'adapter A  toutes sortes de pays, sur les périodes récentes.



Confrontation des théories aux faits.

Le schéma précédent peut AStre parcouru de faA§on ascendante, la -démarche inducti- visant A  construire une théorie compatible ac des faits connus, ou de faA§on descendante, la - démarche projec-ti - consistant A  confronter une théorie existante aux observations. La démarche inducti a essentiellement pour rôle de suggérer des théories noulles, qui ne peunt cependant AStre logiquement validées que par une démarche projecti, sous peine justement d'affirmer le conséquent (-des observations vraies résultent d'une théorie vraie -). La démarche projecti consiste A  dérir de la théorie des conséquences tesles, c'est-A -dire mettant en jeu des grandeurs opératoires (mais non forcément quantitatis et mesurables) et des relations fonctionnelles (mais non forcément A  paramètres numériques). De fait, certaines propositions sont tesles A  un niau relatiment général, qu'il s'agisse de modèles non complètement spécifiés (conxité des fonctions de production) ou mASme de propriétés plus qualitatis (hypothèse d'information parfaite).
Toute conséquence tesle d'une théorie met en jeu des hypothèses se situant A  des niaux sémantiques hiérarchisés, mASme si leur ensemble n'est jamais complètement énumérable et si la frontière entre les niaux n'est jamais bien nette :
' les hypothèses métaphysiques concernent la délimitation et la structuration interne du système considéré, ainsi que certains principes explicatifs fondamentaux ;
' les hypothèses théoriques portent sur le mode de fonctionnement des entités constituantes, l'organisation de leurs interactions et l'évolution globale du système ;
' les hypothèses empiriques précisent la nature et la structure des variables, la forme analytique des relations et la délimitation du champ d'application ;
' les hypothèses expérimentales définissent les données disponibles ac leurs modes d'obtention et d'éntuelles indications sur leur fiabilité.
Dans la confrontation d'une théorie aux faits (ou plutôt A  des propositions de plus bas niau acceptées par consensus), un résultat négatif ne permet pas de préciser quelles sont les hypothèses défaillantes (problème de Duhem-Quine), mASme s'il est de bonne méthode de les remettre en question séquentiellement A  partir du bas (Bunge, 1974):
' critique des données d'observation, entachées d'erreurs d'observation trop fortes ou inadaptées au modèle vérilement testé ;
' remise en question, soit de la structure des relations (y compris des aléas), soit du champ d'application attribué au modèle ;
' remise en question d'une hypothèse théorique, en particulier d'une clause céleris paribus (facteur explicatif fixe) ou d'une hypothèse d'approximation (facteur explicatif négligeable) ;
' remise en cause des fondements ontologiques du modèle (- le comportement individuel est rationnel -, - la source de toute valeur est le travail -).
Cependant, le diagnostic sur l'hypothèse litigieuse (possiblement multiple) est facilité par le fait que certaines hypothèses de bas niau sont parfois tesles de faA§on séparée, alors que d'autres sont admises en fonction de connaissances préalables (background knowledgé). De mASme, la formalisation peut permettre de définir des blocs d'hypothèses relatiment séparables, dont seuls certains sont mis en jeu dans une expérience concrète. Enfin, la multiplification de tests d'énoncés découlant d'hypothèses partiellement semblables, partiellement différentes, permet de préciser, au moins de faA§on heuristique, les hypothèses litigieuses. La remise en question prioritaire des hypothèses les plus basses explique par ailleurs que de nombreuses réfutations sont généralement nécessaires avant de contester une proposition de niau supérieur, mASme si cette contestation devient incontournable A  la longue. Elle conduit le plus sount A  - élargir - d'abord syntaxi-quement ou sémantiquement le modèle plutôt qu'A  le rejeter ou le changer ; ainsi de la relation de Phillips où les prix ont été - augmentés - des prix anticipés, ou de la fonction d'utilité qui a adopté des formes de plus en plus générales ou des interprétations de plus en plus larges (voir II, 1 et II, 2).


Validation empirique d'un modèle.


La confrontation aux faits peut AStre examinée de faA§on plus précise pour un modèle empirique qui relie des variables exogènes x et endogènes y, est constitué d'un ensemble de relations P de paramètres a et admet un domaine de validité ô. Pour un tel modèle, on peut donc distinguer trois niaux d'hypothèses : les données expérimentales x et y, les hypothèses empiriques (a, 8) et les hypothèses théoriques P (elles-mASmes issues d'hypothèses plus profondes) :P&a&ô&x '> y. Lorsque le modèle est stochastique, ce qui constitue en soi une hypothèse théorique (fondée sur l'incertitude des données ou l'invalidité des spécifications des relations), il faut ajouter aux hypothèses empiriques les propriétés retenues pour les aléas. Utilisation de base du modèle, le test de validation consiste A  savoir si la structure (P, a, ô) est compatible ac les observations (x, y), sous forme rigoureuse dans un modèle déterministe, selon des critères économétriques (tests ac seuils d'admissibilité) pour un modèle stochastique.
En fait, le modèle est le plus sount utilisé pour en calculer certains éléments, compte tenu des autres, en remontant dans les niaux d'hypothèses :
' la prédiction consiste A  déterminer les conséquences y de causes x données (causes et conséquences passées ou futures), compte tenu du modèle ;
' la post-diction consiste A  révéler les causes x susceptibles de produire les conséquences y (observées plutôt qu'anticipées), compte tenu du modèle ;
' l'estimation consiste A  calculer les paramètres a compatibles ac les données d'observation x et y, étant donné une structure P du modèle ;
' le test d'application consiste A  délimiter le champ spatio-temporel ou qualitatif ô où le modèle (P, a) est validé, compte tenu des observations (x, y) ;
' l'induction consiste A  découvrir une structure P, qui, associée A  des paramètres a et un champ 5, puisse rendre compte des observations ;
(l'explication relevant tantôt de la postdiction, tantôt de l'induction). En pratique, mASme si l'on cherche explicitement A  valider un modèle donné sur les observations, on est néanmoins tenté de l'adapter A  l'aide de - manipulations - adéquates :
' se placer dans l'optique d'un test d'application et donc se contenter de baliser son domaine de validité, ce qui exclut toute utilisation dans des situations noulles ;
' se situer dans une perspecti d'estimation et donc se limiter A  déterminer sa - structure fine -, ce qui interdit toute remise en question plus globale ;
' jouer sur la spécification des relations, en introduisant de noulles variables explicatis sount ad hoc (voir I, 1) ou en complexi-fiant leur forme analytique, ac une augmentation concomitante du nombre de paramètres ;
' adopter un cadre d'analyse stochastique, ce qui revient lA  encore A  élargir les spécifications admissibles des relations et A  admettre une - distance - plus grande entre le modèle et le système étudié (voir III, 3).
Pour limiter ces subterfuges, la solution consiste toujours A  fixer A  l'avance les caractéristiques du modèle que l'on ut confronter aux observations :
' s'imposer au départ un champ de validité suffisamment ambitieux et s'interdire, au coup par coup, d'en exclure des points aberrants sans chercher A  justifier, par des hypothèses explicites, les raisons de ces aberrations ;
' préciser initialement une zone admissible suffisamment restreinte pour les paramètres, mASme si elle ne se réduit pas forcément A  un point ;
' délimiter les spécifications considérées comme acceples en s'interdisant de rajouter des facteurs explicatifs non justifiés par des hypothèses générales et en adaptant le nombre de paramètres aux observations ;
' se donner a priori des conditions imposées aux aléas (forme, propriétés) et fixer les seuils statistiques jugés significatifs.


Critères de validation des modèles.


Le choix d'un modèle théorique ou empirique peut s'analyser comme un processus de décision particulier qui, dans le cadre usuel, e dirses alternatis selon différents critères, les critères devant évidemment AStre définis indépendamment des modèles és. Ainsi, aucune théorie n'est en pratique jugée isolément, ne serait-ce que parce qu'- il n'existe aucune doctrine qui ne soit considérée comme une vérité scientifique sans que la vision diamétralement opposée ne soit aussi soutenue par des auteurs de forte réputation- (Wicksell, 1904). Quant aux critères, ils sont définis de faA§on plus ou moins précise et applicables de faA§on plus ou moins ambiguA« ; ils jugent d'un modèle tant sur son contenu direct (cohérence) que sur ses potentialités A  court ou long terme (extensibilité). Ces critères peunt AStre énoncés a priori par des méthodologies normatis spécifiques ou révélés a posteriori en fonction des attitudes des chercheurs ; ils peunt éntuellement se modifier selon le stade d'élaboration du modèle et surtout son niau théorique.


Le critère de confrontation aux données empiriques des conséquences tesles du modèle joue un rôle primordial et relatiment incontournable, sauf A  admettre que certaines hypothèses ont une signification a priori ou encore un statut normatif. Sans AStre énumérables exhaustiment, les conséquences tesles de deux théories sont plus ou moins nombreuses et originales ; mais surtout, elles s'avèrent disjointes ou au contraire ables sur un champ donné de phénomènes. Dans ce cas, elles peunt AStre différentes, et l'épreu des faits se révèle favorable A  l'une ou A  l'autre, A  moins d'AStre défavorable aux deux ; elles peunt AStre identiques et sont alors simultanément validées ou invalidées par les observations. En pratique, le rdict des faits n'est jamais aussi bien tranché pour choisir entre théories rivales ou mASme cerner leurs champs de validité respectifs, ce qui fait dire A  Leibenstein (1981) que -nous ne savons pas ce que nous savons-.
Les critères empiriques sont eux-mASmes rarement considérés comme suffisants et toujours associés A  d'autres pour les modèles théoriques, car - si toutes les théories sont fausses, certaines le sont de faA§on plus intéressante que d'autres - (Clower, 1965). Les critères syntaxiques concernent les qualités formelles du modèle (cohérence logique, rigueur axiomatique), la définition des concepts et des relations (précision, univocité), et aussi l'articulation interne et externe des propositions (unité théorique, connectibilité théorique). Les critères sémantiques sont relatifs au champ d'application du modèle (généralité, extensibilité), A  son adapilité A  Pempirie (interpréilité, tes-ilité) et A  sa compatibilité effecti ac les faits (corroboration, silité). Les critères pragmatiques portent sur la maniabilité du modèle (simplicité, souplesse), son adapilité aux usages courants (prédictibilité, instrumentante), voire son influence éthique et politique (utilité sociale, pouvoir idéologique).
Cependant, il n'existe ni métacritère qui permette de juger des critères de base (en enclenchant une régression A  l'infini), ni critère synthétique qui puisse réaliser un arbitrage entre eux (en postulant leur abilité). Certains critères sont simplement privilégiés par certaines méthodologies, les premiers par le rationalisme, les deuxièmes par l'empirisme, les troisièmes par le pragmatisme. L'empirisme logique a tenté d'articuler les deux premières familles, le conntionna-lisme les deux dernières ; quant A  Popper, il privilégie un critère double (réfuilité et non-réfutation) et a mASme essayé de montrer que d'autres (simplicité, généralité) peunt s'y ramener. Simon (1979) obser enfin que le modélisateur ne pondère pas vraiment entre les critères, mais se contente de satisfaire A  des exigences minimales sur chacun d'eux : - les économistes pensent que les agents optimisent, mais ils sant qu'eux-mASmes ne font que satisfaire -.

Coupure entre théorie et empirie.

S'il est sount possible d'élir, sous forme grossière, des liens multivoques entre la théorie et l'empirie, il est parfois bien plus difficile d'exhiber un rapport rigoureux entre les niaux sémantiques correspondants. Il existe ainsi des modèles théoriques sans contrepartie empirique directe, comme les modèles de - sélection naturelle - des agents qui justifient l'émergence de comportements spécifiques A  l'intérieur d'un cadre conceptuel fermé sur lui-mASme. En sens inrse, il existe des modèles empiriques sans vérile justification théorique, telle la - relation de Phillips - qui traduit une liaison statistiquement observée entre inflation et chômage, malaisément interpréle (voir III, 3). Cette non-communication entre niaux se manifeste de faA§on analogue, l'- explication - étant considérée comme d'un niau supérieur A  la - prévision -, dans le fait que l'on puisse prévoir sans expliquer (fonction de demande fortement autorégressi) ou expliquer sans prévoir (fonction de production ac progrès technique).
Mais la coupure entre théorie et empirie résulte essentiellement de la spécialisation des économistes en théoriciens et praticiens qui construisent l'économie par les deux bouts, chaque domaine ayant tendance A  fonctionner et A  se délopper de faA§on relatiment autonome. Les théoriciens déroulent des raisonnements déductifs nouaux ou synthétisent des éléments théoriques épars, sans trop se préoccuper de la validité empirique de leurs hypothèses ou de leurs conclusions. - Pour savoir comment les agents se comportent, le théoricien ne se réfère pas A  des études empiriques, il fait ce que font habituellement tous les économistes, il s'installe dans un fauteuil et réfléchit sur la faA§on dont ils pourraient se comporter - (Simon, 1986). En sens inrse, le praticien va essayer d'extraire un maximum de régularités de ses données et procéder A  des prévisions, sans trop se soucier de l'inspiration et de la cohérence théorique des outils qu'il manipule.
Ce cloisonnement entre théorie et empirie est A  la base de nombreuses ambiguïtés dans le débat économique, notamment lorsqu'il s'agit de fonder la scientificité de la discipline sur une relation harmonieuse entre niaux sémantiques. Ainsi, la discussion entre économistes comporte sount des changements indus de niaux, un argument théorique nant répondre A  une critique empirique ou un exemple empirique nant contrer une remise en question théorique. Plus profondément, une théorie va proclamer sa pertinence en affirmant gratuitement qu'elle est soutenue par nombre de faits empiriques, et une étude empirique va rendiquer son utilité en arguant d'une inspiration douteuse de considérations théoriques. De faA§on encore plus insidieuse, des économistes défendent des propositions manifestement empiriques en les présentant comme quasi tautologiques ou des propositions exclusiment théoriques en les présentant comme concrètement évidentes.
En fait, théorie et empirie ne sont pas dans une position symétrique, et c'est surtout, ajuste titre, le détachement de la théorie de toute base empirique qui est dénoncé, ainsi que l'hypertrophie chronique de son déloppement (voir I, 8). Say (1803) observait déjA  que, - une fois placé dans une hypothèse que l'on ne peut attaquer, [le théoricien] pousse ses raisonnements jusqu'A  leurs dernières conséquences, sans er leurs résultats A  ceux de l'expérience, semblable A  un savant mécanicien qui, par des preus irrécusables tirées de la nature du levier, démontrerait l'impossibilité des sauts que les danseurs exécutent journellement sur les scènes de théatre -. Cette tendance s'est poursuivie dans l'école néoclassique orthodoxe, mais aussi dans des courants hétérodoxes de type essentialiste (marxistes, radicaux), une réaction nant cependant de courants déviants plus empiristes (ins-titutionnalistes. simoniens): -je ne connais aucune science hormis l'économie, qui se donne pour objet de traiter des phénomènes du monde réel, où des affirmations sont aussi régulièrement émises en contradiction patente ac la réalité- (Simon, 1986).


Réalisme des théories.


Conscient déjA  du problème, Cairnes (1875) affirmait que -la science économique n'a pas plus de rapport ac notre système industriel que la mécanique ac le réseau de chemin de fer - ; A  la limite, on peut considérer, selon la formule consacrée, que - toute ressemblance de la théorie ac des faits réels ou ayant existé est purement fortuite -. D'une part, certaines hypothèses théoriques sont accusées d'AStre franchement fausses : - tous les travaux qui, depuis maintenant vingt ans. ont admis le postulat de conxité, reposent sur du sable ; ils n'ont aucun intérASt économique et ne sont intéressants que pour les mathématiciens - (Allais, 1971). D'autre part, certains faits massifs de la vie économique sont peu ou mal pris en compte par la théorie, qu'il s'agisse, au niau macro-économique, de l'existence d'un fort taux de chômage dans tous les pays industrialisés, ou, au niau micro-économique, de l'augmentation des salaires ac l'ancienneté.


Il est vrai que la validation empirique des hypothèses est sount inexistante, qu'elle soit laissée rituellement et sans suite A  la discrétion des économistes appliqués, ou qu'elle soit écartée en arguant de difficultés d'observation ou de manque de données. Lorsqu'elle est mise en œuvre, elle s'avère peu systématique (examen de conséquences privilégiées, utilisation de données sélectionnées), et ses résultats sont traités ac désinvolture (fort pouvoir de confirmation et faible pouvoir de réfutation). Cependant, il est sount fait référence A  un substrat empirique très général, expériences partagées par tous, illustrations se voulant exemplaires, historiettes A  valeur de symbole, qui, sans pouvoir servir de preus, ne sauraient pour autant AStre négligées. Plus profondément, sont parfois invoqués des phénomènes décrits par d'autres disciplines, des régularités statistiques auparavant reconnues ou mASme des observations spécifiques, dont l'articulation ac la théorie demande seulement A  AStre précisée.
Il est vrai aussi que la théorie tend A  se délopper de faA§on augle par rapport aux phénomènes contemporains et A  s'insulariser par rapport au réel, car nombre de chercheurs, sous l'impérieuse nécessité de - publier ou périr -, cherchent avant tout A  se placer sur des créneaux théoriques privilégiés jugés prometteurs. MASme d'origine empirique, une idée initiale va alors se préciser dans sa formulation, s'enrichir dans son interprétation, élargir son domaine d'application avant d'entrer dans une zone de rendements décroissants quant A  sa fécondité et de refluer dans son champ de validité définitif. Cependant, la théorie n'est pas imperméable aux préoccupations concrètes du moment, mASme si leur intégration est lente et sélecti, et les modèles d'aléa moral et de sélection adrse doint beaucoup aux problèmes rencontrés dans la gestion des assurances (voir II, 7). Plus généralement, il existe une correspondance grossière et quelque peu - retardée - entre chaque époque et sa théorie économique ; si le néoclassicisme reflète l'économie de petites entreprises industrielles du siècle dernier, si le keynésianisme prend en compte la crise de 1929, la théorie actuelle reste encore bien pauvre sur l'internationalisation de la production et des échanges ou l'importance accrue des effets externes et des biens immatériels.
Une meilleure liaison de la théorie ac l'empirie est obtenue actuellement en macro-économie ac les - maquettes -, qui font la jonction entre la théorie du déséquilibre et les modèles économétriques usuels, et permettent d'éclairer certains conflits théoriques. Dans une maquette, chaque équation admet une justification théorique, mais fait internir uniquement des variables observables, les paramètres étant, quant A  eux, évalués sur certaines observations plutôt qu'ajustés économétriquement (voir III, 6). Elle est surtout réalisée dans les modèles micro-économiques d'-organisation industrielle-, qui formalisent maints phénomènes décrits par les gens du terrain (béhavio-ristes, managerialistes) et soutiennent certains principes normatifs préconisés par des organismes de conseil aux entreprises. Permise par les apports récents de la théorie de la rationalité limitée, de la concurrence imparfaite, des asymétries d'information et des équilibres dynamiques, elle internalise aussi bien les problèmes de dirsification des biens, de barrières A  l'entrée, d'intégration horizontale et rticale ou de recherche et déloppement (Tirole, 1984).

Jeu conceptuel sur les modèles théoriques.

Les théories sont sount présentées comme des - fantômes de problèmes réels, formulés de faA§on A  pouvoir AStre résolus par la seule logique- (Hicks, 1965); elles doint AStre considérées -ni plus ni moins comme des fables, en langage moderne, des paradigmes- (Blaug, 1980). - Les théoriciens tissent pour toujours des paraboles et racontent des histoires - (McCloskey, 1986), - le modèle d'équilibre général d'Arrow-Debreu n'est pas une représentation de la réalité : il s'agit d'une fiction et comme tel, il fait problème- (Milleron, 1981). Mais si une fiction, une fable, une parabole, voire une caricature, ne prétendent pas fournir une image réaliste d'une situation, elles - capturent - néanmoins certains éléments de la réalité, pour les exprimer en des termes épurés et transposés. Plus ou moins - transparentes -, elles peunt constituer des - idéaux types - webériens ou des - faits stylisés -, A  savoir ce que - le théoricien a parfois tendance A  penser que son empiriste favori a probablement éli - (Wiles, 1984).
Les théoriciens pratiquent, en effet, un - bricolage théorique - sur des modèles qui hypertrophient un phénomène par rapport A  son contexte spatio-temporel et qualitatif et le simplifient en le réduisant A  quelques traits saillants ; aussi - est-il important, dans la discussion, de distinguer le plus clairement possible l'économie artificielle des économies réelles- (Lucas, 1981). L'environnement du phénomène est toujours schématisé de faA§on drastique et sount traité de faA§on exogène ; ainsi des prix fixes A  court terme dans un équilibre ac rationnement ou des prix des autres biens fixés dans un équilibre partiel sur un marché unique. L'approximation du phénomène lui-mASme est - structurelle- si le modèle se limite, par exemple, A  deux biens, A  deux périodes ou A  deux agents (deux pays dans un modèle d'échanges internationaux) ou, inrsement, considère une infinité de périodes ou d'agents (générations imbriquées d'agents). L'approximation est - analytique - lorsque le modèle fixe ou mASme néglige certains facteurs, comme les nombreuses imperfections d'un marché par rapport A  la concurrence parfaite, car, inévilement, - l'économie a plus de variables que n'importe quel modèle- (Blaug, 1980).
Ces modèles théoriques permettent une - expérience conceptuelle - qui met en évidence les conditions de possibilité ou d'impossibilité, voire la plausibilité de certains phénomènes ; ils permettent mASme, dans une certaine mesure, de se substituer A  l'expérience, A  un coût bien moindre, mais leur degré de réalisme ou d'approximation reste toujours difficile A  cerner précisément. L'isolement d'un phénomène de son contexte peut supprimer des relations décisis, par exemple des substitutions intertemporelles si le modèle est A  court terme ou des retours financiers si le modèle est seulement physique. Les approximations structurelles laissent échapper de nombreuses propriétés, comme l'existence de coalitions si l'on se limite A  deux agents, ou l'occurrence de certaines menaces si l'on se place en horizon fini.
Les approximations analytiques ont enfin des effets dont la sensibilité n'est pas toujours mesurable, et - tout modèle théorique ignore de nombreuses variables qui, peut-AStre précisément, assurent la silité du monde - (Samuelson, 1979).
Afin de sérier les difficultés, les théoriciens en viennent ainsi de plus en plus A  construire des modèles locaux, qui traitent séparément dirses facettes d'un mASme phénomène ou dirs phénomènes liés, ac cependant un problème de synthèse subséquent. Du point de vue logique, ces modèles ne sont pas forcément cohérents entre eux, leurs hypothèses étant incompatibles ou peu homogènes ; ainsi pour un modèle bilatéral de négociation entre employeur et employé, où ce dernier considère un - salaire de réservation - issu, quant A  lui, d'un modèle d'équilibre général. Du point de vue pratique, leur superposition conduit A  un outil rapidement ingérable du fait de sa complexité ; ainsi lorsque des agents sont considérés simultanément dans un cadre aléatoire et dynamique, ac asymétries d'information et possibilités d'alliances. Si l'on ajoute une fragmentation de la recherche en domaines assez étanches, la science économique apparait finalement comme un - immense corpus balkanisé abritant dans ses niches nombreuses des connaissances aux inégales solidités- (Lesourne, 1985).





Privacy - Conditions d'utilisation




Copyright © 2011- 2024 : IPeut.com - Tous droits réservés.
Toute reproduction partielle ou complète des documents publiés sur ce site est interdite. Contacter