La variable économique la plus déterminante qui ne peut être directement observée
Approches techniques d'estimation de la production potentielle et des fluctuations cycliques
L'un des chiffres les plus importants dans la conduite de la politique monétaire est celui qui ne peut être directement observé. L'écart de production — la différence entre ce que l'économie produit réellement et ce qu'elle pourrait produire de manière soutenable — oriente les prévisions d'inflation, façonne les décisions des banques centrales et influence des milliards de dollars de positions sur les marchés. Pourtant, les économistes divergent régulièrement de 2 à 3 points de pourcentage sur sa valeur, et le chiffre réel n'est souvent connu que des années plus tard, lorsque les révisions des données arrivent.
Considérez les enjeux pratiques. En 2016, l'économie américaine fonctionnait-elle en deçà de sa capacité avec une marge de croissance, ou était-elle déjà à pleine capacité, où toute relance supplémentaire engendrerait de l'inflation ? Les estimations de l'époque allaient de −2 % (sous-utilisation significative) à +1 % (déjà en surchauffe). Cette divergence ne reflète pas un manque de rigueur — elle reflète la difficulté réelle de répondre à des questions telles que : combien de personnes sont disposées et aptes à travailler ? Quelle pourrait être la productivité des usines à pleine utilisation ? À quelle vitesse la base de compétences de la main-d'œuvre s'améliore-t-elle ? Aucune de ces questions n'admet de mesure précise.
Pourquoi cela est-il si important ? Parce que l'écart de production alimente directement la règle de Taylor, la formule de référence que les banques centrales utilisent pour calibrer les taux d'intérêt. Si l'écart est important et négatif (sous-utilisation significative), la règle de Taylor préconise des taux plus bas pour stimuler la croissance. Si l'écart est positif (l'économie tourne à plein régime), la règle préconise des taux plus élevés pour contenir l'inflation. Lors de la poussée inflationniste de 2021-2022, ce n'était pas un débat académique — certains économistes soutenaient que la Fed était en retard car l'écart de production était devenu positif, tandis que d'autres maintenaient qu'il subsistait encore de la sous-utilisation et que l'inflation se révélerait transitoire. La réponse de politique monétaire dépendait de la vision qui s'avérait correcte.
L'écart de production — l'écart entre la production réelle et la production potentielle — est la variable inobservable la plus déterminante dans la conduite de la politique monétaire. Contrairement à l'inflation ou au chômage, qui peuvent être mesurés directement malgré le bruit statistique, la production potentielle n'existe que comme construction théorique dérivée d'hypothèses sur la technologie, l'utilisation des facteurs et l'emploi d'équilibre. Cela crée une incertitude fondamentale : les estimations en temps réel divergent régulièrement de 2 à 3 points de pourcentage selon les méthodologies, et les révisions ultérieures des données peuvent inverser le signe des estimations contemporaines de l'écart. L'écart entre directement dans la règle de Taylor et ses variantes, faisant de l'erreur de mesure de l'écart une source de premier ordre de mauvais calibrage des politiques.
La période 2008-2010 illustre les enjeux. Les estimations en temps réel du Congressional Budget Office impliquaient des écarts de production proches de −7 %, suggérant une pression déflationniste massive et justifiant un assouplissement extraordinaire. Des révisions ultérieures, intégrant des évaluations actualisées des dommages structurels à la production potentielle, ont réduit ces estimations à −4 % à −5 %. Cette révision de 2 à 3 points de pourcentage reflétait une incertitude réelle quant à savoir si la crise financière avait durablement altéré la capacité productive ou simplement créé une sous-utilisation cyclique. Si la production potentielle avait baissé davantage que ce qui était estimé à l'époque, la politique était plus accommodante que prévu — contribuant potentiellement à l'inflation qui s'est matérialisée des années plus tard.
Ce que cela signifie :
Nombre positif = Économie en « surchauffe » (risque d'inflation)
Nombre négatif = Sous-utilisation économique (marge de croissance)
Zéro = Économie à pleine capacité soutenable
Le concept est né d'une question pratique dans les années 1960 : quand le gouvernement devrait-il stimuler l'économie, et quand devrait-il se retirer ? Arthur Okun, conseiller de l'administration Kennedy, a identifié une relation fiable entre le chômage et la croissance du PIB — lorsque le chômage baissait d'un point de pourcentage, le PIB croissait environ 3 % plus vite que la tendance. Cela a donné aux décideurs une première approximation de la marge d'expansion de l'économie. (Cette relation, connue sous le nom de loi d'Okun, reste un élément central de la règle de Taylor et des estimations de l'écart de production présentées sur cette page.)
Les années 1970 ont mis à mal ce cadre. Le chômage et l'inflation ont augmenté simultanément — un résultat incompatible avec les modèles simples d'écart de production. Les économistes ont été contraints de reconnaître que la production potentielle elle-même pouvait évoluer. Une série de chocs pétroliers et de ralentissements de la productivité a réduit la capacité de l'économie, mais les décideurs s'appuyant sur des estimations obsolètes de la production potentielle ont continué à stimuler, générant de l'inflation plutôt que de la croissance.
L'estimation moderne de l'écart de production tente d'éviter cette erreur en traitant la production potentielle comme une cible mouvante qui évolue avec la démographie, la technologie, l'investissement en capital et les facteurs institutionnels. Mais cela rend la mesure considérablement plus difficile.
À chaque réunion du FOMC, les équipes de la Fed présentent leur estimation de l'écart de production. Il apparaît dans les documents de projections économiques et influence le « dot plot » des anticipations futures de taux. Lorsque les responsables de la Fed parlent d'être « dépendants des données », une partie de ce qu'ils signifient est qu'ils mettent continuellement à jour leur vision de la production potentielle en fonction des informations entrantes sur la productivité, la participation au marché du travail et l'utilisation des capacités.
Les marchés y prêtent une attention soutenue. Si les gains d'emploi restent solides sans déclencher d'inflation, les opérateurs révisent à la hausse leurs estimations de la production potentielle — ce qui implique que la Fed dispose de plus de marge pour maintenir des taux bas. Lorsque la productivité s'accélère de manière inattendue (comme à la fin des années 1990 avec l'adoption des technologies internet), les estimations de la production potentielle évoluent et avec elles l'ensemble de la trajectoire anticipée des taux. Les années 2010 ont vu d'importantes révisions à la baisse de la production potentielle à la suite de la crise financière, ce qui a contribué à justifier des années de taux proches de zéro qui auraient semblé imprudentes sous les hypothèses antérieures.
où $Y_t$ désigne la production réelle et $Y_t^*$ la production potentielle. Cet écart entre dans la courbe de Phillips néo-keynésienne :
$$\pi_t - \pi^* = \alpha \cdot \text{Gap}_t + \varepsilon_t$$Le coefficient $\alpha$ (généralement 0,1-0,5) détermine la sensibilité de l'inflation aux fluctuations cycliques. Les erreurs de mesure de l'écart se propagent directement aux prévisions d'inflation et aux recommandations de politique monétaire.
Les premières approches (années 1960-1970) reposaient sur un simple lissage de tendance : ajuster une tendance linéaire ou quadratique au PIB et qualifier les écarts de composante cyclique. La loi d'Okun a fourni le premier ancrage structurel, reliant les écarts de chômage aux écarts de production par un coefficient estimé. La stagflation des années 1970 a révélé des failles fatales — les chocs d'offre déplaçaient la production potentielle, mais les méthodes fondées sur les tendances ne pouvaient distinguer les mouvements d'offre de ceux de la demande.
Les années 1980 ont apporté les approches par fonction de production, décomposant la production potentielle en composantes de capital, de travail et de productivité totale des facteurs. Cela a permis d'intégrer des informations structurelles (démographie, investissement, changement technologique) mais a introduit de nouveaux défis de mesure : l'estimation du NAIRU, de l'utilisation du capital et de la productivité tendancielle impliquait chacune ses propres incertitudes.
La pratique actuelle des banques centrales met l'accent sur les filtres multivariés (filtres de Kalman intégrant des courbes de Phillips et des relations d'Okun) et les modèles DSGE définissant la production potentielle comme la production d'équilibre à prix flexibles. Ces approches intègrent la théorie économique à l'inférence statistique mais restent sensibles à la spécification du modèle. La crise financière de 2008 a mis en lumière l'incertitude de régime : la crise représentait-elle un choc de demande négatif massif (écart négatif important) ou une destruction permanente de la capacité productive (écart plus faible) ?
Des recherches récentes explorent les méthodes d'apprentissage automatique et les indicateurs à haute fréquence, bien que les problèmes fondamentaux d'identification persistent. L'écart reste intrinsèquement inobservable, rendant la validation difficile et le désaccord inévitable.
Estimations actuelles utilisant la méthodologie multivariée améliorée comparée à l'approche traditionnelle de la loi d'Okun.
Où chaque composante de l'écart est calculée comme suit :
Écart Okun : $-\beta \times (u_t - u_t^*)$ avec $\beta = 2.5$ corrigé (États-Unis), $2.0$ (UE), $2.3$ (Royaume-Uni)
Écart de capacité : $(Capacity_t - 82\%) \times 0.5$
Écarts de confiance : Écarts par rapport aux niveaux neutres
L'écart de production repose sur plusieurs relations économiques reliant les variables réelles et nominales :
Où :
$\pi_t$ = Taux d'inflation actuel
$\pi_t^e$ = Inflation anticipée
$\alpha$ = Pente de la courbe de Phillips (généralement 0,1-0,5)
$\varepsilon_t$ = Choc d'offre (prix du pétrole, etc.)
Cette équation illustre pourquoi les banques centrales se concentrent sur l'écart de production. Lorsque l'économie fonctionne au-dessus de son potentiel (écart positif), l'inflation tend à dépasser les anticipations. Lorsqu'elle fonctionne en dessous de son potentiel (écart négatif), l'inflation tend à diminuer. Des estimations précises de l'écart de production sont donc essentielles pour calibrer les taux d'intérêt dans le cadre de la règle de Taylor.
Où :
$\beta$ = Coefficient d'Okun (généralement 2-3 pour les États-Unis)
NAIRU = Taux de chômage n'accélérant pas l'inflation
Les économistes décomposent le PIB réel en composantes tendancielle et cyclique :
Où :
$Y_t$ = PIB réel effectif
$Y_t^*$ = PIB potentiel (tendance)
$\text{Gap}_t$ = Composante cyclique (écart de production en logarithmes)
Le PIB réel est publié trimestriellement par le Bureau of Economic Analysis. Il n'est pas parfait — il y a des révisions, des ajustements saisonniers et des problèmes de mesure — mais ce sont des données observables. Le PIB potentiel, en revanche, est une construction théorique : le niveau de production que l'économie atteindrait si toutes les ressources étaient pleinement et efficacement employées à des taux soutenables. Chaque qualificatif — « pleinement », « efficacement », « soutenable » — implique des choix de jugement.
Considérez la composante travail. L'emploi potentiel correspond-il à 95 % de la population active, ou à 96 % ? Un certain chômage frictionnel existe toujours lorsque les personnes changent d'emploi. Mais dans quelle mesure ? Évolue-t-il au fil du temps à mesure que la technologie de recherche d'emploi s'améliore ? Qu'en est-il des personnes qui ont quitté la population active pendant une récession — doivent-elles être comptées comme faisant partie du potentiel ou non ? La réponse importe : chaque erreur de 0,5 point de pourcentage dans la composante chômage se traduit par environ 1 point de pourcentage d'erreur dans l'écart de production, ce qui à son tour déplace la recommandation de la règle de Taylor pour les taux d'intérêt.
Le capital et la productivité soulèvent des questions analogues. Pendant la pandémie de COVID, certaines entreprises ont définitivement fermé. Cela a-t-il réduit la production potentielle, ou cela l'a-t-il en fait augmentée en libérant des ressources pour des usages plus efficaces ? Différents économistes, utilisant différents modèles et hypothèses, sont parvenus à des conclusions divergentes. Ce n'est pas un échec analytique — les questions sont véritablement ambiguës.
La production potentielle est un contrefactuel : le niveau de production atteignable avec un plein emploi des facteurs à la technologie en vigueur. Contrairement à la production réelle, qui peut être observée sous réserve de bruit statistique, la production potentielle n'existe que dans le cadre de modèles. Cela crée un problème d'identification : différents modèles, incarnant différentes hypothèses sur la technologie de production, les équilibres des marchés des facteurs et les processus stochastiques, génèrent des séries de production potentielle différentes à partir de données réelles identiques.
L'estimation en temps réel aggrave le défi. Orphanides et van Norden (2002) démontrent que les estimations de l'écart de production présentent une incertitude massive en fin de période et subissent des révisions substantielles à mesure que de nouvelles données arrivent. Pour les États-Unis, les estimations en temps réel et finales de l'écart divergent fréquemment de 2 à 3 points de pourcentage, parfois avec des signes opposés. Cette incertitude induite par les révisions sape les politiques fondées sur les estimations de l'écart, les décideurs opérant dans une ignorance généralisée de la position cyclique de l'économie.
| Méthode | Type | Données requises | Performance en temps réel | Stabilité des révisions | Utilisation par les banques centrales |
|---|---|---|---|---|---|
| Filtre de Hodrick-Prescott | Statistique | PIB uniquement | Faible | Révisions importantes | Référence/vérification croisée |
| Fonction de production | Structurel | Travail, capital, productivité | Bonne | Révisions modérées | Méthode principale |
| Filtre multivarié | Hybride | PIB, inflation, chômage | Bonne | Révisions faibles | De plus en plus populaire |
| Modèles DSGE | Structurel | Séries macroéconomiques multiples | Correcte | Dépend du modèle | Recherche/validation |
Le filtre de Hodrick-Prescott est la méthode la plus largement utilisée pour estimer l'écart de production, malgré ses limitations bien documentées. Il est purement mécanique : fournissez-lui des données de PIB, définissez un paramètre de lissage (lambda), et il produit une ligne de tendance lisse. L'écart entre le PIB réel et cette tendance constitue l'estimation de l'écart de production. Aucune théorie économique n'est requise, aucun jugement sur les marchés du travail ou la productivité — uniquement une optimisation statistique.
Cette simplicité est à la fois sa force et sa faiblesse. Du côté positif, le calcul est rapide, la méthodologie est transparente, et les comparaisons entre pays ou périodes sont directes puisque la méthode est identique partout. La faiblesse : le filtre n'a aucune information sur ce qui se passe réellement dans l'économie. Il ajuste simplement une courbe lisse à travers les données. Si le PIB chutait de 30 % à cause d'une catastrophe détruisant la moitié du stock de capital, le filtre HP attribuerait mécaniquement la baisse en partie à un écart de production négatif et en partie à une réduction de la production potentielle, même si la destruction était clairement un choc d'offre temporaire.
Le filtre de Hodrick-Prescott résout un problème d'optimisation purement statistique : décomposer une série temporelle en composantes tendancielle et cyclique en minimisant une somme pénalisée des écarts au carré. La méthode ne requiert aucune structure économique — uniquement la série de PIB elle-même — ce qui la rend triviale sur le plan computationnel et largement applicable. Son ubiquité provient de cette simplicité, malgré des déficiences bien documentées qui la rendent suspecte en tant qu'estimateur de la production potentielle.
Hamilton (2018) fournit une critique vigoureuse : le filtre HP génère des dynamiques cycliques fallacieuses dans les séries stationnaires en différence, souffre d'un biais de fin de période sévère (rendant les estimations en temps réel peu fiables), et manque d'interprétation économique. Ravn et Uhlig (2002) soutiennent que le paramètre de lissage standard (λ=1600 pour les données trimestrielles) a été choisi arbitrairement et peut ne pas se généraliser à d'autres fréquences ou pays. Pourtant, les banques centrales continuent d'utiliser les filtres HP comme tests de robustesse, reconnaissant les limitations tout en valorisant la transparence méthodologique.
Où :
$y_t$ = Logarithme du PIB réel
$\tau_t$ = Logarithme du PIB tendanciel (potentiel)
$\lambda$ = Paramètre de lissage (1600 pour les données trimestrielles)
L'équation résout un problème d'arbitrage simple : trouver une ligne de tendance qui satisfait deux objectifs concurrents. Le premier terme pénalise les tendances qui s'écartent du PIB réel — il souhaite que la tendance suive les données de près. Le second terme pénalise les tendances qui changent fréquemment de direction — il souhaite de la régularité. Le paramètre lambda (λ) détermine le poids relatif de ces deux objectifs.
La valeur standard pour les données trimestrielles est λ = 1600, proposée par Hodrick et Prescott sur la base des caractéristiques des cycles économiques américains. Ce choix était quelque peu arbitraire. Fixer λ = 800 produit une tendance plus réactive qui suit les fluctuations du PIB de plus près ; fixer λ = 6400 produit une tendance très lisse qui réagit à peine aux mouvements de court terme. Différentes banques centrales utilisent des valeurs différentes, et ce choix affecte de manière critique l'estimation résultante de l'écart de production — pourtant il n'existe pas de réponse définitive sur ce que λ devrait être.
Le premier terme pénalise les écarts par rapport aux données réelles ; le second pénalise les variations du taux de croissance de la tendance (différences secondes). Le paramètre $\lambda$ gouverne le ratio de variance entre les composantes cyclique et tendancielle. Le calibrage standard utilise λ=1600 pour les données trimestrielles, bien que cela manque de fondement théorique.
Hodrick et Prescott (1997) ont sélectionné λ=1600 pour correspondre aux fréquences observées des cycles économiques dans les données américaines d'après-guerre, ciblant spécifiquement des cycles de 6 à 8 ans. Cette stratégie de calibrage manque de généralité : le λ optimal devrait varier selon le processus générateur de données, pourtant les praticiens appliquent 1600 de manière mécanique à travers les pays et les périodes. L'analyse de sensibilité révèle une variation substantielle des estimations de l'écart : λ∈[800,6400] génère des écarts de 2 à 4 points de pourcentage pour les cycles économiques typiques.
Plus fondamentalement, le filtre HP présente un biais de fin de période sévère. Le filtre est bilatéral, utilisant les données futures pour estimer les tendances courantes. En fin d'échantillon, seules les données passées existent, ce qui amène la production potentielle estimée à suivre la production réelle de trop près et à sous-estimer l'écart en temps réel. Les études comparant les estimations HP en temps réel aux estimations finales documentent des biais systématiques : les estimations en temps réel manquent les points de retournement et sous-estiment substantiellement la volatilité de l'écart. Cela rend les filtres HP particulièrement problématiques pour l'analyse de politique monétaire nécessitant une évaluation rapide de l'écart.
Convertir le PIB en logarithmes naturels pour une interprétation en pourcentage
Résoudre le problème d'optimisation quadratique par algèbre matricielle
L'écart de production est la différence entre la valeur réelle et la tendance
λ = 1600
λ plus élevé → Tendance plus lisse
λ plus faible → Plus réactif aux données
Cette méthode construit le PIB potentiel à partir de ses fondements en utilisant la théorie de la production. Elle modélise la capacité d'offre de l'économie sur la base des facteurs disponibles — travail, capital et progrès technologique.
Où :
$Y_t^*$ = Production potentielle
$A_t^*$ = Productivité totale des facteurs tendancielle
$K_t^*$ = Stock de capital potentiel
$L_t^*$ = Facteur travail potentiel
$\alpha$ = Part du capital dans le revenu (≈0,33)
Utilise les projections démographiques, le NAIRU estimé et les heures travaillées tendancielles
Méthode de l'inventaire permanent avec taux de dépréciation δ et investissement tendanciel
Souvent estimée à l'aide du filtre HP ou de modèles de séries temporelles structurels
Les filtres multivariés combinent la simplicité des filtres statistiques avec des relations économiques. Ils utilisent simultanément plusieurs variables économiques pour obtenir des estimations plus robustes et moins sujettes aux révisions.
Où :
$y_t$ = Logarithme du PIB réel
$\pi_t$ = Taux d'inflation
$u_t$ = Taux de chômage
Les étoiles (*) désignent les composantes tendancielles
Plutôt que d'examiner les données de PIB isolément, les filtres multivariés exploitent des relations économiques connues. Une baisse du chômage signale généralement un écart de production positif ; une hausse de l'inflation suggère que l'économie pourrait être en surchauffe. En intégrant simultanément toutes ces informations — ainsi que les relations de la courbe de Phillips et de la loi d'Okun qui sous-tendent également la règle de Taylor — la méthode produit des estimations moins susceptibles d'être révisées et plus fiables en temps réel.
L'écart de production suit un processus AR(1), la production potentielle suit une marche aléatoire avec dérive
La courbe de Phillips et la loi d'Okun relient les variables observables à l'écart inobservable
Utiliser le filtre de Kalman pour estimer les états inobservables (écart, potentiel) à partir des variables observables
Les modèles DSGE fournissent l'approche la plus théoriquement cohérente de l'estimation de l'écart de production. Ils modélisent l'ensemble de l'économie comme le résultat d'équilibre d'agents optimisateurs, offrant une définition naturelle de la production potentielle comme l'équilibre à prix flexibles.
Où :
Première équation : Courbe IS dynamique
Seconde équation : Courbe de Phillips néo-keynésienne
$\sigma$ = Élasticité intertemporelle de substitution
$\kappa$ = Pente de la courbe de Phillips
Dans les modèles DSGE, l'écart de production est défini comme la différence entre la production réelle et le niveau qui prévaudrait sous des prix flexibles :
où $y_t^{flex}$ est le niveau contrefactuel de production à prix flexibles. Cela fournit une mesure théoriquement cohérente directement liée au bien-être et à l'analyse des politiques.
Simple vs. amélioré :
Impact sur les politiques : Des écarts de production plus précis produisent des recommandations de règle de Taylor plus appropriées et un meilleur calibrage de la politique monétaire.
| Banque centrale | Okun simple (%) | Multivarié amélioré (%) | Différence (pp) | Niveau de confiance | Sources de données |
|---|---|---|---|---|---|
| 🇺🇸 Federal Reserve | -1.25 | -0.25 | +1.00 | Élevé | 4 indicateurs |
| 🇪🇺 Banque centrale européenne | -1.4 | -0.8 | +0.60 | Moyen | 3 indicateurs |
| 🇬🇧 Bank of England | -0.46 | -0.46 | 0.00 | Moyen | 1 indicateur |
L'écart de production est un élément clé du cadre de la règle de Taylor. Les estimations multivariées améliorées décrites ci-dessus fournissent un écart plus précis pour l'analyse de politique monétaire que les calculs simples fondés sur la loi d'Okun.
Où $\text{Gap}_{enhanced}$ utilise le calcul multivarié plutôt que les estimations simples de la loi d'Okun. Voir la page méthodologique de la règle de Taylor pour le cadre complet.