Comment les banques centrales utilisent une formule simple pour guider les décisions de taux d'intérêt
Lorsque la Réserve fédérale se réunit huit fois par an pour fixer les taux d'intérêt, comment prend-elle ses décisions ? En 1993, l'économiste de Stanford John Taylor a montré qu'une formule remarquablement simple pouvait capturer les décisions de la Fed au cours des années précédentes avec une précision considérable. La règle de Taylor indique que la Fed devrait fixer les taux d'intérêt en fonction de deux données : l'écart de l'inflation par rapport à la cible, et le fait que l'économie tourne au-dessus ou en dessous de son potentiel.
L'idée centrale est que lorsque l'inflation dépasse la cible, les taux doivent augmenter — et de plus que la hausse de l'inflation elle-même, de sorte que les taux d'intérêt réels (les taux après prise en compte de l'inflation) se resserrent effectivement. C'est ce qui refroidit une économie en surchauffe. Inversement, lorsque l'économie fonctionne en dessous de sa capacité avec un chômage en hausse et des ressources inutilisées, les taux devraient être plus bas pour soutenir la consommation et l'investissement.
La règle de Taylor fournit un point de référence. Lorsque la Fed fixe les taux nettement au-dessus ou en dessous de ce que la règle suggère, cela soulève une question naturelle : quels facteurs justifient cet écart ? Entre 2003 et 2005, la Fed a maintenu les taux bien en dessous de la recommandation de la règle de Taylor — un écart qui, selon certains économistes, a contribué à la bulle immobilière. Après 2008, la Fed est restée en dessous de la règle pendant des années, déclenchant un débat sur la question de savoir si une telle accommodation était nécessaire ou si elle accumulait des problèmes futurs.
Comprendre la règle aide également à décoder les communications des banques centrales. Lorsque le président de la Fed parle de « dépendance aux données », les données sous-jacentes sont les mêmes : l'inflation et l'emploi. La règle de Taylor rend simplement cette relation explicite et quantitative.
L'intuition est directe. L'inflation à 5 % quand la cible est de 2 % ? Refroidissez l'économie — augmentez les taux. Le chômage à 7 % quand le plein emploi se situe autour de 4 % ? Stimulez — baissez les taux. La règle de Taylor attribue des chiffres précis à ces intuitions.
Ce qui rend la formule utile, c'est la discipline qu'elle impose. Les mêmes conditions économiques devraient produire la même réponse de politique monétaire. Les banques centrales ne suivent pas la règle mécaniquement, mais elles sont censées expliquer quand et pourquoi elles s'en écartent.
Taux d'intérêt = Taux neutre + Inflation courante + ½(Écart d'inflation) + ½(Écart de production)
Décomposition :
Le taux neutre est le taux d'intérêt compatible avec une inflation stable et le plein emploi. Personne ne connaît ce chiffre avec précision — les estimations pour les États-Unis se situent généralement autour de 2 %, mais ce nombre évolue au fil du temps à mesure que les caractéristiques structurelles de l'économie changent. Il sert de référence de base.
L'inflation courante est ajoutée directement. Cela garantit que les taux nominaux augmentent avec l'inflation. Si l'inflation est de 3 %, la formule place immédiatement le taux au taux neutre plus 3 %, maintenant le niveau des taux d'intérêt réels.
L'écart d'inflation est l'ingrédient crucial. Si l'inflation dépasse la cible de 2 %, vous ajoutez la moitié de l'écart en plus. C'est le principe de Taylor en action : les taux réels doivent augmenter lorsque l'inflation augmente. Ainsi, si l'inflation est de 4 % (deux points de pourcentage au-dessus de la cible), vous ajoutez 4 % plus 0,5 × 2 % = 5 % au taux neutre.
L'écart de production mesure la sous-utilisation économique. Si l'économie tourne 2 % au-dessus de son potentiel, vous ajoutez 0,5 × 2 % = 1 %. Si elle tourne 2 % en dessous (en territoire de récession), vous retranchez 1 %. Cela capture le volet emploi du double mandat de la Fed. L'écart de production est un élément clé dans la conception de la règle et dispose donc de sa page dédiée.
Considérons mi-2022, lorsque la Fed augmentait les taux de manière agressive :
Taux neutre : 2 % (estimation de long terme de la Fed)
Inflation courante : 8,5 % (l'IPC bien au-dessus de la cible)
Cible d'inflation : 2 %
Écart d'inflation : 6,5 points de pourcentage au-dessus de la cible
Écart de production : environ +1,5 % (économie au-dessus de la tendance)
En appliquant la règle de Taylor :
Taux = 2 % + 8,5 % + 0,5(6,5 %) + 0,5(1,5 %)
Taux = 2 % + 8,5 % + 3,25 % + 0,75 %
Taux = 14,5 %
La Fed a finalement relevé les taux à environ 5 % vers mi-2023 — bien en dessous de ce que la formule prescrivait. Cet écart illustre à la fois la valeur et les limites de la règle. Elle fournit un point de départ quantitatif pour le débat : certains économistes soutenaient que la Fed était en retard ; d'autres maintenaient que la règle ne capture pas adéquatement tous les facteurs que les banques centrales doivent prendre en compte. L'essentiel n'est pas que la formule soit toujours correcte, mais qu'elle discipline la conversation.
Lorsque John Taylor a présenté sa règle éponyme à la conférence Carnegie-Rochester de 1992, il a proposé une équation à trois paramètres qui suivait les décisions de politique monétaire de la Réserve fédérale durant l'ère Greenspan avec une précision notable. La règle de Taylor n'était pas conçue comme une camisole de force pour les décideurs politiques, mais comme un point de référence — un cadre pour évaluer si la politique monétaire semblait systématiquement cohérente avec les conditions macroéconomiques. Son influence provient du fait qu'elle fournit un langage commun pour évaluer l'orientation de la politique dans différents environnements économiques.
Le principe de Taylor — l'exigence que les taux nominaux augmentent plus que proportionnellement à l'inflation — s'est avéré particulièrement déterminant. Cette condition garantit que les taux d'intérêt réels augmentent lorsque l'inflation monte, générant le resserrement monétaire nécessaire pour stabiliser les anticipations d'inflation. Les violations de ce principe, comme certains soutiennent que cela s'est produit entre 2003 et 2005, peuvent déstabiliser les anticipations et générer des dynamiques de prix d'actifs incohérentes avec les fondamentaux.
La formulation initiale de Taylor s'ajustait à la politique de la Fed sur la période 1987–1992 avec une erreur quadratique moyenne de seulement 0,7 point de pourcentage — un ajustement serré compte tenu de la simplicité de la spécification. Ce succès empirique a élevé la règle du statut d'exercice académique à celui de point de référence politique. À la fin des années 1990, le personnel de la Fed incluait systématiquement les calculs de la règle de Taylor dans les documents Bluebook préparés pour les réunions du FOMC.
L'influence de la règle a culminé lors des débats sur la politique de taux d'intérêt proches de zéro après 2008. Les critiques soutenaient que la Fed s'était trop écartée en dessous de la prescription de la règle, risquant des bulles d'actifs et une mauvaise allocation du capital. Les défenseurs rétorquaient que la borne inférieure effective rendait la règle standard inadéquate, nécessitant des outils non conventionnels. Ces débats ont clarifié que la règle sert au mieux comme point de départ pour la délibération politique, et non comme point d'arrivée.
La règle de Taylor a réussi là où d'autres prescriptions politiques ont échoué parce qu'elle équilibrait la cohérence théorique avec la tractabilité empirique. Contrairement aux approches de contrôle optimal nécessitant des fonctions de perte complètes et des dynamiques de modèle, la règle de Taylor a distillé la politique en deux écarts observables et trois paramètres. Les décideurs pouvaient la calculer en temps réel sans résoudre de problèmes d'optimisation dynamique.
Sa parcimonie s'est également avérée précieuse sur le plan pédagogique. La règle illustre clairement le double mandat de la Fed : le terme d'écart d'inflation capture la stabilité des prix, le terme d'écart de production capture l'emploi maximum. Les coefficients de 0,5 sur chaque écart suggèrent un poids égal sur les deux objectifs, bien que cette symétrie reste débattue. Certaines recherches suggèrent que la Fed réagit plus fortement à l'inflation (coefficient proche de 1,5) qu'aux fluctuations de la production (coefficient proche de 0,5).
Utilisez les curseurs ci-dessous pour modifier les conditions économiques et voir comment la règle de Taylor réagit. Remarquez comment une hausse de l'inflation ou de la croissance économique conduit à des taux d'intérêt recommandés plus élevés !
La formulation originale de Taylor en 1993 a établi la relation fondamentale pour une politique monétaire systématique :
Où :
$r_t$ = Taux nominal des fonds fédéraux
$r^*$ = Taux d'intérêt réel d'équilibre des fonds fédéraux (supposé à 2 %)
$\pi_t$ = Taux d'inflation sur les quatre trimestres précédents
$\pi^*$ = Taux d'inflation cible (supposé à 2 %)
$\tilde{y}_t$ = Écart de production (PIB réel moins PIB potentiel, en pourcentage)
Le principe de Taylor : Le taux d'intérêt nominal doit augmenter plus que la hausse de l'inflation, garantissant que les taux réels augmentent. Cela stabilise les anticipations d'inflation et empêche les spirales inflationnistes auto-réalisatrices.
Coefficients (0,5 chacun) : Taylor a choisi des pondérations égales pour les écarts d'inflation et de production sur la base d'une analyse empirique de la politique de la Fed durant l'ère Greenspan. Ces coefficients impliquent que la Fed accorde autant d'importance à la stabilité des prix qu'à l'emploi maximum.
Hypothèses de base : Le taux neutre de 2 % et la cible d'inflation de 2 % reflètent des valeurs d'équilibre de long terme cohérentes avec les objectifs du double mandat de la Fed.
Où :
$\phi_\pi$ = Coefficient de réponse à l'inflation (agressivité de la politique envers l'inflation)
$\phi_y$ = Coefficient de réponse à l'écart de production (poids sur l'objectif d'emploi)
Où :
$\rho$ = Paramètre de lissage des taux d'intérêt (0 ≤ ρ < 1)
Capture l'ajustement graduel et la gestion de l'incertitude dans la mise en œuvre de la politique
De 1987 à environ 2000, les prescriptions de la règle de Taylor et les décisions effectives de la Fed se suivaient de très près. Alan Greenspan maintenait que la Fed ne suivait aucune règle mécanique, mais en traçant les deux courbes sur un graphique, on observe un alignement quasi parfait — soit Greenspan suivait inconsciemment la formule, soit la formule capturait ses instincts avec une fidélité remarquable.
Cet alignement s'est rompu après 2000. Au début des années 2000, la Fed a maintenu les taux substantiellement en dessous de ce que la règle de Taylor prescrivait — parfois de 2 à 3 points de pourcentage. Après 2008, la règle appelait à des taux négatifs, ce qui était irréalisable, la Fed a donc maintenu les taux à zéro. Lors de la poussée inflationniste de 2020-2023, la règle suggérait que les taux auraient dû augmenter beaucoup plus vite qu'ils ne l'ont fait. Chaque écart a déclenché un débat sur la question de savoir si la Fed faisait preuve d'une flexibilité appropriée ou déviait dangereusement de sa trajectoire.
| Président de la Fed | Période | Écart moyen (pp) | RMSE | Corrélation | Évaluation |
|---|---|---|---|---|---|
| Alan Greenspan | 1987-2006 | +0,3 | 1,2 | 0,87 | Très bon ajustement |
| Ben Bernanke | 2006-2014 | -2,1 | 2,8 | 0,65 | Accommodant |
| Janet Yellen | 2014-2018 | -1,5 | 1,9 | 0,72 | Normalisation progressive |
| Jerome Powell | 2018-2025 | -0,8 | 2,3 | 0,59 | Réponse de crise |
La règle de Taylor suivait de près la politique effective de la Fed durant l'ère Greenspan (1987-2006). Pendant les crises — la crise financière de 2008 et la pandémie de COVID-19 — la Fed s'est délibérément écartée de la règle pour fournir une accommodation supplémentaire. La règle est un guide utile en temps normal mais ne capture pas les réponses politiques extraordinaires.
Les économistes ont développé plusieurs variantes de la règle de Taylor, chacune ajustant la formule pour mieux s'adapter à des conditions économiques spécifiques ou aux approches des banques centrales.
Ce qui est différent : Cette version accorde plus de poids à l'emploi et au chômage plutôt qu'à la seule croissance économique. Elle effectue également les changements progressivement dans le temps.
Qui l'utilise : Le personnel de la Réserve fédérale utilise souvent cette version dans ses analyses.
Pourquoi c'est important : Elle reflète le double mandat de la Fed qui consiste à se soucier à la fois de l'inflation ET de l'emploi.
Ce qui est différent : Au lieu d'utiliser l'inflation actuelle, elle utilise ce que l'inflation devrait être à l'avenir.
Pourquoi c'est important : La politique monétaire met du temps à agir (6 à 18 mois), les banques centrales devraient donc fonder leurs décisions sur la direction que prend l'économie, et non sur sa situation actuelle.
Le défi : Nous devons anticiper ce que sera l'inflation future, et nous pourrions nous tromper !
Ce qui est différent : Cette version reconnaît que les taux d'intérêt ne peuvent pas descendre en dessous de zéro (ou du moins pas beaucoup en dessous de zéro).
Pourquoi c'est important : Lors de récessions sévères, la règle de Taylor standard pourrait suggérer des taux négatifs comme -2 %, mais cela n'est pas vraiment réalisable en pratique.
Impact réel : Lorsque les taux atteignent zéro, les banques centrales ont besoin d'autres outils comme l'assouplissement quantitatif.
Banque centrale européenne : S'adapte à l'inflation de la zone euro (IPCH) et à une structure économique différente.
Banque d'Angleterre : Inclut des considérations de stabilité financière et les impacts du Brexit.
Banque du Japon : Modifiée pour les longues périodes de déflation et le contrôle de la courbe des taux.
Banque du Canada : Ajoute des ajustements pour le taux de change et les prix des matières premières.
Utilisée par le personnel de la Fed. Utilise l'écart de chômage au lieu de l'écart de production, avec un lissage plus élevé et une réponse plus forte à l'emploi.
Utilise l'inflation prévisionnelle. Plus prospective, cohérente avec les délais de transmission de la politique monétaire.
Intègre la contrainte de la BIE. Prend en compte la borne inférieure effective sur les taux nominaux, généralement fixée entre -0,5 % et 0 %.
Se concentre sur les variations. Réagit aux variations de l'inflation et de l'écart de production plutôt qu'aux niveaux, réduisant la dépendance aux valeurs d'équilibre non observables.
La limitation la plus significative de la règle de Taylor est qu'elle nécessite de connaître des éléments que personne ne peut mesurer avec précision. Le taux neutre change au fil du temps — il était probablement proche de 4 % dans les années 1990, environ 2,5 % dans les années 2000, et peut-être aussi bas que 1 % dans les années 2010. Chaque estimation est incertaine, et la formule est très sensible à cette donnée. Une erreur de seulement 0,5 % sur le taux neutre déplace la recommandation de politique du même montant.
Le même problème s'applique à la production potentielle. Que l'économie tourne 1 % au-dessus ou 1 % en dessous de sa capacité fait l'objet de désaccords considérables entre économistes, et le chiffre réel n'est souvent connu que des années plus tard lorsque les révisions de données arrivent. Pendant la reprise des années 2010, les estimations de l'écart de production allaient de −5 % à +1 % selon le modèle — pas une erreur d'arrondi, mais une incertitude fondamentale sur le fonctionnement de l'économie.
La règle de Taylor standard utilise l'inflation effective des quatre derniers trimestres. Mais la politique monétaire agit avec de longs délais — les changements de taux d'intérêt d'aujourd'hui affectent l'économie 12 à 18 mois plus tard. Si l'inflation était temporairement élevée en raison d'un choc pétrolier qui s'inverse déjà, la règle recommandera d'augmenter les taux juste au moment où la situation appelle à les baisser.
Certaines variantes utilisent à la place les anticipations d'inflation prospectives, mais la politique dépend alors de prévisions, qui ont leur propre historique d'erreurs. Les projections d'inflation de la Fed ont été systématiquement trop basses dans les années 2020 et trop élevées dans les années 2010.
La règle de Taylor est muette sur la stabilité financière. Les prix de l'immobilier ont doublé de 2000 à 2006 tandis que la Fed maintenait des taux bas parce que l'inflation était contenue et le chômage baissait. La règle indiquait que la politique était appropriée. Puis le système financier a failli s'effondrer.
La règle ignore également les retombées internationales. Lorsque la BCE baisse ses taux, les capitaux affluent vers les actifs en dollars, renforçant le dollar et resserrant les conditions financières américaines indépendamment de l'action de la Fed. La règle traite les États-Unis comme une économie fermée dans un monde interconnecté.
Malgré ses limites, un point de référence quantitatif est plus utile que la pure discrétion. Avant la règle de Taylor, la politique de la Fed semblait souvent arbitraire — les taux changeaient sans justification analytique claire. La règle a introduit la responsabilisation. Lorsque la Fed s'écarte significativement de la prescription de la règle, elle est soumise à une pression pour expliquer pourquoi. Cette explication peut être tout à fait valable (crise financière, pandémie), mais le cadre garantit que la conversation a lieu.
La règle sert également de système d'alerte précoce. Il est difficile de justifier le maintien des taux à 1 % lorsque l'inflation est à 7 % et le chômage à 4 %. La règle de Taylor signalerait cet écart de manière bien visible. Que les décideurs agissent sur ce signal est une question distincte, mais le signal lui-même a de la valeur.
Le taux d'intérêt naturel — r* — s'est avéré bien moins stable que ne le supposaient les premiers praticiens. Les estimations de Laubach-Williams suggèrent que r* a décliné d'environ 3 % en 2000 à moins de 0,5 % en 2019, avec des intervalles de confiance couvrant 2 à 3 points de pourcentage. Les modèles de Holston-Laubach-Williams montrent une volatilité similaire pour la zone euro. Cette instabilité crée de graves défis politiques : un décideur utilisant une estimation obsolète de r* peut se tromper systématiquement pendant des années avant de reconnaître l'erreur.
Les estimations de l'écart de production souffrent de problèmes similaires. Le Congressional Budget Office a substantiellement révisé à la baisse ses estimations du PIB potentiel pour 2008-2010 les années suivantes, impliquant que l'écart de production était moins négatif qu'on ne le croyait en temps réel. Cette révision suggère que la politique était plus accommodante que prévu. Les recherches d'Orphanides (2001) démontrent qu'une telle erreur de mesure en temps réel a systématiquement biaisé la politique de la Fed durant l'inflation des années 1970.
Clarida-Gali-Gertler (1999) soulignent que la politique optimale devrait répondre à l'inflation future attendue, et non à l'inflation passée. La structure des délais de transmission monétaire — 12 à 18 mois pour l'effet complet — implique que les décideurs se guidant par des données retardées arrivent systématiquement en retard. Les variantes prospectives utilisant les anticipations d'inflation répondent à ce problème en théorie mais introduisent une dépendance à la précision des prévisions, qui se détériore précisément quand elle est le plus nécessaire.
La règle de Taylor ne contient aucune variable financière malgré les preuves croissantes que la croissance du crédit, l'effet de levier et les valorisations des actifs importent pour les résultats macroéconomiques. Borio-Lowe (2002) montrent que les booms du crédit prédisent les crises financières mieux que l'inflation ou les écarts de production. Svensson (2017) soutient que l'intégration de la stabilité financière nécessite une modélisation explicite de la prise de risque et des dynamiques de levier — précisément ce que les règles simples omettent.
La période 2003-2006 illustre le coût : les prescriptions de la règle de Taylor semblaient raisonnables en fonction de l'inflation et du chômage, pourtant les prix de l'immobilier ont bondi et l'endettement des ménages a atteint des niveaux sans précédent. Une règle intégrant la croissance du crédit ou les ratios prix immobilier/loyer aurait signalé un resserrement plus tôt.
Pendant la période 2008-2015, les calculs standard de la règle de Taylor impliquaient des taux entre -2 % et -5 %, irréalisables compte tenu de la borne inférieure effective proche de -0,5 %. Cette contrainte altère fondamentalement la politique optimale. Reifschneider-Williams (2000) démontrent que la BIE provoque des résultats qui dévient systématiquement de la prescription de la règle, nécessitant soit des cibles d'inflation de long terme plus élevées, soit l'utilisation routinière d'outils non conventionnels.
Les grandes banques centrales intègrent les calculs de la règle de Taylor aux côtés de tableaux de bord plus larges. Le Rapport de politique monétaire de la Réserve fédérale inclut plusieurs spécifications de règles (approche équilibrée, inertielle, en différences premières) précisément parce qu'aucune règle unique ne s'avère robuste. La BCE fait de même en référençant plusieurs approches dans son Bulletin économique. Cette approche pluraliste reconnaît l'incertitude des modèles tout en conservant l'effet disciplinant de la règle sur les délibérations politiques.
Les recherches de Bernanke-Mishkin (1997) et Svensson (2003) préconisent le « ciblage de prévisions » comme cadre qui préserve le comportement systématique de type règle tout en intégrant le jugement sur l'incertitude des modèles, les conditions financières et d'autres facteurs que la règle de base omet. Cette évolution suggère que la contribution durable de la règle de Taylor réside moins dans sa forme fonctionnelle spécifique que dans l'établissement du principe que la politique devrait répondre systématiquement aux conditions économiques.
La règle de Taylor n'est pas purement académique — elle est utilisée dans l'ensemble du système financier :
En résumé : La règle de Taylor fournit un cadre transparent et systématique pour réfléchir à la politique monétaire. Elle n'est pas définitive, mais elle apporte discipline et structure à l'évaluation des décisions des banques centrales.
La règle de Taylor a fait le lien entre la théorie normative et l'analyse positive en économie monétaire. Sa parcimonie et sa performance empirique l'ont établie comme la référence canonique pour évaluer l'orientation de la politique monétaire dans les économies avancées.
Contributions clés : Formalisation du principe de Taylor, fourniture de microfondations pour les règles de politique dans les modèles DSGE, possibilité d'évaluation systématique des épisodes de politique historiques, et promotion de la transparence et de la responsabilisation des banques centrales.
Pertinence actuelle : Malgré des limites bien documentées, les règles de type Taylor restent centrales dans l'analyse de la politique des grandes banques centrales. Les variantes modernes intégrant la stabilité financière, l'inertie et des mesures alternatives de sous-utilisation continuent d'étendre le cadre.
Directions futures : Les domaines de recherche actifs incluent les règles robustes qui fonctionnent bien sous l'incertitude des modèles, la politique optimale à la borne inférieure effective, et l'intégration de l'apprentissage automatique avec les cadres fondés sur des règles.