Communiqué de presse - WP 245 : Renforcer la robustesse de la politique monétaire optimale en la recoupant à l’aide de règles simples

Renforcer la robustesse de la politique monétaire optimale en la recoupant à l’aide de règles simples

La littérature recense deux grandes approches pour définir la politique monétaire: la politique optimale et les règles d’instrument simples. Par « politique optimale », il convient d’entendre la minimisation d’une fonction de perte spécifique en utilisant toutes les informations contenues dans le modèle.

Les « règles d’instrument simples » déterminent, quant à elles, la manière dont l’instrument de politique monétaire - le taux d’intérêt directeur - doit réagir en présence d’une sélection d’informations dont disposent les autorités monétaires. La règle initiale de Taylor (1993) constitue un exemple de règle simple dans laquelle la banque centrale réagit à une partie des informations dont elle dispose, en l’occurrence le taux d’inflation et l’écart de production. De par leur conception, les règles simples induisent une perte plus importante que la politique optimale lorsqu’elles sont évaluées dans un modèle donné, mais la perte excédentaire dépend à la fois du degré de restriction de la règle simple et du type de modèle.

En plus d’offrir une description approximative de la politique réelle, les règles simples ont une portée normative. Elles sont considérées comme étant plus résistantes à l’incertitude inhérente au modèle que la politique optimale. Taylor et Wieland (2012) analysent et commentent la littérature relative aux règles simples robustes. Dans la littérature, les modélisations supposent généralement que la banque centrale se plie mécaniquement à la règle simple. Toutefois, comme l’indique Svensson (2003), l’application pure et simple à une règle simple telle que celle de Taylor n’est pas réaliste, et aucune banque centrale ne procède de la sorte dans les faits. C’est pourquoi Svensson rejette les règles simples, d’un point de vue tant positif que normatif. Il préconise plutôt la politique optimale (les « règles de ciblage »), soutenant qu’il s’agit d’une description plus raisonnable de la politique monétaire, puisque la banque centrale est considérée comme un agent optimisateur, au même titre que les ménages et les entreprises, et que la politique optimale donne de meilleurs résultats que les règles simples.

Bien que la critique formulée par Svensson puisse être justifiée, le fait que les banques centrales ne suivent pas mécaniquement les règles d’instrument simples telles que celle de Taylor ne signifie pas que la politique monétaire n’est pas du tout influencée par ces règles. Que du contraire. Nous avons jugé qu’il était raisonnable de considérer que la politique monétaire a, dans les faits, été influencée, du moins dans une certaine mesure, par l’abondante littérature sur les règles simples robustes. En effet, Kahn (2012) décrit en détail la manière dont les règles simples de type Taylor ont influencé les décisions du CFOM et dont elles sont utilisées pour recouper des décisions en matière de taux d’intérêt dans de nombreuses banques centrales. La réunion du CFOM qui s’est tenue les 31 janvier et 1er février 1995 en est une illustration: le Greenbook suggérait un relèvement de 150 points de base du taux des fonds fédéraux, à 7 %. L’un des membres du CFOM, Janet Yellen, a alors exprimé la préoccupation suivante: « Je ne puis désapprouver la stratégie du Greenbook. Mais la règle de Taylor ainsi que d’autres règles… préconisent un taux de l’ordre de 5 %, ce qui est le cas actuellement. C’est pourquoi je ne puis imaginer une nouvelle hausse de 150 points de base ».

L’on s’est également référé à la règle de Taylor au cours de réunions de politique monétaire dans d’autres banques centrales. Nous soutiendrons dès lors qu’une description réaliste du processus de politique monétaire est une politique optimale utilisant toutes les informations disponibles, mais en recourant aux règles simples à des fins de recoupement (ou comme lignes directrices). Cette approche semble correspondre à la manière dont les autorités monétaires prennent leurs décisions en matière de taux d’intérêt. Ainsi, Yellen (2012) décrit les analyses comme suit: « L’une des approches que je trouve utile pour déterminer de manière appropriée la politique à adopter est basée sur des techniques de contrôle optimal. […]. Une autre approche qui m’est utile […] consiste à examiner les politiques à adopter en fonction de règles simples ».

Alors que la littérature existante sur la robustesse suppose soit une politique optimale soit une adhésion infaillible à une règle simple robuste, nous adoptons une approche intermédiaire. Nous introduisons une fonction de perte modifiée, complétée par un terme pénalisant les écarts du taux d’intérêt par rapport à un niveau induit par une règle simple.

Notre approche s’inspire de l’étude notoire de Rogoff (1985) sur le degré optimal d’adhésion à un objectif intermédiaire, dans laquelle il avance qu’« il n’est pas généralement optimal de contraindre par voie légale la banque centrale à atteindre son objectif intermédiaire (ou de suivre sa règle) de façon exacte » (p. 1169). Là où la proposition de Rogoff visait à réduire le biais inflationniste de façon discrétionnaire, nous prenons en considération l’adhésion partielle à des règles visant à rendre la politique plus robuste. En d’autres termes, nous regardons si la perte obtenue sur la base de différents modèles tend à se réduire si la banque centrale minimise une fonction de perte modifiée qui attribue un poids relatif à une règle simple. L’idée de compléter la fonction de perte par un terme basé sur une règle d’intérêt simple est nouvelle, mais celle de rendre plus robuste une politique optimale au moyen de fonctions de perte modifiées n’est pas neuve. Orphanides et Williams (2008) montrent qu’une fonction de perte attribuant un poids réduit à l’écart de chômage et à la stabilité du taux d’intérêt se montre plus robuste face à des hypothèses incorrectes en matière de formation des anticipations des agents économiques du secteur privé (à savoir des anticipations rationnelles plutôt que dictées par l’expérience). Notre utilisation des recoupements dans la fonction de perte modifiée est également liée à Beck et Wieland (2009). Ceux-ci prennent en compte une politique dans laquelle la banque centrale mène une politique optimale « en temps normal », mais ajoute à la fonction de perte un terme relatif à la croissance monétaire lorsque celle ci se situe en dehors d’une fourchette critique. Notre approche spécifique diffère par l’utilisation de règles d’intérêt simples, plutôt que de la croissance monétaire, à titre de recoupement, et par le fait que nous laissons toujours la règle simple entrer dans la fonction de perte opérationnelle et pas uniquement lorsque l’écart se situe en dehors d’une fourchette critique. La nouveauté de notre fonction de perte modifiée est qu’elle établit une passerelle entre deux approches alternatives de politique monétaire, la politique optimale et les règles simples robustes, permettant ainsi d’examiner des solutions intermédiaires.

Pour analyser les propriétés de robustesse de la fonction de perte modifiée, nous prenons en compte trois modèles alternatifs pour l’économie américaine: le modèle Smets et Wouters (2007), le modèle Rudebusch et Svensson (1999), ainsi que le modèle Fuhrer et Moore (1995). Nous partons de l’hypothèse que le modèle Smets-Wouters est le modèle de référence de la banque centrale, en raison de son influence sur les modèles effectivement utilisés par les banques centrales pour les simulations de politique. Nous avons réestimé les deux autres modèles sur la base de la série de données de Smets et Wouters, afin d’obtenir des estimations comparables des variances des chocs et donc des pertes dans les différents modèles. Les deux modèles alternatifs ont fait l’objet d’analyses approfondies dans la littérature traitant de la robustesse, ce qui facilite la comparaison de nos résultats avec ceux obtenus antérieurement. Il est important de signaler que ces modèles représentent, en outre, des points de vue très différents sur des questions telles que la persistance de l’inflation et la formation des anticipations. Le modèle Rudebusch-Svensson présente un caractère totalement rétrospectif, alors que celui de Fuhrer-Moore est en partie prospectif et en partie rétrospectif. Comme nous allons le montrer, les modèles rétrospectifs impliquent une politique monétaire très différente au niveau de l’inertie; c’est pourquoi ils représentent une alternative naturelle au modèle de référence largement prospectif.

Nous examinons différentes règles simples, y compris la règle de Taylor classique, une règle bayésienne simple optimale, qui minimise la moyenne (pondérée) des pertes dans les différents modèles alternatifs, ainsi qu’une règle minimax, qui minimise la perte maximale dans les modèles alternatifs. Nous estimons qu’en pondérant n’importe laquelle de ces règles, la banque centrale peut se prémunir contre de très mauvais résultats si le modèle de référence est erroné. Même en dérivant de manière optimale la règle bayésienne simple et la règle minimax en utilisant les modèles alternatifs, la règle de Taylor classique, avec des coefficients de 1,5 sur l’inflation et de 0,5 sur l’écart de production, donne des résultats étonnamment bons, qui ne sont pas significativement plus mauvais que ceux des règles simples optimisées. Une autre conclusion intéressante est que la pondération attribuée à une règle simple est toujours strictement inférieure à un. Une politique monétaire robuste doit donc pencher vers des règles simples, mais ne pas les suivre de manière mécanique. C’est pourquoi nous soutenons le point de vue général des défenseurs des règles simples, à savoir qu’elles devraient être utilisées comme des orientations, et non comme des formules mécaniques pour la fixation des taux d’intérêt.