10 ans après – Ma chronique du lundi

Le document en version pdf est disponible 10 ans Après – Ma chronique du lundi

Le 15 septembre 2008, la faillite de la banque Lehman provoquait une tempête sur l’économie mondiale. Quelle perception peut-on avoir aujourd’hui de cette rupture?
L’ampleur et la persistance du choc qui a heurté l’économie mondiale restent toujours impressionnantes même 10 ans après. Certains avaient prévu la possibilité d’un ajustement en provenance du marché immobilier mais personne n’en avait perçu l’intensité et la durée.
Depuis la fin du printemps 2007 et jusqu’à l’automne 2008, le système financier s’est délité à une allure et une facilité qui sont toujours une source d’étonnement. La faillite de Lehman en a été le point d’orgue. D’abord, parce que sa faillite venait après celle d’autres banques d’affaires mais qui, elles, avaient été reprises par d’autres établissements financiers. Mais surtout parce que cette faillite avait été acceptée sans que l’on puisse en appréhender les conséquences. Elle ouvrait la porte sur l’inconnu et pour un économiste la sensation de l’époque est celle de frissons dans le dos et de souffle coupé. Les risques apparurent très rapidement puisque l’assureur AIG a été sauvé quelques courtes semaines après. Lehman a été l’étape ultime du processus de décomposition mais aussi le catalyseur de la prise de conscience qu’une rupture était en train de s’opérer.

Que s’est-il passé alors ?
L’économie mondiale s’est arrêtée presque instantanément en raison d’une défiance vis-à-vis du système financier et au sein même de celui-ci. Le financement du commerce mondial s’est tari et d’un seul coup les flux commerciaux se sont arrêtés. La contagion du choc à l’ensemble de l’économie mondial a été immédiate et l’activité s’est figée.

Quelle avait été la réaction des autorités ?
A la Maison Blanche, Christina Romer, qui était alors, la présidente du Council of Economic Advisers de Barack Obama tout juste élu, a très vite eu conscience de l’ampleur du choc et de ses possibles conséquences. Son obsession était alors de limiter le risque d’un remake des années 30 alors que le choc était en 2008 d’une ampleur bien supérieure.

En effet, le choc initial d’octobre 1929 ne portait que sur le marché des actions. Le marché de l’immobilier n’avait pas encore été affecté, il le sera plus tard. En 2008, à la chute du marché des actions s’additionnait le repli depuis de nombreux mois du marché immobilier américain. En termes de choc sur le patrimoine des ménages américains il y avait une différence considérable. Les ménages sont beaucoup plus sensibles à l’immobilier qu’au prix des actions. Ils détiennent davantage d’immobilier qu’ils ne détiennent d’actions. Ce phénomène n’était pas qu’américain puisqu’en Espagne, au Royaume Uni ou aussi en France les marchés de l’immobilier s’ajustaient à la baisse très rapidement. L’idée d’une relance budgétaire coordonnée avait du sens pour éviter que la situation ne dégénère. La question qui tarabustait à l’époque était celle de son ampleur et de sa durée. Christina Romer insistait sur ce point dans ses premières évaluations de la crise. Cette question n’est pas close car récemment encore Paul Krugman dans une chronique du NY Times reprenait les arguments qu’il avait développé à l’époque sur l’insuffisance des moyens mis en œuvre pour recaler l’économie sur la bonne trajectoire.

Du côté des banques centrales, la Fed a été la première, avec la Banque du Japon, a abaissé son taux de référence à 0% dès le mois de décembre 2008. Les autres banques ont réagi mais avec un peu de délai. La Banque d’Angleterre ne réduisait son taux à 0.5% qu’au mois de mars et la BCE n’a baissé son taux de refi à 1% qu’au mois d’avril 2009.

Ce policy mix a très vite eu un effet positif puisque le point bas de la récession est généralement daté au deuxième trimestre 2009.

Et le secteur financier ?
Le secteur bancaire et financier a été au cœur de la crise de 2008. On ne refera pas l’histoire mais c’est une période après Lehman où chaque banque s’interroge sur la valeur de son portefeuille de titres et sur ceux de ses partenaires et concurrents. La dynamique interbancaire ne peut fonctionner que si les banques ont confiance l’une envers l’autre. Si cela n’est plus le cas le système se bloque. C’est cette défiance qui a obligé les banques centrales à intervenir massivement et à se substituer aux mécanismes de marchés pour que chaque économie continue malgré tout à fonctionner.

Très vite aussi les gouvernements ont pris des mesures pour limiter les risques de contagion du secteur bancaire. Le but était de limiter le risque de faillite. En France chaque banque a eu des quasi fonds propres quelle que soit sa situation. Le plan était supérieur à 400 Mds d’euros et aux USA le TARP supérieur à 700 Mds de dollars. C’était là un des paradoxes de cette période. Chaque client bancaire se demandait si sa banque allait tenir le choc car si une banque comme Lehman faisait faillite qu’en serait-il de la sienne, peut-être plus petite mais certainement moins prestigieuse. Les gouvernements s’efforçaient alors de convaincre que le choc Lehman ne se propagerait pas pour éviter toute panique bancaire et que les systèmes bancaires étaient robustes. Pourtant ils mettaient en place des plans d’une taille inouïe pour limiter le risque d’un crash bancaire. Cette distorsion dans la perception du risque bancaire a joué un rôle majeur dans le comportement des acteurs de l’économie « Il n’y a pas de risque sur le système bancaire mais tous les gouvernements mettent des plans d’une taille de dingue pour contrer de possibles faillites »

Comment les choses se sont-elles passées sur le plan macroéconomique ?
La crise de 2008 est avant toute chose une crise de la dette privée avec l’accumulation d’un actif financé par de la dette. La dette publique n’était pas du tout un problème alors. Dans le processus d’ajustement on a observé un transfert de dette du secteur privé vers le secteur public. L’acceptation d’un déficit public important permettait de lisser les chocs macroéconomiques dans le temps et d’en mutualiser ainsi le coût. C’est d’ailleurs le rôle de la dette publique que de permettre d’amortir les chocs dans le temps et de ne pas en faire porter le coût sur un acteur économique précis. Ce serait dommageable pour celui-ci et pour l’ensemble de l’économie. C’est pour cela que s’alerter sur le montant de la dette publique est toujours un peu curieux car généralement c’est la mutualisation d’un coût. La question dès lors doit davantage peser sur la nature du coût que sur le niveau de la dette publique.

Faire de la modération de la dette publique a donc été une erreur ?
Souvent cela l’est et au début de la précédente décennie cela l’a clairement été. Cela explique la récession de la zone Euro et la crise de la dette souveraine qui en a résulté. Cette stratégie d’austérité a néanmoins forcé la BCE à devenir prêteur en dernier ressort au sein de la zone Euro. Mario Draghi, le 26 juillet 2012 à Londres a changé le destin de la zone Euro par son fameux ‘Whatever it takes ».

Tous les acteurs de l’économie étaient encore sous le choc malgré la reprise de 2010 et chacun avait un comportement peu expansionniste. La mise en place d’une politique d’austérité a été une erreur car, sous prétexte de limiter la dérive des finances publiques, elle réduisait la demande, déjà faible, adressée aux entreprises. Celles-ci se sont donc ajustés à la baisse provoquant la longue récession de 6 trimestres.
L’argument allemand qui faisait de l’équilibre budgétaire l’élément clé de la reprise d’une croissance robuste ne tenait pas et n’a pas délivré ce qui en était attendu. Une telle stratégie faisait porter l’ajustement macroéconomique sur le secteur privé qui était déjà bien faible. Une telle stratégie privait l’économie de tout possibilité de mutualiser les chocs. Cela ne peut pas et n’a pas fonctionner. Cela aurait pu éventuellement être viable avec un budget fédéral qui aurait compensé les insuffisances locales. Ce n’était pas et ce n’est toujours pas le cas. La discussion sur un budget fédéral est encore une source de discussions intenses entre la France et l’Allemagne et la question n’est pas résolue du tout.
Le profil de la dette publique ne s’est pas infléchi avec cette politique d’austérité mais les conséquences politiques ont été fortes.  Lorsque l’on voit le profil de l’économie italienne, il n’est pas surprenant que ceux-ci cherchent des solutions plus radicales. La politique mise en place en 2011/2012/2013 a été catastrophique avec une baisse du revenu considérable. Il y a d’autres raisons mais l’allure de l’économie italienne n’est probablement pas pour rien dans l’explication du résultat politique italien actuel. Cette question du populisme est évidemment plus large que le seul cas italien.italie

Comment juger de ces politiques aujourd’hui, dix ans après ?
La crise a un coût permanent pour quasiment toutes les économies occidentales. On peut le voir en comparant la trajectoire effective de chaque économie à la tendance qu’elle aurait eu s’il n’y avait pas eu la crise. Dans le calcul de la tendance j’ai éliminé la dernière année de croissance, 2007, qui est souvent un peu excessive par rapport au passé. Cela aurait biaisé à la hausse le résultat.
Le coût est considérable. Au deuxième trimestre 2018, la zone Euro a un PIB inférieur de 8% environ à ce qu’il aurait été sans la crise. Le chiffre est le même en France (le niveau du PIB aurait été 8% plus élevé en France si celui-ci avait suivi sa tendance d’avant crise). Il est nettement plus élevé en Espagne, aux USA ou encore au Royaume Uni où les taux de croissance étaient très forts avant la crise. Seule l’Allemagne connait une croissance plus élevée que celle d’avant crise.
Quand on regarde le graphe on constate qu’il n’y a aucune convergence vers la tendance antérieure. La croissance est plus faible et elle ne revient pas sur la dynamique d’avant. C’est d’ailleurs un des drames de cette période post-crise. La croissance est plus réduite et ne donne pas de signaux de ré-accélération. On ne rattrapera jamais ce qui a été perdu.coutmacrocrise

Cela pose-t-il des questions nouvelles ?
Bien entendu. Depuis la seconde guerre mondiale, les institutions sociales ont été conditionnées par la croissance. Le ralentissement de celle-ci fragilise ces institutions. J’avais fait un petit calcul pour la France sur la période d’avant la crise et depuis le début des années 80: le rapport dette publique sur PIB se stabilisait lorsque la croissance était de 3%. La dérive de la dette publique venait alors de ce que l’économie française ne progressait que de 2% en moyenne. En d’autres termes, le système social avait besoin de 3% de croissance et l’économie ne pouvait fournir que 2%. L’ajustement s’opérait par une hausse de la dette publique. Aujourd’hui, la croissance tendancielle est plus faible, il faut donc trouver un ajustement des institutions sociales pour stabiliser l’ensemble du système. Cela pourrait passer par une croissance plus forte dans la durée, mais cela est plus compliqué à mettre en œuvre.

La fragilisation des institutions s’accompagne d’un renforcement des entreprises dans la dynamique macroéconomique. Cela se traduit dans de très nombreux pays développés par un partage de la valeur ajoutée plus en faveur des entreprises au détriment de la rémunération des salariés. Cela provoque un renforcement des revenus du capital au détriment des revenus du travail. Le biais dans la distribution des revenus en faveur des plus riches (les 1% ayant les revenus les plus élevés) a eu tendance à s’accentuer. Sur ce point, la France a été plutôt épargnée. C’est ce que soulignait une publication récente de l’INSEE (INSEE Première « Les Niveaux de Vie en 2016 » 11 septembre 2018).

Le marché du travail n’a pas non plus la même allure. En France, la part des CDD dans les embauches saute de 6 points en 2009 passant de 77% à 83% des nouveaux contrats et ne reviendra jamais sur les niveaux relativement stables d’avant la crise. Aux USA, la part des hommes de 25 à 55 ans qui ne travaillent plus est autour de 15% alors que cette population est au cœur du marché du travail. Les petits revenus cumulent les emplois car les rémunérations les plus basses ne permettent plus de s’en sortir. On a vu au Royaume Uni se développer les contrats 0 heures et une précarité nouvelle se mettre en place.

La dynamique de l’inflation aussi a changé
L’autre constat majeur est l’incapacité des pays développés à générer de l’inflation. A l’exception du Royaume Uni, le taux d’inflation moyen dans les grands pays développés est, de janvier 2009 à juillet 2018, inférieur à la cible de 2% que se définissent généralement les banques centrales. Aux USA, le cycle actuel est le deuxième plus long depuis la seconde guerre mondiale. On aurait dû voir des pressions inflationnistes se mettre en place mais cela n’a pas été le cas et l’on n’est pas comme dans les années 60 (cycle le plus long) dans une période où les gains de productivité très forts absorbent les coûts supplémentaires. L’allure de la productivité est très réduite partout. La hausse récente de l’inflation est malgré tout assez limitée et la Fed n’est pas encore dans une phase où il faut absolument tout faire pour peser sur l’allure de l’inflation. La dynamique des coûts a été fortement contraintes pour ne plus se manifester même lorsque le cycle se prolonge.
Cette absence d’inflation est troublante pour les banques centrales. Leur activité était généralement bien décrite par la règle de Taylor. Celle-ci lie le niveau des taux de la Federal Reserve, par exemple, à l’activité économique (écart à la production tendancielle/potentielle) et à l’inflation (écart à la cible d’inflation). Le taux de croissance est plus faible qu’avant et l’inflation est systématiquement inférieure à sa cible. Il en résulte que les incitations, pour une banque centrale, à durcir spontanément sa politique monétaire sont réduites.
C’est toute la difficulté des banques centrales à sortir des stratégies très accommodantes. Durcir le ton trop vite alors qu’il n’y a pas d’inflation c’est prendre le risque de créer un choc sur l’activité, il faut donc attendre une manifestation de l’inflation. Mais celle-ci vient trop tardivement et des déséquilibres financiers, conséquences de cette stratégie monétaire accommodante, peuvent apparaître. Les banques centrales ne sont pas pressées d’intervenir. La BCE a confirmé cette attitude la semaine dernière lors de la conférence de presse de Mario Draghi.
Cela veut dire que l’on va devoir s’habituer à des taux d’intérêt très faibles pendant encore un bon moment.

La politique monétaire est-elle néanmoins discutable ?
Oui forcément car en dépit de ses politiques très accommodantes, personne n’a le sentiment que l’économie est désormais un long fleuve tranquille.

La critique porte sur deux points :
Le premier est que justement ces stratégies accommodantes laissent se développer des déséquilibres financiers importants souvent sous forme de bulle. Or celles-ci sont perçues comme les prémices de crises financières futures. La difficulté est ici. Pour résorber ces bulles il faudrait des politiques plus restrictives mais au risque de peser sur la croissance et l’emploi. Est-ce qui est souhaité et est-ce souhaitable ? Sûrement pas.  C’est toute la difficulté que rencontrent les banques centrales. Pour contourner ce point, il est souvent dit que les politiques monétaires étaient trop accommodantes. Une telle analyse se fait ex post généralement lorsque tout s’est progressivement remis en place. On doit s’habituer à fonctionner avec des déséquilibres plus forts que ceux auxquels on était habitué.
L’autre développement important est que les banques ont été davantage contraintes mais que s’est développé une finance de l’ombre (shadow banking) dont la taille progresse très vite. Cette finance de l’ombre est moins bien contrôlée dans son activité de financement, ce qui est potentiellement une source de fragilité pour l’ensemble du système de financement.

Une dernière remarque est que la régulation bancaire s’est nettement renforcée depuis la crise de 2008. Cela a deux conséquences : la première est que la capacité des banques à faire face à des chocs s’est nettement améliorée. La deuxième est que, puisque cela va mieux maintenant, les pressions pour réduire se font plus fortes. C’est le cas aux USA par exemple.

Finalement, cette crise a 10 ans mais pour autant, personne n’a le sentiment d’en être vraiment sortie. Pourquoi ?
La crise financière dont on fête l’anniversaire n’est pas la seule rupture connue depuis une dizaine d’années. On se concentre sur celle-ci parce que l’on a l’idée qu’il suffirait de remettre les choses en ordre pour retrouver la prospérité antérieure. C’est cette idée que l’on a implicitement lorsque l’on considère, par exemple, que le niveau des taux d’intérêt est trop bas et que le niveau « normal » devrait être proche de celui constaté avant la crise. Il y a l’idée d’un retour à la normale et tant que la convergence vers cette normalité n’est pas accomplie alors l’économie est encore dans une période d’exception.
Pourtant, l’idée d’un cadre macroéconomique différent a du sens. C’est ce que développent les tenants de l’hypothèse d’une stagnation séculaire. La croissance serait durablement plus réduite et sans inflation mais avec aussi des taux d’intérêt plus faibles que ceux observés par le passé.
Au regard de la croissance réduite de la productivité et du rapport de force en faveur davantage des entreprises que des salariés cette hypothèse a du sens.
On perçoit bien néanmoins que cette explication est insuffisante pour comprendre ce sentiment de malaise vis-à-vis de la crise.

Il y a certainement deux explications complémentaires à discuter.
La première est que durant la dernière décennie, la géographie de la production a été bouleversée. Les pays qui ont fait la croissance d’après-guerre n’ont pas vu leur production industrielle progresser au cours des 10 dernières années. Aux USA, la production industrielle a augmenté de 2.3% entre le premier semestre 2008 et le premier semestre 2018. Pour le Japon, la production s’est contractée de 11%, en zone Euro le recul est de 3.3% et en France de 8.3%. La dynamique industrielle en volume n’est plus dans les pays développés. L’indice mondial a progressé de 22.4% notamment parce que la production industrielle en Asie hors Japon a doublé depuis 10 ans (+98.3%).

Cela implique que la dynamique de l’activité dans les pays développés repose principalement sur les services et la difficulté dans ce secteur d’y faire des gains de productivité. Cela veut dire que la capacité des économies occidentales à dégager un surplus est plus difficile à mettre en œuvre.
Comme le suggère Daniel Cohen dans son dernier opus, dans de nombreux secteurs de l’activité des services, il n’y a pas d’économies d’échelle, il est donc spontanément difficile de générer d’importants gains de productivité dans la durée.

L’autre explication est la révolution technologique. Il y a sur ce point, plusieurs remarques à faire.
La première et dans le prolongement de ce qui était indiqué dans le paragraphe précédent, est de savoir qui capte les éventuels gains de productivité ? Est-ce l’application qui la capte alors que le service de proximité tend vers la gratuité ? Comme l’indique Daniel Cohen, ce n’est pas le consommateur sur son ordinateur qui remplace le guichetier mais le logiciel qui permet de le faire. On change de référence et de modèle.  L’objectif comme l’indique Cohen est d’espérer une complémentarité entre les innovations et l’emploi via notamment l’intelligence artificielle.
L’autre remarque est que les nouvelles technologies, notamment dans l’entreprise, obligent à repenser l’organisation. Le mode d’organisation issu des trente glorieuses n’est plus celui qui convient. Il faut repenser l’organisation en fonction de ces ruptures technologiques.
C’est ce qui c’était passé lors de la période d’électrification des économies. Tant que les organisations, notamment les entreprises, n’avaient pas pris la dimension des ruptures provoquées par l’électrification, en modifiant leur façon de fonctionner, les gains de productivité avaient été très faibles. Les gains de productivité n’ont franchement augmenté que lors de cette prise de conscience. Les usines avaient alors été construites en fonction de cette nouvelle énergie. Cela changeait tout.
Nos organisations et notamment les entreprises n’ont probablement pas pris la mesure de ces ruptures technologiques notamment dans sa capacité à faire évoluer le management. Car si du temps de l’électrification l’enjeu était l’organisation de l’usine, dans une économie de services c’est la façon dont le management fonctionne qui est l’élément clé. Beaucoup reste à faire dans de nombreux secteurs.
L’économie est aujourd’hui la composée de ces trois éléments, de ces trois ruptures. Un modèle de référence n’existe pas encore et c’est pour cela que la situation est inconfortable et qu’il y a toujours ce sentiment de crise.

La crise a bouleversé le modèle dans lequel l’économie occidentale évoluait mais le nouveau modèle à construire est franchement différent de l’ancien. Il reste à construire notamment dans les pays occidentaux qui ne peuvent plus compter sur la dynamique industrielle qui avait fait leur fortune.