J’ai enfin lu The Signal and the Noise de Nate Silver. Il s’agit d’une brillante analyse des raisons pour lesquelles les prévisions sont souvent si mauvaises, par celui qui a réalisé des pronostics corrects pour chaque Etat dans le cadre de l’élection présidentielle américaine de 2012. En bref, les prévisions sont souvent erronées du fait de leur précision extrême (elles affirment un résultat absolu plutôt que d’attribuer des probabilités aux résultats). Il existe souvent une tendance à accorder une importance excessive à l’information qualitative, à l’intuition et aux anecdotes par rapport aux données (il ne faut pas les négliger, mais elles ne doivent pas se substituer aux statistiques). En outre, on note également une tendance à ignorer les données des échantillons (il suggère que les agences de notation ont mal noté les CDO fondés sur des MBS, car elles supposaient l’absence de corrélation entre les défauts de remboursement des crédits immobiliers, ce qui était en effet le cas durant les quelque 25 années de statistiques américaines utilisées dans les modèles. Les statistiques sur la crise de l’immobilier au Japon auraient révélé que lors d’une récession, le degré de corrélation des défauts de remboursement devient extrêmement élevé). J’aimerais toutefois proposer un marché : nous, les Britanniques, acceptons de ne jamais utiliser les statistiques du cricket dans une quelconque étude universitaire tant que les Américains ne parlent pas de baseball. Que diable signifie frapper 0,300 ? Combien de points cela représente-t-il ?
J’ai apprécié ces graphiques. Le premier témoigne de l’exactitude des prévisions météo actuelles. Elles ne tombent pas toujours juste, mais nous pouvons désormais prévoir la probabilité de l’exactitude d’un évènement climatique avec la même probabilité de sa survenance. Par exemple, quand le Service météorologique national des Etats-Unis annonce qu’il y a 70 % de risques de pluie, il pleut dans 70 % des cas. Il neige dans 20 % des cas lorsqu’il prévoit un risque de neige de 20 %.
Cependant, lorsque votre présentateur météo à la télévision locale obtient cette même information, il la déforme, de sorte que les résultats sont bien pires que les prévisions du Service météorologique national. Le graphique ci-dessous montre que les présentateurs TV ont régulièrement surestimé les évènements climatiques. Par exemple, s’ils annoncent un risque de pluie de 100 %, il ne pleut que dans 67 % des cas, alors que si le Service météorologique national affirme qu’il existe un risque de pluie de 100 %, il pleut systématiquement.
Pourquoi ? « La présentation prime sur l’exactitude ». Autrement dit, les présentateurs de l’actualité et de la météo à la télévision locale se considèrent comme des animateurs tout autant que des vecteurs d’information. Une prédiction ferme annonçant un déluge biblique est plus palpitante qu’une série de résultats probables, et l’annonce d’une journée torride à la plage est plus enthousiasmante que l’attribution d’une probabilité de 75 % de passages ensoleillés. Selon d’autres études, les analystes politiques invités à des débats publics ont obtenu de très mauvais résultats, et leurs prévisions divergeaient systématiquement du sondage statistique. Le seul fait de passer à la télévision réduit la capacité de prévision. Selon moi, c’est probablement aussi le cas pour les prévisions économiques et les tendances du marché, et c’est pourquoi les chaînes de télévision du marché foisonnent de présentateurs annonçant une nouvelle envolée du Dow Jones de 200 %, ou l’effondrement apocalyptique de l’économie mondiale sur fond d’Ebola. Lorsque des journalistes téléphonent pour recueillir nos commentaires, le risque est que nous ressentions le besoin de nous éloigner du consensus, au sujet de la masse salariale, du rendement des obligations du Trésor à 10 ans en fin d’année, des risques d’éclatement de la zone euro ; je suis certain d’avoir également cédé à cette tentation dans le passé. Par ailleurs, je suis sûr que ceux qui annoncent des évènements extrêmes finissent par se sentir coincés lorsqu’ils se rendent compte qu’ils doivent mettre en œuvre ces opinions au sein des portefeuilles, et se retrouvent avec des portefeuilles uniquement orientés dans le sens des évènements extrêmes, incapables de réaliser des performances dans des conditions économiques normales. A mon avis, il s’agit d’un ouvrage incontournable pour les économistes et les gestionnaires de fonds, pour nous aider à comprendre comment sont établies les prévisions fiables, et que les prévisions les plus « retentissantes » obtiennent un temps d’antenne disproportionné et sont souvent inexactes. Ce coup-ci, Nate Silver a frappé en plein dans le mille.
Vendredi, nous avons eu une preuve supplémentaire du regain de vigueur du marché du travail aux Etats-Unis. En septembre, 248 000 nouveaux emplois ont été créés et le taux de chômage est tombé sous la barre des 6 % pour la première fois en six ans. En revanche, l’Europe a fait état de taux de chômage officiels plus déprimants, les derniers chiffres d’août s’établissant à 11,5 % dans la zone euro.
Fait plus préoccupant pour les Etats-Unis, le taux d’activité a touché son plus bas niveau depuis 1978. Le taux d’activité mesure le nombre de personnes occupant un emploi ou en recherche active d’emploi exprimé en part de la population en âge de travailler. Il convient d’examiner attentivement à la fois les taux de chômage et d’activité, puisqu’ils offrent un tableau plus complet de la situation. Prenons cet exemple extrême : une économie pourrait donner l’impression du plein emploi (taux de chômage égal à zéro), mais si son taux d’activité est nul, en réalité personne ne travaille.
Le recul du taux d’activité aux Etats-Unis a été largement débattu, puisqu’il s’agit de l’un des paramètres régulièrement soulignés par Janet Yellen, présidente de la Réserve fédérale, en réponse aux questions sur la santé de l’économie américaine. Ce phénomène peut s’expliquer par toute une série de raisons, notamment l’abandon des recherches d’emplois par des travailleurs découragés, le départ en retraite anticipée, ou le choix de poursuivre ses études (ou de reprendre une formation). Les taux d’activité en Europe sont toutefois moins médiatisés, je suis donc reconnaissant à Erik Nielsen de chez Unicredit d’apporter ici un éclairage sur la situation.
Ainsi, en Europe, alors que les chiffres du chômage n’incitent guère à l’optimisme, le taux d’activité a quant à lui généralement suivi une trajectoire ascendante. C’est le cas à la fois pour les pays européens du noyau dur et de la périphérie (voir graphique), il ne s’agit donc pas seulement des statistiques allemandes occultant les chiffres médiocres des autres pays. Là encore, les raisons de cette tendance sont diverses, mais pourraient être liées à la part accrue des femmes qui ont rejoint le marché du travail ces dernières années, et à l’allongement de l’âge de la retraite dans certains pays.
Pour évaluer la véritable situation dans différents pays et les progrès relatifs réalisés par chacun d’eux, nous avons maintenu leur taux d’activité constant au niveau de 2000 et déterminé comment se seraient présentés les chiffres ultérieurs du chômage si le nombre d’actifs était resté aux mêmes niveaux qu’au tournant du siècle.
Comme le montrent les graphiques ci-dessous, les résultats sont instructifs. Le taux de chômage officiel en Italie s’élevait à 12,5 % fin 2013 (dernier chiffre disponible), mais une fois le taux d’activité de 2000 pris en compte, il passe à 8,7 %, soit une baisse de 3,8 %. Même constatation pour l’Espagne, où l’écart est considérable (13,3 %). Aux Etats-Unis (pays pour lequel nous disposons de données plus récentes), en revanche, le taux de chômage actuel publié de 5,9 % grimpe en fait à 12,5 % si l’on applique le taux d’activité de 2000.
J’ai été plutôt surpris de constater l’étendue de cette divergence et la position des Etats-Unis en fait moins enviable par rapport à 1999 que celle des pays périphériques européens. Je ne sais toujours pas si la zone euro entre dans une période de croissance accrue ou si son économie va effectivement suivre un scénario à la japonaise, mais ces graphiques me font nettement pencher en faveur du premier cas.
On dira ce qu’on voudra sur le site d’alerte controversé WikiLeaks et sur son très critiqué fondateur Julian Assange, mais l’association a levé le voile sur une série d’indiscrétions éclatantes, outre les fuites plus sérieuses de secrets militaires pour lesquelles elle est devenue célèbre.
Parmi ces révélations, le site a dévoilé comment Li Keqiang (actuel Premier ministre chinois, mais dirigeant alors moins connu du parti communiste de la province de Liaoning à l’époque) a admis au cours d’un dîner avec l’ambassadeur américain en Chine en 2007 que les chiffres du PIB du pays étaient « artificiels » et donc peu fiables. M. Li a poursuivi en précisant qu’à la place, il ne s’intéressait qu’à trois données pour évaluer les progrès économiques de sa province: la consommation électrique, le volume de fret ferroviaire et les prêts bancaires.
Citigroup a pris au mot M. Li et a élaboré un « Indice Li Keqiang », à l’aide des trois indicateurs économiques mentionnés plus haut afin de donner un aperçu de la santé économique du pays sous son mandat. Et en effet, l’indice (voir graphique) témoigne d’un ralentissement bien plus marqué que le recul affiché par les chiffres officiels du PIB chinois. Cette tendance est étroitement liée à d’autres données ciblées par les investisseurs, notamment la baisse des prix des matières premières (même s’il ne faut pas oublier que le prix d’un actif peut reculer non seulement du fait d’une chute de la demande, mais également d’une augmentation de l’offre, laquelle a connu un accroissement de la part de certains grands producteurs de fer et de charbon en particulier).
D’aucuns pourraient prétendre que la fiabilité des données sous-jacentes de l’Indice Li Keqiang risque désormais d’être compromise également, puisque son opinion de ce qui constitue ou non des données fiables a été rendue publique pour la première fois en 2010. Malgré tout, les diverses sources de données semblent converger vers l’hypothèse que nous soutenons depuis plusieurs années, à savoir que la Chine est sur la voie d’un ralentissement plutôt spectaculaire et qu’on voit mal comment cela pourrait se terminer autrement que par un désastre, surtout pour les nombreux pays devenus de plus en plus tributaires de la vigueur de l’économie chinoise et désormais très vulnérables à sa faiblesse.
Le ratio investissement/PIB de la Chine a bondi au niveau absolument insoutenable de 54,4%. La prudence s’impose.
Le Professeur Michael Pettis prévoit une croissance réelle de 3 à 4% en moyenne sur les dix prochaines années. Un chiffre optimiste…
Qui fait les frais du rééquilibrage et du ralentissement inévitables de la croissance en Chine ?
Pas de miracle sur le marché immobilier chinois : le dragon va-t-il s’essouffler ?
À l’heure actuelle, l’un des thèmes phares des marchés financiers est la crainte de la désinflation/déflation et les mesures économiques que les autorités monétaires devraient prendre pour éviter que leur pays ne devienne « le nouveau Japon ». En février, j’évoquais le fait que la peur de la désinflation et de la déflation n’est pas aussi logique que l’on pourrait croire. Selon moi, il faut aussi s’intéresser à l’idée très répandue selon laquelle les économies développées ne veulent pas finir comme le Japon.
Le Japon est souvent cité comme l’incarnation moderne de l’inefficacité des politiques publiques et monétaires. Les erreurs des autorités nippones dans les années 1990 sont considérées comme la cause du marasme qui a sévi dans le pays ces 25 dernières années. Cette opinion repose en partie sur le fait que les marchés financiers jugent en général une économie à la performance de son marché boursier. Le Nikkei ayant chuté de 40 000 points au début des années 1990 à environ 16 000 points aujourd’hui, l’idée que la Bourse est un miroir de la santé économique du Japon s’est enracinée dans l’esprit du marché.
En réalité, la solidité d’une économie doit être jugée à la richesse qu’elle produit, et non à l’évolution de son marché actions. Ici, à première vue, les statistiques confirment que le Japon s’est inscrit en retrait de la plupart des pays en termes de croissance nominale et réelle.
Ces deux éléments de base – PIB nominal et PIB réel – sont bien souvent brandis comme les raisons pour lesquelles personne ne veut finir comme le Japon. Mais du point de vue d’un économiste, ce qui compte le plus, c’est le PIB par habitant : aucune raison de sabrer le champagne parce qu’un pays affiche une croissance supérieure à un autre si l’évolution ne provient que d’une augmentation de la population.
Le graphique ci-dessous représente le PIB réel par habitant. Il montre qu’à l’échelle locale, le Japon n’a pas connu de défaillance économique. L’économie nippone a même vécu une évolution plutôt positive en termes d’amélioration du niveau de vie ces 25 dernières années.
Mais ce graphique révèle également que le Japon n’a pas rattrapé son retard. Rien d’étonnant à ce que les économistes redoutent l’avenir. Pourtant, beaucoup estiment que pour évaluer plus précisément le PIB, il faudrait le mettre en perspective du nombre d’habitants, mais aussi de l’évolution démographique à long terme. Dans un pays qui connaît un baby-boom, la croissance est solide lors du boom puis ralentit une fois qu’il est terminé. Les salariés prennent leur retraite, la consommation recule et l’investissement se tasse. Pour saisir le véritable PIB par habitant, il faut mettre le chiffre en contexte, en prenant en compte la taille de la population active et pas seulement le nombre total d’habitants. Le graphique ci-après représente le PIB par salarié, qui offre une vision plus juste de cette variable et montre une fois encore que la situation japonaise s’améliore sur une base relative.
Quelles leçons tirer de l’exemple japonais ? Tout d’abord, que la situation n’est pas aussi mauvaise qu’elle n’en a l’air, compte tenu du véritable PIB potentiel par habitant. Sur le fond, la politique monétaire et budgétaire a fonctionné au Japon. Bien sûr, nous avons tous peur – et les dirigeants politiques ne font pas exception – d’une inflation faible et de taux directeurs proches de zéro. Mais cette peur est peut-être exagérée puisqu’elle repose sur l’analyse simpliste de chiffres généraux.
Selon les résultats de l’enquête M&G YouGov Inflation Expectations Survey réalisée en août 2014, les anticipations d’inflation ont ralenti au Royaume-Uni, dans la plupart des pays européens et en Asie. Les prévisions d’inflation à court terme au Royaume-Uni ont reculé de 2,3 % à 2,2 % après un rebond dans l’enquête de mai. Toutefois, sur une période de cinq ans, les prévisions restent inchangées à 3,0 % pour le 7ème trimestre consécutif. Les consommateurs britanniques manifestent un léger regain de confiance dans la Banque d’Angleterre, et 49 % des sondés s’attendent désormais à ce que Mark Carney tienne ses engagements en matière de stabilité des prix.
En Europe, les prévisions d’inflation à court terme restent inchangées à 2,0 % en Espagne, en Italie et en Allemagne. En revanche, en France, le taux d’inflation attendu sur les 12 prochains mois a décliné d’un point de pourcentage complet au cours du trimestre et s’établit actuellement à seulement 1,0 %, soit le niveau le plus faible depuis l’existence de l’enquête. En particulier, une forte proportion (48 %) des sondés français est convaincue que leur revenu net va se dégrader durant les 12 prochains mois, en dépit du recul des anticipations d’inflation.
A long terme, les prévisions d’inflation dans tous les pays de la zone euro interrogés à l’exception de la France demeurent supérieures à l’objectif de la Banque centrale européenne (BCE), malgré des signes de modération dans certains pays. Comparées au trimestre dernier, les prévisions d’inflation ont diminué en Autriche, en France et en Italie, mais ni en Allemagne ni en Espagne, où elle se sont maintenues à 3,0 %. La pression à la baisse est davantage visible en Italie et en France où les prévisions à long terme sont descendues à 2,5 % et 2,0 % respectivement, dans un contexte politique de plus en plus délicat. Le nombre d’Italiens en désaccord avec la politique économique actuelle de leur gouvernement a fortement augmenté au cours du trimestre, de 44 % à 53 %. La Suisse se distingue comme étant le seul pays à enregistrer une hausse des prévisions d’inflation à court terme (de 1,1 % à 1,3 %) et également par le niveau de confiance élevé que les consommateurs suisses continuent de témoigner à leur banque centrale (54 %).
En Asie, l’indice d’inflation à court terme est tombé à son niveau le plus bas depuis l’existence de l’enquête (Singapour 3,4 % et Hong Kong 4,0 %). Fait intéressant, malgré un niveau de confiance raisonnablement élevé (45 %) dans la capacité de leur banque centrale à atteindre son objectif d’inflation, les consommateurs à Singapour tablent néanmoins sur une inflation à plus du triple (à 4,6 %) sur les cinq prochaines années.
La BCE rejoint finalement le camp des partisans de l’Assouplissement Quantitatif (QE). Les rachats d’actifs non stérilisés ont constitué un outil essentiel de politique monétaire dans la plupart des pays développés ces dernières années. Paradoxalement (alors que la Fed met fin à ses mesures de soutien, soit dit en passant) la BCE va s’aventurer pour la première fois sur le terrain du QE le mois prochain en lançant dans un programme de rachat de titres adossés à des actifs (ABS).
Par le biais de ce programme, qui privilégie les titres adossés à des actifs « simples, transparents et réels », la BCE espère relancer les opérations de prêts à l’économie réelle et contribuer ainsi à éloigner le spectre de la déflation. Un marché des ABS assaini devrait offrir aux banques une alternative à long terme au financement peu coûteux de la banque centrale, dans la mesure où ces instruments sont adossés à des prêts aussi divers que les crédits automobiles, les crédits hypothécaires et les règlements au titre des cartes de crédit.
Il est évident que le marché européen, quasi atone depuis la crise financière, nécessite un coup de fouet. L’émission d’ABS en Europe en 2013 a atteint seulement 183 milliards d’euros (selon les données de l’Association for Financial Markets in Europe), contre 711 milliards d’euros en 2008. Le marché américain est en revanche en bien meilleure santé, avec une valeur totale des émissions de 1 500 milliards d’euros, laquelle dépasse largement les 934 milliards d’euros réalisés en 2008.
Mais – car il y a un « mais » –un obstacle réglementaire majeur se dresse sur le chemin de la BCE : le traitement de la titrisation dans la dernière version du projet Solvabilité II. Dans le cadre de Solvabilité II, dans sa version actuelle, les compagnies d’assurance (vaste clientèle d’investisseurs avant la crise) ont l’obligation de détenir deux fois plus de fonds propres en vue d’investir dans un RMBS néerlandais à cinq ans noté AAA que pour une obligation garantie de notation et d’échéance identiques, adossée à des actifs similaires. Pour les émetteurs des pays périphériques de la zone euro, les conditions sont encore plus sévères : l’exigence de fonds propres sur un RMBS espagnol à cinq ans noté A+ s’élève environ à 20%, contre 7% pour une obligation sécurisée similaire. Même si ce principe ne s’applique pas à des gestionnaires d’actifs comme nous, il représente un véritable facteur de dissuasion pour les assureurs, conscients qu’ils peuvent réaliser des plus-values plus importantes en investissant dans d’autres produits.
L’idée ayant présidé à l’adoption de charges de capital élevées est sûrement de protéger les bilans contre la probabilité d’un défaut. Toutefois, il est particulièrement intéressant de jeter un bref coup d’œil rapide aux statistiques relatives aux événements de défaut. Selon une étude sur les cas de défaut réalisée par Standard & Poor’s, les taux de défaut sur les RMBS européens ont atteint un point haut de 1% seulement au cours des six dernières années. Cependant, aux États-Unis, où les charges de capital sur les RMBS sont davantage en adéquation avec celles imposées pour les obligations d’entreprise, les taux de défaut sur les RMBS sont nettement plus élevés, jusqu’à 28,5% en 2009, et toujours légèrement supérieurs à 10% en 2013. Alors qu’il existe une certaine différenciation entre les classifications réglementaires des titres ABS, en général, les charges de capital aux États-Unis sont sensiblement moindres qu’en Europe, tous instruments confondus.
Il s’agit d’une question particulièrement urgente à double titre : non seulement la BCE espère lancer son programme d’achat d’ABS en octobre, mais le projet de législation Solvabilité II doit être voté fin septembre. À moins que la Commission européenne ne réagisse rapidement pour adapter le projet de réglementation existant, toute tentative de la part de la BCE visant à stimuler le marché est vraisemblablement vouée à l’échec. Au minimum, il faudrait que la BCE harmonise les charges de capital pour les instruments tels que les RMBS avec celles des autres produits adossés à des actifs comme les obligations sécurisées.
Après tout, sans une demande émanant d’une clientèle plus étendue que la seule BCE, les émetteurs seront peu enclins à fournir ces instruments. Dans ce cas, le marché restera atone, et il serait dommage de laisser passer une bonne occasion d’encourager les prêts à l’économie réelle.
Les pays développés connaissent une évolution démographique sans précèdent : le vieillissement de la population. Partout dans le monde, l’augmentation de l’espérance de vie a un impact fort sur les prix des actifs et les ressources, et influe également sur l’efficacité des politiques monétaires. De manière générale, les plus âgés sont moins touchés par les variations de taux d’intérêt parce qu’ils sont en majeure partie créanciers, tandis que les plus jeunes y sont très sensibles, car ils se sont endettés pour se lancer dans la vie. La démographie évoluant, il faudra que les mouvements de taux d’intérêt soient plus importants dans les pays âgés que dans les pays jeunes pour qu’ils aient le même impact sur la croissance et l’inflation.
En termes de conséquences sur l’inflation, la croissance de la main-d’œuvre donne un aperçu de la trajectoire potentielle des prix, ou du moins une idée des répercussions structurelles du vieillissement de la population sur les dynamiques d’inflation. Dans les grandes lignes, la théorie veut qu’une génération jeune et étoffée soit moins productive qu’une génération plus âgée et plus restreinte. La première faisant ses premiers pas dans l’économie au sortir de l’école ou de l’université, la baisse de la productivité se traduit par une hausse des coûts, et donc par une poussée de l’inflation. Les jeunes veulent également consommer et s’endettent pour fonder une famille et acheter un logement. L’investissement dans ces nouvelles générations finit par payer et se traduit par un gain de productivité notable, grâce aux évolutions technologiques et à l’innovation. Une fois le consommateur devenu épargnant, les tensions inflationnistes commencent à s’estomper.
La relation de long terme entre croissance de la main-d’œuvre et inflation aux États-Unis est illustrée par le tableau ci-dessous. L’inflation suit la croissance de la main-d’œuvre avec un décalage d’environ deux ans, car il faut du temps à l’économie pour commencer de profiter des gains de productivité. La main-d’œuvre évoluant tantôt à la hausse, tantôt à la baisse, l’inflation suit généralement la même tendance.
Le deuxième graphique porte sur les mêmes indicateurs économiques, mais avec des périodes de 10 ans. Notons qu’il semble indiquer que la génération du « baby-boom » est entrée sur le marché du travail à la même époque que les chocs pétroliers. L’afflux de nouveaux salariés dans l’économie américaine a vraisemblablement contribué à la forte inflation qui sévissait dans les années 1970. Pendant les trois décennies suivantes, celle-ci s’est tassée au fur et à mesure que l’économie profitait des avantages technologiques et des gains de productivité offerts par les baby-boomers. Si l’on se tourne vers l’avenir, il est possible que le ralentissement de la croissance de la main-d’œuvre aux États-Unis engendre des pressions déflationnistes.
Loin de moi l’idée de dire que la démographie est la seule raison de la décrue de l’inflation ces dernières années. L’accumulation de montagnes de dette privée et publique, la mondialisation et les évolutions technologiques sont autant de tendances de fond qu’il ne faut pas oublier. Je pense plutôt que le vieillissement de la population mondiale et l’impact de la démographie sur l’inflation et l’économie réelle font partie de ces grands mouvements qui méritent notre attention. Que peuvent faire les banques centrales face à ce vaste changement générationnel, si la déflation devenait réalité ? Les taux d’intérêt touchent des points bas historiques et des assouplissements quantitatifs ont été lancés, mais leur impact déterminant sur l’inflation, prédit par tant d’économistes, se fait toujours attendre.
J’ai déjà évoqué ici la faiblesse des taux d’intérêt et les freins au rendement qui existent dans l’économie mondiale. Sur les marchés de la dette, ce sont les pressions déflationnistes qui pèsent sur le rendement et expliquent en partie pourquoi les performances des obligations ne sont pas près de redresser, et pourraient même tomber encore plus bas sur le long terme.
Nous entrons dans une nouvelle ère pour les taux d’intérêt dans les pays développés. La période prolongée de laxisme en matière de politique monétaire arrive à son terme. A la suite de la réduction progressive des mesures d’assouplissement quantitatif (QE) par la Réserve Fédérale (Fed), les investisseurs tablent désormais sur les premiers relèvements de taux d’intérêt d’ici plusieurs années, d’abord au Royaume-Uni et peu après aux Etats-Unis. L’objet principal du débat n’est pas de savoir si, mais quand et à quel rythme les taux d’intérêt devraient augmenter. Pour les investisseurs obligataires en particulier, cette transition a soulevé maintes questions délicates. Après avoir largement profité du recul des rendements et du resserrement des spreads de crédit, le passage à un cycle plus sévère va créer davantage de difficultés lorsqu’il s’agira de générer des performances pour de nombreuses classes d’actifs obligataires.
Par conséquent, tout instrument susceptible d’aider les investisseurs à évoluer dans cet environnement suscite à juste titre un maximum d’intérêt et d’attention. Dans la dernière de nos séries d’articles M&G Panoramic Outlook, nous nous intéresserons à un de ces instruments, l’obligation à haut rendement à taux variable. Ces dernières années, cet instrument a remporté un franc succès auprès nombreux émetteurs et le marché a atteint un total de 44 milliards de dollars.
Une obligation à haut rendement à taux variable comporte deux principales caractéristiques distinctives : (1) un coupon à taux variable automatiquement ajusté en fonction des variations de taux d’intérêt ; (2) un spread de crédit relativement élevé qui reflète le risque de crédit supplémentaire d’un émetteur de catégorie spéculative.
C’est la combinaison de ces deux facteurs qui permet non seulement aux investisseurs de percevoir un flux de revenus attractif, mais également de bénéficier de coupons supérieurs en cas de hausse des taux d’intérêt sans perte de capital associée. Ce dernier élément, à savoir l’absence de perte de capital dans un contexte de relèvement de taux d’intérêt, constitue la différence majeure par rapport à l’univers traditionnel d’obligations à taux fixe qui ont subi une érosion des prix au fil de l’augmentation des rendements.
Dans ce numéro, nous allons étudier en détail les caractéristiques et la structure du marché des obligations à haut rendement à taux variable. Nous prendrons également en compte les principaux facteurs de rendement, ainsi que la gestion de certains risques.
Cinq ans après le début de la reprise aux Etats-Unis, le marché du travail retrouve rapidement sa vigueur. Les embauches se multiplient, le chiffre robuste de 1,3 million de créations d’emplois a été enregistré au cours des 6 derniers mois et le taux de chômage se rapproche à grands pas d’un niveau qui pourrait inciter la Fed à commencer à envisager un relèvement de taux d’intérêt. Tous les indicateurs du marché du travail semblent faire état d’une amélioration, sauf celui qui devrait préoccuper le plus les travailleurs, à savoir les salaires.
En effet, la hausse des salaires est le principal élément manquant de la reprise, et son absence semble quelque peu contradictoire dans le cadre d’un redressement rapide de l’économie. Il est notoire que les salaires constituent un indicateur retardé procyclique, ce qui pourrait représenter une raison valable. Autre hypothèse, comme l’a souligné récemment la présidente de la Réserve Fédérale Janet Yellen, les salaires n’ont pas fait l’objet d’un ajustement suffisant au cours de la récession sévère et n’augmenteront qu’une fois que les employeurs auront compensé les « rémunérations excessives ».
Au fil de la reprise économique aux Etats-Unis et du redémarrage des entreprises, le marché du travail pourrait bientôt assister à une accélération de la hausse des salaires. L’histoire économique a toujours représenté un terrain idéal pour rechercher des indices relatifs aux futures performances économiques à la lumière des évènements ultérieurs. L’étude des statistiques du marché du travail américain sur 30 ans révèle une relation intéressante entre le taux de chômage officiel et les salaires, mesurés par les rémunérations horaires de tous les salariés des emplois non agricoles dans le secteur privé. Comme le montre le graphique ci-dessous, les salaires semblent avoir connu une accélération à chaque fois que le taux de chômage aux Etats-Unis a atteint ou avoisiné le seuil de 6%. L’Histoire ne se répète peut-être pas, mais elle rime.
Compte tenu du recul du taux de chômage à 6,1% et de l’augmentation des salaires nominaux, l’économie américaine pourrait se rapprocher du plein emploi plus vite que prévu par la Fed. Quel taux de chômage correspond au plein emploi ? La question reste ouverte. Selon les estimations du Federal Open Market Committee (FOMC),le taux de chômage non inflationniste actuel(NAIRU, c’est-à-dire le niveau auquel le taux de chômage peut baisser sans poser de problèmes de capacité ni provoquer une inflation par la demande) se situe aux alentours de 5,4% au vu des préoccupations liées à la sous-utilisation de la main-d’œuvre, mais la hausse des salaires indiquerait un taux plus élevé.
Un autre signe de pression naissante sur les salaires est visible dans l’indice prospectif de rémunération de la National Federation of Independent Business(NFIB), bien connu pour ses prévisions de hausses de salaires dans les petites entreprises au cours des 12 prochains mois. Cet indice semble particulièrement pertinent, dans la mesure où les PME (entreprises de moins de 500 salariés) forment le véritable pilier de l’économie américaine, qui donne lieu à la création nette de deux emplois sur trois. Le graphique ci-dessous témoigne du redressement de l’indice NFIB l’an dernier, qui affiche désormais des niveaux équivalents à ceux d’avant la récession.
Selon le dernier rapport sur les offres d’emploi et la rotation de la main-d’œuvre (Job Openings and Labour Turnover Survey, JOLTS) réalisé par le Ministère du Travail américain, les postes vacants ont retrouvé leurs niveaux d’avant la crise, puisque une forte proportion d’employeurs a des difficultés à trouver des travailleurs qualifiés. Afin d’attirer les candidats souhaités, les employeurs sont contraints d’augmenter la rémunération. Fait intéressant, la comparaison de l’indice NFIB et des indicateurs retardés sur les salaires révèle une corrélation marquée à long terme. Alors que le nombre d’entreprises prévoyant un accroissement de la rémunération fait état d’une nette tendance à la hausse, les salaires vont probablement suivre la même voie.
Compte tenu du marché du travail toujours tendu, une hausse accrue des salaires n’aura rien de surprenant. La plupart des indicateurs salariaux (notamment l’Indice du Coût de l’Emploi et les Coûts salariaux unitaires, très suivis) sont actuellement orientés à la hausse, tendance qui devrait se poursuivre à moins d’un ralentissement de la croissance économique ou d’un gain soudain de productivité. En 1994, alors que la Fed venait juste d’amorcer une série de relèvements de taux musclés, la progression des salaires aux Etats-Unis n’était que de 2,4% en glissement annuel, contre 2,5% aujourd’hui. Toutefois, selon les porte-parole de la Fed, une certaine langueur persiste sur le marché du travail, d’où la nécessité de s’armer de patience ; la perspective d’une augmentation des salaires dans une économie très proche du plein emploi pourrait-elle marquer le tournant qui amène la Fed à modifier son discours ?