Article

La science et la pseudoscience des techniques quantitatives

Eric a récemment écrit un article fascinant sur le « virus de la volatilité » qui a contaminé la communauté des professionnels de l’investissement. Le présent article s’appuie dessus en se penchant sur l’utilisation – plus spécifiquement, l’utilisation abusive – de « l’analyse » quantitative de manière plus générale.

Il est important de noter que je ne suis pas « contre l’analyse quantitative ». Bien au contraire, je suis tout à fait en faveur de l’analyse scientifique, interprétée correctement et avec intégrité. Ce contre quoi je mets en garde, c’est la fausse confiance souvent tirée des résultats quantitatifs, les conjectures pseudo-scientifiques se faisant passer pour de la science et affirmées avec la plus grande conviction.

En matière d’économie et de finance, nous devons reconnaître que nous sommes tous vulnérables au piège de la pseudoscience, et ce, pour deux raisons :

 

  1. Premièrement, il est désagréable d’admettre la nature chaotique et imprévisible des économies et des marchés financiers. Il est beaucoup plus rassurant de se convaincre que nous savons ceci ou cela avec un certaine dose de certitude. Nous plaçons une confiance excessive dans les chiffres et les graphiques générés par diverses études et faisons abstraction des intervalles de confiance très larges autour des résultats. Nous voulons croire qu’il y a une « réponse » et nous sommes impressionnés par ceux qui en fournissent une, surtout lorsque des preuves statistiques « considérables » sont fournies à l’appui. Chacun d’entre nous veut également impressionner. Admettre que nous savons peu de choses avec certitude n’a rien d’impressionnant.

 

  1. La deuxième vulnérabilité est la conséquence de biais de sélection dans le secteur. Nombreux dans la finance ont une prédisposition aux chiffres et c’est là que réside leur intelligence. Ils sont plus heureux de traiter des chiffres à grande vitesse ou de tracer des graphiques que de penser aux postulats souvent douteux sur lesquels l’analyse est construite. La puissance de calcul de plus en plus importante et le désir institutionnel d’apparaître à la pointe de la technologie renforcent la tendance.

 

L’autre biais de sélection résulte de la nature extrêmement concurrentielle et financièrement lucrative de l’industrie. Les entreprises les plus prestigieuses sont pleines de personnes douées, habituées à gagner et à bien faire les choses. Ces personnes ont tendance à être convaincues et convaincantes et nous sommes susceptibles de les laisser nous avoir. Ce sont aussi les personnes que nous voulons entendre (ou alors nous nous trompons nous-mêmes).

Quelques exemples concrets illustrent bien l’attractivité puissante de la pseudoscience :

 

Le niveau du taux d’intérêt neutre ou R*

Nous avons déjà écrit sur la remise en question du concept de R*, mais même en présupposant que le concept demeure valide, on n’entend jamais parler de l’incertitude des estimations de R*.

Même les représentants de la Fed sont tombés dans ce piège, du moins c’est l’impression que l’on a en public:

Les travaux de Laubach et Williams sont devenus le modèle le plus courant pour l’estimation de R*, dont on suppose généralement qu’il est de l’ordre de 0 %. Ce qui est ignoré lorsque des observateurs citent ces travaux, c’est que l’intervalle de confiance de 95 % autour de cette estimation se situe entre +5 % et -5 % (les problématiques d’incertitude entourant les estimations sont explicitement abordées ici) – ce qui ne représente vraiment pas une raison de débattre sur de petits changements dans le niveau approprié du taux des fonds fédéraux. Et qu’en est-il des autres modèles ?

 

Les prévisions économiques (par exemple, à l’égard du Brexit)

A l’approche du référendum sur le Brexit, Michael Gove, ancien secrétaire d’État à l’éducation, a déclaré : « Je pense que nous en avons assez des experts », ce qui lui a valu de nombreuses critiques. Si son commentaire avait été plus général, la critique aurait été juste.

Mais, il avait raison car les experts en question étaient des prévisionnistes économiques. Une fois encore, le problème n’est pas que l’analyse économique liée au Brexit était peu consciencieuse ou fallacieuse, mais c’est plutôt la manière dont cette analyse était présentée au grand public dans les médias. Les prévisions économiques s’accompagnent de larges marges d’erreur et d’une incertitude considérable – de nombreuses choses inattendues peuvent se produire. Une analyse nuancée est mal accueillie à la télévision ou dans les réseaux sociaux. Les débats émotionnels et idéologiques – le Brexit, les politiques de Trump, l’économie keynésienne contre l’économie classique – s’écartent rapidement d’une analyse honnête et objective.

La leçon est que les prévisions économiques doivent toujours être prises avec prudence. Il y aura généralement des surprises. Mais, ce n’est pas ainsi que les statistiques ou les prévisions économiques seront présentées dans les médias.

 

L’analyse des portefeuilles d’investissement

L’analyse statistique des portefeuilles des gérants de fonds n’a jamais été aussi détaillée. L’analyse des expositions factorielles, de la contribution au risque par position, des taux de réussite et des corrélations n’a jamais été aussi importante. Dans de nombreux cas, une grande partie de cette analyse a été internalisée ; « l’arbitrage statistique » est une catégorie de fonds en soi.

Est-ce que tout cela est utile ? Faite de façon appropriée, probablement. Mais, la barrière est haute. La période d’échantillonnage est-elle représentative ? L’historique est-il suffisant ? Dans quelle mesure les corrélations sont-elles stables ? S’agit-il de rumeurs et autres spéculations ou suis-je vraiment sur quelque chose ? Dois-je renforcer des positions longues/courtes brutes sur la base de corrélations statistiques ou ces corrélations pourraient-elles changer ?

 

Conclusion

Aussi peu agréable à admettre que cela puisse être, comme l’a dit mon collègue Dave Fishwick : « vous ne pouvez pas déléguer la pensée ». Plus que jamais, nous sommes aujourd’hui bombardés de statistiques et d’analyses quantitatives. Aussi intelligentes et scientifiques qu’elles semblent être, c’est tout le contraire dans bien des cas. La méthode scientifique est une méthode de questionnement et d’objectivité (dans la mesure du possible). Il est plus scientifique de rejeter la pseudoscience, d’admettre l’ignorance et d’agir en conséquence que d’accepter une analyse erronée. De la même façon, l’approche d’investissement de Warren Buffett, qui fait fi de la volatilité, des corrélations et des prévisions économiques est scientifique – ces dernières ne sont empiriquement pas pertinentes pour les performances à long terme.

Le fait n’est pas que l’analyse quantitative est une mauvaise chose. C’est juste qu’il nous faut réfléchir. Nous devrions nous inspirer du livre du grand physicien Richard Feynman : « Depuis lors, je n’ai jamais prêté attention à quoi que ce soit de la part des ‘experts’. Je calcule tout moi-même ».

 


La valeur des investissements peut fluctuer et ainsi faire baisser ou augmenter la valeur liquidative des fonds. Vous pouvez donc ne pas récupérer votre placement d'origine.