OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Chiffres en folie: le coût des cyberattaques http://owni.fr/2011/07/11/chiffres-en-folie-le-cout-des-cyberattaques/ http://owni.fr/2011/07/11/chiffres-en-folie-le-cout-des-cyberattaques/#comments Mon, 11 Jul 2011 06:11:28 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=73270 On a récemment attiré mon attention sur cet article du Figaro, dont l’auteur essaie d’évaluer le coût des cyberattaques. Le désarroi de l’auteur de l’article est visible : ayant cherché diverses sources d’information, il a bien du mal à relever la moindre cohérence. Un chiffre, surtout, sort du lot : selon une étude commandée par McAfee, en 2008, les cyberattaques auraient coûté environ 1.000 milliards de dollars à l’économie mondiale, soit 1.64% du PIB mondial (admirez la précision des deux chiffres après la virgule).

Un chiffre comme celui-ci, aussi rond qu’énorme (aujourd’hui, c’est à partir de plusieurs centaines de milliards de dollars qu’un problème devient important : ça n’arrange pas les affaires du Dr Evil) suscite les soupçons. Il est totalement incohérent avec les autres évaluations données dans l’article : si les cyberattaques coûtent 560 millions de dollars en 2009 aux USA, comment atteindre les 1000 milliards de dollars dans le monde en 2008?

J’avais montré, il y a quelques temps, que le coût mondial de la contrefaçon était estimé d’une manière absurde, avec un chiffre totalement faux qui subsistait obstinément dans toutes les évaluations, avec untel qui cite le chiffre en faisant référence à machin, lequel le tient de bidule, qui le tient lui-même d’untel. Ce chiffre de 1.000 milliards de dollars pour le coût des cyberattaques est en train de suivre le même processus. L’article indique ainsi que le chiffre a été cité lors d’un forum des Nations Unies sur la cybersécurité [pdf], qui fait référence à des données d’Europol, qui elle-même fait référence… à l’étude de McAfee. C’est comme cela qu’un chiffre finit par “faire autorité”, pour reprendre les mots de l’auteur. Mais comment ce chiffre a-t-il été déterminé ?

Montant totalement inventé

Je suis donc allé voir cette fameuse étude commanditée par McAfee en 2008, sur le coût du cybercrime. Vous pouvez aller consulter le rapport ici [en, pdf]. Et surprise : le chiffre de 1.000 milliards de dollars n’y figure nulle part. Ce chiffre a été en fait cité pour la première fois par le président de McAfee, au forum de Davos [en]. Il déclare que le rapport “montre que le coût du cybercrime est de 1.000 milliards de dollars par an, ou plus”. Alors que jamais le rapport n’évoque ce chiffre !

Le premier surpris par ce chiffre est d’ailleurs… un contributeur du rapport [en] qui se demande d’où il peut venir. Une façon d’expliquer comment ce chiffre peut être tiré du rapport est la suivante [en] : ce rapport a été établi à partir d’entretiens auprès de 1.000 cadres dirigeants d’entreprises (environ 500 entreprises interrogées), qui estiment en moyenne avoir perdu 4.6 millions de dollars de propriété intellectuelle en moyenne au cours de l’année 2008. On peut alors peut-être supposer que les 1.000 milliards sont établis en considérant que cet échantillon est représentatif (ce qui est parfaitement absurde) et en l’appliquant à l’économie mondiale. Mais impossible d’en être certain : jamais la moindre méthodologie n’est indiquée, nulle part. Ce chiffre est donc totalement inventé, et légitimé en citant un rapport qui n’y fait jamais allusion.

Et ça ne l’empêche pas d’être cité comme “faisant autorité”, repris par toutes sortes d’organismes. Certains même, voulant sans doute avoir l’air sérieux, affirment que “le vrai chiffre doit être plus élevé” parce que l’évaluation date de 2008… On attend impatiemment les calculs qui montreront triomphalement qu’étant donné que le cybercrime “coûtait 1.000 milliards de dollars en 2008″ et que la croissance économique a depuis été de tant, il faut réévaluer ce chiffre à 2.000 milliards… Ne riez pas, ça sera certainement fait.

On pourrait se demander pourquoi un chiffre aussi bidon se retrouve cité et repris partout, au point de “faire autorité”. Le facteur principal est bien connu : citer des nombres est en soi un argument d’autorité. La phrase “la criminalité a augmenté depuis l’année dernière” a beaucoup moins de poids que “la criminalité a augmenté de 4.5% depuis l’année dernière”. Je viens d’inventer ce chiffre : pourtant, convenez que la seconde phrase a l’air beaucoup plus crédible. Elle donne l’impression que je sais de quoi je parle, qu’une mesure a été effectuée, alors que mon chiffre n’a strictement aucune signification.

Le grand problème global

On pourrait certainement faire le même genre de décryptage avec la déclaration de L. Wauquiez, selon lequel un internaute sur 30 a perdu de l’argent à cause d’un pirate informatique en Europe au cours des 12 derniers mois. Comme toujours dans ces cas-là, le chiffre est repris et cité, sans la moindre façon de savoir d’où il est sorti (l’article cite encore d’autres chiffres sur le revenu issu des cyberattaques, bien évidemment, toujours aussi invérifiables). On constate aussi que la “guerre au cybercrime” consiste surtout à mélanger des choses qui n’ont rien à voir les unes avec les autres, pour faire de questions différentes un grand problème global exigeant des solutions (et des ressources) importantes.

Le but n’est pas de dire que les cyberattaques n’ont aucune importance, ni aucun coût, qu’il ne faut pas y prêter attention. Simplement de rappeler que les coûts, en la matière, sont très difficiles à évaluer. Et que ceux qui multiplient les chiffres sans signification le font soit comme argument commercial (comme le fait McAfee) soit pour légitimer leur action et mettre en œuvre le théâtre sécuritaire [en] (comme les politiques ou administrations qui multiplient la citation de ce genre de chiffres pour montrer que le gouvernement travaille).

Hystérie collective

Il s’agit simplement de rappeler que l’exagération des menaces, à l’aide de chiffres sans signification, finit par avoir des conséquences lourdes. Si je me fais voler 100 euros, le vrai coût social de ce vol n’est pas 100 euros qui ont simplement été transférés d’une personne à une autre : il vient parce que je vais changer de comportement, consacrer plus de ressources à ma protection au lieu de les consacrer à des usages plus utiles. Si un pirate informatique obtient mon numéro de carte bancaire, c’est énervant, mais pas dramatique (il suffit de changer la carte prématurément). Si un hacker révèle les caractéristiques du prochain iPad et sa date de sortie, conduisant de nombreux acheteurs potentiels à attendre ce nouveau modèle plutôt que d’acheter l’existant, cela représente évidemment un préjudice pour Apple, mais plutôt un avantage pour les consommateurs. Si des hackers avaient vraiment réussi à obtenir les documents de Bercy consacrés au G20, ils auraient surtout constaté et révélé la vacuité de la chose. Pour les États-Unis, le coût du 11 septembre n’est pas tant le coût direct (morts, destructions) que l’ensemble des mesures qui ont été prises en réaction (deux guerres, sécurité des aéroports, morts sur les routes de gens qui ont renoncé à prendre l’avion, etc).

Le coût principal de la criminalité tend à survenir lorsqu’on décide d’y accorder trop d’importance, en négligeant la résilience sociale, et en y consacrant des ressources qui auraient été bien plus utiles ailleurs. Multiplier les évaluations fantaisistes et alarmistes du coût des cyberattaques remplace la question raisonnable : “quelles ressources, qui pourraient être utilisées à autre chose, faut-il consacrer à ce problème ?” par une hystérie collective dans laquelle jamais rien ne sera suffisant pour calmer les inquiétudes, parce que la sécurité absolue ne saurait être atteinte. Cette hystérie en enrichit quelques-uns, au détriment de l’ensemble.

Article initialement publié sur Econoclaste

Crédits photo: Flickr CC kmichiels, Curtis Gregory Perry, bartb_pt

]]>
http://owni.fr/2011/07/11/chiffres-en-folie-le-cout-des-cyberattaques/feed/ 10
“Prêt à jeter”: quand la nostalgie industrielle devient complotisme http://owni.fr/2011/05/01/pret-a-jeter-quand-la-nostalgie-industrielle-devient-complotisme/ http://owni.fr/2011/05/01/pret-a-jeter-quand-la-nostalgie-industrielle-devient-complotisme/#comments Sun, 01 May 2011 12:00:13 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=60260 Arte a récemment diffusé un documentaire intitulé « prêt à jeter », consacré à l’obsolescence programmée. Le documentaire a apparemment eu un grand succès public, et la critique l’a unanimement recommandé (Télérama-Le Monde-Le Figaro). Vous pouvez visionner le documentaire en vod en suivant ce lien, et pouvez (pour l’instant) le trouver sur youtube.

Comme il m’avait été recommandé par diverses personnes, je l’ai visionné. Ce documentaire est hélas d’une nullité intégrale. Parfois hilarant de bêtise, parfois nauséabond de complotisme, en tout cas, jamais informatif.

La durabilité, une qualité désirable… mais pas toujours prioritaire

« L’obsolescence programmée » est l’idée selon laquelle si les produits que vous achetez se dégradent rapidement (contrairement aux bons vieux produits inusables de nos grands-parents), ce n’est pas un hasard : c’est une machination ourdie par les entreprises industrielles, qui ont trouvé là un moyen de nous obliger à racheter régulièrement leurs produits. C’est une de ces idées qui tient une bonne place dans la conscience populaire, mais qui ne convainc guère les économistes, pour plusieurs raisons.

La première, c’est que l’idée du: « c’était mieux avant, tout était solide, maintenant on ne fait plus que des produits de mauvaise qualité qui s’usent vite » est tellement intemporelle qu’on se demande bien quel a été cet âge d’or durant lequel on faisait des produits durables.

(à l’époque de ma grand-mère bien entendu : sauf qu’à son époque, elle disait aussi que les produits de sa grand-mère étaient plus solides). Il y a là un biais de perception, le « biais de survie » : vous avez peut-être déjà vu un frigo des années 50 en état de fonctionnement (j’en connais un, pour ma part); vous n’avez certainement jamais vu les dizaines de milliers de frigos des années 50 qui sont tombés en panne et ont terminé à la décharge. Nous avons par ailleurs tendance à idéaliser le passé : je suis par exemple toujours très étonné par les fanatiques qui me racontent, des trémolos dans la voix, à quel point la 2CV Citroen était une voiture « increvable ». Dans celle de mes parents, il fallait changer les plaquettes de frein tous les 10 000 km, le pot d’échappement tous les 20 000, et elle était tellement attaquée par la corrosion (au bout de deux ans) que dès qu’il pleuvait, on avait le pantalon inondé par une eau noirâtre et gluante. Je préfère de très loin les voitures actuelles et leurs pannes d’électronique récurrentes.

Mais il n’y a pas que ces biais de survie et d’idéalisation du passé. Si les économistes sont sceptiques vis à vis de l’obsolescence programmée, c’est que cette stratégie apparemment subtile n’a en réalité aucun sens. Prenons un exemple utilisé dans le documentaire, celui des collants féminins qui filent très vite, au point qu’il faut les changer toutes les deux semaines. Si un collant coûte 4€ et dure deux semaines, à l’issue desquelles les clientes en rachètent un, elles montrent à l’entreprise qu’elles sont disposées à dépenser 104€ par an en collants. Or, fabriquer un collant très solide coûte peut-être un peu plus cher à l’entreprise, mais certainement pas autant que de fabriquer 26 collants vendus 104 euros. Elle pourrait donc réaliser un profit largement supérieur, en vendant par exemple un collant garanti un an (avec remplacement gratuit s’il se file entretemps, pour rassurer les clientes) pour une centaine d’euros.

Bien sûr les choses ne sont pas si simples, et en pratique, beaucoup des produits que nous achetons ne sont pas particulièrement durables. Il peut y avoir deux raisons à cela. La première tient aux contraintes de la production. La durabilité est une qualité désirable; mais il y a d’autres, nombreuses qualités désirables, comme un faible coût de production, ou des caractéristiques spécifiques. Pour rester sur l’exemple des collants, on a supposé au dessus que faire un collant de durée de vie d’un an ne coûte pas cher. Ce n’est pas certain : si faire 26 collants durant deux semaines coûte au total moins cher qu’un seul collant durant un an, alors, il est préférable de fabriquer les produits moins durables – et les consommatrices soucieuses de leur pouvoir d’achat pourront préférer ceux-ci. Si pour que les collants soient durables, il faut qu’ils aient l’apparence de bas de contention, je connais beaucoup de femmes qui préféreront d’autres modèles moins solides.

Un fer à vapeur sous pression est moins durable que le vénérable fer en fonte qui ornait la cuisinière de mon arrière-grand mère; faire passer de la vapeur sous pression dans des pièces métalliques provoque une usure bien plus rapide. Il est aussi nettement plus pratique à utiliser. Une poele recouverte de téflon est moins durable qu’une casserole en cuivre massif; elle est aussi moins coûteuse, et bien plus commode. Comme nous sommes des enfants gâtés par la société de consommation, nous voudrions que tout soit à la fois durable, esthétique, pratique, et peu cher. A la fin du 19ième siècle, les marines européennes avaient cherché à produire des bâtiments de guerre à la fois rapides, dotés d’une énorme puissance de feu, et d’un gros blindage. Mais qui dit blindage et armements dit poids élevé, ce qui nuit à la manoeuvrabilité et à la vitesse. Tout problème d’ingénierie nécessite d’optimiser entre différentes qualités incompatibles. Bien souvent, la réparabilité ou la durabilité passent au second plan, derrière d’autres qualités, comme le prix. Produire en grande série standardisée permet de réduire considérablement les coûts; réparer est un artisanat qui coûte très cher, parce que dans nos pays développés le travail coûte cher.

A côté de produits peu durables, il est également possible de trouver des produits très durables, mais chers. Un costume sur mesure fait chez un tailleur sera plus beau, conçu avec des tissus de bien meilleure qualité que le bas de gamme que vous trouverez dans le premier magasin venu: il sera aussi beaucoup plus cher. Certaines marques ont fait de la durée de vie élevée leur principal argument commercial (briquets Zippo garantis à vie, piles Duracell et leur lapin qui dure longtemps, voitures japonaises ou coréennes garanties 5 ans, chaussures Church qui durent toute une vie…) ce qui montre que faire des produits à longue durée de vie n’est certainement pas rédhibitoire pour les profits, bien au contraire. Simplement, la durée de vie n’est pas l’unique qualité désirable dans un produit.

Et cette optimisation entre des qualités concurrentes rencontre les aspirations, elles-mêmes variées, des consommateurs. Une observation modérée de mes semblables de sexe féminin m’a ainsi permis de constater que nombre d’entre elles changent très régulièrement de tenue vestimentaire, et qu’elles semblent y attacher beaucoup d’importance. Dès lors, il ne me semble pas absurde d’envisager qu’elles préfèrent acheter 26 paires de collants dans l’année – ce qui permet d’en avoir des différentes – plutôt que de porter toujours les mêmes à longueur d’année. Ce sont peut-être des dindes écervelées qui ont le cerveau lavé par la presse féminine et les diktats de la mode; plus probablement, elles font de leur tenue vestimentaire une façon de manifester leur goût et leur charme.

La mode : une obsolescence programmée… consentie par les consommateurs

Et c’est la seconde raison qui explique pourquoi les produits ne sont pas toujours très durables; soumis au choix entre des produits durables et des produits rapidement obsolètes, nous avons souvent tendance à préférer les seconds. Nous aimons la variété et la nouveauté. Consommer n’est pas seulement satisfaire un besoin utilitaire; c’est aussi une source de satisfaction, de démonstration de diverses qualités personnelles à notre entourage. On peut qualifier ces sentiments de frivoles, se moquer de ces gens qui vont se ruer sur un Ipad 2 dont ils n’ont rien à faire ; mais constater aussi que les sociétés qui ont voulu substituer à ces caractéristiques humaines la stricte austérité (ha, le col Mao pour tout le monde) n’étaient pas particulièrement respectueuses des libertés, ou de la vie humaine. Et noter que jamais personne ne vous a obligé à acheter quoi que ce soit. Il y a évidemment une pression sociale; et parce que le marché ne peut pas toujours satisfaire tout le monde, nous sommes obligés parfois de nous conformer aux modes de consommation de la majorité, à contrecœur.

Comme vous le voyez, il y aurait largement de quoi nourrir un excellent documentaire, instructif, autour de la question de la durée de vie des produits. Hélas, vous ne trouverez strictement rien de tout cela dans le documentaire d’Arte.

Le documentaire commence par un vieux canard qui ressort à intervalles réguliers : les ampoules électriques. Dans les années 20, un cartel entre producteurs d’ampoules aurait cyniquement établi une entente pour réduire la durée de vie des ampoules électriques à 1000 heures de fonctionnement, alors qu’auparavant, il n’était pas rare de fabriquer des ampoules de durée de vie largement supérieure. Un cartel, voilà qui éveille tout de suite l’attention de l’économiste. Comment fonctionnait-il? Comment empêchait-ils ses membres d’adopter un comportement opportuniste (par exemple, en vendant des ampoules de plus longue durée que les autres, ou des ampoules moins chères)? Le documentaire est muet sur cette question. Tout au plus est-il question d’amendes pour les membres fautifs et de « partage de technologies ». Et d’interminables minutes sur un bâtiment public au fin fond des USA dans lequel une ampoule brille sans discontinuer depuis un siècle, d’une lueur un peu pâlotte, mais qui fait l’admiration des habitants qui organisent des fêtes anniversaire de l’ampoule (on se distrait comme on peut).

Un commentateur chez Aliocha permet de trouver la clé du mystère. Concevoir une ampoule électrique est un problème d’optimisation entre diverses qualités : la luminosité, la consommation, la durée de vie, la couleur. On pourrait ajouter qu’il y a de nombreux problèmes de standardisation : les culots d’ampoule doivent être identiques pour pouvoir passer d’une marque à l’autre; les couleurs doivent être identiques (un lustre avec des ampoules de luminosité différente est très laid et inconfortable, comme chacun peut le constater depuis que le Grenelle de l’environnement nous impose des ampoules à basse consommation qui n’éclairent pas), etc. Il n’est donc pas absurde que les entreprises du secteur aient coopéré pour établir des normes.

Mais comme on le sait depuis Adam Smith, des gens du même métier se rencontrent rarement sans que cela ne se termine par une conversation sur les moyens d’augmenter les prix; et le cartel en question, en plus d’établir des normes, a aussi réparti les zones géographiques entre producteurs, afin de s’assurer à chacun de confortables rentes de monopoles. Le cartel en question a donc fait l’objet de sanctions des autorités antitrust; on peut noter que si le rapport sanctionne les accords sur les prix, il montre que la durée de vie de 1000 heures est un compromis technique entre diverses qualités, et pas une tentative pour escroquer les consommateurs. Une information que bien entendu, le documentaire n’évoque pas.

Complotisme et nostalgie soviétique…

Poussant vers les années 30, le documentaire nous fait le portrait d’un Américain, Bernard London, présenté comme le « père spirituel » de l’obsolescence programmée, pour avoir écrit un pamphlet en 1932 intitulé « sortir de la crise par l’obsolescence programmée ». La lecture de ce document, en fait, n’indique rien sur l’opportunité d’une stratégie des entreprises pour inciter les consommateurs à remplacer leurs produits; la préconisation de l’auteur est celle d’une vaste prime à la casse obligatoire, portant sur tous les produits manufacturés, l’Etat rachetant de façon obligatoire tous les produits à partir d’une certaine durée prévue à l’avance. Une idée économique stupide, mais dans le désarroi provoqué par la déflation et 25% de chômeurs en 1932, celles-ci étaient légion. Alors qu’un quart de la population américaine ne parvenait pas à se nourrir, le gouvernement américain payait les fermiers pour qu’ils abattent leurs troupeaux de vaches, afin de faire remonter le prix du lait. Nous savons aujourd’hui qu’il suffisait de sortir de l’étalon-or et d’appliquer une politique monétaire non-suicidaire pour se sortir de la crise; à l’époque, on ne le savait pas, et on assistait au grand concours des idées farfelues. Nous n’avons pas tellement changé, mais nous avons moins d’excuses.

Surtout, après de longues minutes à interviewer la fille de l’associé du Bernard London en question, le documentaire nous explique que ses brillantes idées n’ont jamais été appliquées, ce qui conduit à se demander pourquoi diable on nous en a parlé. Surtout, pourquoi le documentaire insiste aussi lourdement sur le fait que Bernard London était juif, pour conclure mystérieusement sur « nous ne saurons jamais s’il voulait aider les gens ou simplement faire du profit ». C’est vrai, quoi, les juifs, ils ont toujours des arrière-pensées; Et puis, une bonne théorie du complot qui n’a pas son juif de service ne sera jamais totalement satisfaisante. (22ème à la 25ème minute).

Poursuivant dans les années 50, le documentaire nous montre les débuts de la société de consommation, plaçant l’obsolescence programmée au coeur du système. Il montre une école de design dans laquelle on explique aux étudiants que les produits n’ont pas forcément vocation à être durables (ce qui, si vous avez lu ce qui précède, tombe sous le sens : c’est le métier de designer que de concevoir des produits qui optimisent les différentes caractéristiques) pour s’indigner de ce comportement « non éthique ». Les designers sont opposés aux ingénieurs, que l’on présente comme scandalisés parce qu’on les obligeait à concevoir des produits moins durables que ce qu’ils auraient pu faire.

Ce passage m’a irrésistiblement rappelé cette phrase de J.M. Folz, ancien PDG de Peugeot, qui a déclaré un jour “qu’il y a trois façons de se ruiner : le jeu, les femmes et les ingénieurs. Les deux premières sont les plus agréables, la troisième est la plus sûre”. Il entendait par là que ce que les ingénieurs aiment concevoir n’est pas toujours ce que les clients désirent, et qu’à trop suivre les ingénieurs, on finit par faire des produits hors de prix et qui n’intéressent pas les clients (ayant dirigé Citroen, il savait de quoi il parlait). Etant donnée la mentalité des ingénieurs dans les années 50, il est fort probable qu’ils n’ont pas apprécié de perdre une partie de leur pouvoir dans les grandes entreprises industrielles au profit des services de design et de marketing, et regretté de ne plus pouvoir fabriquer ce qui leur plaisait. Il est certain que tout le monde, consommateurs et entreprises, y a gagné.

C’est vers la 45ème minute que le reportage nous offre son plus beau moment surréaliste. C’est qu’il y avait une alternative à la consommation jetable caractéristique de nos sociétés modernes; elle se trouvait derrière le rideau de fer. Là bas, on trouvait des ingénieurs soucieux de produire de la qualité, des produits éternels. Une entreprise d’électricité est-allemande avait même conçu une ampoule électrique de bien plus longue durée que ce que l’on trouvait à l’Ouest; dans le bloc communiste, on produisait pour durer. J’ai eu du mal à réprimer mon hilarité, me souvenant des multiples blagues de la RDA, dont les habitants ne manquaient pas de moquer la piètre qualité de leur production nationale (vous savez comment doubler la valeur de revente d’une Trabant ? En faisant le plein). Je me souviens aussi que la meilleure façon de faire pleurer un habitant des pays de l’Est, à l’époque, était de lui faire visiter un supermarché occidental (expérience vécue). Etrangement d’ailleurs, lorsque le rideau de fer est tombé, la première chose que les allemands de l’Est ont faite a été de se ruer sur les biens de consommation fabriqués à l’Ouest; l’horrible société consumériste leur semblait manifestement plus attrayante que leurs propres produits. Quant aux usines Est-Allemandes, elles étaient tellement efficaces qu’elles ont toutes dû fermer. Le documentaire suggère à demi-mot que les industriels de l’Ouest ont voulu se débarrasser de ces compétiteurs redoutables, peu au fait du grand complot pour obliger les consommateurs à acheter sans cesse.

A ce stade, on se demande s’il faut rire ou pleurer face à ce spectacle lamentable. Le reportage se termine sur les problèmes de durée de vie des premiers Ipods, dont la batterie (impossible à changer) avait fâcheusement tendance à tomber en rade au bout de 18 mois de fonctionnement. Là encore, aucune autre explication qu’un sinistre complot pour exploiter le consommateur n’est fournie. Il est fort possible qu’Apple ait négligé la durée de vie au profit du design et de contraintes de fabrication; ils sont coutumiers du fait, mais les acheteurs de produits Apple semblent vouloir obstinément acheter leurs produits hors de prix, mais tellement jolis. Le principal plaignant, après qu’une avocate lui ait fait bénéficier d’un système judiciaire américain toujours prêt à faire payer des indemnités par les grandes entreprises pour tout et n’importe quoi, ne s’est d’ailleurs pas privé de se racheter un Macbook à 2000 dollars par la suite (son cerveau ayant été probablement lavé pour qu’il ne voie pas les ordinateurs portables concurrents, vendus deux fois moins cher et avec des batteries amovibles).

Convertir les mécréants plutôt qu’informer

Le fil rouge du reportage se termine – un Espagnol ayant essayé, très difficilement, de réparer son imprimante à jet d’encre parce qu’il ne voulait pas en changer, suivant les conseils des vendeurs lui suggérant plutôt d’en acheter une neuve pour une trentaine d’euros. Sa situation est mise en abîme avec celle du Ghana, qui reçoit par containers entiers du matériel informatique jeté dans les pays développés. Le documentaire insiste lourdement sur le parallèle entre ces Africains sages qui ne gaspillent pas, par opposition à ces Occidentaux gaspilleurs qui mettent leur matériel à la poubelle à la moindre occasion. Là encore, l’explication économique est simple. Comme le montre l’exemple de l’Espagnol essayant de réparer son imprimante, réparer certains matériels consomme énormément de temps; au Ghana, récupérer des choses utilisables dans le matériel informatique jeté prend aussi énormément de temps de travail, occupant des familles entières sur des décharges. cela ne représente aucune sagesse africaine particulière; dans nos pays développés, les produits fabriqués en grande série ne coûtent pas cher, parce que nous disposons d’un immense capital productif ; par contre, le travail est très cher. La situation est inverse dans les pays en développement. Résultat? Chez nous il est bien moins coûteux de racheter du matériel neuf que de consacrer du temps de travail à le réparer. Au Ghana, le travail est abondant et ne coûte (et ne rapporte) presque rien. Le documentaire se garde bien de demander à ces gens qui passent leurs journées à farfouiller dans des ordures quelle existence ils préféreraient : la réponse n’aurait pas cadré avec le ton général.

A la fin de ce document manipulateur, complotiste, qui n’explique rien, on se demande comment on en arrive à réaliser une chose pareille. L’explication est en filigrane dans le document, qui nous montre avec des trémolos dans la voix off des conférences sur la décroissance, et qui donne la part belle à Serge Latouche, le grand prêtre du mouvement. On comprend alors que nous ne sommes pas face à une entreprise d’information, mais à uneentreprise de morale, selon le concept défini par le sociologue Howard Becker. Le but du documentaire n’est pas d’informer, mais de convertir les mécréants. C’est ce qui conduit la réalisatrice à nous vanter les collants indestructibles, sans une seconde confronter son propre comportement de consommatrice à son discours.

Ce qui est plus étonnant, c’est de voir l’unanimité de la critique journalistique et des responsables d’Arte, qui ont gobé sans sourciller et applaudi à un documentaire qui est une énorme faute professionnelle. De journalistes, de documentaristes, on attend qu’ils nous informent de la façon la plus intègre possible. Que l’objectivité absolue soit impossible à atteindre, soit; mais elle est le standard d’éthique professionnelle qui devrait guider ceux qui nous informent. A préférer les entreprises de morale aux entreprises d’information, il est à craindre que la profession journalistique soit en bonne voie d’obsolescence programmée.

Article publié initialement sur le blog Econoclaste sour le titre “Le mythe de l’obsolescence programmée”


Crédits photo: Flickr CC Audric Leperdi, mamasuco, micmol, Mathieu Lacote, Serban Dumitrescu.

]]>
http://owni.fr/2011/05/01/pret-a-jeter-quand-la-nostalgie-industrielle-devient-complotisme/feed/ 63
Supprimer l’ISF pour récompenser la paresse http://owni.fr/2010/11/18/supprimer-lisf-pour-recompenser-la-paresse-nicolas-sarkozy-impots-rentiers-bouclier-fiscal/ http://owni.fr/2010/11/18/supprimer-lisf-pour-recompenser-la-paresse-nicolas-sarkozy-impots-rentiers-bouclier-fiscal/#comments Thu, 18 Nov 2010 11:12:17 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=37223 Notre président a des intentions claires pour réformer la fiscalité française. Supprimer l’Impôt sur la Fortune et le remplacer par :

un nouvel impôt sur le patrimoine dont l’idée est la suivante : l’erreur faite dans les années passées, c’était de taxer le patrimoine alors qu’il vaut mieux taxer les revenus du patrimoine et les plus-values du patrimoine […] C’est l’axe de la réforme que nous allons engager

L’impôt sur les revenus du capital : la prime aux rentiers

Un petit rappel. L’impôt sur la fortune est un impôt dont le principe est efficace. Considérons, comme le faisait F. Meunier, un individu qui détient un patrimoine de 100 millions d’euros. Il peut gérer son patrimoine de trois façons. Il peut faire des efforts, et celui-ci lui rapportera 6% annuels. Il peut modérer ses efforts, et gagner seulement 3% annuels. Ou alors, il peut être paresseux et dispendieux, auquel cas son patrimoine ne lui rapporte aucun intérêt annuel.

Introduisons maintenant un impôt sur le capital, correspondant à 1% du patrimoine total détenu. Chacune des stratégies-ci dessus implique le même montant d’impôt payé : un million d’euros annuels. La stratégie de l’effort intense rapporte désormais 5 millions d’euros. Celle de l’effort modéré, 2 millions d’euros. La stratégie dispendieuse, quant à elle, conduira l’individu à perdre un million d’euros par an. Les finances publiques reçoivent trois millions d’euros (en comptant trois individus appliquant chacune des différentes stratégies).

Remplaçons maintenant cet impôt sur le capital par un impôt sur les revenus du capital. Pour que ce remplacement soit neutre pour les finances publiques, chacun pourra vérifier qu’il faut un impôt de 33% des revenus du patrimoine. Dans cette situation, la stratégie courageuse rapporte désormais 4 millions d’euros. La stratégie de l’effort modéré laisse un gain inchangé, de deux millions d’euros. Le dispendieux paresseux, quant à lui, ne paiera aucun impôt. Le total collecté par l’Etat sera toujours de trois millions d’euros.

Mais vous le voyez tout de suite : les conséquences distributives de l’opération ne sont pas du tout neutres. En effet, celui qui dans cette situation paie le plus d’impôts est celui qui fait le plus d’efforts pour rendre son patrimoine productif. Celui qui à l’inverse le laisse en jachère, est le grand bénéficiaire de cette transformation.

Encourager la vieille tradition française du capitalisme d’héritier

Ce résultat est on ne peut plus connu en économie de la fiscalité. Un impôt sur le patrimoine peut être assimilé à un impôt forfaitaire, qui est déterminé indépendamment de l’usage fait du capital : le propriétaire de capital est donc incité à le rentabiliser. Un impôt proportionnel sera moins incitatif. Si l’effort à fournir pour rentabiliser le capital à hauteur de 6% est important, notre capitaliste se dira qu’il vaut mieux pour lui fournir l’effort limité. Alors qu’avec l’impôt sur le patrimoine le fils à papa dispendieux constatait que sa vie dissolue conduisait son patrimoine à diminuer, ce qui pouvait l’inciter à passer sa licence faire des efforts, désormais, cette pression n’existe plus.

Cette efficacité économique apportée par l’ISF avait déjà été sérieusement rognée par le bouclier fiscal et les multiples et abondantes niches fiscales. On peut noter également que l’analyse ci-dessus est trop simple. Elle devrait inclure d’autres effets incitatifs : l’incitation à l’expatriation ou l’évasion fiscale, qui n’est sans doute pas très grand, contrairement aux idées reçues); le fait que des techniques d’optimisation fiscale (par exemple en versant un peu moins de dividendes) permettent de corriger cet effet. Pour ces raisons, F. Meunier en concluait qu’il vaudrait mieux supprimer et bouclier fiscal et ISF, quitte à attendre qu’un gouvernement de l’autre bord le remplace « par une façon plus intelligente de faire payer le patrimoine ».

Il n’en reste pas moins que cette réforme, si elle est mise en place, reviendra premièrement à favoriser une tare typiquement française : encourager le capitalisme d’héritiers, cette conception très XIXe siècle dans laquelle les manants entreprenants ne doivent pas s’enrichir : seuls ceux qui disposent d’un gros capital et l’accumulent (ou en héritent) sont dignes d’être considérés comme des élites nationales. Il ne sera plus nécessaire, pour entretenir le manoir familial, de le louer à quelques périodes de l’année à un prix dérisoire pour acquitter l’impôt. Il faut dire que cela risquait de faire venir des gens pas convenables.

La victoire du « travailler moins pour gagner plus »

La seconde conséquence de cette réforme, ce serait une bien curieuse inversion de la formule qui a fait tout le succès de l’élection présidentielle de 2007 : travailler plus pour gagner plus. Il est vrai que les moyens de politique économique utilisés pour cela ont largement échoué. La défiscalisation des heures supplémentaires est un échec tout aussi coûteux que retentissant, Le RSA, sensé inciter les pauvres à travailler plutôt qu’à rester dans une culture d’assistanat, est entré de plein fouet dans le mur d’une crise économique qui restreint considérablement les possibilités de travailler tout court. Il va falloir songer à d’autres modes d’indemnisation (à ce propos, un petit lien pour les geeks).
Bref, « travailler plus pour gagner plus » est sérieusement écorné par le remplacement d’un mécanisme incitant au travail par un mécanisme qui récompense la paresse. Le nouveau slogan, promis à n’en pas douter à un bel avenir, est désormais « travailler moins pour gagner plus ».

Billet initialement publié sur le blog des Econoclastes sous le titre Travailler moins pour gagner plus.

Photos FlickR CC @ Alex ; Malcolm Jackson ; Powerhouse Museum.

]]>
http://owni.fr/2010/11/18/supprimer-lisf-pour-recompenser-la-paresse-nicolas-sarkozy-impots-rentiers-bouclier-fiscal/feed/ 5
L’influence de Mandelbrot dans la finance http://owni.fr/2010/10/29/linfluence-de-mandelbrot-dans-la-finance/ http://owni.fr/2010/10/29/linfluence-de-mandelbrot-dans-la-finance/#comments Fri, 29 Oct 2010 12:47:06 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=33112

Titre original : Benoît Mandelbrot et l’histoire de la finance

Benoit Mandelbrot est mort, à l’âge de 85 ans. Il appartiendra à des mathématiciens d’expliquer les apports de cet immense personnage, l’un des plus importants de la seconde moitié du 20ième siècle. Les mathématiques de Mandelbrot ont touché à des domaines très différents, dont la finance et l’économie. C’est à sa place dans l’histoire de la finance qu’est consacré ce post. Attention, post long.

Un beau jour de mars 1900, Louis Bachelier, un mathématicien de tout juste trente ans soutenait sa thèse. Son directeur était l’un des plus grands mathématiciens de son époque, Henri Poincaré. Témoignant de la confiance qu’il avait dans son étudiant, il lui avait confié la résolution de l’un des problèmes les plus épineux des mathématiques de son temps : le mouvement Brownien.

La marche de l’ivrogne

Lorsqu’on observe des grains de pollen au microscope, on constate que ceux-ci ne sont pas immobiles, mais évoluent de manière erratique. Assez vite, les scientifiques se sont rendus compte que ce mouvement devait s’expliquer par le choc contre les grains de pollen d’une myriade de molécules d’eau dans lesquelles elles se trouvaient. Ce qui posait un redoutable problème : comment des minuscules molécules d’eau, bien plus petites qu’un grain de pollen, pouvaient-elles provoquer le mouvement d’un objet proportionnellement aussi gros ? L’explication devait être de nature statistique : si le contact d’une seule molécule d’eau ne peut rien, c’est le mouvement désordonné de l’ensemble des molécules d’eau contre le grain de pollen qui devait produire ce mouvement.

Mais il n’existait aucun outil mathématique permettant d’en rendre compte. C’est que le problème posé à Bachelier est redoutable : il s’agit d’étudier ensemble le mouvement de la particule, observable, et celui de millions de molécules d’eau, que l’on ne peut pas observer. Bachelier s’en sortit à l’aide de l’idée suivante : Il y a un temps mesurable entre chaque mouvement observé du grain de pollen, et entretemps, les molécules d’eau ont changé de direction. Ce qui permet de lier le mouvement de la particule et des molécules est le théorème central-limite : au bout du compte, chaque mouvement est indépendant du précédent. On parle pour décrire cela de marche aléatoire.

La marche aléatoire, parfois surnommée marche de l’ivrogne (imaginez un ivrogne cherchant à rentrer chez lui : il va dans une direction, puis une autre, se cogne dans un mur, etc..) vous l’observez quotidiennement. Lorsque vous mettez du lait dans une tasse de café, celui-ci se mélange selon ce mécanisme. La fumée de cigarette qui se dissipe dans l’atmosphère suit le même mouvement; vous ne verrez jamais deux fois le même, mais au bout du compte, le résultat final est toujours identique : la fumée se dissipe dans l’air. La démonstration de ce mécanisme est l’un des papiers les plus cités de la physique; ce papier avec d’autres a valu à son auteur un prix Nobel.

La “théorie de la spéculation” de Bachelier

Sauf que ce papier n’a pas été écrit par Bachelier, mais par Albert Einstein, 5 ans après la soutenance de thèse de Bachelier. En lisant les 70 pages de démonstrations de Bachelier, Poincaré s’est probablement demandé s’il s’agissait d’une plaisanterie. Intitulée “théorie de la spéculation”, elle ne comprenait aucune référence au mouvement des particules. Elle évoquait un objet qui n’intéressait pas grand monde, le marché boursier. C’est qu’à l’époque, la finance ne semblait être qu’un petit appendice sans intérêt du capitalisme, une affaire sans grande importance, tenue par une petite communauté de courtiers se connaissant tous entre eux et s’échangeant des tuyaux – une sorte de version à peine plus sérieuse des courses de chevaux. 180 ans après que Newton ait déclaré, dépité, suite à sa ruine sur le marché des titres, “qu’il pouvait prévoir le mouvement des astres, mais pas la folie des hommes”, Bachelier s’était plongé dans cette folie. Et il en avait retiré le modèle suivant.

Le cours de bourse d’une société peut être assimilé à une particule, dont le mouvement est déterminé par les millions d’achats et de ventes d’influence individuelle microscopique de l’ensemble des acheteurs. Les acheteurs ne se connaissent pas, et une fois que leur mouvement collectif a provoqué une fluctuation des cours, le cours “perd la mémoire” : il peut évoluer indifféremment à la hausse ou à la baisse. Comme il y a de très nombreux acheteurs et vendeurs, il est possible d’appliquer le théorème central-limite, et les différents mouvements suivent une courbe de Gauss, la loi normale.

Personne ne sait exactement ce qui s’est produit durant cette soutenance. Pour certains, Bachelier a eu tort de ne pas respecter la volonté d’un Poincaré qui n’était pas particulièrement commode. Par ailleurs, Bachelier aurait été très confus pendant sa soutenance, ne faisant à aucun moment le lien entre son travail et le mouvement brownien. D’autres constatent qu’il y avait quelques erreurs dans le travail de Bachelier, que sa thèse ne pouvait pas mériter mieux; et que Poincaré n’aimait guère l’idée d’appliquer les mathématiques à quelque chose d’aussi erratique que le comportement humain. Toujours est-il que la thèse de Bachelier n’obtint que la mention honorable, et pas le “très honorable” qui lui aurait permis de décrocher un poste de professeur; que son travail, après publication aux presses de l’ENS, tomba dans l’oubli, jusqu’à ce qu’Einstein refasse la démonstration en 1905, devenant pour la postérité celui qui avait résolu le mouvement brownien. Et l’idée qu’il était possible d’appliquer le raisonnement mathématique aux fluctuations boursières tomba dans l’oubli.

L’idée pourtant refit son apparition plus de 50 ans plus tard, grâce à Paul Samuelson. Celui-ci s’était intéressé, entre autres, aux fluctuations boursières. Pour lui, celles-ci étaient déterminées par l’impact d’informations sur les titres reçues par différents types d’investisseurs. Le comportement de ces investisseurs pouvait conduire les cours à des fluctuations absurdes, des contagions, des paniques. Dans ces moments, les cours boursiers ne reflétaient que cet état mental.

Mais que se passait-il en dehors de ces phases bien particulières ? Surtout, comment savoir si les cours évoluaient de façon “normale” en fonction de l’information disponible, ou d’autres facteurs ? des économistes s’intéressaient au problème, en particulier Houthakker, essayant de donner un sens aux séries de cours boursiers à l’aide d’outils statistiques. L’un d’entre eux, J. Savage, envoya un jour à une dizaine de ses collègues (dont Samuelson) une série de quizz qu’il avait trouvée dans un ouvrage écrit par Bachelier en 1910, “le jeu, la chance, le hasard”.

Intrigué, Samuelson alla fouiner à la bibliothèque du MIT, n’y trouva pas le livre en question, mais quelque chose de beaucoup plus utile : la thèse de Bachelier, qui fut une révélation. Il disposait enfin d’un outil, la marche au hasard, permettant de comprendre l’évolution des cours boursiers. Samuelson corrigea le papier de quelques bizarreries (comme le fait que dans le modèle de Bachelier, il pouvait y avoir des prix négatifs), puis d’autres économistes travaillèrent sur cette base, pour construire un modèle décrivant l’évolution du cours d’un titre comme une marche au hasard autour du rendement moyen du marché boursier dans son ensemble.

Une remise en cause du talent des courtiers

On peut difficilement minimiser l’impact de cette découverte. Auparavant, on considérait que la bourse était affaire de talent, de courtiers plus ou moins compétents, qui soit parvenaient à anticiper les fluctuations des cours grâce à l’étude des performances des entreprises individuelles, soit qui lisaient dans les évolutions passées des cours des schémas permettant de déterminer les cours futurs. La théorie de la marche aléatoire (et le modèle d’équilibre des actifs financiers, qui en découle) démolit totalement cette histoire.

Si vraiment les fluctuations des cours suivent une marche aléatoire, alors toute tentative pour prévoir les cours futurs à l’aide des informations passées est vouée à l’échec, et n’est pas meilleure qu’un chamane qui vous dirait quels titres acheter après avoir étudié attentivement des entrailles de poulet. Si les cours des actions fluctuent de façon aléatoire autour du rendement moyen du marché, alors, il est impossible en moyenne de “battre le marché”, c’est à dire de construire un portefeuille d’actifs “intelligent” qui fera mieux, et avec moins de risque, qu’un simple fonds constitué des valeurs qui composent l’indice boursier.

Certains gestionnaires de fonds peuvent être chanceux, d’autres pas; mais leur talent n’a rien à voir avec leur performance. Et si un gestionnaire de fonds a eu de bons résultats dans le passé, la marche au hasard indique que cela ne garantit en aucun cas qu’il pourra reproduire sa performance dans l’avenir, pas plus que le fait d’avoir gagné au loto témoigne d’un quelconque talent individuel de prévision.

Comme on peut s’en douter, les professionnels des marchés financiers de l’époque n’ont pas reçu très favorablement une approche théorique qui expliquait qu’ils ne servaient à rien, et que le “talent” qu’ils vendaient fort cher à leurs clients n’était que de la chance. Certains pourtant devaient essayer de mettre en pratique ces idées. On vit apparaître progressivement, dans les années 60, des fonds reproduisant passivement le marché. C’est à ce moment-là que Mandelbrot fit son entrée dans l’histoire de la finance.

Mandelbrot était un immigré juif polonais, arrivé en France en 1936, qui avait passé ses années de lycée à se dissimuler des nazis, avant d’intégrer l’école polytechnique. Au début des années 50, il s’était intéressé à un livre du linguiste George Zipf traitant de la distribution des mots. Prenez un texte, classez les mots par ordre décroissant d’utilisation, représentez le résultat graphiquement : vous constaterez que quelques mots sont extrêmement utilisés, d’autres beaucoup moins. La courbe que vous obtenez plonge très rapidement, puis s’aplatit pour décroître très lentement. Ce genre de distribution avait été découvert à la fin du 19ième siècle; Pareto avait ainsi constaté que la répartition des revenus et des patrimoines était de ce type, selon le principe du 80-20 : 80% des revenus totaux étaient touchés par les 20% les plus riches.

Des fractales dans les cours boursiers

Récemment installé aux USA, Mandelbrot s’intéressait donc à la répartition des revenus et des patrimoines, pour voir dans quelle mesure exacte elle suivait ce type de loi statistique (que l’on baptise Levy-stable, du nom du mathématicien français Paul Lévy, professeur de Mandelbrot et qui avait refusé un poste de prof à Bachelier : le monde est petit…). Houthakker, intéressé par ses travaux statistiques, l’avait donc invité à faire une présentation lors d’un de ses séminaires à Harvard en 1960.

Mandelbrot arriva au séminaire un peu en avance, se rendit dans la salle de cours, où il rencontra Houthakker. Au tableau, il y avait quelques graphiques du cours précédent, qui n’avaient pas été effacés. Etonné, Mandelbrot remarqua : “tiens, c’est pratique, vous avez déjà mis au tableau les graphiques de ma présentation”. Houthakker le regarda sans comprendre. Mandelbrot insista : “oui, ces graphiques au tableau : ils ont exactement la même forme que ceux que je vais utiliser pour ma présentation”. Houthakker comprenait encore moins. Ces graphiques n’avaient rien à voir avec la distribution des revenus : il s’agissait de l’historique des prix des contrats à terme sur le coton à la bourse de Chicago.

Mandelbrot venait de trouver un nouvel objet pour ses travaux : les cours boursiers. Il se lança aussitôt dans l’analyse, travaillant avec les économistes spécialisés dans la finance. Et commença une tournée des universités américaines pour y présenter sa découverte : les cours boursiers ne semblaient pas obéir à la marche au hasard et la courbe de Gauss, selon le modèle de Bachelier; ils semblaient obéir à une “loi puissance”. L’autre propriété qu’ils avaient était d’avoir une forme “fractale” (Mandelbrot allait définir le mot au début des années 70) : quelle que soit l’échelle de temps que vous utilisez pour suivre la courbe des fluctuations, elle présente la même allure.

A ce stade, j’imagine que la différence entre “marche au hasard et courbe de Gauss, loi puissance” n’est pas très évidente. Un exemple permettra de le clarifier. Imaginez que vous ayez 100 personnes adultes dans un bar, et que vous vous intéressiez à leur taille. Vous allez leur trouver une taille moyenne (par exemple, 1.70 m). Vous allez aussi constater que les tailles sont distribuées selon une courbe de Gauss, qu’on appelle aussi “courbe en cloche”. Cela signifie que les tailles sont assez regroupées autour de la taille moyenne. Il peut y avoir des grands et des petits, mais ils ne sont pas immenses ni minuscules. Dans une courbe de Gauss, 95% des gens se trouvent dans un intervalle centré sur la moyenne, et de rayon deux fois l’écart-type (l’écart moyen à la moyenne). Dans l’exemple, si vous trouvez que l’écart-type de taille est de 10cm, vous constaterez que 95% des clients du bar ont une taille comprise entre 1.5 et 1.9 m.

Autre caractéristique de cette distribution : supposez que l’homme le plus grand du monde entre dans ce bar. Si l’on en croit le livre des records, il mesure 2.46 mètres. Que devient alors la taille moyenne des clients du bar? Elle va légèrement augmenter suite à l’entrée de cet homme extrême. Mais pas de beaucoup : si vous calculez, elle va augmenter de 7.5 mm, même pas un centimètre. même l’homme le plus grand jamais mesuré (2.72m) ne ferait monter la taille moyenne que d’un centimètre à peine. C’est une autre caractéristique des distributions gaussiennes : les extrêmes n’ont pas beaucoup d’importance.

Maintenant, supposons que nous nous intéressions au revenu annuel des clients de ce bar. On constate qu’ils ont un revenu moyen de 25 000 euros annuels (ce qui correspond en gros au revenu moyen des français). Et supposons que Liliane Bettencourt vienne boire un verre dans ce bar. Avec son patrimoine de 15 milliards d’euros, Liliane Bettencourt gagne environ 600 millions d’euros par an. Son entrée dans le bar ferait donc passer le revenu moyen des clients à environ 6 millions d’euros annuels! Comme vous le voyez, cette moyenne ne signifie plus rien : personne dans le bar, de près ou de loin, ne touche un tel revenu. Il n’y a que des gens qui touchent beaucoup moins, et une personne qui touche 100 fois plus. C’est la caractéristique d’une distribution suivant une loi puissance : les extrêmes ont un impact considérable.

Lorsqu’on a compris ce qu’est une loi puissance, on la voit partout, souvent dans les activités humaines. Prenez le répertoire de votre mobile : il est probable que vous passez plus de 80% de vos appels à une très faible fraction de vos contacts. Ou le coût des tremblements de terre : il y en a des milliers chaque année, et une toute petite fraction d’entre eux concentre la quasi-totalité des victimes et destructions qu’ils causent. Ou la distribution des revenus et des patrimoines. Ce que constatait Mandelbrot, c’est que les fluctuations des cours boursiers suivaient aussi une telle distribution.

Ce qui a la conséquence suivante. Si comme le considère le modèle de la marche au hasard, les cours boursiers suivent une loi normale, alors, on doit observer des fluctuations autour du cours moyen qui ne changent pas beaucoup. Si par exemple le cours d’une action fluctue en moyenne de 2% par jour, avec un écart-type de 1%, 95% des fluctuations quotidiennes se trouveront entre 0 et 4%. Une fluctuation extrême (+100% dans une journée) ne peut pour ainsi dire jamais se produire (une fois toutes les 100 milliards d’années, par exemple). Si par contre son cours suit une loi puissance, de tels évènements extrêmes se produiront certes rarement, mais peuvent se produire beaucoup plus souvent que ne le prévoit le modèle de la loi normale. Les cours boursiers seront alors surdéterminés par des évènements très rares.

Mais il y a pire. Dans certaines configurations, une loi puissance peut présenter une variance infinie. Or la variance des fluctuations des cours était au centre du modèle de la finance qu’établissaient les économistes, mesurant la “volatilité” des cours. Prise à la lettre, l’idée de Mandelbrot signifiait que l’essentiel des travaux statistiques que les économistes étaient en train de mettre en œuvre pouvaient être jetés à la poubelle, ou du moins, allaient présenter de sérieuses défaillances. L’évaluation du risque et du rendements des actifs financiers (les fameux alpha et beta) était beaucoup moins fiable et utilisable que ne l’indiquaient les modèles.

Les travaux de Mandelbrot suscitèrent dans un premier temps un très grand intérêt parmi les chercheurs. Un étudiant de l’université de Chicago, en particulier, devait les considérer comme une révélation : Eugene Fama. Très impressionné par l’idée selon laquelle dans un marché des titres qui fonctionne bien, les fluctuations de cours boursiers étaient imprévisibles, il s’attacha à leur étude et devait formuler rigoureusement ce que l’on appelle l’hypothèse d’efficience des marchés, dont une version est le fait qu’il est impossible de battre le marché sans disposer d’informations dont les autres opérateurs ne disposent pas. L’évolution de Fama dans les années 70 est intéressante parce qu’elle correspond au mouvement suivi par les économistes. D’abord très intéressé par les idées de Mandelbrot, en étudiant les cours boursiers concrètement, il devait se ranger progressivement vers le modèle de la marche au hasard.

Les 60’s et 70’s, le retour du hasard

Les économistes se sont rangés à la marche au hasard dans les années 60-70 pour deux raisons. Premièrement, cette théorie permettait des avancées rapides – théorie du portefeuille, modèle de Black-Scholes – qui au fur et à mesure se diffusaient du monde universitaire vers celui des praticiens de la finance.

Écouter Mandelbrot impliquait de laisser tomber une bonne partie de ces avancées, sans savoir par quoi les remplacer (les mathématiques nécessaires n’étant pas disponibles, ou donnant lieu à des applications très limitées). Avant de tout abandonner, il fallait vérifier si effectivement, ces outils étaient à côté de la plaque. Or, comme devait le constater Fama, la théorie de l’efficience des marchés et la marche au hasard pouvaient faire l’objet de tests empiriques; et au fur et à mesure, ces tests empiriques confirmaient l’idée de marche au hasard et de fluctuations suivant la loi normale.

A l’inverse, les prédictions des modèles inspirés de Mandelbrot n’étaient que difficilement testables. Au bout de quelques années, le rapprochement entre Mandelbrot et les économistes devait prendre fin, d’un commun accord. Pour les économistes, parce que le modèle de la marche au hasard gaussienne donnait des résultats; pour Mandelbrot, parce qu’il avait tendance à aller de sujet en sujet, sans se focaliser sur un seul. Il allait consacrer les années 70 à travailler sur les fractales, et la finance cessa d’être son objet d’étude principal.

Le retour de Mandelbrot dans l’économie

Dans la seconde moitié des années 80, pourtant, les choses changèrent. Mandelbrot accéda à la célébrité dans la communauté des mathématiciens, et dans le grand public, grâce à son livre “the fractal geometry of nature” paru en 1982, puis à son rôle décrit dans le best-seller “chaos” de James Gleick qui rendait les fractales et la théorie du chaos accessible au grand public. Surtout, un évènement devait bouleverser la théorie financière : le krach de 1987.

Depuis le début des années 80, l’hypothèse d’efficience des marchés était secouée dans le monde universitaire. Les validations empiriques sur lesquelles elle reposait semblaient ne s’appliquer qu’à une période particulière, et semblaient de moins en moins vraies. Larry Summers avait publié sa célèbre conférence intitulée “il y a des idiots : regardez autour de vous” critiquant les hypothèses d’acteurs rationnels, et montrant de façon flamboyante que les “validations empiriques” de la théorie de l’efficience des marchés correspondaient au fait d’aller au supermarché, de constater que le prix d’un flacon d’un demi-litre de ketchup était en gros égal à celui de deux flacons d’un quart de litre, pour en déduire que “le marché du ketchup était efficient”.

Le krach de 1987 devait précipiter la critique des modèles financiers assis sur la marche au hasard : selon ce modèle pris à la lettre, cet évènement extrême n’avait pour ainsi dire aucune chance de se produire. En réalité, il y a beaucoup trop d’évènements extrêmes dans les fluctuations des cours, et ceux-ci ont beaucoup trop d’impact, pour conserver en l’état l’idée que les fluctuations des cours suivent une loi normale.

Aucune nouvelle information particulière ne pouvait justifier la plongée des cours de 1987. Fisher Black, qui avait quitté le monde universitaire pour travailler chez Goldman Sachs en 1984, avait déclaré que “les marchés semblent beaucoup plus efficients depuis un bureau d’université que dans un bureau à Wall Street”. Fama lui-même est revenu à ses origines, et à une perspective beaucoup plus proche de celle de Mandelbrot des fluctuations financières.

Les temps étaient mûrs pour retravailler. A partir des années 90, la théorie de la finance devait donner lieu à de nombreux travaux visant à enrichir le modèle standard pour le rapprocher d’une perspective plus réaliste; vous trouverez quelques exemples de ces évolutions ici. Il y a d’ailleurs là un paradoxe. L’époque où les universitaires développaient des modèles montrant les limites de la théorie standard de la finance (marche au hasard, Merton-Scholes) a été celle dans laquelle cette même théorie standard a fait son entrée dans le monde professionnel de la finance, avec un rôle de plus en plus important des “quants”, ces mathématiciens de haut vol chargés de faire de l’ingéniérie financière à l’aide de modèles sophistiqués pour des banques ou des hedge funds.

L’un des exemples fameux de cette entrée des quants dans la finance restera le fonds LTCM, dont les succès comme les échecs traduisent les triomphes et la difficulté à intégrer les évènements rares de la finance issue du modèle de Black-Scholes. Il y aurait une merveilleuse étude, sociologique, économique, psychologique, à faire pour comprendre la façon dont les modèles de la finance sont utilisés par les institutions financières sans prendre suffisamment en compte leurs limitations, que pourtant tout le monde connaît. Certains le font, comme Paul Wilmott. Mais ils restent isolés. Trop de gens considèrent que l’on peut se contenter d’une analyse sur le thème “les financiers sont stupides et cupides (et de droite), ils croient leurs modèles supersophistiqués et après c’est nous qu’on paye” ce qui, vous en conviendrez, ne va pas très loin.

En 2004, Mandelbrot est revenu à la finance dans un livre célèbre, “the misbehaviour of markets“, traduit en français sous le titre “une analyse fractale des marchés“. Ses successeurs les plus nets sont probablement ceux que l’on appelle les éconophysiciens. Un peu comme Mandelbrot, ils appliquent des modèles mathématiques (inspirés le plus souvent de modèles utilisés en physique) aux données économiques et financières pour déterminer des manières plus satisfaisantes d’analyser celles-ci.

Pour l’essentiel, les éconophysiciens ne sont guère appréciés des économistes. il faut dire que la façon dont ils sont arrivés dans le domaine n’était guère diplomatique, et souvent très arrogante. Ils ont trop tendance à dire aux économistes “vos petits modèles mathématiques sont bons pour les enfants; vous allez voir ce que de vrais scientifiques savent faire”, et au passage, surestiment l’ampleur de leurs apports, et méconnaissent les connaissances accumulées par les économistes. En bref, ils se comportent un peu comme les économistes se comportent vis à vis des sociologues lorsqu’ils abordent leurs domaines. On peut espérer que ces deux tendances finissent par parvenir à dialoguer, comme l’a fait Mandelbrot avec les économistes en son temps.

Dans l’histoire de la finance, Mandelbrot a un statut particulier : il n’en a jamais véritablement été considéré comme un membre, sans être en dehors, et en servant d’inspirateur et d’aiguillon à des générations de chercheurs, de spécialistes et de praticiens. A cette place, pourtant, son influence est considérable, et ne fait que commencer.

>> Illustrations FlickR CC : SamikRC, Barabeke, Foxtongue,fd

>> Article initialement publié sur Éconoclaste

]]>
http://owni.fr/2010/10/29/linfluence-de-mandelbrot-dans-la-finance/feed/ 6
Les retraites: un problème sans solution? http://owni.fr/2010/10/26/les-retraites-un-probleme-sans-solution/ http://owni.fr/2010/10/26/les-retraites-un-probleme-sans-solution/#comments Tue, 26 Oct 2010 08:56:19 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=33593 Autour d’une table. Sur celle-ci, les reliefs d’un dîner. En bruit de fond, on entend un air de musique interrompu parfois par des bruits de vaisselle en provenance de la cuisine voisine.

Belle-mère : Mon gendre, j’ai une question à vous poser.

Gendre (un peu inquiet) : Je vous écoute, madame. De quoi s’agit-il?

Belle-mère : Voilà. Il y a quelques jours, mon mari et moi recevions ici quelques amis et collègues. Vous connaissez mon mari; bien évidemment, ils ont passé la soirée à discuter politique. Je n’ai que peu de goût dans ce domaine, et en général n’en parle pas. Mais là, à un moment, est arrivée la question des retraites. Un sujet qui, vous le savez, va très bientôt nous concerner. Je dois vous avouer, à ma grande honte, que je ne me suis guère préoccupé de cette question; mais la conversation m’a inquiétée. Je n’ai rien compris, mais tous nos amis semblaient persuadés d’un problème; et tous avaient des propositions très différentes pour le résoudre, et se sont vivement opposés. Après cela, je me trouve dans la plus grande confusion. Alors je me suis dit que peut-être, vous pourriez m’éclairer. Qu’est-ce exactement que ce problème des retraites?

Gendre (visiblement soulagé) : Cela peut se comprendre facilement. Dans tous les pays, il y a des gens qui sont en âge de travailler, et des gens qui ne sont pas en âge de travailler, soit trop jeunes, soit trop âgés. Pour simplifier, on dit que les gens d’âge compris entre 15 et 64 ans sont en âge de travailler, et pas les autres. On appelle ratio de dépendance (désolé – je sais que vous n’aimez pas le jargon) le rapport entre le nombre de personnes en âge de travailler et les autres. Or, sous l’effet de la baisse de la natalité dans nos pays, et surtout de la hausse de l’espérance de vie, ce ratio de dépendance est appelé à considérablement diminuer au cours des 40-50 prochaines années : les populations vont avoir tendance à diminuer, et à vieillir. Aujourd’hui, il est d’environ 5 dans ces pays, ce qui signifie qu’il y a 5 personnes en âge de travailler pour une personne inactive. Étant données les tendances actuelles, il pourrait passer à 2,5 vers 2050; ce qui signifie que chaque personne en âge de travailler aura en moyenne, à sa charge, deux fois plus de gens qu’aujourd’hui.

Belle-mère : Cela ne semble pas un si grand changement…

Gendre : Détrompez-vous. Il y a quelques années, l’ONU a calculé « l’équivalent immigration » du déficit démographique dans différents pays. Pour maintenir la population française constante entre 1995 et 2015, ont-ils calculé, il faudrait d’ici là accueillir 1,5 millions d’immigrants actifs. Cela ne fait pas beaucoup : environ 27 000 migrants par an, soit moins que l’immigration française actuelle. Mais maintenir la population ne prend en compte que l’effet de la natalité réduite; pour maintenir le ratio de dépendance, c’est-à-dire compenser le fait que les personnes vivent plus âgées, il faudrait accueillir d’ici 2050 94 millions d’immigrants, soit 1,7 millions de personnes par an. La population française passerait alors à 160 millions de personnes. A titre de comparaison, il y a environ 800 000 naissances par an en France. Vous voyez que de tels chiffres sont considérables : il n’est ni possible, ni souhaitable, que la population française augmente dans de telles proportions.

Belle-mère : mais alors, concrètement, qu’est-ce que cela signifie?

Gendre : cela signifie que les retraites vont coûter de plus en plus cher. Or elles sont prélevées sur les revenus des actifs sous forme de cotisations; ceux- ci vont donc faire l’objet d’un prélèvement qui va s’élever. Ou alors, ce sont les pensions de retraite qui baisseront. Il y a un effet qui vient mitiger cela, c’est celui de la croissance économique; si l’on reste sur le rythme du 20ème siècle, le revenu par habitant a augmenté d’environ 2% par an. A ce rythme, les revenus sont pratiquement multipliés par trois en 50 ans. Mais utiliser cette croissance pour financer les retraites risque de poser quelques problèmes.

Belle-mère : lesquels, exactement?

Gendre : déjà, il n’est pas certain que cela suffise. Les coûts du vieillissement de la population ne se limitent pas au coût des retraites; il faut aussi compter le coût accru du système de santé, car les personnes âgées consomment plus de soins, et les soins médicaux coûtent de plus en plus cher. Par ailleurs, nous ne savons pas du tout si la croissance future sera la même que celle du siècle dernier. Il n’est pas impossible que le vieillissement de la population réduise cette croissance, pour diverses raisons. D’abord, parce que les personnes en âge de travailler seront moins incitées à le faire si elles constatent qu’une part croissante de leur salaire est absorbée par les prélèvements de retraite. Mais aussi parce que la croissance implique un rythme relativement rapide de changements techniques. Regardez vos parents, comme ils ont du mal à se faire à l’usage de l’ordinateur. Si une grande partie de la population connaît des difficultés pour s’adapter aux nouvelles techniques, cela peut ralentir la croissance.

Belle-mère : excusez-moi, mais pourquoi ne devrait-on ponctionner que les salaires des personnes qui travaillent? J’entends à la radio le petit jeune, vous savez, le facteur…

Gendre : Olivier Besancenot?

Belle-mère : oui, c’est cela. Donc hier, je l’ai entendu à la radio, et il disait qu’il faudrait financer les retraites en taxant les profits, qu’il dit très élevés, des entreprises. N’est-ce pas une bonne idée?

Gendre : hélas, madame, cela ne change pas la situation. Les entreprises font leurs calculs sur la base de leur profit après impôts. Pour maintenir ceux-ci avec des impôts accrus, elles seraient amenées à réduire les salaires de leurs employés : ceux-ci se retrouveraient donc dans la même situation qu’avec des impôts accrus. Peut-être que les taux de profits des entreprises pourraient, toutefois, baisser; mais cela aurait des effets sur la croissance, en réduisant les revenus issus de l’activité entrepreneuriale, et donc en dissuadant celle-ci. Quoi que l’on fasse, on en revient au même problème : ceux qui travaillent devront supporter une charge accrue.

Belle-mère : mais… il y a beaucoup de gens qui ne travaillent pas, beaucoup de chômeurs. Si tous ces gens trouvaient du travail, cela arrangerait les choses, non?

Gendre : évidemment. Mais n’oubliez pas que le problème est avant tout un problème de répartition de la population entre ceux qui sont en âge de travailler et les autres; même si tous ceux qui sont en âge de travailler le font, le problème subsiste.

Belle-mère : si je comprends bien, vous êtes en train d’expliquer que les retraites sont compromises; pensez-vous que mon mari et moi devrions mettre plus d’argent de côté? Et de façon générale, que tout le monde devrait en faire autant?

Gendre : vous touchez là l’une des questions les plus récurrentes sur les retraites. Il existe deux façons de payer pour les retraites, que l’on appelle répartition et capitalisation. La répartition, c’est le système qui existe actuellement en France : on prélève des cotisations sur ceux qui travaillent pour verser des pensions aux retraités. La capitalisation, de son côté, consiste à faire en sorte que les gens constituent un capital au long de leur vie active, et consomment celui-ci lorsqu’ils sont en retraite. Pour cela, on voit apparaître différents mécanismes, facultatifs ou obligatoires, et faisant parfois l’objet d’incitations fiscales. Vous avez peut-être entendu parler des fonds de pension?

Belle-mère : eh bien, certes… je connais le mot. L’autre soir, l’un des amis de mon mari semblait dire que c’était une catastrophe que cela n’existe pas en France. Mais à part cela…

Gendre : les fonds de pension sont des organismes qui gèrent l’épargne-retraite des gens, dans les pays ou les retraites sont fondées sur la capitalisation. De ce fait, ils disposent de masses de capitaux importantes, qu’ils vont ensuite placer sur les marchés financiers. Et effectivement, certains recommandent, puisque les retraites par répartition sont soumises à des difficultés, d’adopter en complément un système de retraites par capitalisation, voire de remplacer l’actuel système par un système de fonds de pension. Mais il y a plusieurs raisons d’être sceptique. Premièrement, la transition d’un système par répartition à un système par capitalisation est difficile : il faut que pendant la transition, les actifs paient à la fois les pensions de l’ancien système et se constituent un capital : on retrouve le même problème qu’avant, les actifs doivent payer. Deuxièmement, la différence entre capitalisation et répartition n’est pas si importante qu’on le pense. Pour que la capitalisation fonctionne, il faut qu’au moment ou les retraités dépensent le patrimoine qu’ils ont accumulé, il y ait des actifs qui souhaitent le leur acheter… Au total, C’est donc toujours à un prélèvement sur le revenu des actifs que l’on revient.

Belle-mère : oui, mais mettre de l’argent de côté pendant plusieurs années rapporte, ce que ne fait pas un argent qui va directement aux retraités. N’y a- t-il pas là une différence?

Gendre : Oui, les revenus épargnés rapportent des intérêts. Mais dans un système par répartition aussi, vous touchez plus que vous n’avez cotisé, du fait de la croissance économique. Vous recevez votre pension au moment ou les salaires des actifs ont augmenté, du fait de celle-ci. Ce qui donne d’ailleurs lieu à un résultat central de l’économie des retraites : si les taux d’intérêt sont égaux au taux de croissance, capitalisation et répartition sont exactement équivalents. Si les taux d’intérêt sont supérieurs au taux de croissance, c’est la capitalisation qui a l’avantage; si la croissance est supérieure aux taux d’intérêt, c’est la répartition qui a l’avantage.

Belle-mère (semble un peu distraite) : Oui, heu… Et donc maintenant, qu’est- ce qui est le mieux?

Gendre : jusqu’à la fin des années 70, c’était la répartition; depuis, le rendement de la capitalisation est devenu supérieur. Cela fait partie des arguments favorables à la capitalisation; beaucoup se disent que ce serait une meilleure affaire pour les retraités que le système actuel. Mais cela ne résout pas la question de la transition d’un système à l’autre. Et en pratique, ce n’est probablement pas la raison pour laquelle existe une telle pression favorable à la capitalisation. La vraie raison, c’est qu’un système de fonds de pension « à la française » constituerait une considérable aubaine pour l’industrie financière en France (banques et compagnies d’assurance). Cela leur offrirait d’importantes quantités de capitaux à gérer, et sans grande difficulté, puisque ces placements feraient l’objet d’avantages fiscaux. Après tout, si aujourd’hui quelqu’un veut épargner pour sa retraite, strictement rien ne l’empêche de le faire : il doit simplement payer des impôts. On peut trouver de très bonnes raisons pour réduire la fiscalité qui pèse sur l’épargne; mais il n’y a aucune raison de favoriser spécifiquement l’épargne gérée par de grandes institutions financières, par rapport à celle de l’individu qui décide d’acheter des titres en propre. Sauf bien entendu si l’on a une autre idée derrière la tête.

Belle-mère (semble totalement perdue) : Quelle idée?

Gendre : l’idée de verrouiller le capital des grandes entreprises françaises en faisant en sorte qu’elles soient au bout du compte contrôlées par des fonds de pension nationaux que l’on incite à investir dans ces entreprises. Ce qui permet d’éviter que des étrangers ne prennent le contrôle de ces entreprises, et que celles-ci restent les chasses gardées de nos classes dirigeantes. C’est un objectif bien éloigné de la sauvegarde des personnes âgées, vous conviendrez.

Belle-mère (bâille) : C’est très intéressant ce que vous dites… Mais alors, quelle est la solution au problème des retraites?

Gendre : il n’y en a pas.

Belle-mère : Vraiment pas?

Gendre : Non. Il n’y a pas de politique qui permettrait de résoudre le problème de façon magique. A terme, il faudra faire payer un peu plus les cotisants, réduire un peu les pensions de retraite, peut-être combiner cela avec une augmentation de l’âge de la retraite. Sous quelle forme? Nous ne pouvons pas le savoir aujourd’hui. Il faudra probablement s’adapter au cours du temps, avec des réformes mises en oeuvre au fur et à mesure, qui dépendront des équilibres politiques et des circonstances à venir. Pour l’instant on se contente de faire quelques économies en réduisant à terme les pensions des retraités, en augmentant un peu la durée de cotisation et en ramenant certains systèmes plus avantageux vers la moyenne générale; mais si cela va trop loin dans le sens d’une réduction des revenus des retraités, les gens s’adapteront en épargnant un peu plus, ou accepteront l’idée de vivre plus chichement lorsqu’ils cessent de travailler; ou, encore, les personnes âgées profiteront de leur nombre pour exiger des gouvernements des pensions plus confortables. Pour faire rapide, nous ne savons pas ce qui va se passer, et les diverses réformes gouvernementales n’y changeront pas grand-chose.

Belle-mère (semble penser à autre chose) : Bon, bien tout cela est très intéressant. Je ne suis pas sûre d’avoir tout compris…

Gendre : Je peux vous réexpliquer certaines choses, si vous le souhaitez.

Belle-mère : Non merci! En tout cas je me sentirai moins désemparée la prochaine fois que mon mari et ses amis parleront de ce sujet. Vous savez, mon mari apprécie toujours vos explications. Mais…

Gendre : Oui?

Belle-mère : Quand même, ne pensez-vous pas que si la jeune génération d’aujourd’hui avait plus d’enfants, cela arrangerait les choses?

Gendre : Extrêmement peu. Je vous l’ai dit, c’est un problème d’allongement de la durée de vie beaucoup plus que de natalité, et la natalité théoriquement nécessaire pour maintenir la situation démographique est à la fois irréaliste et peu souhaitable.

Belle-mère : Quand même, je continue de penser que si les jeunes d’aujourd’hui avaient plus d’enfants… D’ailleurs, je me disais que vous…

Gendre (se lève brusquement) : Oh, mais nous discutons, et pendant ce temps, votre fille est seule à ranger la cuisine. Je vais aller l’aider un peu.

Le gendre quitte la pièce précipitamment. La belle mère reste seule perdue dans ses pensées. Puis elle se lève et à son tour se dirige vers la cuisine.

-

Suivez toute la journée sur OWNI le développement d’Ownipolitics et découvrez ce soir la béta du site.

Publié sur le blog d’éconoclaste, extrait du livre « Sexe, drogue… et économie », Alexandre Delaigue & Stéphane Ménia, Pearson, 2008

crédits photos Flick’r Vetustense et Spacelion

]]>
http://owni.fr/2010/10/26/les-retraites-un-probleme-sans-solution/feed/ 8
Les belles erreurs statistiques http://owni.fr/2010/10/24/manifs-cannabis-foot-et-autres-mauvais-usages-des-statistiques/ http://owni.fr/2010/10/24/manifs-cannabis-foot-et-autres-mauvais-usages-des-statistiques/#comments Sun, 24 Oct 2010 17:31:45 +0000 Alexandre Delaigue (Econoclaste) http://owni.fr/?p=33447 Je n’aurai pas dû lire Proofiness. Cet excellent livre, sur la façon dont les chiffres sont torturés, manipulés, par journalistes, politiques, militants, magistrats, a un gros défaut : il n’est plus possible ensuite de lire le journal sans sauter au plafond d’énervement. Trois exemples du samedi 23 octobre.

Les français souhaitent-ils la fin des grèves?

Commençons par un sondage, présenté dans un article titré les français souhaitent la fin des grèves. Un magnifique concentré, que ce soit l’article, ou le sondage.

Pour le sondage, d’abord, ça ne rigole pas. On nous colle partout des sigles “ISO”, sans doute pour bien nous persuader que nous sommes face à de la science rigoureuse. La méthodologie, indiquée page 3, est comique de précision : ce sont mille et une personnes qui ont été interrogées. Vous vous demandez sans doute “pourquoi ce nombre”. Il y a deux réponses. Premièrement, sur un sondage effectué aléatoirement, le nombre de personnes interrogées détermine la marge d’erreur. Or la marge d’erreur est indiquée plus loin sur la page, ce qui nous indique que ce nombre de personnes interrogées est redondant.

Mais il ne l’est pas. Tenez, un petit test. Laquelle de ces deux phrases vous semble la plus convaincante : “les français sont majoritairement hostiles au bouclier fiscal” et “65% des français sont hostiles au bouclier fiscal”. Si vous êtes comme tout le monde, la seconde phrase vous paraît bien plus convaincante. Pourtant les deux disent la même chose. Mais la présence d’un nombre dans la seconde donne l’impression qu’il y a eu mesure, et que cela rend la phrase plus “scientifique”. Pourtant, nulle part n’est indiqué comment ce chiffre a été déterminé (je viens de l’inventer, en fait). Ce phénomène par lequel la simple présence de nombres persuade est renforcé par la précision apparente du nombre. Par exemple, si j’écris à la place de la phrase “64.93% des français sont contre le bouclier fiscal” cela semble plus convaincant que 65%, qui semble arrondi. Pourtant, ce nombre n’est pas moins inventé que le précédent.

Dans un sondage, le nombre de personnes interrogées ne sert qu’à une chose : déterminer la marge d’erreur. Celle-ci est à peine modifiée par le fait d’interroger 1000 ou 1001 personnes. la précision exacte du nombre de personnes interrogées, ici, sert donc beaucoup plus à établir la conviction de scientificité qu’à informer réellement.

- Parlons-en, d’ailleurs, de la marge d’erreur. Elle correspond, dans un sondage, au premier type d’erreur, l’erreur statistique. Celle-ci provient du phénomène suivant. Supposez une urne remplie de 10000 boules, 6000 rouges et 4000 jaunes. Vous prélevez un échantillon aléatoire de 10 boules dans cette urne. Votre échantillon peut reproduire la répartition de la population (6 boules rouges et 4 jaunes). Mais il y a de fortes chances de tomber sur un échantillon différent de la population (par exemple, 7 rouges et 3 jaunes, ou même 10 rouges et zéro jaunes). Par contre, plus votre échantillon est grand, plus le risque d’obtenir un échantillon très différent de la population diminue. Cela vous donne donc de fortes chances, lorsque vous prélevez un échantillon suffisamment grand, d’obtenir un échantillon proche de la population. Cette proximité est la marge d’erreur, vous en avez quelques exemples en suivant ce lien (en anglais, NdCE).

Mais la marge d’erreur ne correspond qu’à l’erreur statistique. Elle ne prend pas en compte l’autre erreur, la plus courante : l’erreur structurelle. L’erreur structurelle vient de ce qu’en pratique, les sondages ne correspondent jamais au cas théorique de boules de couleur prélevées dans une urne, comme dans les exercices de mathématiques. En pratique, les sondages sont effectués par des personnes réelles, qui peuvent se tromper en collectant leurs données; surtout, particulièrement dans les sondages réalisés auprès de personnes réelles, il y a des biais de collecte d’information. Il est par exemple impossible de sonder une personne qui refuse de répondre aux sondages. Lorsque vous lisez “x% des français pensent que” il faut lire “x% des français qui répondent aux sondages pensent que”. Les gens peuvent mentir. Les gens peuvent vouloir être “bien vu” de la personne qui les sonde (et quand on est interrogé par une jeune voix féminine, on est tenté de lui faire plaisir). Les réponses peuvent être orientées par la façon dont les questions sont posées, voire même par l’ordre dans lequel elles sont posées : si par exemple on vous demande d’indiquer vos opinions politiques avant de vous poser des questions de société, vous aurez beaucoup plus tendance à vous conformer aux opinions-type de votre camp.

Les sondeurs déclarent toujours l’erreur statistique, sous forme de marge d’erreur. Mais ils ont une fâcheuse tendance à laisser croire que la marge d’erreur mesure tous les risques d’erreur, y compris l’erreur structurelle. Ce n’est pas le cas. Pour une raison simple : si l’erreur statistique est connue et limitée, l’erreur structurelle peut potentiellement rendre le sondage totalement faux. Avec trop d’erreur structurelle, la “marge d’erreur” peut devenir 100%.

Dans cet exemple (voir toujours page 3), il y a un biais énorme : le mode d’interrogation, en ligne. Là encore, la “scientificité” est assise sur la dénomination du système d’interrogation, désignée par un sigle en anglais. Ca fait tout de suite plus sérieux. Mais cela a une implication claire : les personnes qui ont servi à ce sondage correspondent à un sous-groupe particulier de la population, les gens qui ont un ordinateur et un accès internet, et qui acceptent de répondre à un sondage en ligne. Il y a très peu de chances qu’ils représentent la population française. L’application là-dessus de la “méthode des quotas”, au passage, loin d’améliorer le résultat, ne fait qu’introduire de nouveaux biais.

A partir de ce monument de scientificité, la façon dont l’article est présentée peut elle aussi totalement en modifier la perception. En s’appuyant sur la page 5 du document, on aurait très bien pu titrer “61% des français approuvent le mouvement contre la réforme des retraites”. Etrangement, ce sont les questions page 8 et 10 qui servent pour faire le titre : “les français souhaitent la fin des grèves”. Parce que, comme on peut toujours s’y attendre avec un sondage, poser la même question avec des formulations et des informations différentes modifie le résultat obtenu. Un esprit raisonnable, face à ces contradictions, en conclurait que ce sondage ne nous apprend rien d’intéressant. C’est oublier les talents d’exégèse que l’on peut déployer pour donner du sens à une série de nombres qui n’en a aucun.

L’article nous indique donc que “l’opinion a un point de vue complexe et nuancé”. qu’en termes galants… C’est que le sondage ne donne pas les mêmes résultats selon qu’on demande aux gens s’ils “comprennent” ou “soutiennent” les manifestations. On aurait pu essayer d’autres verbes : “approuvez-vous”? “Appréciez-vous”? “vous intéressez-vous”? et à chaque fois, on aurait eu un nombre différent. Du commentaire sur du bruit.

Schizophrénie et cannabis: corrélation n’est pas causalité

Deuxième article : “Panini retire du marché le jeu polémique des Skyzos”. On y apprend que suite à des plaintes d’associations, Panini retire un jeu de la vente. Mais comme il est dans la rubrique “santé”, l’article se doit de nous apprendre autre chose que cette anecdote sans grand intérêt. Le dernier paragraphe nous instruit donc sur la schizophrénie de la façon suivante :

Si l’hérédité est une composante importante dans son apparition, d’autres facteurs environnementaux, comme l’isolement social ou la consommation de cannabis, peuvent également peser.

Voici un second exemple de chiffres torturés : la corrélation prise pour une causalité. Il existe en effet de nombreuses études médicales montrant l’existence d’une corrélation entre différentes variables, ici, l’apparition de la schizophrénie et l’isolement social ou la consommation de cannabis. Voici ce que ces études montrent : les schizophrènes ont plus tendance que le reste de la population à consommer du cannabis ou à être isolés socialement. Et c’est tout. Vous voyez que la causalité peut être interprétée dans tous les sens. Il est fort probable, par exemple, qu’une personne commençant à manifester des signes de schizophrénie va avoir tendance à s’isoler socialement. On pourrait supposer également que face à l’angoisse que causent les premiers symptomes de cette maladie, les gens soient incités à consommer du cannabis pour les calmer. Dès lors, c’est la schizophrénie qui cause isolement et toxicomanie. Ou alors, comme indiqué dans l’article, la causalité va dans l’autre sens. Comment savoir?

En pratique, il y a des moyens pour essayer de mieux distinguer le sens de la causalité. Mais ils sont difficiles à mettre en oeuvre, et eux-mêmes sujets à des erreurs. Surtout, ils ne sont que très rarement utilisés pour les études médicales. C’est ce qui fait qu’une quantité invraisemblable d’études médicales est fausse. Mais l’article n’est pas là pour instiller le doute, mais pour instiller discrètement une morale : le cannabis, ça rend fou.

Lorient et Nancy: gazon maudit?

Enfin, à tout seigneur tout honneur, l’Equipe nous gratifie d’un monument hilarant au dénombrement bidon, dans cette fine analyse consacrée aux équipes de foot de Lorient et Nancy. Les deux équipes, cette année, sont en effet passées au gazon synthétique. Et malheur : les résultats ne suivent pas. A l’appui de cette démonstration, un schéma avec plein de jolies couleurs mais parfaitement illisible, d’où il semble ressortir que les deux équipes ont cette année de bien mauvaises performances, en particulier à domicile. Pourtant, une connaissance même minimale du football indique qu’il y a des tas de facteurs qui font qu’une équipe, d’une année sur l’autre, voit ses résultats se dégrader après 9 journées : changements de joueurs, chance, adversaires rencontrés, progrès relatif des autres équipes, etc. cette même connaissance minimale indique qu’il peut y avoir des tas de raisons d’adopter un terrain synthétique, autres que la volonté d’obtenir de meilleurs résultats : coût, climat local (il gèle souvent à Nancy, il pleut souvent à Lorient). Enfin, je me demande même pourquoi j’explique à quel point nous sommes là dans le grand n’importe quoi.

A bientôt, dans le monde merveilleux des copies laborieuses à partir de chiffres inutiles.

Article publié à l’origine sous le titre Un jour ordinaire dans le monde merveilleux des faux nombres sur le blog Econoclaste. Comme souvent, les commentaires valent le détour.

Illustration FlickR CC Obscurate Associate ; Thomas Duchnicki ; artnoose.

]]>
http://owni.fr/2010/10/24/manifs-cannabis-foot-et-autres-mauvais-usages-des-statistiques/feed/ 14