OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Open Data, un premier bilan français http://owni.fr/2012/05/31/open-data-france-premier-bilan-francais-etalab/ http://owni.fr/2012/05/31/open-data-france-premier-bilan-francais-etalab/#comments Thu, 31 May 2012 07:45:45 +0000 Hubert Guillaud http://owni.fr/?p=111977 Internet Actu, dans un papier que nous republions ici.]]> Claire Gallon de LiberTIC, l’association nantaise de promotion de l’ouverture des données publiques (@LiberTIC), et Charles Nepote du programme Réutilisation des données publiques de la Fondation internet nouvelle génération (Fing) (@CharlesNepote, @la_fing), principaux coorganisateurs de la Semaine européenne de l’Open Data qui avait lieu à Nantes du 21 au 26 mai 2012, ont commencé par poser un état des lieux assez complet du mouvement de réutilisation des données publiques.

OpenDataWeek - photo cc Ton Zijlstra

OpenDataWeek - photo cc Ton Zijlstra

Ce que l’Open Data a réalisé

Le mouvement pour la réutilisation des données publiques est un mouvement mondial né début 2009 et qui a connu une forte accélération en 2010-2011, estime Charles Nepote. Si le mouvement a été esquissé par la liste des 8 principes pour un gouvernement ouvert en décembre 2007, qui a initié et cristallisé une dynamique auprès de multiples acteurs associatifs, il est devenu un principe avec l’investiture de Barack Obama et le lancement en mars 2009 du projet Data.gov (voir l’historique retracé par Wikipédia ou celui de Simon Chignard sur son blog : “Comment l’Open Data est devenu un objet politique”).

La France entr’ouverte

La France entr’ouverte

L'État a lancé son site data.gouv.fr. La France, enthousiaste, ouvre donc ses données publiques comme les États-Unis. ...

Aujourd’hui, dans le monde, une quinzaine d’Etats et une cinquantaine de communautés urbaines (sans compter les villes du Royaume-Uni, où une centaine de communautés urbaines se sont lancées dans la libération de données sous l’impulsion du gouvernement britannique) parmi les plus importantes villes américaines sont impliquées. PublicData.eu recense quelques 215 initiatives d’acteurs publics en Europe, que ce soit au niveau national (Belgique, Finlande, Suède, Norvège, Espagne, Grèce, France, Royaume-Uni…) ou régional.

En France, c’est Kéolis et Rennes Métropole qui ont lancé la première initiative en 2010 avec l’entrepôt de données de Rennes Métropole, rejoint par d’autres initiatives régionales et territoriales (dont les plates-formes Open Data de Paris, de la Saône-et-Loire, de la Loire Atlantique, du Loir-et-Cher, de la Gironde, de la Communauté urbaine de Bordeaux, du Grand Toulouse, de Nantes, Montpellier… voire la carte des initiatives d’ouverture des données publiques établie par LiberTIC), puis par le lancement fin 2011 d’EtaLab puis du portail Data.gouv.fr, l’initiative portée par l’Etat. En 2 ans, le paysage juridique s’est simplifié, comme le soulignait Regards Citoyens il y a quelques mois. L’essentiel des jeux de données convergent autour de deux licences : l’Open Database License (ODLB) et la Licence ouverte [pdf]. L’initiative Open Data va-t-elle être portée plus avant par son inscription dans la charte de déontologie du gouvernement Ayrault ?

Carte de France de l'Open Data maintenue par LiberTIC, version 4, mise à jour janvier 2012

Carte de France de l'Open Data maintenue par LiberTIC, version 4, mise à jour janvier 2012

Pourtant “si le mouvement commence à se structurer, force est de reconnaître que nous en sommes encore au temps des pionniers“, souligne Charles Nepote. Si on observe la carte de France des initiatives d’ouverture des données publiques maintenues par LiberTIC, on constate que de plus en plus de collectivités s’engagent à différents niveaux de territorialité dans le domaine de la publication de données réutilisables. D’ici 18 mois, 11 villes sur les 15 plus grandes villes de France auront ouvert leurs données. Régions, conseils généraux, villes et agglomérations, mais également prestataires de services des villes (comme Suez Environnement) ou sociétés privées (le portail Open Data de la SNCF par exemple) ont rejoint le mouvement, sans compter le rôle moteur d’associations citoyennes qui organisent la coproduction des données comme Open Street Map ou Regards Citoyens. Pas moins de 8 mouvements citoyens locaux de réutilisation de données ont déjà vu le jour (c’est-à-dire initiés par des associations de citoyens et non pas par l’acteur public), comme Open Data 69 ou le collectif Open Data de Touraine. Hors la libération de données par l’Etat, on a plus de 800 jeux de données ouvertes par les acteurs territoriaux qui ont permis de produire plus de 200 applications…

La France a rattrapé son retard au démarrage. – Charles Nepote

Les défis à venir de l’Open Data

Reste que ces premiers chiffres passés, l’approche de l’Open Data demeure encore très technique, très geek. L’une des grandes questions que se posent les animateurs du mouvement, c’est comment toucher le grand public, comment élargir la dynamique à d’autres acteurs qu’à des gens impliqués dans la publication et la réutilisation des données. Le mouvement n’a pas réussi notamment à toucher les acteurs traditionnels de l’économie sociale et solidaire ou de la démocratie participative.

Des données culturelles à diffuser

Des données culturelles à diffuser

La libération des données est loin d'être complètement acquise en France. Si le portail Etalab est une première étape, ...

Néanmoins, l’Open Data n’a pas produit que des jeux de données. Il a montré tout d’abord que le sujet était un levier interne de modernisation pour les acteurs publics. Recenser les données, rationaliser les systèmes d’information, aider au décloisonnement des services, élargir la culture de la donnée (en en faisant un outil de monitoring, de pilotage de la décision publique), améliorer la qualité des données et surtout introduire de nouvelles dynamiques de dialogues avec les usagers, se sont vites montrées comme des enjeux certainement encore plus essentiels que la libération des données elles-mêmes. Elle permet d’initier de nouvelles relations à l’information et plus encore elle est un moyen de nouer une nouvelle forme de dialogue entre les administrations et leurs publics.

L’Open Data a aussi permis de forger des partenariats entre acteurs du territoire. Il a permis également de développer de nouveaux services, même si le marché est encore fragile et balbutiant. Charles Nepote s’étonne néanmoins qu’aucun acteur public n’ait publié son catalogue de données (incluant les données non encore publiées). Sans cet outil, comment connaître l’offre de données potentielle ? C’est pourtant à ses yeux ce qui permettrait de mieux dialoguer avec les potentiels réutilisateurs, si essentiels à l’élargissement de cette démarche. Il s’étonne également de l’obsession des applications. Pourquoi être aussi obnubilé par le développement d’applications ?

On aimerait voir plus de diversités dans les modalités d’usages.

A quand des dispositifs urbains ou hybrides, des services qui publient par e-mails plus que via des applications pour smartphone… Les méthodologies d’animation souffrent également de l’obsession du concours, alors qu’elles mériteraient d’être ouvertes à un peu plus de créativité (“cartoparties” permettant de cartographier ou documenter le territoire de données, approche de type “résidence” pour accompagner des publics spécifiques avec des spécialistes du sujet, etc.). Enfin, la question de l’éthique des données est une question qui est presque absente du débat, alors qu’elle est une question primordiale.

Open Data Week Nantes - photo cc Ton Zijlstra

Open Data Week Nantes - photo cc Ton Zijlstra

Dialoguer, s’ouvrir

Pérenniser, généraliser et banaliser les pratiques de l’Open Data comme levier de développement des territoires et des organisations est encore un enjeu à atteindre. Standardiser, mutualiser et harmoniser les initiatives également. Il n’est pas si simple de développer la coproduction et les usages sur ce sujet qui parait à tous bien technique. Pour tous, la clef repose dans l’animation. Car c’est par l’animation qu’on développera l’appropriation des données par le plus grand nombre, qu’on dépassera le public de geeks auquel les données s’adressent pour le moment. Car le risque est là, que le petit milieu de l’Open Data finisse par ressembler à celui des acteurs de la concertation publique : un microcosme qui évolue le plus souvent en vase clos. L’Open Data a besoin de systématiser et structurer le dialogue entre acteurs, de porter une attention particulière aux acteurs historiques de la médiation et de la concertation par lesquels le sujet peut s’élargir. Et certainement de développer la pédagogie de la culture des données.

Le chemin parcouru en deux ans a été considérable conclut Charles Népote pour remonter le moral des troupes.

Dans de nombreux territoires, un vrai dialogue s’est instauré entre l’acteur public et un petit cercle de développeurs et de réutilisateurs. La tension qui était présente quand on évoquait ce nécessaire dialogue avant le lancement des initiatives a partout disparu. Le dialogue a montré ses vertus. Reste à l’élargir.

En effet. Les données ont été un moyen pour faire discuter l’acteur public avec des acteurs auquel il ne parlait pas nécessairement. Réussira-t-on à étendre ce dialogue constructif à d’autres objets que les données ? Peut-on étendre le dialogue à d’autres publics que les seuls développeurs ? L’acteur public doit-il élargir le champ des données à mettre en dialogue avec la société et mieux coproduire les données avec les citoyens ? Les données semblent être un prétexte pour interroger la transformation de l’acteur public et la façon de faire société. Reste à savoir si le plus petit morceau de technologie que sont les données est le bon levier ? Suffira-t-il pour pérenniser les actions engagées ?

Le meilleur du pire des dépenses de l’Elysée

Le meilleur du pire des dépenses de l’Elysée

OWNI a dessiné un quinquennat d'explosion des dépenses de l’Élysée, à partir du dernier livre de René ...

Le risque existe que le mouvement s’enferme dans des questions techniques, jouant de données toujours plus particulières ou complexes, peut préhensiles par le grand public. La libération de données budgétaires par exemple, s’il porte un enjeu de transparence publique, demeure un objet très technique, difficilement utilisable par le grand public. Il y a une exigence de libération de données toujours plus variées et de cocréation de données plus accessibles. Il y a certainement un enjeu dans la question de publication d’autres jeux de données, comme les données personnelles que l’administration dispose sur chacun de nous ou la coproduction de données utiles à tous. Et pour cela, le plus important, est incontestatblement de continuer et élargir le dialogue engagé avec les utilisateurs.


Mise à jour le 7 juin 2012 : Open Data, un premier bilan français est le premier d’une série de quatre articles publiés par Hubert Guillaud sur Internet Actu. Nous invitons le lecteur à prendre connaissance des trois autres.

Animer, animer et encore animer

L’enjeu de la coproduction

Le monde de l’entreprise face au défi de l’ouverture…

]]>
http://owni.fr/2012/05/31/open-data-france-premier-bilan-francais-etalab/feed/ 9
Sceptiques des TICE http://owni.fr/2011/10/26/sceptiques-des-tice/ http://owni.fr/2011/10/26/sceptiques-des-tice/#comments Wed, 26 Oct 2011 09:47:46 +0000 Hubert Guillaud http://owni.fr/?p=84671

[Liens en anglais sauf mention contraire] Après un premier article polémique (voir Dans la salle de classe du futur, les résultats ne progressent pas[fr]), Matt Richtel a continué son enquête pour le New York Times sur le “pari éducatif high-tech”. Comme le montrait déjà le début de son enquête, ses derniers articles dessinent un fossé, une coupure assez radicale, entre ceux qui croient dans les vertus des technologies pour l’éducation et ceux qui n’y croient pas, avec des arguments aussi faibles dans l’un ou l’autre camp que ceux qu’on éprouve entre les tenants du livre papier et du livre électronique [fr].

La valeur des TICE dépend-elle du niveau d’argent dépensé ?

Le second article de cette série s’intéressait donc au “boom des logiciels éducatifs”, mais avant tout pour dénoncer leur manque de résultats effectifs. Ainsi, les évaluations de ces logiciels montrent qu’ils n’ont “aucun effet discernable” sur les résultats aux tests standardisés que subissent les élèves du secondaire aux États-Unis. Les logiciels éducatifs sont à l’éducation ce que les logiciels d’entraînement cérébral sont à la cognition [fr] : un vaste marché dont les fondements ne reposent sur aucun résultat démontré.

“La publicité des entreprises qui proposent des logiciels éducatifs a tendance à survendre énormément leurs produits par rapport à ce qu’ils peuvent concrètement démontrer”, estime J. Grover Whitehurst, un ancien directeur de l’Institut des sciences de l’éducation, un organisme fédéral qui évalue la recherche en éducation, notamment via son programme What Works (Ce qui fonctionne). Les responsables scolaires, confrontés à un fatras de recherches complexes et parfois contradictoires, commandent souvent des produits à partir de leurs impressions personnelles ou en fonction des démarchages commerciaux qu’ils ont subis. Et Matt Richtel de mettre dans le même sac la plupart des offres logicielles des grands et moins grands industriels du secteur, que ce soit Carnegie Learning, Pearson School, Houghton Mifflin ou Waterford Early Learning

Cela n’empêche pas ces programmes de se développer : plus de 600 000 élèves provenant de 44 États utilisent les produits de Carnegie Learning et notamment le Cognitive Tutor, un logiciel d’entraînement aux mathématiques. Un programme complet peut pourtant coûter jusqu’à près de trois fois le prix d’un manuel classique. En Géorgie, où l’État négocie les prix avec les éditeurs, une licence annuelle pour le Cognitive Tutor est de 32 dollars par élève, auquel il faut ajouter 24 $ pour le classeur qui est remplacé annuellement. Soit un total de 336 $ sur six ans – quand un manuel de mathématique, pouvant durer 6 ans, ne coûtait que 120 $.

Shelly Allen est la coordinatrice pour les mathématiques des écoles publiques d’Augusta en Georgie. Trois quarts des 32 000 élèves du district sont noirs et tout autant sont pauvres. La moyenne aux tests en mathématique y est assez faible : 443 points (490 en Georgie et 516 pour en moyenne pour l’ensemble des États américains). Il y a 6 ans, le quartier a adopté Cognitive Tutor, le programme phare de Carnegie Learning, pour 3000 élèves à risques. Le district débourse chaque année 101 000 $ pour l’utiliser. Les responsables d’Augusta ont apprécié le programme et ont décidé de l’étendre cette année aux 9 400 autres élèves du secondaire. Le problème, c’est que personne n’a regardé les lacunes et les défauts du programme, comme évalué par exemple par l’Institut des sciences de l’éducation. “Les décisions d’achat de programmes sont prises sur des bases marketing, politiques et personnelles”, explique Robert A. Slavin, directeur du Centre pour la Recherche et la réforme en éducation à l’université Johns Hopkins.

À Augusta, Shelly Allen a déclaré que son district n’a pas les moyens d’étudier l’efficacité formelle du Cognitive Tutor. Mais les professeurs qui l’utilisent ont vu que des élèves médiocres étaient en mesure de rejoindre des classes ordinaires. Les enseignants ont apprécié les rapports automatiques indiquant les forces et faiblesses des élèves et assurant le suivi de leurs travaux… Reste que pour l’instant, le district n’a pas les moyens d’acheter le programme pour tous ses élèves. Il n’est donc pas sûr que les 9400 autres élèves du secondaire d’Augusta puissent finir par en bénéficier…

Est-ce à croire qu’une école réussie dépend de l’argent dépensé ? Ce n’est pourtant pas ce que notait The Economist en commentant les derniers résultats du classement Pisa…

Serait-ce ceux qui connaissent le mieux les TICE qui s’en méfient le plus ?

Si les écoles américaines proposent de plus en plus d’ordinateurs, de logiciels et de programmes à leurs élèves, ce n’est pas le cas des écoles Steiner-Waldorf [fr], qui proposent un enseignement centré sur l’activité physique, l’apprentissage créatif et les tâches pratiques, explique dans un autre article Matt Richtel. Il n’y a pas d’ordinateurs dans les écoles Waldorf. 40 des 160 écoles Waldorf sises aux Etats-Unis se trouvent en Californie. Plusieurs accueillent des enfants des plus grands ingénieurs de la Valley. Trois quarts des parents de l’école Waldorf de Peninsula est fortement impliqué dans les nouvelles technologies, pourtant ils ne voient pas de contradictions avec l’enseignement qu’ils font délivrer à leurs enfants.

Bien sûr, la qualité de l’enseignement de ce type d’école est difficile à comparer à celui que reçoit l’essentiel des petits Américains. Aux États-Unis, en classe élémentaire, les écoles privées n’ont pas à faire passer les tests standardisés, mais les dirigeants des écoles Waldorf estiment que leurs élèves n’obtiendraient peut-être pas tous de bonnes notes à ces tests, car leur enseignement est différent. Reste que 94 % de leurs élèves terminent leurs cursus par de grandes écoles, un pourcentage auquel ne parviennent pas la plupart des écoles publiques.

“Ce résultat n’est pas surprenant étant donné que les élèves reçus à Waldorf proviennent tous de famille où l’éducation a une haute valeur, suffisante en tout cas pour chercher une école privée et sélective et qu’ils ont tous les moyens de payer pour cela”. Bref, remarque Richtel : “il est difficile de séparer les effets des méthodes pédagogiques d’autres facteurs”. Dit autrement, le succès des écoles Waldorf est-il dû à la méthode d’enseignement originale ou à la qualité de l’environnement familial depuis laquelle sont recrutés les enfants ? Les études ont du mal à apporter des réponses à ces questions.

“L’enseignement est une expérience humaine”

Paul Thomas, un ancien professeur qui a écrit une douzaine de livres sur les méthodes éducatives estime qu’une approche limitée de la technologie en classe bénéficiera toujours à l’apprentissage. “L’enseignement est une expérience humaine” rappelle-t-il. “La technologie est une source de distraction quand nous avons besoin d’apprendre à écrire, à compter, à lire et à penser”.

La qualité de Waldorf provient des professeurs, insistent bien des parents. Les compétences en informatique viendront bien assez tôt, d’autant qu’elles sont faciles à acquérir, si on dispose des bases pour les comprendre, estime le directeur d’une start-up de la Valley. Visiblement, un nombre important de parents travaillent dans des sociétés qui produisent des produits que les écoles Waldorf évitent à leurs élèves, explique Dan Frost pour le San Francisco Mag. “Les enfants Waldorf ont accès à toute la technologie, mais ils ne ressentent pas le besoin de l’utiliser”, ajoute une élève.

Reste que le contraste entre ce que l’économie technologique locale produit et la vie que les parents des élèves Waldorf préconisent pour leurs enfants est frappant. Peut-être est-ce le reflet de parents qui voudraient avoir une vie plus déconnectée… Une des mamans travaillait chez Apple pour vendre justement des ordinateurs aux écoles, jusqu’à ce qu’elle découvre les écoles Waldorf. Elle voudrait maintenant qu’on réfléchisse un peu plus à ce qu’on propose aux enfants. “J’ai entendu parler d’une sorte de robot ourson qui regarderait la télévision avec votre enfant pour discuter avec lui des programmes qu’il regarde, de sorte que l’enfant ait un ami avec lui… Je ne peux rien imaginer de plus triste” pour l’avenir de nos enfants.

Les parents des élèves Waldorf estiment que la technologie change la société en mieux. “J’aime Google”, explique Alan Eagle, un directeur de communication du Géant de Mountain View et parent à l’école Waldorf. “Et je suis ravi que les produits nous créons soient disponibles pour mes enfants… mais quand ils seront prêts pour eux.”

Les gadgets ne semblent pas manquer aux enfants. Comme le disait Kevin Kelly [fr] :

La technologie nous a aidés à apprendre, mais ce n’était pas le moyen de l’apprentissage. (…) Et puisque l’éducation des enfants consiste essentiellement à inculquer des valeurs et des habitudes, elle est peut-être la dernière zone à pouvoir bénéficier de la technologie.

Billet initialement publié sur InternetActu sous le titre “Education et nouvelles technologies : y croire ou ne pas y croire ?”

Image CC Flickr  PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Foomandoonian et Paternité jenny downing

]]>
http://owni.fr/2011/10/26/sceptiques-des-tice/feed/ 6
Loisir: bricolage (numérique) http://owni.fr/2011/07/27/loisir-bricolage-numerique/ http://owni.fr/2011/07/27/loisir-bricolage-numerique/#comments Wed, 27 Jul 2011 06:27:55 +0000 Hubert Guillaud http://owni.fr/?p=74609 La technologie est sensée nous rendre la vie plus facile, mais les pires frustrations de nos contemporains sont dues aux nouvelles technologies qui peuplent nos maisons, estime Philip Ely, doctorant au Centre de recherche sur le monde numérique de l’université du Surrey. Pour affirmer cela le chercheur a étudié, à la manière d’un ethnographe, comment les gens vivent leurs relations aux technologies domestiques qui nous entourent, comment ils configurent et reconfigurent leurs pratiques à l’aune du fonctionnement des objets sociotechniques qu’ils utilisent.

Pour évoquer cette écologie technologico-domestique de nos pratiques, Philip Ely parle de “bricolage numérique” (Do It Yourself digital), explique le Guardian. Il a étudié (avec David Frohlich et Nicola Green) pendant 18 mois 19 habitations afin de regarder comment les utilisateurs gèrent leur matériel technologique domestique : par l’utilisation, la non-utilisation voir l’exclusion des technologies. Quelles innovations banales accomplissons-nous pour que nos outils technologiques se conforment à nos pratiques, à nos usages ? Comment passons-nous d’un usage de la vidéo grâce à un espace de stockage mobile, à un non-usage quand on perd le câble qui permet de relier son disque dur amovible à l’écran qui nous permettait de les regarder ? Comment nos pratiques d’écoutes de la chaîne-hifi diminue à mesure que nos musiques deviennent numériques ou comment les gens compensent-ils en continuant à graver des disques jusqu’à ce que le logiciel qu’ils utilisaient pour le faire évolue et rende un temps impossible ces gravures ?

Philip Ely s’est intéressé aux problèmes que rencontrent les Britanniques en déballant et installant leurs derniers gadgets technologiques. En ethnographe, il a notamment enregistré leurs expériences numériques lors de l’arrivée d’un nouveau matériel.

L’étude s’intéresse à trois points : comment les gens utilisent maintiennent et réparent leurs dispositifs de divertissement à domicile ? Quelle est l’écologie informationnelle de la maison ? Quelles valeurs individuelles et d’identité portent-elles ?

Philip Ely a pris des photos, fait dessiner des plans pour situer les technologies dans la maison, créer des cartes sociales pour identifier qui intervenait sur ces gadgets (techniciens extérieurs, amis…), puis a regardé comment ces appareils avaient bougé quelques mois plus tard, qui avait aidé à les maintenir et les mettre à jour…

Quand le bricolage numérique remplace le bricolage

Le bricolage numérique pour Philip Ely concerne la manière dont nous configurons ou reconfigurons notre environnement technologique domestique. Comment remplace-t-on, installe-t-on, déménage-t-on, câble-t-on, met-on à jour, interconnecte-t-on nos équipements technos dans la maison ? Comment relie-t-on nos enregistreurs DVD, nos ordinateurs portables, nos consoles de jeux, nos lecteurs de musique portables, nos téléphones et nos plateformes sans fil, nos chaînes hifi? Quels bricolages nous faut-il accomplir pour écouter notre musique sur plusieurs terminaux, pour voir un film sur le support de notre choix au moment où on le souhaite ? Ce petit quotidien qui nous fait transférer des fichiers, utiliser une succession de logiciels pour arriver à faire ce que l’on souhaite faire – ou qui nous fait abandonner face à la complexité – est pour lui révélateur de nos pratiques et des limites des outils que nous tentons d’utiliser.

Le bricolage, rappelle-t-il, a toujours été une activité pour ajouter de la signification personnelle à nos environnements domestiques liés bien souvent à des changements de vie, de revenus, de statuts. C’est une manière de “réévaluer nos environnements domestiques et les objets matériels qui le peuple”. Depuis quelques années, les nouvelles technologies viennent au premier plan de nos occupations domestiques. D’ailleurs, Les études du cabinet Mintel suggèrent que ces dernières années, en Angleterre, le bricolage traditionnel a reculé en faveur de loisirs “moins actifs” comme regarder la télévision ou accéder à l’internet. Ce qui est pour Philip Ely un facteur d’intérêt supplémentaire : observer comment le bricolage traditionnel est remplacé par d’autres formes de bricolages, liés à la connectivité domestique, à l’organisation des loisirs familiaux. Et bien sûr, comprendre comment les nouveaux objets s’intègrent aux plus anciens.

Cette étude du bricolage numérique suppose d’observer comment s’organisent les systèmes, les artefacts informationnels et l’organisation qui les entoure. Mais plus que les artefacts, ce qui a intéressé Philip Ely ce sont plutôt les utilisateurs et leurs rôles dans cet agencement de maîtrise autour de l’utilisation des technos domestiques.

Philip Ely a ainsi observé des gens qui avaient bricolé des installations numériques chez eux et a suivi l’évolution de ces bricolages, comme cette personne qui a bricolé une table basse équipée d’un projecteur, permettant de le masquer pour que sa table basse puisse être utilisée autrement… Que se passe-t-il quand il y a un changement dans la configuration de la maison, un déménagement ou autre ? Qu’advient-il des objets conçus ? Comment sont-ils réinventés ou réagencés dans un nouvel environnement – ou abandonnés ? Les changements de vie notamment (séparation, déménagement), aggravés par les bouleversements émotionnels qu’ils impliquent, représentent autant de défi pour les installations techniques, qu’il faut reconfigurer, reconnecter, recâbler… ou oublier.

A l’intérieur du foyer, constate Philip Ely, le bricolage numérique révèle un monde peu fluide, où anciens et nouveaux objets technologiques, valeurs personnelles, compétences individuelles, connaissances, ressources financières, réseaux sociaux, formes d’entraide (humaine et numérique) et circonstances de la vie jouent tous un rôle. Même les non-utilisateurs (voisins, famille, amis…) jouent bien souvent un rôle dans la configuration et la reconfiguration matérielle.

Philip Ely a bien sûr constaté que les ressources financières avaient un rôle évident dans l’appropriation et le choix des technologies. Quand les ressources financières sont limitées, les utilisateurs tendent à devenir innovants en réutilisant du matériel ancien par exemple. Mais le capital social joue également un rôle, notamment via le matériel qu’on récupère ou qu’on utilise.

L’une des personnes avait ainsi hérité d’un amplificateur qu’elle n’utilisait pas, mais dont elle n’arrivait pas pour autant à se séparer. La même personne avait également hérité du câblage de sa maison, avec des prises de télé qui n’étaient pas situées à des endroits adaptés par rapport à la configuration qu’elle avait donnée à son habitat. Ainsi qu’un d’un réseau audio domestique qu’elle hésitait à récupérer avant de déménager (parce que cela nécessitait de récupérer les câbles installés dans les murs ou sous le plancher sans qu’il soit certain qu’elle saurait les installer dans un autre environnement). Dans la maison, on hérite d’objets et d’infrastructures dont nous sommes dépendants. Mais le capital social correspond également aux réseaux sociaux et connaissances qui nous aident à la sélection, l’installation, la réparation et la reconfiguration des technologies domestiques.

Le petit détail frustrant

L’une des principales observations de Philip Ely a été de montrer que c’est souvent les gadgets électroniques les moins importants qui sont les plus frustrants.

J’ai montré que des objets comme les câbles USB, l’infrastructure internet et même les portes, les murs ou les divans étaient les objets qui, le plus souvent, empêchaient le plus le partage de musique ou d’images au sein du foyer et ce même pendant des mois.

Les dispositifs individuels deviennent redondants souvent pour des motifs très triviaux, comme de perdre un câble. Ce qui montre bien que les fabricants oublient souvent combien la maison peut-être un endroit désordonné et contingent. Et ce d’autant que l’utilisateur final ne travaille plus seulement avec un simple ordinateur, comme c’était le cas il y a 20 ans, mais avec toute un ensemble d’appareils informatiques.

Au palmarès des récriminations des utilisateurs, Philip Ely pointe ainsi iTunes, le logiciel musical d’Apple. “Il n’est pas centré sur les gens, mais sur les recettes qu’il génère”, explique-t-il. Les gens voudraient qu’il se connecte à tous les périphériques de la maison simplement, qu’il gère la musique, les vidéos, les images sans mise à jour constante ni authentifications permanentes. “S’il y avait un système de micropaiement chaque fois que les utilisateurs se plaignent d’iTunes parce qu’il ne fonctionne pas correctement ou parce qu’il est trop lent, je serais millionnaire”, plaisante-t-il.

Les recherches d’Ely contredisent également l’opinion commune qui pense que les technologies isolent. Beaucoup de ménages communiquent sur les forums en ligne à la recherche d’entraide pour faire fonctionner leur matériel.

Les utilisateurs s’appuient sur d’autres utilisateurs pour obtenir le soutien technique dont ils ont besoin. Et ce pas seulement en ligne, mais également via des relations en face à face. Aucun des ménages sur lesquels j’ai enquêté n’a résolu ses problèmes uniquement en ligne. Les maisons sont devenues plus ouvertes non pas à cause de l’intrusion des médias en ligne dans nos vies privées, mais parce que les gens ont besoin de travailler via des réseaux sociaux élargis pour les aider à résoudre des problèmes du quotidien liés aux technologies.

Tout comme dans le bricolage classique, les gens partagent des astuces, des solutions… Ils aiment s’entraider et s’entraider face aux technologies domestiques est à la fois enrichissant et socialisant.

Dans les ménages avec enfants, Ely a constaté beaucoup d’entraide intergénérationnelle : les parents enseignent aux enfants comment télécharger les photos de l’appareil photo, les enfants enseignent aux parents comment télécharger des applications ou de la musique… Dans tous les cas étudiés, Philip Ely a constaté une différence de genre : les hommes se voient plutôt confier les tâches de construction de matériel, alors que les femmes ont plutôt tendance à se concentrer sur le logiciel. Le bricolage numérique révèle la division entre les sexes, entre les parents et les enfants, les frères et les soeurs…

Quand je parle aux gens de mes recherches, ils commencent souvent par me raconter comment ils ont installé leur nouvelle télévision numérique ou la conversation qu’ils ont eue avec un service d’assistance téléphonique en Inde. Cela semble cathartique pour eux, et ils s’attendent à ce que j’ai des réponses à leurs problèmes. Mais cela révèle surtout combien ces questions de bricolage numérique nous concernent tous.


Article initialement publié sur InternetActu sous le titre “Comment bricolons-nous le numérique” ?

Crédits photo: Flickr CC Iain Browne, retro travelerBarnaby_S, dnnya17

]]>
http://owni.fr/2011/07/27/loisir-bricolage-numerique/feed/ 0
Est-ce que la technologie désurbanise la ville ? http://owni.fr/2011/07/21/est-ce-que-la-technologie-desurbanise-la-ville/ http://owni.fr/2011/07/21/est-ce-que-la-technologie-desurbanise-la-ville/#comments Thu, 21 Jul 2011 06:33:21 +0000 Hubert Guillaud http://owni.fr/?p=74142 Pour la sociologue et économiste américaine Saskia Sassen (Wikipédia), qui introduisait la 3e édition de la conférence Lift France qui se tenait la semaine dernière à Marseille, la ville est devenue un espace stratégique pour tout type d’applications technologiques, mais dans quelles mesures ces capacités technologiques déployées dans l’espace urbain urbanisent-elles véritablement la ville ? “A l’heure où tout le monde se demande comment utiliser la ville, diffuser ses services dans l’espace urbain, la question de savoir si les technologies urbanisent ou pas la ville me semble d’importance.”

La ville doit pouvoir être hackée

La technologie donne des capacités technologiques qui vont au-delà de la technologie elle-même. Quand la haute finance utilise les technologies, elle ne le fait pas de la même manière que la société civile. Ses points de départ, ses objectifs sont différents, même si elle utilise les mêmes outils techniques que d’autres utilisateurs : la technologie fonctionne donc dans une écologie plus vaste qui ne la réduit pas.

La ville est un espace complexe, anarchique, rappelle la spécialiste du sujet. Mais l’usage de la technologie dans l’infrastructure permet le fonctionnement de l’infrastructure, pas nécessairement de la ville. “La question est donc de regarder comment nous urbanisons la technologie, comment nous adaptons ou essayons d’adapter la technologie à la ville ?”

Saskia Sassen sur la scène de Lift France 2011.

“Il faut d’abord voir que la ville n’est pas une somme de matérialités, mais qu’on y trouve aussi des personnes, des cultures, des sous-cultures. C’est d’ailleurs ce qui permet le plus souvent à la ville de s’adapter, de réagir et de continuer à exister comme l’ont fait Rome, Marseille ou Istanbul. Chacune réagit différemment.”

Il nous faut comprendre autrement “l’urbanitude”. Qu’est-ce qu’une plateforme pétrolière qu’on urbanise ? Qu’est-ce qu’une ville avec des espaces urbains morts ? Une ville est-elle seulement des gratte-ciels qu’on ajoute à l’espace urbain ? “Nos villes sont bizarres, elles sont des mélanges vivants. Elles vivent et continuent à vivre, car elles continuent de répondre aux actions que nous avons sur elles”, explique Saskia Sassen.

Peut-on entrer dans l’espace urbain avec une autre écologie d’éléments ? Peut-on faire de l’urbanisme open source ? Comment peut-on penser la ville en la hackant ? La ville peut-elle être un hacker ? Que se passe-t-il quand les villes ressentent les choses ? Quand elles deviennent trop intelligentes, trop sensibles ? Quand le banc peut éjecter la personne qui veut dormir dessus, quand la poubelle vous recrache le détritus que vous venez d’y mettre parce que vous ne l’avez pas mis dans la bonne poubelle, comme le proposaient les artistes JooYoun Paek et David Jimison [en], à l’exposition Toward the Sentient City [en] (Vers la ville sensible) qui avait lieu en 2009 à New York ? Comment la ville peut-elle répondre ?

Dans les années 80, le parc de Riverside à New York était réputé dangereux, raconte Saskia Sassen. Tant et si bien que les gens qui s’y promenaient ont commencé à venir avec des chiens. En promenant leurs chiens, peu à peu, ils se sont réapproprié ce territoire et le retour des chiens a participé au départ des délinquants. Le parc est aujourd’hui un magnifique endroit avec une population plutôt favorisée vivant autour. “Nos pratiques sont des espèces de logiciels qu’on peut connecter à d’autres pratiques et logiciels.”

“Quand on parle de villes intelligentes (Smart Cities), le problème est que bien souvent on évoque des systèmes techniques qui désurbanisent la ville”, explique la sociologue en évoquant plutôt le quartier d’affaire de Sondgo à proximité de Séoul ou la ville de Masdar à Abu Dhabi, comme elle l’expliquait il y a quelques mois dans un passionnant article pour McKinsey Digital [en].

Les technologies embarquées s’adaptent aux pratiques de chacun dans un bâtiment, mais cela désurbanise l’espace plus large de la ville. Et ce d’autant que, bien souvent, ces systèmes intelligents sont fermés pour être maitrisés alors qu’on les incorpore dans le système ouvert, incomplet, non terminé qu’est la ville. Ce sont des systèmes fabriqués avec la logique de l’ingénieur et l’ingénieur n’est qu’un des utilisateurs de la ville. Comment la logique d’autres utilisateurs interagit-elle avec cette logique ? Quelle place reste-t-il pour la contourner, la hacker ?

Les villes intelligentes mettent en œuvre dans un système fermé la logique de l’ingénieur, avec des possibilités et potentiels limités. Elles ne rendent pas visibles les technos qui les constituent. “Or, pour être interactives, pour s’intégrer dans des écologies multiples, elles devraient plutôt être visibles, accessibles à qui les regarde ou les utilise”. La ville intelligente repose sur une trop forte obsolescence technologique qui risque de la rendre rapidement incapable de s’adapter, de réagir… Et de transformer les systèmes techniques en systèmes critiques.

Pour Saskia Sassen, nous devons travailler “à urbaniser les technologies plutôt que d’utiliser des technologies qui désurbanisent la ville”. Les technologies déployées dans la ville doivent être adaptables… La ville doit pouvoir être hackée ! Sinon, nous risquons de tuer leurs capacités d’adaptation qui ont fait leur force à travers les siècles.

Les dérives des villes intelligentes

L’écrivain et designer Américain Adam Greenfield (Wikipédia [en] – sur InternetActu), auteur de Everyware et depuis 2010 à la tête de l’agence Urbanscale [en] s’est penché sur la question des responsabilités civiles dans la ville en réseau.

Lorsqu’on utilise ces termes de “villes en réseau” on imagine en général quelque chose d’assez futuriste, explique le designer. Dans les brochures IBM ou Cisco, on en parle comme d’une idée qui n’est pas encore complètement réalisée. Pourtant, la ville en réseau est déjà là (d’ailleurs, explique Greenfield, l’usage de l’expression est largement influencé par un sociologue marxiste français, Henri Lefebvre – Wikipédia -, mort avant l’avènement de l’internet) : elle est un lieu sujet à des changements rapides et importants, où les négociations sont constantes. C’est la ville dans laquelle la population est impliquée, notamment via ces ordinateurs très sophistiqués que nous avons de plus en plus dans nos poches…

Adam Greenfield sur la scène de Lift au théâtre du Pharo à Marseille.

Dans la ville d’aujourd’hui, nous sommes entourés d’objets et d’espaces qui ont leurs propres identités informationnelles. Les espaces urbains se caractérisent de plus en plus souvent par des objets capables d’agir, comme le Tower Bridge de Londres développé par Tom Armitage [en], capable d’avertir les gens via Twitter [en] quand il se soulève par exemple… Mais du coup, nous sommes en train de voir apparaître de nouveaux modes de surveillance, non plus seulement par des caméras et microphones, mais aussi de manière plus subtile. Aujourd’hui des dizaines de millions de personnes sont confrontées à ces technologies et nous devons apprendre à évaluer les risques.
Pour permettre de mieux comprendre les problèmes qui peuvent apparaître, Adam Greenfield a dressé une taxonomie des effets, du plus inoffensif au plus dangereux.

Le premier exemple est un capteur créé en Finlande [en]. Ce pays est plongé dans la nuit pendant une majeure partie de l’année, et les voitures présentent donc un grand danger pour les piétons, surtout les enfants ou les personnes âgées. Ce capteur placé sur la chaussée détecte les piétons et avertit le véhicule. C’est un système qui sauve des vies et rencontre l’assentiment de la population. Pourtant, il capte des données publiques à l’insu des citadins, même si celles-ci ne sont pas archivées.

publicité Corée NikonPlus gênant est ce panneau publicitaire coréen [en]. Il représente des photographes, et un tapis rouge est placé devant l’affiche. Lorsqu’un passant marche sur le tapis rouge, les “photographes” prennent une photo et illuminent le badaud d’une série de flashs. L’idée est de donner aux gens l’impression d’être des stars. Mais les personnes ne sont pas enchantées par le flash : elles sont plutôt surprises. Le dispositif n’est pas dangereux ni inquiétant, mais il est caractérisé par un certain manque de respect, un côté nuisible. On monte donc d’un degré dans la taxonomie des effets pernicieux.

Beaucoup plus problématique est cette machine japonaise [en] qui va tenter d’analyser votre visage pour déterminer votre âge et votre sexe et vous propose des boissons censées correspondre à vos goûts. “Une telle application, explique Adam Greenfield, a tendance à effectuer des discriminations, à placer des gens dans des cases, dans des catégories. Cela va dans le sens inverse de ce qu’on attend d’une ville, qui est d’augmenter la diversité.”

Plus élevé encore dans la taxonomie des effets dangereux, ce panneau d’affichage créé selon Greenfield par une société française, qui va repérer votre âge, votre sexe et votre groupe ethnique et essayer de vous attirer en affichant une image en fonction de votre profil. Une telle technologie, a dit Greenfield, est si nuisible qu’il souhaite demander au maire de New York de la réguler de manière urgente, afin de limiter son explosion sur les supports d’affichages, comme l’évoquait le New York Times il y a déjà quelques années [en].

Tous les exemples précédents, du moins dangereux au plus inquiétant, sont au moins faciles à analyser. Mais comment évaluer les problèmes posés non plus par un objet ou système, mais par l’interaction entre plusieurs dispositifs au sein de l’espace public ?

Par exemple, à Wellington, en Nouvelle-Zélande, on a installé un dispositif de vidéosurveillance pour contrôler les accidents de voiture. Consultée, la population a approuvé cette technologie globalement positive. Puis, bien plus tard, lors de la mise à jour du logiciel, les concepteurs ont introduit un système de reconnaissance faciale, qui a pu être utilisé par la police pour reconnaître les délinquants. Et bien sûr, la population n’a pas eu à se prononcer pour une simple mise à jour du logiciel.

Comment prévenir les dérives ? Pour Greenfield, l’ouverture globale des données de l’espace public est une nécessité démocratique. Ces flux d’informations doivent être disponibles pour tous, et non réservés à ceux qui peuvent payer. Malgré les risques possibles de l’ouverture, les bénéfices, selon lui, dépassent largement les inconvénients.

Rééquilibrer le rapport de force entre concepteurs et utilisateurs

“Les architectes et les urbanistes regardent assez peu les usages. Les villes qu’ils façonnent sont souvent désincarnées”, suggère l’un d’entre eux, Alain Renk, à la tête de l’agence Renk & Partner/UFO (pour urban fabric organisation). A Paris par exemple, tout le monde connaît le blocage physique et politique que représente le périphérique, alors que pour beaucoup de Parisiens, il n’est pas vraiment une frontière de vie. Le temps long de la construction des villes est-il une réalité, ou seulement une façon de faire patienter ceux qui vivent dans la ville ? Pourrait-on construire des villes autrement, avec des matériaux plus transformables que le béton, comme on commence à en trouver dans des immeubles mexicains ? Peut-on construire des outils pour permettre aux gens de construire des villes ? Pour qu’ils partagent les évaluations et les décisions ?

C’est un peu toutes ces questions qu’égraine Alain Renk. En prônant une certaine radicalité pour réagir à la standardisation des environnements urbains portés par les grands groupes de construction qui accueillent les grands groupes de consommation. La ville devenue planétaire, “peut-elle encore être un endroit où les gens peuvent développer des projets de vie qui ne soient pas formatés, “robotisés” ?”, s’interroge l’urbaniste.

Alain Renk.

Pour lui, il est regrettable qu’on continue à faire de l’architecture et de l’urbanisme comme avant l’internet, alors que le monde a inventé depuis une autre situation, qui a à la fois une part physique et une part numérique. “Les habitants des villes se retrouvent destinataires de villes qu’on construit pour eux.” Le rapport de force entre constructeurs de villes et utilisateurs se tend toujours un peu plus. Architectes et urbanistes deviennent distants et arrogants, et semblent bâtir des murs uniquement pour tenir les utilisateurs à distance. Or, les habitants connectés en savent plus sur la ville que ceux qui conçoivent les territoires, estime Alain Renk.

C’est cette réflexion qui l’a amené à développer un prototype pour la dernière édition de Futur en Seine, baptisé Villes sans limite (vidéo). Ce dispositif de réalité augmentée permet de modifier l’aspect d’un quartier. Implémentée sur trois sites parisiens, l’application permet de récolter des données sur la façon dont les utilisateurs ont modifié l’urbanisme. Chaque utilisateur peut d’ailleurs observer les options qui se dégagent de ces manipulations, “la radicalité doit utiliser les armes du monde dans lequel on vit”.

Cliquer ici pour voir la vidéo.

making of : Unlimited Cities / Villes sans limite from Unlimited Cities on Vimeo.

Mais l’endroit où l’on est aura-t-il encore de l’importance à l’avenir, ou, au contraire, avec l’internet, seront-ils tous interchangeables ?, questionne Laurent Haug, animateur de cette session. La ville doit offrir des espaces pour travailler, pour rencontrer des gens, pour circuler… Elle doit répondre à l’uniformité, estime Alain Renk, elle doit offrir des alternatives aux endroits où il y a tout… et à ceux où il n’y a rien.

Billet initialement publié sur InternetActu

Photos Pierre Metivier (Saskia Sassen et Adam Greenfield) et Swannyyy (Alain Renk).

Image CC Flickr PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales tarentula_in

Une Elsa Secco pour OWNI

]]>
http://owni.fr/2011/07/21/est-ce-que-la-technologie-desurbanise-la-ville/feed/ 26
Le papier contre le numérique http://owni.fr/2011/03/18/le-papier-contre-le-numerique/ http://owni.fr/2011/03/18/le-papier-contre-le-numerique/#comments Fri, 18 Mar 2011 12:11:12 +0000 Hubert Guillaud http://owni.fr/?p=51668 Nouveau support, nouvelle culture

Lit-on de la même manière sur le support papier que sur le support électronique ? Le débat commence à être ancien : on pourrait le faire remonter aux critiques de Socrate à l’encontre de l’écriture à une époque où la transmission du savoir se faisait uniquement de manière orale. La question se pose également en terme de conflit depuis la naissance de l’hypertexte, comme l’évoquait Christian Vandendorpe. Un peu comme si deux mondes s’affrontaient : les anciens et les modernes. Ceux pour qui le papier est un support indépassable et ceux pour qui le changement, la bascule de nos connaissances vers l’électronique, à terme, sont inévitables.

Il n’est pas sûr que ce texte parvienne à réconcilier les tenants de chaque position. À tout le moins, espérons qu’il réponde à quelques interrogations. Notre attention, notre concentration, notre mémorisation sont-elles transformées par le changement de support ? Sommes-nous aussi attentifs quand nous lisons sur écran que lorsque nous lisons sur du papier ? Le média, par ses caractéristiques propres, altère-t-il notre rapport à la connaissance ?

« Google nous rend-il stupide ? »

« À chaque fois qu’apparaît un nouveau média, une nouvelle façon de distribuer le savoir et l’information, il se trouve quelqu’un pour crier à l’abêtissement des masses », attaque Luc Debraine dans Le Temps. Cet été (billet publié initialement début 2009, ndlr), c’est le toujours critique Nicholas Carr qui a crié au loup. Selon lui, l’internet dénature notre capacité de concentration, explique-t-il dans « Est-ce que Google nous rend stupide ? » [en], en évoquant le fait qu’il n’arrive plus à lire plusieurs pages d’un livre avec toute son attention.

Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque-là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas.

Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une épreuve […] Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Bien évidemment, cet article a déclenché un tombereau de réactions, dont les plus intéressantes ont été recensées par le magazine The Edge et le blog de l’Encyclopædia Britannica. La plupart des commentateurs de Nicholas Carr semblent d’accord sur un point : l’électronique transforme la manière dont on lit, mais est-ce nécessairement dans le mauvais sens ?

Nos références culturelles changent

Le flot qui nous noie est, bien sûr, le flux d’information, une métaphore si courante que nous avons cessé de l’interroger. [...] Cette métaphore est-elle une conséquence de l’avancée des technologies de la communication ? La marque de la puissance des médias ? Est-elle générée par notre faiblesse à recevoir l’information ? Toutes ces tendances sont réelles, mais je crois qu’elles n’en sont pas la cause. Elles sont les symptômes de situations difficiles. La rapidité de la communication, la puissance des médias et la superficialité de nos écrémages sont toutes les produits de notre insatiable besoin d’information. Nous ne voulons pas seulement plus, nous avons besoin de plus.

À en croire l’inventeur Daniel Hillis, ce n’est pas Google qui nous rend stupide. Selon lui, si nous avons besoin de plus d’information, c’est parce que la technologie a détruit l’isolement dans lequel nous affrontions le monde, mais aussi parce que ce monde est devenu plus compliqué et que les ressources pour le décrire ont explosé.

« Nous avons besoin d’en savoir plus parce que nous avons à prendre plus de décisions : nous devons choisir notre propre religion, notre propre service de communication, notre propre service de santé. » Nous avons besoin d’en savoir plus pour être mieux connecté à notre environnement et mieux le comprendre. Notre monde nous demande d’être plus intelligent même si, pour cela, il faut sacrifier la « profondeur » de notre connaissance – pour autant que livre donne plus de profondeur à la connaissance que le web, ce que beaucoup avancent mais que nul ne prouve.

L’historien George Dyson pense que nous sommes face à un risque : nous perdons peut-être des moyens de penser, mais nous les remplaçons par quelque chose de neuf. Le fait que nous ne sachions plus aiguiser un couteau de chasse ou construire un carburateur l’inquiète plus que le fait qu’il y ait des gens qui ne lisent pas de livres.
« L’iPod et les MP3 ont entériné le déclin des albums et la montée des playlists, mais davantage de gens écoutent davantage de musique, et ça c’est bien. »

À en croire les enquêtes sur les pratiques culturelles, le nombre de livres lus en moyenne diminuerait, mais force est de constater que si la culture livresque recule, notre capacité de lecture et d’écriture explose à mesure que nous utilisons toujours un peu plus les outils informatiques. Notre univers quotidien ne cesse de se peupler de lectures, toujours plus multiples et variées : celles de nos mails, de nos blogs, de nos tweets, de nos jeux qui s’ajoutent à celles de nos livres, de nos journaux ou de nos courriers ou viennent les remplacer.

Le web : un nouveau rapport à la culture

Pour le consultant Clay Shirky [en], auteur d’un livre sur la puissance de l’auto-organisation, l’anxiété de Nicholas Carr ne traduit pas l’évolution de la pensée ou de la lecture, mais marque l’horizon d’un changement de culture. Si nous lisons plus qu’avant, comme le dit d’ailleurs Nicholas Carr, ce n’est plus de la même façon. Après avoir perdu sa centralité, le monde littéraire perd maintenant sa mainmise sur la culture. « La crainte n’est pas que les gens cessent de lire Guerre et Paix […] mais qu’ils cessent de faire une génuflexion à l’idée de lire Guerre et Paix. »

Daniel Hillis rappelle qu’il aime les livres, mais que ce respect est plus pour les idées que pour le format. Il soutient que Shirky a raison de dénoncer le culte de la littérature. Depuis longtemps, les livres sont les premiers vecteurs des idées, tant et si bien que nous les avons associés aux idées qu’ils contiennent. Leur nostalgie vient de ce que nous avons pris l’habitude de les considérer comme le meilleur véhicule de la pensée ou des histoires. Mais est-ce encore exact ? Certains films nous bouleversent plus que certains livres et certains documentaires savent nous apprendre et nous faire réfléchir autant que certains livres :

J’ai aimé Guerre et Paix, mais la série télévisée The Wire m’a apporté plus encore. Et pourquoi serait-ce surprenant ? Plus une série télévisée est élaborée, et plus nous passons de temps à la consommer. Si une série et un roman sont réalisés au même niveau d’exigence, avec un soin, des compétences et une perspicacité équivalentes, nous pourrions alors en attendre un peu moins des livres.
Même si la littérature perd sa primauté dans la façon dont nous nous racontons des histoires, nous devons nous rappeler que le livre reste le meilleur moyen pour véhiculer une idée complexe. Mais le format d’un livre est-il adapté à la façon dont on pense ? J’en doute. Il est parfois exact que la longueur et le rythme d’un livre sont parfaitement adaptés à certaines argumentations, mais quand cela arrive, ce n’est qu’une heureuse coïncidence […] La lecture est un acte non naturel, quelque chose que nous avons appris pour faire passer nos idées dans le temps et l’espace. Les chercheurs de savoirs gravitent naturellement vers les sources les plus riches et les plus utiles. Ils gravitent donc de plus en plus loin des livres […] Je pense, comme Georges Dyson, que les livres savants sont des curiosités qui seront bientôt reléguées dans la profondeur obscure des monastères et des moteurs de recherche. Cela me rend un peu triste et nostalgique, mais ma tristesse est tempérée par l’assurance que ce n’est pas le dernier ni le premier changement de format dans la manière dont nous accumulons notre sagesse.

Le choc des cultures

Plus qu’un changement de support, le passage du papier à l’électronique marque un changement de culture. Nous passons de la culture de l’imprimé à la culture du web et de l’hypertexte, et ce changement a de nombreuses implications concrètes jusque dans la forme de nos écrits et dans la manière dont nous construisons nos raisonnements. Internet modifie nos références culturelles, comme souligne Frank Beau dans Cultures d’univers en signalant combien l’univers du jeu devenait la source d’une nouvelle culture.

Plus encore, l’internet modifie les racines où puise notre culture, sans que cela signifie nécessairement que l’une est meilleure que l’autre. Ce glissement culturel se fait dans la douleur. Mais les signes sont clairs : partout le numérique remplace le matériel. La page web est en train de remplacer la page de papier. On peut le regretter, le déplorer, mais force est de constater que les deux cultures ont tendance à s’opposer toujours plus.

D’un côté, on déplore la « vicariance » des écrans, comme dans Le Tube, reportage qui décrit le déclenchement constant d’un réflexe d’orientation provocant un état quasi hypnotique dans lequel l’écran nous absorbe et court-circuite en partie notre raison. On présente ainsi les adeptes des écrans comme les victimes consentantes d’une manipulation médiatique (voire neurologique).

De l’autre, on finit par déprécier l’écrit-papier comme le symbole de la culture des générations finissantes. En effet, en réaction à la façon dont certains nient toute valeur à cette culture naissante, d’autres déprécient la culture de l’écrit, symbole de la culture transmise. Chez les adolescents, rappelle la sociologue Dominique Pasquier, spécialiste de la culture et des médias, les produits de la culture légitime ne permettent plus de se classer par rapport à ses pairs. Tant et si bien que tout ce qui est associé à la culture scolaire, à commencer par le livre, subit une forte dépréciation chez ces adolescents qui lui préfèrent la culture des mass media et celle transmise par les technologies de l’information et de la communication.

« Nous sommes ce que nous lisons », rappelait avec intelligence Alberto Manguel dans Une histoire de la lecture. Il est certain que si nous ne lisons plus les mêmes textes, plus avec les mêmes outils et plus dans les mêmes conditions, nous ne serons peut-être plus les mêmes hommes. Mais n’est-ce pas un peu le cas à chaque génération – qui se définit par le contexte qui la façonne mais aussi par ses référents culturels et les technologies avec lesquels elle consomme les contenus culturels qui sont les siens, comme l’expliquent les études générationnelles de Bernard Préel [PDF] ?

Lequel nous rend plus intelligent ?

Après avoir constaté combien la question déclenchait des débats passionnés entre ceux qui viennent de la culture du livre et ceux qui vivent avec la culture du web, il est temps de mesurer l’impact des différences de support, et notamment de nous demander vraiment si l’un des deux supports est capable de nous rendre plus intelligents.

Le calme est bon pour l’esprit

La psychologue et neurologue Maryanne Wolf dirige le Centre de recherche pour la lecture et le langage de la Tufts University. Dans Proust and the squid (Proust et le Calmar, en référence à la façon dont ces animaux développent leurs réseaux de neurones) elle explique comment l’espèce humaine a appris à lire et comment la lecture transforme nos fonctions cérébrales de l’enfance à l’âge adulte.

« L’acte de lecture n’est pas naturel », rappelle-t-elle, il a eu une influence sur l’évolution de nos circuits neuronaux et certaines zones du cerveau se sont spécialisées dans la reconnaissance de caractères et dans la lecture : la lecture est une invention culturelle récemment acquise. « L’efficacité que nous avons développée grâce à la lecture nous a permis d’avoir plus de temps pour réfléchir », explique-t-elle, en observant, via l’imagerie cérébrale, comment les enfants apprennent à maîtriser de mieux en mieux la lecture. Wolf se réfère à Sur la lecture [PDF] de Marcel Proust. Il y définit la lecture comme l’intervention qui, tout en venant d’un autre, se produit au fond de nous-mêmes, c’est-à-dire l’impulsion d’un autre esprit sur notre solitude. La lecture nous rend plus intelligents car elle laisse notre cerveau seul avec lui-même, le laissant penser sans être dérangé, contrairement à ce qui arrive lors d’une conversation par exemple.

Caleb Crain, dans le long dossier « Twilight of the books » qu’il livre au New Yorker, signale une très intéressante étude pour mesurer la différence entre une lecture attentive et silencieuse et une lecture troublée par un commentaire audio. Les résultats de cette étude montrent que ceux qui lisent silencieusement une présentation PowerPoint la trouvent généralement plus intéressante que ceux qui doivent lire cette même présentation avec le commentaire audio de l’intervenant. Une autre étude britannique a montré pour sa part que ceux qui lisent en silence ont tendance à mieux se souvenir de ce qu’ils lisent que ceux qui regardent un écran. Les cobayes qui lisent les transcrits d’informations, de publicités, de programmes politiques ou d’émissions scientifiques en ont une meilleure mémoire que ceux qui n’ont fait que les regarder à la télévision.

Reste que ces exemples ne permettent pas de différencier l’impact du support sur la lecture. On peut lire (ou écrire) d’une manière calme, sans aucune perturbation extérieure, depuis un clavier et un écran d’ordinateur. Il suffit de se donner quelques règles pour lire ou écrire à l’ère de la distraction permanente, comme le dit Cory Doctorow.
Nonobstant, Maryanne Wolf se montre plutôt inquiète pour l’avenir de la lecture. Selon elle, la façon dont nous lisons change profondément sur le web, instantané et surchargé d’informations : à l’écran, nous ne lisons pas, nous écrémons ! C’est aussi ce qu’affirme le gourou [en] de l’ « utilisabilité » Jakob Nielsen, selon lequel le faible temps que nous passons sur la plupart des sites que nous parcourons ne permet pas de les lire en profondeur. Les chercheurs du Centre for Information Behaviour and the Evaluation of Research[en] (CIBER) de l’University College de Londres font ce même constat en observant les usages de livres au format électronique sur les postes d’accès d’une bibliothèque universitaire [en, PDF].

L’étude Superbook [en], qui a donné naissance à un Observatoire national des usages des livres électroniques en milieu académique, montre ainsi que les lecteurs de livres électroniques ont tendance à y piocher des passages plutôt que d’en lire l’intégralité. Moins d’un quart de la poignée d’usagers observés aurait lu un chapitre ou plus dans les livres électroniques qu’ils ont consultés. Reste que l’étude ne compare pas les pratiques papier aux pratiques électroniques. Or, certains usages savants reposent également sur le feuilletage rapide de livres pour y trouver des références. Oui, le livre au format électronique facilite le picorage d’information. Son plus grand atout est justement de nous permettre d’aller plus rapidement aux mots clefs qui nous intéressent. Peut-on le lui reprocher ? Ne pas tout lire d’un livre signifie-t-il ne pas l’avoir lu ?

Pour Maryanne Wolf, la lecture nous a fait le « don du temps », c’est-à-dire des instants où nos pensées peuvent aller au-delà des mots écrits sur la page pour atteindre de nouveaux niveaux de compréhension. La lecture ne consiste pas seulement à absorber l’information et trouver des réponses toutes prêtes : elle est « pensée en action ». Comme le dit Proust, à nouveau, à propos des livres :

Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit.

Pour Maryanne Wolf, le web risque de nous faire perdre la « dimension associative » de la lecture qui nous permet d’entrevoir de nouveaux horizons intellectuels. Mais la dimension associative de la lecture, qui permet de passer d’une pensée, d’un argument à l’autre, n’est-elle pas encore plus facile à l’heure de l’hypertexte, où un simple lien est capable de vous emmener au cœur d’une association ?

La technologie n’est pas responsable de l’idiotie commune

Si le web ne nous rend pas plus intelligents que le papier, peut-être nous rend-il plus bête ? Ce n’est pas l’avis non plus de David Wolman [en]. Selon lui, il faut « rebooter » la critique des opposants à l’internet : l’internet ne nous a pas conduits dans un nouvel âge noir, au contraire !

Et de rapprocher la critique de Nicholas Carr avec celle d’autres Cassandre comme l’écrivain Lee Siegel qui, dans Against the machine : being human in the age of the electronic mob, suggère que le web nous rend narcissiques ; Maggie Jackson dans Distracted : the erosion of attention and the coming dark age éreinte notre capacité à être « multitâches » ; Mark Bauerlein et sa dumbest generation, c’est-à-dire génération la plus bête, s’en prend à la culture jeune.

Certes, explique Wolman, le web nous donne un remarquable accès à toutes les idées les plus stupides en les amplifiant bien souvent. Mais c’est ne pas voir que l’idiotie a toujours existé, quel que soit le support qui la véhicule. « La pensée antirationnelle a gagné une respectabilité sociale aux États-Unis lors des cinquante dernières années », note Susan Jacoby dans The Age of American Unreason. Elle a montré sa résistance à la vaste expansion de la connaissance scientifique qui caractérise la même période. » Mais l’irrationalisme de nos sociétés n’est pas la faute de la technologie. Au contraire : « l’explosion de la connaissance représentée par l’internet et encouragée par toutes sortes de technologies numériques nous a rendus plus productifs et nous a offert l’opportunité de devenir plus intelligents, et non plus bêtes ».

Le web : plus stimulant que le papier !

Le spécialiste de la réalité virtuelle Jaron Lanier est plus critique encore. Le changement technologique serait-il un processus autonome qui dirait que nous prenons une direction indépendamment de ce que nous voulons ? Certaines technologies peuvent effectivement nous rendre stupides (les casinos, les tabloïds, la cocaïne, cite-t-il) et il y a des technologies numériques qui renforcent les aspects les moins brillants de la nature humaine. « Mais est-ce pour autant que nous n’avons que le choix d’être pour ou contre ? » [en].

Pour Kevin Kelly, l’ancien rédacteur en chef de Wired, l’océan de courts textes que le web a généré est dû au fait que nous avons un nouveau véhicule et un nouveau marché pour les échanger. Nous n’arrivions pas, jusque-là, à produire des textes courts qui soient échangeables et utiles. Contrairement à Nicholas Carr, Kelly n’a pas de doute [en] : le web nous rend plus intelligents. Laissons Google nous rendre plus intelligents, explique-t-il en détail sur son blog.

Les chercheurs semblent d’ailleurs vouloir lui donner raison : en effet, selon des neuroscientifiques de l’université de Californie [en], la stimulation cérébrale générée par la consultation de l’internet est plus forte que celle générée par la lecture traditionnelle. Selon les chercheurs du Centre de recherche sur la mémoire et l’âge, la lecture et la recherche sur le web utilisent le même langage, le même mode de lecture et de mémorisation et stimulent les mêmes centres d’activité du cerveau que la lecture sur papier. Mais la recherche sur l’internet stimule également des secteurs liés à la prise de décision et au raisonnement complexe.

Il est évident que l’internet nécessite de prendre sans arrêt des décisions, ce qui n’est pas le cas d’une lecture classique, qui ne nécessite pas de choix constants ou complexes. Le fait que la lecture sur le net soit plus stimulante pour le cerveau (parce qu’elle mobilise de la concentration pour activer les liens et nécessite une interaction active) est finalement assez logique. Il est possible qu’elle favorise également la mémorisation, puisque celle-ci réussit mieux quand le récepteur est actif plutôt que passif ; mais rien ne dit que cette « surstimulation » facilite la compréhension ou l’assimilation des informations parcourues, ou qu’elle favorise la dimension associative censée nous amener à de nouveaux niveaux de conscience.

Par sa « complexité », son hypertextualité qui requiert de faire des choix constants, la lecture sur l’internet stimule plus certaines zones de notre cerveau que l’austère page blanche d’un livre. Cela ne tranche pas le débat, mais cela le scinde un peu plus en deux : entre ceux qui y voient un danger qui risque de transformer la manière dont notre cerveau raisonne et assimile l’information, et ceux qui y voient une preuve de la supériorité du net qui ouvre de nouvelles perspectives dans ses façons d’impliquer le lecteur dans la lecture.

Gary Small [en], directeur de ce centre, a d’ailleurs publié depuis un livre intitulé iBrain : Surviving the Technological Alteration of the Modern Mind . Mais celui-ci, selon de nombreux commentateurs, est plutôt une charge à l’encontre des nouvelles technologies ; considerées essentiellement sous l’angle de l’addiction. Comme on l’a vu avec Maryanne Wolf, les neuroscientifiques peuvent eux-aussi faire passer leurs intimes convictions pour des arguments scientifiques. Elle révèle surtout combien cette génération issue du livre est mal à l’aise avec les nouveaux outils technologiques pour ne voir dans l’internet que ses défauts potentiels.

On comprendra qu’il est difficile de savoir qui du papier ou de l’électronique nous rend plus intelligent, comme le concluait Thomas Clabun dans son article [en] « Is Google Making Us Smarter ? » : « il faudra du temps avant que nous sachions s’il faut pleurer nos anciennes façons d’apprendre ou célébrer les nouvelles » . En attendant, on conclura sur le constat que les deux supports stimulent différemment notre intelligence, certainement aussi parce que nos chercheurs ont encore bien du mal à définir ce qu’est l’intelligence ou plutôt ce que sont les différentes formes d’intelligence.

Vers de nouvelles manières de lire

Comme le résume bien le philosophe Larry Sanger [en] – en réponse à l’inquiétude de Nicholas Carr se plaignant d’être devenu incapable de lire des documents longs à force de parcourir des formes courtes sur le web – si nous ne sommes plus capables de lire des livres, ce n’est pas à cause d’un déterminisme technologique, mais uniquement à cause d’un manque de volonté personnelle. La question est alors de savoir : le média a-t-il un impact sur notre capacité de concentration ?

Quel est l’impact du média sur notre capacité de concentration ?

Pour l’écrivain Jeremy Hatch [en] qui raconte à Kevin Kelly comment il a lu les Confessions de Thomas De Quincey ou les mémoires de Tolstoï sur son PDA [en] il en est ainsi :

Notre capacité à nous concentrer sur un long texte ne dépend pas du média qui le délivre, mais de notre discipline personnelle et de l’objectif que nous avons quand nous lisons. Si vous vous asseyez pour lire Guerre et Paix dans le but de vous faire plaisir, que vous ayez du papier ou du plastique entre vos mains, vous vous attendez à être attentifs à votre lecture pendant des heures entières, peut-être un jour complet. Quand vous vous asseyez pour lire vos fils RSS, vous focalisez votre attention sur de courtes rafales, cinq minutes là, vingt ici, peut-être une heure sur un long article qui va particulièrement vous intéresser.

À en croire mon expérience, il suffit de le vouloir pour ignorer les distractions qu’offre le web, et le web permet aussi de faire des recherches profondes ou contemplatives à un degré qui s’étend bien au-delà des amas de livres des bibliothèques publiques. Il y a des inconvénients à chaque époque, mais je ne pense pas que les inconvénients de la nôtre se concrétisent par la disparition de la pensée profonde et de la méditation, ou du bonheur de se perdre dans de très bonnes œuvres littéraires. Les gens continueront d’avoir besoin de toutes ces choses, à la fois pour le travail et le développement personnel, ce besoin ne restera pas négligé très longtemps.

« L’expérience de Jeremy est plutôt proche de la mienne », poursuit Kevin Kelly :

Je pense que l’espace de la littérature est orthogonal au cyberspace et à l’espace de la lecture. Vous pouvez vous plonger dans un livre en ligne aussi bien que dans un livre papier, et vous pouvez passer d’une idée à l’autre sur le papier aussi bien qu’avec un livre au format électronique. Il est vrai que le média est lui-même un message (comme l’expliquait Mac Luhan), mais nous habitons maintenant un Intermedia, le média des médias, où chaque média coule dans un autre, ce qui rend difficile de tracer des frontières entre eux. Le livre est à la fois dans le cyberspace et dans l’espace de la littérature. Qu’il soit plus grand ou plus petit que nous le pensons, il est certain que nous sommes en train de le redéfinir.

D’un point de vue neuroscientifique, explique le professeur Laurent Cohen de l’Unité de neuro-imagerie cognitive de l’Inserm [en], auteur de L’homme thermomètre et de Pourquoi les chimpanzés ne parlent pas , « le support ne crée pas beaucoup de différences au niveau visuel ». Techniquement parlant, c’est-à-dire du point de vue des capacités de lecture, l’écran ou le papier ne changent rien au processus de la lecture, si l’on prend le même texte proposé d’une manière brute sur l’un ou l’autre support. Les caractéristiques physiques du livre génèrent certaines habitudes de lecture, mais rien que l’évolution des supports ne puisse demain faire évoluer, nous confie le collègue du professeur Stanislas Dehaene, l’auteur de Neurones de la lecture.

Bien sûr, l’écran de nos ordinateurs a tendance à générer des « distractions exogènes » qui demandent un effort cognitif plus important pour rester focalisé sur un sujet ou un texte. Toutefois ce n’est pas le support en tant que tel qui est en cause, mais bien les distractions qu’il génère. Ce n’est pas lire à l’écran qui nous perturbe : c’est lire connecté, lire en réseau.

C’est le réseau qui nous distrait !

L’écrivain de science-fiction Cory Doctorow [en], pourtant blogueur prolixe [en] sur l’un des blogs américains les plus lus, BoingBoing [en], l’a bien compris, quand il donne ses conseils pour écrire à l’ère de la connexion permanente : c’est la connectivité qui nous distrait ! Ce sont les distractions que le réseau et les outils numériques facilitent, parce qu’elles favorisent des micro-interactions constantes, des mises à jour continues. L’ordinateur nous conduit à être « multitâches », comme on l’entend souvent, désignant par là non pas la capacité à faire tout en même temps, mais à accomplir de multiples tâches qui cognitivement demandent peu d’attention, comme l’explique clairement Christine Rosen [en].

Appuyer sur un bouton pour relever ses mails, consulter son agrégateur d’information, sa messagerie instantanée en même temps et avoir plusieurs pages web ouvertes est devenu courant. Avec tous les outils qui nous entourent, les sollicitations sont constantes, et il faut reconnaître qu’il est facile de se perdre en surfant, alors qu’on avait commencé par vouloir lire un texte un peu long et qu’une recherche pour éclaircir un point nous a fait oublier notre objectif initial.

Faut-il imaginer des outils qui nous déconnectent selon ce qu’on lit pour favoriser notre concentration ? Ou bien des outils capables de mieux hiérarchiser nos priorités, favorisant les distractions selon la qualité des expéditeurs ou les empêchant selon le type d’outils que l’on est en train d’utiliser par exemple ? Les études commencent à s’accumuler sur les méfaits de cette distraction permanente, comme celle relevée récemment par l’Atelier, qui montre que la connexion continue sur son logiciel de réception de mail n’est pas bonne pour la productivité des salariés.

Elles soulignent le besoin d’une véritable écologie informationnelle. Mais il semble bien qu’il y ait là encore beaucoup à faire pour que les outils soient aussi fluides que nos pratiques.

Pour autant, il est probable que l’on puisse de moins en moins lire en n’étant pas connecté. Couper notre lecture du réseau ne semble pas devoir être à terme une solution pour retrouver le calme qui sied à une lecture profonde. Au contraire ! Comme le prédit Bob Stein, de l’Institut pour le futur du livre [en] à la conférence Tools of Change for Publishing 2009 [en], pour nos petits-enfants, la lecture sera une expérience éminemment socialisée : ce ne sera plus une expérience isolée, close, fermée sur elle-même – pour autant qu’elle l’ait jamais été –, mais une expérience ouverte aux autres lecteurs et aux textes en réseaux, qui prendra du sens en s’intégrant dans l’écosystème des livres et des lecteurs.

Pourrons-nous demain lire des livres sans accéder à leurs commentaires, au système documentaire qui va naître de cette mise en réseau des contenus? Pourrons-nous faire l’économie d’accéder aux livres et aux blogs qui citent ce livre, aux passages les plus importants signalés par l’analyse de toutes les citations faites d’un livre ? L’interface de Google Books préfigure peut-être ces nouvelles formes de lecture avec, par exemple, la page de références, de citations, des meilleurs passages et des recommandations d’un livre référencé dans Google Books comme We The Media de Dan Gillmor. La lecture ne sera plus une expérience solitaire, car en accédant au livre, à un article, on accédera aussi aux lectures d’autres lecteurs et surtout à son importance culturelle, au système qui le référence.

Notre mode de lecture change parce que le numérique favorise de « nouvelles manières » de lire

Les premières études sur les usages des livres électroniques montrent bien qu’on ne les utilise pas de la même façon que les livres de papier. Plutôt que d’en faire une lecture linéaire, on y pioche des passages ou des chapitres sans compter que l’usage qu’on en fait varie selon le contenu même du livre électronique. On a plutôt tendance à télécharger certaines formes littéraires et à accéder en ligne à d’autres, comme l’expliquaient certains des spécialistes du secteur lors de la conférence TOC 2009.

Le changement de paradigme que suppose le livre électronique ne signifie peut-être pas un accès partout, en tous lieux, à tout moment, sur un mode plutôt linéaire, comme le propose le livre papier. Il ouvre de nouveaux modes d’accès aux contenus, dont la recherche documentaire et donc l’accès partiel sont certainement appelés à progresser : le passage à l’électronique « augmente » le livre.

Assurément le rapport à ce que nous lisons est désormais différent, car la posture de lecture est différente. Avec le livre, je lis, je suis dans un moment à part, j’absorbe l’information. Sur l’écran, ou avec un livre électronique, bien souvent, je lis et écris, ou je lis et communique. La posture de lecture n’est plus exactement la même. Nous accédons à de nouvelles manières de lire, qui brouillent les questions de lecture, nos façons de les mesurer et de les comptabiliser.

Qu’est-ce que lire ?

Dans cette bataille d’arguments sur les vertus de la lecture selon les supports, un excellent papier du New York Times [en] tente de dépassionner le débat en se référant aux derniers travaux des chercheurs sur le sujet. Pour son auteur, Motoko Rich, tout l’enjeu consiste à redéfinir ce que signifie lire à l’ère du numérique.

Quels sont les effets de la lecture en ligne sur nos capacités de lecture ?

À l’heure où les tests de lecture des plus jeunes se dégradent, beaucoup d’enfants passent désormais plus de temps à lire en ligne qu’à lire sur papier. La tendance serait de lier l’un à l’autre, mais pourrait-on au contraire y trouver l’amorce d’une réponse ? On sait que, selon certaines statistiques fédérales américaines que cite l’auteur de l’article du New York Times, les jeunes qui lisent pour s’amuser, sur leur temps libre, obtiennent de meilleurs scores à leurs tests de lecture que ceux qui ne lisent que dans le cadre scolaire. L’internet a-t-il ce même effet ? Les jeunes, dont les pratiques de lectures basculent sur l’internet, améliorent-ils par ce biais leurs capacités de lecture ? La relation entre les deux n’est pas si aisée à démontrer.

Ceux qui critiquent l’activité de lecture sur le web affirment qu’ils ne voient pas de rapport évident entre l’activité de lecture en ligne et l’amélioration des capacités à lire en classe. Pire même, pour Dana Gioia, président de l’Association nationale américaine pour l’éducation [en], la baisse de la capacité à lire et de la compréhension de ce qu’on lit est générale.

Les spécialistes de l’alphabétisation commencent à peine à explorer les effets de la lecture en ligne sur les capacités de lecture. Selon une étude récente, portant sur 700 personnes pauvres, noires ou hispaniques de Detroit, les jeunes lisent plus sur le web que sur n’importe quel autre média, même s’ils lisent aussi des livres. Néanmoins, le seul type de lecture qui semble avoir un effet réel sur l’amélioration des résultats scolaires est la lecture de romans. Pour Elizabeth Birr Moje [en], professeure à l’université d’État du Michigan et responsable de cette étude, cela s’explique par le fait que la lecture de romans correspond à une demande de l’institution scolaire et que les connaissances issues de ce type de lecture sont valorisées dans le processus scolaire, plus que la lecture d’essais ou d’actualités par exemple. Sur l’internet, explique-t-elle, les étudiants développent de nouvelles capacités de lecture qui ne sont pas encore évaluées par le système scolaire.

Selon une autre étude [PDF, en], en fournissant un accès internet à des étudiants pauvres, leurs résultats aux tests de lecture s’améliorent : « Cela concerne des enfants qui ne lisent pas pendant leur temps libre », explique Linda A. Jackson [en], elle aussi professeure de psychologie à l’université d’État du Michigan : « Une fois qu’ils sont passés sur l’internet, ils se sont mis à lire ».

Nos chercheurs du Michigan ont étudié ainsi les usages de l’internet chez des enfants et des adolescents, rapporte Caleb Crain [en] pour le New Yorker, et ont montré que la qualité et l’aptitude à lire s’améliorent à mesure qu’ils passent du temps en ligne. « Même la visite de sites pornographiques améliore les performances scolaires », ironise-t-il, pour autant que l’internet continue à proposer du texte avant des contenus multimédias ou vidéo, ce qui n’est pas si sûr.

La lecture fragmentée et éclatée que proposent les supports culturels modernes (bulles de BD, éléments textuels dans les jeux vidéos, micro-messages ou SMS…) semble également, quoi qu’on puisse en penser, participer de la lecture. Certes, elle ne crée pas des lecteurs assidus ou de gros lecteurs, ni de meilleurs élèves, mais elle contribue à les familiariser avec la lecture et à généraliser l’alphabétisation, même si elle paraît parfois sommaire ou rudimentaire.

La fin de la lecture ?

Les rapports insistent régulièrement sur la baisse en fréquence et en quantité de la lecture chez les plus jeunes alors que progresse leur temps passé sur le web. Mais faut-il y voir un rapport de cause à effet ? « Les courbes de la lecture des plus jeunes entre la France et les États-Unis sont assez proches », confie Olivier Donnat, spécialiste de l’étude des pratiques culturelles.

Depuis les années 90, on constate la baisse régulière de la lecture à l’adolescence en quantité et en fréquence, plus forte chez les garçons que chez les filles. Mais il n’y a pas qu’internet qui est responsable ! L’augmentation du temps passé sur les jeux vidéos, le développement du temps passé en communication (mobiles) viennent concurrencer la pratique de la lecture. Internet s’inscrit dans un mouvement : il n’est pas seul en cause50.

Les pratiques de lecture deviennent difficiles à mesurer, car elles se démultiplient, se transforment et se mixent à d’autres pratiques. Olivier Donnat montre que la question de la lecture sur écran est complexe, car les pratiques sont très éclatées : « elles vont de la lecture du livre numérique (transposition du papier vers l’écran, sans changement de contenu) à des formes de pratiques “où on lit du texte” (mais souvent de manière ponctuelle ou associée à d’autres médias) ». Mais surtout, il rappelle que

la modification des pratiques de lecture est antérieure à l’arrivée d’internet. Internet va certainement avoir tendance à amplifier certains phénomènes, mais il faut rappeler qu’ils étaient perceptibles avant : la baisse de la quantité de livres lus chez les jeunes générations date des années 1980 ; la transformation des formats de lecture également, car voilà longtemps que la presse a fait évoluer sa mise en page vers une diminution de la taille des textes, l’ajout de résumés et de citations permettant le survol des articles… Le fait de lire d’une manière ponctuelle, sur des temps courts, plus que d’avoir à se concentrer sur le long terme n’est pas né avec l’internet. Internet ne fait que renforcer, qu’accentuer cette tendance.

Comme le souligne le chercheur, on ne sait pas grand-chose des passerelles entre la lecture sur papier et la lecture sur l’écran. On ne les mesure pas, on ne les voit pas ou on ne les identifie pas. « Peut-être faut-il se poser la question plus radicalement », explique-t-il :

Dans la lecture, l’unité de compte n’est-elle pas appelée à changer ? Dans le monde de la musique par exemple, on ne raisonne plus en album, mais de plus en plus en morceau, en chanson. Voire peut-être en refrain ou séquences de quelques secondes comme la durée d’une sonnerie de téléphone portable. Est-ce qu’il ne va pas en être de même dans la pratique de la lecture ? Si je regarde comme beaucoup mes propres pratiques, dans le numérique, on est souvent à la recherche d’une information précise. L’unité de lecture est donc plus ramassée du même coup, car on a des contraintes de temps et une exigence en terme de rentabilité plus forte. Sans compter qu’avec l’hypertexte, les textes sont également plus ouverts.

Mesurer la lecture à l’écran est plus difficile que mesurer un temps de lecture sur un support dédié. Alors qu’il était possible de mesurer le temps passé à lire un livre ou un journal, il est plus difficile d’évaluer l’activité de lecture sur une console de jeu ou un ordinateur, car la lecture fait partie d’un processus plus complexe auquel se greffent des moments d’écriture, des moments d’interaction, d’écoute, de repérage…

La lecture telle qu’on la connaissait, telle qu’on la pratiquait, telle qu’on la mesurait jusqu’alors, semble en train de s’effacer. Elle n’est en tout cas plus une activité isolée, mais elle s’inscrit dans un ensemble d’activités dont elle est une des articulations. On joue, on lit, on écoute, on écrit, on consulte… Tout se fait dans le même mouvement. Surfer sur le web, consulter ses mails ou Wikipédia, est-ce encore lire ? Très souvent, c’est le cas.

Selon certains experts, c’est la lecture elle-même qu’il faudrait redéfinir. Interpréter une page web, une vidéo ou une image devient aussi important que de comprendre un roman ou un poème. Pour les lecteurs en difficulté, le web est souvent un meilleur moyen pour glaner des informations, pour faire l’économie d’une lecture plus complexe et qui se perd parfois dans les détails. On parle ainsi de « littératie » pour définir « l’aptitude à comprendre et à utiliser l’information écrite dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités » .

Vers de nouvelles sociologies de la lecture ?

La difficulté d’évaluer les différentes façons de lire est d’autant grande qu’on lit de différentes façons pour différentes raisons. Il y a autant de lecteurs que de lectures, et les façons de lire n’ont cessé d’évoluer, valorisées ou dénigrées sous la pression des représentations sociales : la lecture savante, concentrée, analytique s’est imposée au détriment des autres formes, comme les formes sociales de la lecture. Les sociologues de la lecture, comme Chantal Horellou-Lafarge et Monique Segré ne disent pas autre chose, quand elles soulignent la grande diversité des pratiques de la lecture – qui varient selon le sexe, le milieu social, le niveau d’instruction.

La lecture électronique, elle aussi, se vit dans des « contextes » sociaux et dans des histoires personnelles. Les plus jeunes sont ceux qui ont les pratiques culturelles les plus variées. Mieux : « leur niveau d’investissement dans les pratiques culturelles traditionnelles (cinéma, musée, lecture de livre, consommation de média) est directement corrélé à l’investissement dans les pratiques numériques », explique la dernière étude du Département des études de la prospective et des statistiques [PDF] (Deps). La concurrence entre les nouvelles technologies et les anciennes pratiques culturelles se fait en terme d’occupation du temps au détriment des formes traditionnelles, mais pas au détriment des contenus.

La lecture de livres, largement répandue chez les plus jeunes, baisse tendanciellement avec l’avancée en âge. Cette baisse n’est pas seulement imputable à un effet de distanciation face aux injonctions scolaires et/ou familiales, même si celui-ci est avéré, mais elle participe également d’un phénomène générationnel. Les générations successives sont de moins en moins lectrices de livres, alors que d’autres formes de lecture s’y substituent, modifiant le modèle implicite qui a été celui de la lecture linéaire, littéraire.

Le numérique, en accroissant le nombre de produits culturels accessibles et en démultipliant les modes de consommation, favorise l’éclectisme et développe la capacité à digérer des formes culturelles différentes. Ces deux phénomènes sont renforcés par les transferts de contenus accrus d’un support à l’autre, via les adaptations de livres en une multitude de produits culturels et inversement. Pour autant,

de même que la baisse de l’affiliation partisane ne signifie pas la fin du sentiment politique, les mutations contemporaines observables dans les rapports des jeunes générations à la culture ne doivent pas automatiquement faire craindre la mort de la transmission culturelle. De manière générale, les valeurs culturelles des parents et des enfants se sont rapprochées, notamment autour d’une médiatisation croissante de la culture, de la diffusion croissante des pratiques amateurs et de la fréquentation des équipements culturels. Que faut-il en conclure : que la culture se massifie ? Qu’elle se banalise ?

Il faut croire que les fractures culturelles qui opposent les différents supports tiennent surtout aux représentations culturelles. Dans la réalité, les contenus s’inscrivent dans les différents supports et dans les pratiques d’une manière beaucoup plus plastique que ne le clament les tenants du « c’était mieux avant » comme Nicholas Carr ou du « ce sera mieux demain » comme Clay Shirky. Reste que, comme on le constate dans d’autres domaines, l’accès à la culture sur le web ne transforme pas les valeurs culturelles des internautes. Chacun demeure avant tout le reflet du groupe social auquel il appartient. Plus que jamais, pour tirer bénéfice de la culture, il faut le vouloir.

Article publié initialement sur CleoRevue sous le titre Le papier contre le numérique en début 2009

Illustration Flickr CC Mike Licht, NotionsCapital.com, Framboise, Veronica Belmont et A snail race

> Vous pouvez retrouver tous les articles de la Une : Livre Numérique: quand les auteurs s’en mêlent, De la datalittérature dans le 9-3 et Ce qu’Internet a changé dans le travail (et la vie) des écrivains

]]>
http://owni.fr/2011/03/18/le-papier-contre-le-numerique/feed/ 28
Pourquoi avons-nous besoin de prédictions? http://owni.fr/2011/03/17/pourquoi-avons-nous-besoin-de-predictions/ http://owni.fr/2011/03/17/pourquoi-avons-nous-besoin-de-predictions/#comments Thu, 17 Mar 2011 07:30:18 +0000 Hubert Guillaud http://owni.fr/?p=50869 C’est la question que posait récemment le New York Times [en] dans un passionnant débat en ligne, qui revenait, 80 ans après avoir invité huit innovateurs des années 1930 à prédire la vie en l’an 2000, sur la question de notre avenir. Qu’est-ce qui nous pousse à prévoir l’avenir ?

Pour l’écrivain Simon Winchester (site) [en] :

Les prévisions à long terme semblent un peu comme des capsules temporelles : plus conçues pour divertir les enfants rétrospectivement que pour être prises au sérieux lorsqu’elles sont prononcées.”
Bien sûr, la vérité incarnée dans cet axiome varie directement en fonction de l’échelle de temps de la prévision. Les prévisions à court terme peuvent être prises au sérieux, mais elles sont assez ternes.

Il neigera certainement demain. Les prévisions à long terme, elles, procurent bien plus de plaisir. Dire qu’il y aura un jour des champs de blé cultivés sur Mars ou que toutes nos informations numériques seront cousues dans nos chandails est tout de suite plus divertissant. “Lorsque l’on combine le rêve optimiste et utopique avec un blabla technologique plausible, alors vous vous approchez de l’absurdité la plus follement divertissante”, s’amuse l’écrivain.

Nous avons besoin d’illusions

Pour l’essayiste Edward Tenner (site) [en], qui prépare un ouvrage sur les “conséquences inattendues” : “Notre capacité à concevoir de nouveaux objets s’accélère peut-être, mais nos compétences à prendre en compte les risques qu’ils induisent à long terme ne suit pas le rythme”, et ce même pour des objets qui semblent aussi triviaux désormais qu’une prothèse de la hanche.

À long terme, les changements environnementaux et sociaux peuvent être encore plus difficiles à prévoir. Les trois modèles du futur semblent tout aussi plausibles, estime l’essayiste, que ce soit l’extrapolation (ce qui se poursuit indéfiniment), la saturation (ce qui va se stabiliser) ou l’oscillation (ce qui va se renverser).

Jusqu’au milieu du XXe siècle, les climatologues ont plutôt adopté un modèle de stabilisation du changement climatique, malgré les premiers chiffres qui montraient le danger du réchauffement planétaire, estime Edward Tenner. L’erreur prévisionnelle a également retardé le décollage de l’énergie nucléaire comme alternative aux carburants fossiles.

Même avant l’accident de Three Mile Island, en 1979, l’industrie nucléaire américaine était stoppée en partie parce qu’on prévoyait une baisse de la demande qui s’est avérée temporaire. Et les prédictions de dirigeants du secteur nucléaire affirmant que cette technologie pourrait aider à réduire les gaz à effets de serre ont été largement ignorées (sans qu’on mesure non plus très bien toutes les conséquences à long terme de développer l’énergie nucléaire, précise Tenner).

1956 Our friend the atom

Pour autant, les conséquences de mauvais pronostics ne sont pas toutes désastreuses. L’excès d’optimisme dans l’économie à la fin des années 1920, alors que la crise se profilait, a permis la construction de chefs-d’oeuvre architecturaux américains (comme le Chrysler Building, l’Empire State ou le Waldorf-Astoria), ce qui n’aurait certainement pas été possible si leurs promoteurs avaient eu connaissance de la crise de 1929.

À l’inverse, si les technocrates de Xerox n’avaient pas été aussi pessimistes quant aux perspectives de marché des premiers photocopieurs, la mise sur le marché n’aurait pas été retardée pendant des années. “Comme quoi, les sociétés, comme les individus, ont parfois besoin d’illusions”. En tout cas, c’est depuis celles-ci que nous construisons notre avenir.

Je vous l’avais bien dit

Pour Stacy Schiff (site) [en], l’auteur de La grande improvisation : Franklin, la France et la naissance de l’Amérique, “il est étrange de constater comment les événements prennent un sens tout à fait logique avec le recul – et la frustration que ce constat engendre depuis des temps immémoriaux”.

Le monde antique souscrivait profondément aux augures et aux présages, rappelle Stacy Schiff. Nous avons par exemple tout un catalogue d’augures qui annonçaient la mort de César. Aujourd’hui, de la crise financière à la popularité de Facebook, un certain nombre de choses semblent tout aussi inévitables à l’avenir. Pour les anciens, le présage ne se trompait jamais, c’est son interprétation qui souvent s’avérerait fausse.

Aujourd’hui, nous pensons être mieux à même de traduire les signes du monde moderne – même si, dirait tout statisticien, nous sommes certainement seulement plus susceptibles de trouver l’effet que nous recherchions.

Pour David Ropeik (site)[en], professeur à l’Harvard Extension School, et auteur de How Risky Is It, Really ? Why Our Fears Don’t Always Match the Facts (Est-ce véritablement risqué ? Pourquoi nos craintes ne correspondent pas toujours aux faits !), nous chercherons toujours à prédire l’avenir, car nous en avons besoin pour nous donner un sentiment de contrôle sur notre existence.

L’étude de la psychologie de la perception du risque a constaté que l’une des influences les plus puissantes sur la peur est l’incertitude. Moins nous en connaissons et plus nous nous sentons menacés, parce que le manque de connaissance signifie que nous ne savons pas ce dont nous avons besoin pour nous protéger.

La connaissance, même incomplète, permet d’avoir du pouvoir sur la façon dont les choses se passent. Le pouvoir procure un sentiment de contrôle rassurant (même s’il est faux). Sans connaissance et sens du contrôle, nous sommes bien plus effrayés. (…) Et même si le recul nous permet de regarder en arrière et de voir combien nous avons été aveugles ou optimistes dans notre prévision, la nature rassurante de l’exercice montre combien la prédiction est vouée pour longtemps à un brillant avenir.

L’avenir pour mieux regarder le passé

Pour l’essayiste Elif Batuman (site)[en], auteur de The Possessed : Adventures With Russian Books and the People Who Read Them (Les Possédés : les aventures des livres russes et des gens qui les ont lus), on ne peut savoir ce qui nous arrive que si nous ne savons pas qui nous avons été.

Pourquoi se faire séquencer son ADN ? “Nous avons toujours cru que le secret de l’identité de l’homme et son destin étaient inscrits dans son corps (gravé dans la paume de sa main, ou enregistré sur le chromosome Y). Dans le pronostic, l’identité et le destin sont intimement liés. Nous ne savons comprendre l’identité de l’homme que comme un récit – et le sens d’un récit dépend de sa fin.” Nous ne pouvons savoir ce qui nous arrive, si nous ne savons pas qui nous avons été tout le long de notre histoire.

Les anciens Babyloniens pratiquaient la divination par les aruspices, c’est-à-dire l’interprétation en regardant dans les entrailles des animaux. Dans la résonance du labyrinthe des intestins, ils voyaient le mystère de l’avenir. “Se poser la question de là où nous allons signifie donc se poser la question de qui nous sommes”, souligne Elif Batuman. Une double question qu’on ne cessera donc jamais de se poser.

Pour Robert J. Shiller, professeur d’économie à Yale [en], auteur notamment de l’Exubérance irrationnelle, les prévisionnistes peuvent deviner une direction, une tendance économique, mais être à côté quant au niveau qu’elle atteindra.

1960, produits et machines

L’avenir des ordinateurs par exemple, est devenu clair quand Vannevar Bush (Wikipédia) a écrit son article sur le Memex pour The Atlantic en 1945 (voir la traduction française), imaginant un dispositif mécanisé pour un usage individuel d’une bibliothèque projetée sur écran avec laquelle on interagit via un clavier, des boutons et leviers. Grâce à ses connaissances sur les recherches scientifiques de l’époque, son imagination a anticipé la façon dont nous utiliserons nos ordinateurs 70 ans dans le futur.

Pour les prévisions économiques, les statisticiens travaillent avec des séries chronologiques qui permettent d’observer l’évolution des données au fil du temps et de dessiner des tendances. Mais cette méthode ne sait pas gérer les révolutions, les brusques progrès voire les changements fondamentaux dans la façon dont ces données sont générées.

L’un des prévisionnistes qu’évoque le New York Times dans son édition de 1931 prédit que la population américaine sera de 160 millions en 2011. Or, la population américaine fait deux fois ce chiffre. Certes, l’erreur dans le taux de croissance est inférieure à 1% par an, mais l’accumulation de ces 1 % génère une grande différence quand elle s’accumule sur 80 ans.

“Quand les innovations comparaissent brutalement et de façon surprenante devant nous, alors elles nous permettent d’extrapoler d’importants changements à l’avenir”, mais sans pouvoir être précis quant à leur accomplissement, estime Robert J. Shiller.

La prudence s’impose

Pour Jaron Lanier (site)[en], auteur de You are not a Gadget (Vous n’êtes pas un gadget), chercheur associé chez Microsoft Research, le romancier Edward Morgan Forster a décrit avec plus de précision et de perspicacité notre rapport à l’internet en 1909 dans sa nouvelle La machine s’arrête (The Machine Stops, disponible en français dans le recueil De l’autre côté de la haie), que ne l’ont fait bien des études contemporaines sur le sujet.

Plus nous comprenons les conséquences de la technologie, plus l’art de la prévision doit devenir prudent, estime le chercheur. Il nous est difficile de répondre à la menace climatique parce que nous avons bâti des empires économiques autour des technologies fossiles qui sont bien plus subventionnés et protégés que la recherche d’énergies nouvelles.

Pour Sherry Turkle, qui dirige l’Initiative sur la technologie et l’autonomie au MIT et auteur de Alone together : why we expect more from technology and less from each other (Seuls ensemble : pourquoi nous attendons plus de la technologie et moins des autres), la prédiction a un but. Il n’est pas de gagner un pari sur l’avenir, mais d’exprimer un espoir sur comment nous aimerions que l’avenir soit. Lorsque nous faisons des prédictions sur la technologie, nous nous permettons d’imaginer comment nous voulons que la technologie change le monde, même si elle n’y arrive pas exactement.

Les ordinateurs 1965

Longtemps, nous n’avons pas imaginé que les ordinateurs pourraient faire autre chose que du calcul. Plus récemment, nous nous sommes encore trompés sur ce que signifiait vivre dans un monde d’ordinateurs personnels. Au début des années 80, nous imaginions que l’avènement de l’ordinateur individuel signifierait que la programmation allait devenir l’élément fondamental de l’alphabétisation. Les premiers ordinateurs personnels étaient fournis avec des langages de programmation et il n’était pas inhabituel pour les élèves d’apprendre à écrire leurs propres jeux vidéo.

Les enseignants bâtissaient des argumentations précises sur la façon dont les langages de programmation devaient être enseignés dès l’école primaire… rappelle la chercheuse, mais l’introduction du MacIntosh en 1984 a changé de façon spectaculaire les règles d’engagement que nous avions avec l’ordinateur. Les ordinateurs ont commencé à devenir “transparents” : nous pouvions les faire travailler sans savoir comment ils travaillaient.

Nous ne devrions pas être déçus quand les choses ne se passent pas de la façon dont nous l’avions imaginé. Les prévisions des années 80 ont été mauvaises, mais elles ont exprimé une vision humaine de l’informatique. Lors de la naissance de la culture informatique personnelle, nous avons voulu un monde que nous puissions comprendre. Nous ne l’avons pas eu. Peut-être que nous devrions réaffirmer notre aspiration à une relation plus maîtrisée à la culture numérique ?

Pour John McWhorter (blog)[en], collaborateur à la rédaction de The New Republic et auteur de Our magnificent bastard tongue : the untold story of english(Notre magnifique langue batarde : l’histoire non dite de l’anglais), face à la complexité de la modernité, les futurologues imaginent souvent un univers alternatif, plus facile (même s’il est bien souvent aussi plus horrible). “Par leur simplicité même, ces visions sont souvent antimodernes”, estime l’essayiste.

Lors de l’exposition universelle de 1939, Ford portait ainsi une vision de la ville peuplée d’autoroutes surélevées. Mais, comme nous avons découvert depuis, les routes surélevées ne sont pas très amusantes pour ceux qui vivent près du sol, rappelle l’essayiste avec ironie. Et même si nous avions mis tout le monde dans l’air, cela n’aura pas empêché les embouteillages ou le besoin de bâtiments en hauteur comme nous le faisons ici bas.

La surpopulation et les tensions concurrentes sur l’espace et les ressources sont inhérentes à la modernité. Les visions de haute volée, montrant un avenir sans ces tensions, sont des visions qui ont plutôt tendance à fuir la modernité qu’à la faire progresser.

Et John McWhorter de renvoyer dos à dos toutes les visions du futur : quand le futurologue Ray Kurzweil prédit par exemple qu’en 2045 les ordinateurs deviendront plus intelligents que les humains permettant la naissance d’une superintelligence, c’est une manière de nous détourner de la complexité de notre modernité. “Cette superintelligence va rendre triviale la complexité qui nous rend perplexe (et peut-être même la perplexité elle-même).”

Le seul futur probable est celui où la vie est aussi exaspérante et difficile à analyser que la nôtre.

Nous ne résistons pas aux prédictions

Bien sûr, ce n’est pas le discours que tient Ray Kurzweil lui-même [en]. “La plupart des inventions échouent parce que le moment est mal choisi : l’innovation doit faire sens pour le monde tel qu’il existe lorsque le projet est abouti”, rappelle l’inventeur. Or celui-ci bouge rapidement.

Kurzweil a rassemblé beaucoup de données pour essayer de comprendre l’évolution de la technologie. Les lois d’accélération permettent de prévoir certains aspects de l’avenir, estime-t-il. Si vous tracez les mesures du prix de la performance et des capacités des technologies de l’information, vous pouvez dessiner des trajectoires relativement lisses, semblables à la Loi de Moore, tout en allant bien au-delà.

Ce qui est prévisible c’est que ces mesures croissent de façon exponentielle et non pas linéaire, même si notre intuition de l’avenir est linéaire. Mais cela introduit une différence remarquable : “30 étapes linéaires vous conduisent à 30, tandis que 30 étapes exponentielles (2, 4, 8, 16…) vous mènent à un milliard.

Ray Kurzweil

Cette loi des rendements accélérés, comme l’a appelé Ray Kurzweil nous dit que tout ce qui est du domaine des technologies de l’information prend une ampleur énorme quant à sa puissance tout en devenant toujours plus réduit en taille. Et ce n’est pas seulement l’électronique et les communications qui suivent ce cours exponentiel : cela s’applique aussi bien à la santé, la médecine et à son domaine connexe la biologie, s’enthousiasme le bouillonnant inventeur. Sur le projet du génome humain, par exemple, chaque année la quantité de séquençage génétique double alors que coût du séquençage par paire de bases diminue de moitié.

“Sur les 147 prévisions pour 2009 que j’ai faites dans L’âge des machines spirituelles, écrit dans les années 90, 78 % étaient correctes à la fin 2009 et 8 % de plus devraient l’être d’ici un ou deux ans”
, rappelle avec fierté le futurologue.

La puissance d’un ordinateur actuel tenait dans un immeuble quand j’étais étudiant et tient désormais dans ma poche en étant des centaines de fois plus puissantes et un million de fois moins cher. Dans un quart de siècle, cette capacité tiendra dans une cellule sanguine et sera un milliard de fois plus puissante par dollar.

Quand on évoque les prédictions, on finit toujours par ne pas pouvoir y échapper. Hélas.

-
Publié initialement sur InternetActu
-
Crédits photo via Flickr: Ray Kurzweil par JDLasica [cc-by-nc-sa] ; Photos par X-Ray Delta One : The wow effect [cc-by-nc-sa] , The mighty hand [cc-by-sa] , Time cover 1965 by Arztybasheff [cc-by-sa], Our friend the Atom [cc-by-nc-sa] , Route du futur [cc-by-sa], Time cover Products & Machines [cc-by-sa]

]]>
http://owni.fr/2011/03/17/pourquoi-avons-nous-besoin-de-predictions/feed/ 6
À défaut de réduire la collecte des données, comment les altérer? http://owni.fr/2011/02/05/a-defaut-de-reduire-la-collecte-des-donnees-comment-les-alterer/ http://owni.fr/2011/02/05/a-defaut-de-reduire-la-collecte-des-donnees-comment-les-alterer/#comments Sat, 05 Feb 2011 10:30:26 +0000 Hubert Guillaud http://owni.fr/?p=44971 Toutes les données sont devenues personnelles, écrivions-nous il n’y a pas si longtemps, montrant combien anonymiser les données devenait difficile, à l’heure où les champs de données eux-mêmes génèrent de l’identifiabilité. Paul Ohm (blog, [en]), dans un article important sur l’étonnant échec de l’anonymisation [en] annonçait déjà, qu’il n’y aurait pas de solutions miracles : “les mesures qui sont prises augmenteront la confidentialité ou réduiront l’utilité des données, mais il n’y aura aucun moyen de garantir à la fois une utilité maximale des données et une confidentialité maximale.”

Dans la Technology Review [en] on apprend que des chercheurs du Laboratoire de protection des renseignements médicaux [en] de l’université Vanderbilt ont créé un algorithme pour altérer des données génétiques ou médicales afin de les anonymiser tout en permettant aux chercheurs de les utiliser.

Les enregistrements médicaux comportent de nombreuses informations sur les patients, allant de leur âge à leur historique médical. Quand ces données sont utilisées par des chercheurs, elles sont “anonymisées”, c’est-à-dire qu’on enlève les identifiants directs comme le nom ou l’adresse, mais pas bien sûr les diagnostics et leurs historiques. Le problème est qu’il n’est pas difficile d’utiliser ces historiques pour ré-identifier une personne. Dans l’article publié dans Proceedings of the National Academy of Sciences par Bradley Malin [en] et ses collègues, ceux-ci estiment qu’ils sont capables d’identifier 96 % des patients en se basant seulement sur leurs historiques médicaux.

Pour résoudre ce problème, l’équipe du Laboratoire de protection des renseignements médicaux a conçu un algorithme capable de chercher dans une base de données les combinaisons de diagnostic qui distinguent un patient d’un autre et de les substituer par d’autres. Ainsi, le code qui distingue une ostéoporose post-ménopause pourrait devenir une simple ostéoporose… L’algorithme injecte des informations altérées afin de rendre les enregistrements des patients non identifiables. L’algorithme serait également capable d’ajuster le niveau d’anonymisation aux besoins des chercheurs, selon leurs recherches.

Quelques limites

Cette nouvelle approche comporte néanmoins quelques limites estiment les chercheurs : le système fonctionne mieux quand les chercheurs ont un but précis, afin que les bonnes données, qu’ils cherchent à exploiter, soient préservées par le système. Ce qui signifie qu’une même extraction ne pourrait pas servir à plusieurs recherches. Inversement, accéder à plusieurs extractions d’un même ensemble devrait certainement permettre, en les croisant, de rétablir les données altérées…

Si l’avenir de la science dépend de la façon de tirer parti d’informations existantes dans des silos de données, l’anonymisation de l’information demeure une question primordiale. Comme souvent, les chercheurs semblent pragmatiques : il leur faut maximiser le bénéfice scientifique tout en contrôlant les risques quant à la vie privée.

L’intérêt en tout cas de l’algorithme mis au point par les chercheurs, est de permettre d’aller plus loin qu’une fausse anonymisation des données et de montrer que la science prend le problème au sérieux. Reste que plutôt que d’augmenter la confidentialité des données, on devine que c’est l’autre option sur laquelle tout le monde va travailler : trouver les moyens d’en réduire l’utilité à minima. C’est la piste que tracent ces premières recherches… Il est possible que ce ne soient pas les dernières.

Article initialement publié sur InternetActu en avril 2010

Image CC Flickr sombraala

]]>
http://owni.fr/2011/02/05/a-defaut-de-reduire-la-collecte-des-donnees-comment-les-alterer/feed/ 1
Pourquoi remettons-nous souvent les choses au lendemain? http://owni.fr/2011/01/16/pourquoi-remettons-nous-souvent-les-choses-au-lendemain/ http://owni.fr/2011/01/16/pourquoi-remettons-nous-souvent-les-choses-au-lendemain/#comments Sun, 16 Jan 2011 10:00:37 +0000 Hubert Guillaud http://owni.fr/?p=42416 Si vous jetez un oeil à la file d’attente des films que vous projetez de voir (comme c’est le cas sur un service de VOD ou de prêt de DVD comme Netflix), vous constaterez qu’elle est constituée pour beaucoup de documentaires passionnants et de films d’auteurs, plus que des derniers blockbusters (qui demeurent toujours parmi les plus loués, comme le montre l’étonnante cartographie des locations de Netflix). Selon une étude menée en 1999 [pdf] par Daniel Read, George Loewenstein et Shoban Kalyanaraman, portant justement sur notre capacité à choisir entre des films mémorables et exigeants ou amusants et oubliables, nous avons massivement tendance à choisir les seconds au détriment des premiers. Et des études plus récentes insistent aussi sur notre inconsistance en la matière.

On a tous tendance à dire qu’on préfère les fruits, mais lorsqu’une tranche de gâteau se présente à côté d’une pomme, c’est, statistiquement, vers le gâteau que va le plus facilement se diriger notre main. C’est pourquoi les files d’attente des films que l’on doit voir sont pleines de bons films.

Les psychologues parlent ainsi du “biais du présent” pour caractériser le fait que nous sommes bien souvent incapables de comprendre que ce que nous voulons à long terme et ce que nous voulons maintenant ne sont pas la même chose. Le biais du présent explique pourquoi vous achetez des légumes et des fruits et que vous oubliez de les manger.

Alors qu’on prend de bonnes résolutions, la procrastination nous conduit à agir autrement. C’est pourquoi on attend la dernière minute pour acheter les cadeaux de Noël, qu’on oublie de s’inscrire pour aller voter, qu’on préfère jouer encore un petit peu au jeu vidéo alors qu’on a un devoir à rendre demain matin, etc.

Vous pouvez essayer de combattre ce penchant naturel. Acheter un agenda. Rédiger une liste de tâche… Vous pouvez lire tous les livres que vous voulez pour vous détacher de vos mauvaises habitudes… Vous pouvez devenir un drogué de la productivité entouré d’instruments (comme RescueTime) pour vous rendre la vie plus efficace, ces outils ne vous serviront à rien, parce que le problème ne repose pas sur la gestion du temps, mais sur le conflit qui se déroule dans notre cerveau.

Tout serait dans la maîtrise de soi

Dans les années 60, Walter Mischel a mené des expériences à l’université de Stanford sur les conflits de négociation des enfants. L’expérience est bien connue. Les enfants étaient assis devant une table avec des guimauves devant eux, ils pouvaient les manger tout de suite ou attendre que le chercheur revienne, auquel cas, il leur offrirait le double de bonbons.

Quand Walter Mischel a commencé à analyser les résultats, il a remarqué que les enfants qui avaient le plus vite saisi les bonbons étaient plus susceptibles d’avoir des problèmes de comportements, qu’ils ont obtenu de moins bons résultats scolaires que les autres, explique Jonah Lehrer dans l’excellent article qu’il consacra au New Yorker sur le “secret de la maîtrise de soi”.

Cliquer ici pour voir la vidéo.

The Marshmallow Test from Igniter Media on Vimeo.
Igniter Media a reproduit le test du Marshmallow, pour en faire une courte vidéo comique.

30 % des enfants ont réussi à attendre le retour du chercheur, 10 à 15 minutes plus tard. Bien qu’également soumis à la tentation, ils avaient eux trouvé une façon de résister.

Walter Mischel s’est rendu compte qu’il y avait un lien entre la performance scolaire des enfants et leur capacité à se contrôler. En 1981, il a recontacté 653 enfants qui avaient participé à l’expérience originelle, interrogeant leur capacité à planifier, à faire face à des problèmes à s’entendre avec leurs pairs. Et Mischel a remarqué que les enfants qui avaient cédé rapidement étaient plus susceptibles d’avoir des problèmes de comportement que les autres.

Pour Walter Mischel, l’intelligence tient en grande partie de la maîtrise de soi. Pour comprendre pourquoi certains enfants ne peuvent attendre et d’autres réussissent à se contrôler, il faut arriver à penser comme ils pensent. L’expérience de Mischel a montré que la maîtrise de soi dépend d’une compétence essentielle : la “répartition stratégique de l’attention”. C’est-à-dire qu’au lieu d’être obsédés par la guimauve qu’ils avaient sous les yeux (”le stimulus chaud”), les enfants ont essayé de détourner leur attention en se couvrant les yeux, en jouant à cache-cache sous le bureau ou en chantant des chansons.

Leur désir n’a pas été vaincu, il a simplement été oublié.

La distraction comme solution

La clef est d’éviter de penser à la guimauve. Chez les adultes, cette compétence est souvent désignée comme la “métacognition” ou la “réflexion sur la réflexion”, permettant aux gens de déjouer leurs lacunes. Les enfants qui avaient une idée du fonctionnement de l’auto-contrôle ont été mieux à même de retarder la gratification. Mais certains enfants pensaient que la meilleure façon de résister était de fixer la guimauve, ce qui est une idée terriblement insoutenable même pour le dernier des gourmands.

Pour Mischel, le test de la guimauve est un test prédictif puissant. Si on est sensible aux émotions chaudes, alors il faudra faire de manière à mettre plus d’argent de côté pour sa retraite que les autres par exemple. Des travaux ultérieurs ont montré que les différences comportementales entre enfants étaient observables déjà chez des enfants de 19 mois. Alors que certains enfants éclataient en larmes, s’accrochaient à la porte face au stress de l’expérience, d’autres surmontaient leur anxiété, se distrayant, jouant avec des jouets. Les enfants qui avaient pleuré étaient aussi ceux qui, vers 5 ans, avaient également du mal à résister à la tentation de la guimauve.

Pour Mischel, notre capacité à l’auto-contrôle est autant génétique que sociale. Mais le test a montré que la capacité d’enfants à l’auto-contrôle issus de familles à faible revenu du Bronx était moindre que celle d’enfants de Palo Alto.

Quand vous grandissez pauvre, vous n’avez pas l’habitude de retarder votre rétribution. Et si vous ne pratiquez pas, vous ne saurez pas comment distraire votre attention, vous ne saurez pas élaborer les meilleures stratégies.

Les gens apprennent à utiliser leur esprit, comme ils apprennent à utiliser un ordinateur : par essais et erreurs.

Mais cela s’apprend très simplement et très vite. En donnant comme conseil aux enfants d’imaginer un cadre autour des bonbons, les résultats sont devenus très vite spectaculaires.La seule façon de vaincre nos instincts c’est de les éviter, de prêter attention à autre chose. Nous disons que c’est de la volonté, mais cela n’a rien à voir avec la volonté”, explique John Jonides, un neuroscientifique de l’université du Michigan.

Une pratique quotidienne

Mischel prépare une étude à grande échelle impliquant des centaines d’écoliers pour voir si les compétences de maîtrise de soi peuvent être enseignées pour qu’elles persistent à long terme. En d’autres termes, il veut apprendre aux enfants que les trucs ne fonctionnent pas que pendant l’expérience, mais qu’ils puissent apprendre à les appliquer à la maison, au moment de décider entre les devoirs et télévision par exemple.

Pour Angela Lee Duckworth, professeur de psychologie à l’université de Pennsylvanie et responsable de ce programme, essayer d’enseigner l’algèbre à un adolescent qui n’a pas la maîtrise de soi est un exercice assez futile. Selon elle, la capacité à retarder une gratification serait un facteur prédictif de comportement plus efficace que le QI. Si l’intelligence est importante, elle l’est moins que la maîtrise de soi.

Walter Mischel sait qu’il ne suffit pas d’enseigner aux enfants quelques tours, le véritable défi est de transformer ces trucs en habitudes, ce qui demande souvent des années de pratiques assidues.

C’est là que les parents sont importants, reconnaît Mischel. Ont-ils mis en place des rituels qui vous apprennent à retarder vos envies sur une base quotidienne ? Vous encouragent-ils à attendre ? Font-ils de manière à ce que cette attente vaille la peine ?

Pour Mischel, les plus banales routines de l’enfance (comme ne pas grignoter avant le diner, d’attendre le matin de Noël pour déballer les cadeaux…) sont des exercices d’entraînement cognitifs en catimini, pour nous apprendre à déjouer nos désirs.

Nous ne savons pas composer avec les délais

Si on offre à quelqu’un 50 $ maintenant ou 100 $ à la fin de l’année, il va choisir de prendre les 50 $. Si on offre 50 $ dans 5 ans et 100 $ dans 6 ans, temporellement l’écart n’a pas changé, mais il semble pourtant plus naturel d’attendre un an de plus, du moment qu’on aura déjà attendu longtemps. Pourtant, si nous n’étions qu’un animal raisonnable, nous choisirions toujours le montant le plus élevé, or nous avons plutôt tendance à nous saisir de ce dont on peut profiter au plus vite, rappelle David McRaney. Ainsi, Twitter nous semble plus gratifiant que de faire des tâches plus difficiles (comme écrire un article) dont dépend pourtant notre salaire en fin de mois.

Quand on est forcé d’attendre, nous avons tendance à être plus rationnels. C’est ce qu’on appelle “l’actualisation hyperbolique”. Traditionnellement, les économistes considèrent que les individus optimisent une fonction d’utilité intertemporelle en actualisant les gains futurs de manière linéaire ; c’est “l’actualisation exponentielle”.

En fait, la psychologie et l’économie comportementales indiquent que les individus (mais aussi les animaux) actualisent les gains futurs de manière plutôt hyperbolique. L’actualisation hyperbolique rend possible un phénomène intéressant : l’inversion des préférences qui signifie qu’à un moment t, A est préféré à B, mais qu’à un moment t+n, B devient préféré à A, explique sur son blog Cyril Hédoin, maître de conférences en sciences économiques à l’Université de Reims.

Le meilleur moyen pour déjouer la procrastination, estime David McRaney, est de composer avec les délais. Pourtant, là encore ce n’est pas si simple. Une étude de Klaus Wertenbroch et Dan Ariely réalisée en 2002 [pdf] avait créé 3 classes d’étudiants devant rendre 3 devoirs chacune. La première devait rendre les 3 devoirs bout de 3 semaines. La seconde classe a déterminé 3 délais différents. La dernière classe devait rendre un devoir par semaine. Sans surprise, c’est la troisième classe qui a obtenu les meilleurs résultats alors que le premier groupe a eu les résultats d’ensemble les plus catastrophiques. Les étudiants sans lignes directrices ont tous tendance à remettre leurs devoirs au dernier moment.

Ces résultats suggèrent que si tout le monde a des problèmes avec la procrastination, ceux qui reconnaissent et admettent leur faiblesse, sont dans une meilleure position pour utiliser des outils disponibles capables de les aider à surmonter cette difficulté, explique Dan Ariely dans son livre (C’est (vraiment ?) moi qui décide).

La procrastination est une impulsion, comme d’acheter des bonbons à la caisse du magasin.

Pour combattre la procrastination, il faut devenir un adepte de la réflexion sur la réflexion, conclut David McRaney.

Il faut comprendre que c’est le vous qui lisez ce texte et que c’est le même vous quelque part dans le futur qui sera influencé par différents désirs et idées, un vous dans d’autres dispositions, utilisant d’autres palettes de fonctions cérébrales pour peindre la réalité.

Il faut être capable de discerner les coûts des gratifications à chaque fois que vous êtes amené à choisir. Voilà qui demeure plus facile à dire qu’à faire.

Article initialement publié sur InternetActu.

Crédits photos cc FlickR : L-T-L (Almost back), Emilie Ogez, Daniel Montesinos.

]]>
http://owni.fr/2011/01/16/pourquoi-remettons-nous-souvent-les-choses-au-lendemain/feed/ 10
Des frontières au bout du fil http://owni.fr/2011/01/11/des-frontieres-au-bout-du-fil/ http://owni.fr/2011/01/11/des-frontieres-au-bout-du-fil/#comments Tue, 11 Jan 2011 16:30:05 +0000 Hubert Guillaud http://owni.fr/?p=41897 Analyser des données téléphoniques peut-il nous permettre de mieux comprendre la pertinence de nos frontières administratives ? C’est la question que ce sont posés des chercheurs du département réseau et société du Senseable City Lab du MIT, de Cornell, de British Telecom et du collège universitaire de Londres dans une étude (vidéo) qui a comparé des données de télécommunications avec les frontières administratives britanniques. Leurs conclusions montrent que le cloisonnement politique existant se retrouve pour l’essentiel dans nos communications.

Image : De la cartographie des communications aux frontières régionales de nos échanges.

En analysant des milliards d’échanges téléphoniques, les chercheurs ont constitué une carte montrant l’intensité des échanges entre les différentes régions d’Angleterre, selon le volume des informations qu’elles échangent. Ils ont ensuite développé un algorithme permettant de diviser la carte en régions selon le volume des échanges permettant de mettre en avant le volume des connexions à l’intérieur d’une région par rapport au volume des connexions entre régions.

Coïncidence des interactions et de la partition administrative

Ils ont mis en évidence le fait que la partition des échanges correspondait pour la plupart avec les partitions administratives, géographiques et historiques existantes. A quelques exceptions près cependant : une partie du pays de Galles a de plus fortes relations avec des villes de l’ouest de l’Angleterre qu’elle n’en a avec le reste du pays de Galles…

“Cette étude nous permet de comprendre l’interaction entre les institutions géographiques et sociales que nous construisons”, estime Carlo Ratti, directeur du Senseable City Lab du MIT. En permettant de mieux identifier les régions réelles, c’est-à-dire telles que les gens les vivent dans leurs échanges et leurs déplacements, nous pourrions construire une meilleure gouvernance, estime le chercheur. Cependant, il n’est pas surprenant que le résultat de l’algorithme de partitionnement dessine un miroir des limites politiques actuelles de la Grande-Bretagne, souligne Carlo Ratti. Après tout, si les communautés ont été regroupées culturellement et politiquement depuis des siècles, cela leur donne également de bonnes raisons pour échanger des informations d’abord et avant tout en leur sein.

Cliquer ici pour voir la vidéo.

En science des réseaux, les algorithmes de partitionnement sont pourtant souvent indifférents à la géographie : il serait ainsi parfaitement acceptable de réunir New York et Los Angeles à regarder le volume des données que les deux villes échangent. Ce n’est visiblement pas le cas en Grande-Bretagne.

L’analyse des flux d’informations ne redessinera pas les frontières administratives, bien sûr, mais elle peut être un outil dans la compréhension de leur pertinence ou de leur inexistence. On a hâte de voir une telle étude étendue aux régions françaises.

Article initialement publié sur InternetACTU sous le titre “Nos frontières politiques éclairées par nos échanges”.

Illustration CC FlickR: rbrwr

]]>
http://owni.fr/2011/01/11/des-frontieres-au-bout-du-fil/feed/ 1
Les algorithmes prédictifs sont-ils un risque pour notre libre-arbitre? http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/ http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/#comments Wed, 01 Dec 2010 15:00:29 +0000 Hubert Guillaud http://owni.fr/?p=37595

Nous sommes apparemment aujourd’hui dans une situation où la technologie moderne change la façon dont les gens se comportent, parlent, réagissent, pensent et se souviennent.

Nous dépendons de plus en plus de nos gadgets pour nous souvenirs des choses : comme le disait Daniel Dennet, nous connaissons une explosion démographique des idées que le cerveau n’arrive pas à couvrir.

L’information est alimentée par l’attention : si nous n’avons pas assez d’attention, nous n’avons pas assez de nourriture pour retenir tout ces renseignements.

Or, à l’âge de l’explosion de l’information que faut-il retenir ? Que faut-il oublier ? Pendant des siècles, explique Frank Shirrmacher, ce qui était important pour nous était décidé par notre cerveau : désormais, il sera décidé ailleurs, par nos objets, par le réseau, par le nuage d’information dont nous dépendons. “Ce n’est pas un hasard si nous connaissons une crise de tous les systèmes qui sont liés soit à la pensée soit à la connaissance” : édition, journaux, médias, télévision, mais également université comme tout le système scolaire. Ce n’est pas une crise de croissance, mais bien une crise de sens :

la question est de savoir ce qu’il faut enseigner, ce qu’il faut apprendre et comment. Même les universités et les écoles sont tout à coup confrontées à la question de savoir comment enseigner.

Quelles informations retenir ? Qui va les retenir pour nous ?

À la fin du XIXe siècle, rappelle l’essayiste, “à la rubrique nouvelles technologies, les discussions étaient vives autour du moteur humain. Les nouvelles machines de la fin du XIXe siècle exigeaient que les muscles de l’être humain s’y adaptent. En Autriche et en Allemagne notamment, un courant philosophique réfléchissait à comment changer la musculature ! Le concept de calories a été inventé à cette époque afin d’optimiser la force de travail humain. Au XXIe siècle, on retrouve le même type de question avec le cerveau. Le muscle que nous avons dans la tête, le cerveau, doit s’adapter. Or, ce que nous savons des études récentes montre qu’il est difficile pour le cerveau de s’adapter au multitâche.”

Nous passons de l’adaptation des muscles aux machines à celui de l’adaptation du cerveau aux machines à travers les questions du multitâche ou de l’infobésité qu’adressent à nous les technologies de l’information et de la communication. “Le concept d’informavore qui conçoit l’être humain comme un dévoreur d’information a beaucoup à voir avec nos anciennes chaines alimentaires”, avec la nourriture que vous prenez ou pas, avec les calories qui sont bonnes ou mauvaises pour vous ou votre santé.

L’outil n’est pas seulement un outil, il façonne l’humain qui l’utilise. Du moment que les neuroscientifiques et d’autres se sont mis à utiliser l’ordinateur pour analyser la façon de penser des hommes, quelque chose de nouveau à commencé. Quelque chose qui pose la question du libre arbitre, comme le disait déjà Jaron Lanier, le gourou de la réalité virtuelle. “À l’heure de l’internet en temps réel, la question de la recherche prédictive et du déterminisme devient plus importante.”

Les algorithmes prédictifs vont-ils décider pour nous ?

Frank Schirrmacher imagine que la question de la prédiction – comme la prévisibilité des tendances de recherches que réalise déjà les outils de Google sur la grippe et dans bien d’autres domaines – va avoir un impact important sur la notion de libre arbitre. Google saura avant nous si le concert que nous nous apprêtons à regarder ce soir va nous intéresser, parce qu’il sait comment les gens en parlent, qu’il calcule et analyse non seulement les comportements de la société, mais aussi les nôtres permettant de situer nos comportements dans l’univers social, explique Schirrmacher.

En recueillant de plus en plus de données comportementales et en y appliquant des algorithmes prédictifs de plus ne plus sophistiqués, notre perception de nous-même va se modifier. Alors que pour certains psychologues – comme John Bargh – clament que rien n’est plus important que le libre arbitre, nous sommes confrontés à un avenir où tout va être prévisible par les autres, via le nuage informatique et la façon dont nous sommes liés via l’internet. Les nouvelles technologies, qui sont en fait des technologies cognitives, s’adressent à notre intelligence, à notre pensée et s’opposent désormais à nos façons de penser traditionnelles.

Et Schirrmacher d’en appeler à mieux comprendre les transformations qui se font jours :

Qu’est-ce que Shakespeare et Kafka, et tous ces grands écrivains, ont réellement faits ? Ils ont traduit la société dans la littérature. Ils ont traduit la modernisation dans la littérature… Maintenant, nous devons trouver des personnes qui traduisent ce qui se passe dans la société au niveau des logiciels. Les textes vraiment importants, qui écrivent notre vie aujourd’hui et qui sont, en quelque sorte, les histoires de notre vie sont désormais les logiciels – or ces textes ne sont pas examinés. Nous devrions avoir trouvé les moyens de transcrire ce qui se passe au niveau des logiciels depuis longtemps – comme Patty Maes ou d’autres l’ont fait : juste l’écrire et le réécrire de manière à ce que les gens comprennent ce que cela signifie réellement. Je pense que c’est aujourd’hui une grande lacune. Vous ne pourrez jamais vraiment comprendre en détail comment Google fonctionne, car vous n’avez pas accès au code. On ne nous donne pas l’information pour comprendre.

Notre fonctionnement personnel est-il tant dépendant de notre environnement social?

Parmi les nombreuses réponses que cet article a suscité, signalons, celle de John Bargh, psychologue et directeur du Laboratoire de l’automatisme pour la cognition, la motivation et l’évaluation à l’université de Yale, qui abonde dans le sens de Schirrmacher.

J’ai tendance à moins m’inquiéter de la surcharge d’information sur le plan personnel et individuel qu’au niveau sociétal et gouvernemental. Voilà longtemps que le cerveau humain a l’habitude d’être surchargé d’informations sensorielles (…). Le cerveau est habitué à traiter avec des messages contradictoires aussi, ainsi qu’à gérer et intégrer l’activité de nombreux sous-systèmes tant physiologiques que nerveux – mais comme le montre les travaux de Ezequiel Morsella, cela tout en conservant cette gestion hors de notre vue de manière qu’il nous semble ne pas en faire l’expérience.

Nous sommes déjà et depuis longtemps multitâches. Mais nous le faisons (plutôt bien) inconsciemment, non consciemment. Nous sommes moins doués pour le multitâche conscient (comme parler au téléphone quand nous conduisons) en raison des limites de l’attention consciente. À mesure que nous acquérons des compétences, ces compétences requièrent de moins en moins d’attention consciente (…). Conduire un véhicule nécessite de fortes capacités à être multitâche de prime abord, mais cela devient beaucoup moins difficile parce que notre capacité à être multitâche se déplace avec le temps.

Mais Schirrmacher a bien raison de s’inquiéter des conséquences d’une base de connaissances numérisées universellement disponibles, surtout si elle concerne les prévisions de ce que les gens vont faire. (…) La découverte de l’omniprésence des influences situationnelles pour tous les principaux processus mentaux de l’homme nous dit quelque chose de fondamentalement nouveau sur la nature humaine (par exemple comment notre fonctionnement est étroitement lié et adapté à notre environnement physique et social notamment). Il supprime le libre arbitre qui génère les choix et les pulsions comportementales, les replaçant dans le monde physique et social, sources de ces impulsions.

La découverte qu’il est facile d’influencer et de prédire le comportement des gens est désormais exploité comme un outil de recherche parce que nous savons que nous pouvons activer et étudier des systèmes psychologiques humains complexes avec des manipulations très simples. (…) C’est parce que ces études sont relativement faciles à réaliser que cette méthode a ouvert la recherche sur la prédiction et le contrôle du jugement et du comportement humain, et l’a démocratisé (…). Cela a produit une explosion de la connaissance des contingences des réponses humaines à l’environnement physique et social. Et je m’inquiète comme Schirrmacher, parce que nous construisons si rapidement un atlas de nos influences inconscientes que nous pourrons bien les exploiter via des dispositifs de calculs toujours plus rapides alors que les connaissances s’accumulent à un rythme exponentiel.

Je me connais donc je suis… et c’est tout !

Plus le Web – cette vaste “base de données des intentions”, comme l’a brillamment appelé John Battelle – croît, plus il est difficile de discerner si ces intentions sont les nôtres ou pas, conclut avec raison Nicholas Carr.

Heureusement, tout le monde ne partage pas ce pessimisme. Nick Bilton, professeur à l’université de New York, designer pour le New York Times, répond :

Je suis profondément perplexe devant les penseurs intelligents et novateurs qui pensent qu’un monde connecté est nécessairement un monde négatif. (…) Ce n’est pas notre peur de la surcharge d’informations que fait tergiverser nos égos, mais la crainte que nous soyons en train de manquer quelque chose.

Qu’est-il important ou pas de savoir demande Frank Schirrmacher ?

La réponse est claire et pour la première fois dans nos existences, l’internet et la technologie la rendent possible, estime Bilton : c’est l’importance de l’individualisme. Ce qui est important pour moi ne l’est pas pour vous, et vice-versa. Et l’individualisme est l’incarnation du libre arbitre. Le libre arbitre n’est pas un moteur de recommandation, n’est pas un algorithme de Google ou d’Amazon : c’est la capacité de partager nos pensées et nos histoires avec qui souhaite les utiliser pour que nous puissions en retour utiliser les leurs. Ce qui importe c’est notre capacité à discuter et présenter nos points et de vue et écouter les pensées des autres.

La réponse est forte… mais peut-être un peu courte. En enregistrant toujours plus nos données, en nous permettant de nous documenter plus avant, ces systèmes renforcent certes notre individualisme, mais ils nous rendent aussi plus perméables aux autres, plus conscients de nos influences. Peut-être que cela permettra à certains de mieux y réagir… Mais est-ce que ce sera le cas de tous ?

Crédits photos cc FlickR : splorp, opensourceway, *n3wjack’s world in pixels.

Article initialement publié sur InternetActu sous le titre : “La capacité prédictive de nos systèmes socio-techniques va-t-elle tuer notre libre arbitre ?

]]>
http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/feed/ 17