OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Cette crise ne passera pas l’Ibère http://owni.fr/2012/07/04/cette-crise-ne-passera-pas-libere/ http://owni.fr/2012/07/04/cette-crise-ne-passera-pas-libere/#comments Wed, 04 Jul 2012 16:06:15 +0000 Florian Cornu http://owni.fr/?p=114728

Acampada Barcelona, 27/05/2011. Après l'attaque de la police - (cc-byncnd) Julien Lagarde

L’ouvrage collectif Aftermath “les cultures de la crise économique” [pdf] qui vient de paraître en Angleterre aux éditions Oxford University Press constitue le fruit de la réflexion et de l’enquête de Manuel Castells sur les réseaux de solidarité économiques nés de la conjoncture actuelle. Nous avons rencontré l’auteur à Paris lors d’une conférence intitulé “Une autre économie est possible” organisée par la fondation maison des sciences de l’homme. Accompagné d’Alain Touraine et Michel Wieviorka, le sociologue, titulaire de la Chaire “La société en réseaux” du Collège d’études mondiales a présenté une synthèse de différents travaux effectués ces dernières années.

De part son titre, la conférence  revient un peu à la racine du parcours politique de celui qui, dans sa jeunesse, était un anarchiste engagé dans l’anti-franquisme en Catalogne. Comme il le concède lui même, il poursuit en quelque sorte ce travail en analysant la transformation des rapports de pouvoir (cf. vidéo ci-dessous) dans l’ensemble de nos sociétés et dans le monde. Le tout, à travers la transformation organisationnelle technologique et culturelle de la communication.

Selon sa pensée, le modèle de croissance “efficace, global et informationnel” dans lequel le monde se complaisait avant la crise a été bâti grâce à Internet et plus largement, grâce aux réseaux de communication et aux nouvelles technologies. Le “vide social” laissé par la crise économique serait ainsi à l’origine de la naissance de nouveaux réseaux de solidarité économiques alternatifs un peu partout dans le monde. Sorte d’émanations concrètes et subversives d’un mouvement social continu.

Aux racines de la crise

Internet. Si ce réseau est né avec la culture libertaire issue des mouvements sociaux des années 1970, il a également été accaparé par l’économie et la finance. Comme le précise le sociologue :

Ça a été à la base de la Silicon Valley mais également de toute la redéfinition du jeu économico-financier dans le monde. D’un coup, l’idée a été d’utiliser des systèmes mathématiques, des innovations, au service d’une capacité institutionnelle accrue dans la dérégulation et la libéralisation de toute l’activité économique. Le but ? Échapper au contrôle institutionnel et social pour construire un système économique à partir de produits financiers essentiellement immatériels créant leur propre valeur.

Ce nouveau  mécanisme financier basé sur du capital “synthétique” aurait  progressivement fait perdre au travail et au capital tout lien avec leur dimension sociale. Dès lors, il s’agissait d’inclure ce qui avait de la valeur et d’exclure ce qui n’en n’avait pas. On a basculé progressivement, de façon métaphorique, d’un monde découpé en points cardinaux à un monde en “In” et “Out” comme dans le monde des réseaux.

Espagne Labs: inventer la démocratie du futur

Espagne Labs: inventer la démocratie du futur

Des assemblées numériques reliées entre elles, un réseau social alternatif, des outils open source et des licences libres ...

Mais ce nouveau modèle qui s’est établi entre les années 1980 et 1990 s’est effondré à cause de deux présupposés qui se sont révélés être faux : premièrement, le système reposait sur l’idée qu’en se servant de l’immobilier comme garantie pour les prêts, le profit des banques progresseraient toujours. Deuxièmement, la capacité d’endettement était infinie puisque fondée sur le marché inépuisable de l’immobilier. C’est ce qui a permis d’établir une économie financière pyramidale :“on prête, les gens s’endettent, on vend la dette à d’autres gens qui les vendent à d’autres, ce qui semblait ne pas avoir de fin”.

Ce sont globalement deux types de conséquences politiques qui ont surgi. D’une part, le développement de mouvements ultranationalistes et racistes devenant le fond de commerce d’un personnel politique opportuniste. De l’autre, la naissance de mouvements de révolte sociale dans toutes les parties du monde.

Dont ce que l’on peut appeler les “mouvements sociaux continus”. C’est le cas des “indignados” espagnols qui, la plupart du temps, discutent, débattent, s’organisent et ne se manifestent en public que ponctuellement. On a donc actuellement une redéfinition des règles du jeu sociétal, économique et culturel“aussi importante qu’à Bretton Woods.

La genèse d’un mouvement social continu

Les propositions de ¡Democracia Real Ya!

Les propositions de ¡Democracia Real Ya!

Le mouvement ¡Democracia Real Ya! a annoncé lundi dernier en conférence de presse la préparation d'une manifestation ...

Des dizaines de milliers de gens ont ainsi décidé un peu partout dans le monde de changer leur vie. Pas en sortant ou en s’excluant de la société  mais en organisant leurs pratiques économiques, le commerce, les services qu’ils utilisent en s’appuyant sur d’autres réseaux de solidarité, des réseaux de sens, des réseaux d’autoproduction au sein même de la cité.

En Catalogne, ils sont très nombreux et, selon l’analyse de Castells, ils tissent un nouveau tissu social, culturel et économique remplissant le vide social laissé par la crise. Le point commun de ces réseaux est qu’ils rejettent  le système dans lequel nous vivons. Loin d’être des néo-hippies,  la plupart des personnes qui y sont impliquées pourraient trouver un emploi relativement convenable mais semblent préférer changer leur vie en reprenant possession du temps :

Le temps, seule richesse que nous possédons tous.

L’un des choix opéré par les membres de ces réseaux dont la moyenne d’âge est de 35 ans, est donc de s’investir dans des activités et structures solidaires en se contentant d’un petit salaire pour avoir davantage de temps disponible. Bon nombre de vidéos, qui rendent compte de ces pratiques, ont d’ailleurs été tournées dans le cadre du projet Aftermath, réalisé au même moment que l’ouvrage collectif mentionné plus haut. La suivante retrace la vie de quelques-uns de ces projets :

Cliquer ici pour voir la vidéo.

Les types et la nature des réseaux sont variés : autoproduction agricole, de biens, de services, idée d’une monnaie sociale avec principe de banques de temps (“je vous offre deux heures de service voilà ce que je sais faire”, et on obtient de la monnaie sociale), coopératives de production, coopératives de logements, radios pirates, réseaux de production agricole dans la ville, réseaux de production agro-écologiques (“très présents dans le midi et le sud de la France”), réseaux de hackers, cuisines coopérative, etc.

C’est un ensemble de pratiques qui existe partout du monde. À New York, par exemple, le sociologue avance que cela rassemble 55 000 personnes. Dans le cas de Barcelone, cela représenterait environ 40 000 personnes, soit 1% de l’aire métropolitaine. Cependant, certaines pratiques alternatives rassemblent de plus en plus. C’est le cas de la banque éthique, qui travaille sans profit, prête selon des critères sociaux et compte environ 300 000 clients dans l’aire de Barcelone.

Beaucoup de ces nouveaux activistes étaient déjà impliqués dans des mouvements alternatifs, mais viennent aux “mouvements sociaux continus” pour échapper à des carcans idéologiques. Leur problème central n’est pas la survie économique : ils pourraient avoir un boulot moyennement payé mais préfèrent avoir un boulot peu payé et avoir beaucoup de temps. Ils savent qu’ils ne veulent pas vivre comme aujourd’hui, ils refusent de s’intégrer, mais également de se marginaliser.

Madrid: fonctionnement d’une assemblée de quartier

Madrid: fonctionnement d’une assemblée de quartier

OWNI vous propose de plonger au cœur d'une assemblée de quartier et de comprendre son organisation et, au-delà, le ...

Ils construisent donc des réseaux très vastes pour recréer une vie sociale, une vie dans les coopératives, dans les quartiers… il y a beaucoup de maisons occupées qui sont transformées en centres sociaux, de réparations de vélos, etc. La notion d’être ensemble y est essentielle. L’amitié, la coopération, la sociabilité contre l’individualisme et la compétitivité de la société.

L’expérimentation est le principe qui guide l’organisation de ces réseaux. Quelque part, la manière dont ils font les choses compte plus que le contenu de leurs pratiques car l’essentiel est de réapprendre à vivre et de repenser une société à partir de ces expériences. Ils refusent tout modèle abstrait, toute idéologie, tout parti politique. Le principe : ils veulent reconstruire la société à partir de la réussite de leur organisation quotidienne.

Des pratiques répandues au sein de la population

L’un des enjeux de tout ce travail de Manuel Castells en Catalogne est de comprendre la sociologie des citoyens impliqués dans ces réseaux de façon directe ou indirecte. Il s’agit également de percevoir le degré d’usage de ces pratiques par l’ensemble de la population.

Pour ce faire, le sociologue a organisé des débats entre ces militants et des gens “normaux” dont un certain nombre disait avoir “peur de ce genre de vie”. La réponse offerte par ceux qui désirent aujourd’hui changer la société :

Vous savez, quand vous serez arrivé à l’âge de la retraite, vos pensions ne seront plus là. Car les pensions dépendent de systèmes financiers qui risquent de s’effondrer définitivement, contrairement à nos réseaux de solidarité.

La conclusion intéressante de cette enquête réside également dans l’implication du plus grand nombre à ces pratiques “alternatives”. Les gens impliqués ont des statuts économiques et un capital culturel très variés, qu’il s’agisse de personnes utilisant ces réseaux pour leur survie ou ceux qui s’y investissent simplement par idéologie. Par ailleurs, l’étude de Castells a révélé que les personnes les plus impliquées étaient très éduquées mais précaires économiquement. Le point commun étant que les individus se constituent en “sujet social pour changer leur vie et changer ainsi la société”.

D’après Castells, comme ce militantisme refuse toute institutionnalisation, on pourrait dire que ce sont des pratiques utopiques.

Toutes les grandes idéologies et mouvements de l’Histoire seraient ainsi parties de l’utopie : le libéralisme, le communisme, le socialisme sont des utopies. Les pratiques matérielles s’organisent toujours autour de systèmes de références et apparaissent comme irréalisables pour un certain nombre d’acteurs de la société. La réponse des acteurs de ces utopies (dans le cas de ces réseaux de solidarité), c’est que c’est le système actuel qui ne peut pas fonctionner et ne fonctionne plus, un système politique qui n’est pas légitime et contesté par l’ensemble des gens et rejeté par des secteurs de plus en plus large de la société.

Ces réseaux veulent changer la vie au jour le jour, montrer que c’est possible pour “changer la société de l’intérieur”. Ainsi, c’est dans ce mode de vie visant à construire un autre quotidien que l’on trouve peut-être les prémices de la nouvelle société. Société naissant au cœur d’une crise aiguë : celle d’un système global fondé sur la finance, qui s’est, depuis bien longtemps, désolidarisé du social.


Photo par Julien Lagarde [CC-byncnd] via sa galerie Flickr

]]>
http://owni.fr/2012/07/04/cette-crise-ne-passera-pas-libere/feed/ 7
Psychanalyse du web http://owni.fr/2011/10/27/psychanalyse-du-web/ http://owni.fr/2011/10/27/psychanalyse-du-web/#comments Thu, 27 Oct 2011 10:21:24 +0000 Christian Fauré http://owni.fr/?p=84805

L’ingénieur Christian Fauré analyse la portée de la distinction entre les notions de transport et de transfert sur Internet. Dans son propos, le transport fait référence aux moyens matériels de mise en relation, au cuivre ou la fibre qui achemine vos données. Le transfert fait référence lui aux représentations que nous échangeons, par le biais du peer-to-peer ou par le protocole SMTP utilisé pour nos emails chargés de sens.

Parler d’infrastructure du numérique c’est toujours prendre le risque d’ennuyer son auditoire et de faire peur :

On va encore nous parler des autoroutes de l’information, d’accès internet à très haut débit, de la taille des tuyaux, etc.

Or je ne parlerai pas de tuyaux, ni d’accès internet à très haut débit, ni de fibre optique ou de Wimax. Non pas que ces questions soient secondaires — elles sont même nécessaires — mais ce ne sont pas les questions qui sont premières selon l’ordre des questions qui sont les miennes.

Mais alors, que reste-t-il de l’infrastructure du numérique si on fait abstraction des réseaux de transport ? Eh bien, ce qui reste — le reste qui m’intéresse —  ce sont les réseaux de transferts. Il s’agira donc ici d’infrastructures de transferts plus que d’infrastructures de transports.

Quelle distinction fais-je entre transport et transfert (Cf Transfert ou Transport en 2009)?

Tout d’abord, et l’on me pardonnera d’évacuer si grossièrement la question, si les deux relèvent de la mobilité et du déplacement, on peut dire que les réseaux de transports déplacent des objets et plus généralement de la matière, là où les réseaux de transferts déplacent des représentations, des symboles et, d’une manière générale du signifiant.

N’allez pas croire pour autant que j’oppose les réseaux de transferts aux réseaux de transports. Les distinguer n’est pas les opposer, et cela d’autant plus que, à ma connaissance, aucun réseau de transfert n’existe s’il ne s’appuie pas lui-même sur un réseaux de transport.

En informatique, cette articulation entre les différents protocoles de réseaux est illustrée par le modèle en couche OSI. Modèle dans lequel on voit bien que l’ensemble des protocoles qui « changent la donne » sont les protocoles de transferts : SMTP, FTP et, bien sûr, HTTP qui sont les protocoles applicatifs qui s’occupent des data. C’est en ce sens que je parle de Dataware et de Metadataware à propos des technologies de transferts.

Dans l’ouvrage collectif « Pour en finir avec la mécroissance » j’ai présenté cette dimension industrielle de l’infrastructure des réseaux de transferts du numérique qui n’est pas l’infrastructure de transport ; il s’agissait de lutter contre l’incurie d’une idée qui s’était propagée dans l’intelligentsia française, dans la classe politique et dans les discours des média analogiques. Une idée qui présentait le numérique comme l’équivalent du virtuel ; un lieu en dehors des questions d’économies et de politiques industrielles ; ce que l’on nomme à présent la fable de l’immatériel.

Ce qui a été qualifié de virtuel, et qui donc a été manqué, c’est précisément les infrastructures de transferts, celles dont l’usine moderne est le data center (déviance centripète des réseaux distribués). En matière de réseaux de transports du numérique, la France est plutôt bonne. Il est souvent souligné que la qualité du réseau français est bien meilleure que celle du réseau américain. Mais là où çà pèche, si je puis dire, c’est dans les réseaux de transferts qui sont, aujourd’hui encore, en attente d’une politique industrielle.
Ne pas faire la distinction entre les infrastructures de transport et les infrastructures de transferts c’est ne pas comprendre la guerre de tranchée que les industries du transport et celles du transfert mènent depuis plusieurs années. Cela se manifeste par exemple lorsque les opérateurs telecom refusent d’investir seuls dans les nouvelles infrastructures de transports sous prétexte que ceux qui vont se connecter à ce réseau de transport vont ensuite être captés par les serveurs de transferts des nouveaux industriels du web, c’est à dire les industriels des technologies de transfert. [Cf les citations des patrons de telecom]

De la même manière, les débats sur la « neutralité du net » relèvent pleinement la distinction entre Transport et Transfert.

Le propre du Transfert

Par ailleurs, puisque nous nous intéressons aux réseaux de transferts, le Littré nous rappelle que « transfert » est un terme d’origine financière et juridique ; on transfère des droits, des actions, des biens et donc des propriétés. Ce qui veut dire que le transfert est le domaine du propre.

Je pense qu’il est inutile de rappeler à quel point les questions juridiques sont en première ligne de la mutation induite par l’émergence des industries de transferts numériques puisque la principale réponse du gouvernement Français aux enjeux des réseaux numériques de transferts a été de criminaliser les pratiques de transferts.

Puisqu’il est question de propre et de propriété, il faut à ce sujet rappeler que la première des propriétés qui est la notre, dans ces réseaux numériques, c’est les données que nous produisons puisque, avec l’architecture associé du numérique — associé au sens ou l’on est à la fois récepteur et émetteur —  chacun peut produire et publier (et même publier à ses dépends).

Or, que font les industries du transfert numérique ? Elles ont tendance à fonctionner précisément sur la base du transfert nos propres données, de notre propre numérique, de nos traces numériques. Ainsi,  la première chose que nous acceptons en rejoignant un service de réseau social privé, ce sont les « Conditions Générales d’Utilisation » en vertu desquelles nous transférons des droits d’usages sur notre propriété numérique.

Malheureusement, dans l’économie que nous propose les industriels des réseaux numériques de transferts, il y a toujours le risque qu’en s’appropriant les données des utilisateurs, leur propriété numérique, ces derniers ne deviennent purement et simplement des « propres à rien » dans cette logique d’exploitation des données qui vire à la dépossession.

S’approprier les réseaux numériques de transferts n’est pas la même chose que s’adapter aux réseaux numériques (on reconnaît là le discours latent des propos qui se focalisent sur l’accès internet à haut débit). L’alternative entre adoption du numérique (prendre en soi) et adaptation au numérique (prendre sur soi, comme un fardeau) est celle que Bernard Stiegler présente sous la forme suivante :

« servitude volontaire automatisée versus économie de la contribution ».


Article initialement publié sur le blog de Christian Fauré, sous le titre “Le propre du transfert et le transfert du propre (infrastructure studies)”.

Illustration CC FlickR erix (cc-by)

]]>
http://owni.fr/2011/10/27/psychanalyse-du-web/feed/ 4
Benjamin Bayart: protéger la biodiversité du Net http://owni.fr/2011/08/10/benjamin-bayart-proteger-la-biodiversite-du-net/ http://owni.fr/2011/08/10/benjamin-bayart-proteger-la-biodiversite-du-net/#comments Wed, 10 Aug 2011 10:46:33 +0000 ZeroS et JBB http://owni.fr/?p=75867 La neutralité du réseau – soit la garantie que tous les flux seront traités à égalité sur le Net – est peu à peu, et sans doute parce qu’elle est de plus en plus menacée, devenue une question politique et médiatique. Il n’y a plus grand monde pour ne pas savoir ce dont il s’agit, et chacun a compris l’absolue nécessité de la préserver.

Il n’en allait pas tout-à-fait – voire pas du tout – de même il y a quatre ans : la neutralité du réseau était alors l’affaire de quelques geeks politiques, peinant à se faire entendre du grand public. Parmi ces précoces sonneurs d’alerte : Benjamin Bayart. Avec une conférence donnée en juillet 2007 à Amiens, intitulée « Internet libre ou Minitel 2.0 » et abondamment visionnée sur le Net (elle est notamment consultable ici), l’homme a largement contribué à faire comprendre l’importance de l’enjeu.

Le président de FDN, plus ancien fournisseur d’accès encore en exercice en France, s’est aussi battu contre Hadopi et pour les logiciels libres. Disons, pour résumer, qu’il milite pour un Internet libre. Il nous en parlait il y a deux mois, voici l’entretien qui en résulte.

Comprendre Internet : c’est un vrai enjeu ?

Je suis retombé hier soir sur le livre Confessions d’un voleur, de Laurent Chemla, l’un des cofondateurs de Gandi ; le titre de l’ouvrage vient d’une chronique publiée dans Le Monde, où il expliquait être un voleur parce qu’il vendait des courants d’air. C’est-à-dire des noms de domaine. Son livre – librement consultable en ligne – date de 2002 mais ses analyses n’ont pas pris une ride. L’auteur pose parfaitement ce qu’est Internet, l’effet que le réseau a sur la société, comment il la restructure et quels profonds bouleversements vont en découler.

Et il explique que les politiques sont outrés de voir débarquer des gueux dans leur salon doré et se mêler de leurs affaires – ni plus ni moins que la définition de WikiLeaks.

Cette très fine compréhension d’Internet n’est pas partagée de tous. De loin. D’abord parce qu’il y a une évidente fracture générationnelle : chez les plus de 50 ans, il n’y a pas grand monde pour comprendre ce qu’est Internet – quelques personnes tout au plus. S’y ajoute un problème de compréhension instinctive de ce qu’est le réseau – je ne parle pas de savoir envoyer un mail, mais d’avoir tellement intégré les pratiques du réseau qu’elles deviennent normales : c’est le cas aujourd’hui d’à peu près tous les moins de 25 ans. À l’inverse, les politiques n’y comprennent rien. Et c’est le cas à droite comme à gauche, extrême-gauche comprise.

D’ailleurs : avez-vous déjà lu les positions du NPA sur le réseau ? Elles sont à peu près aussi brillantes que celles de l’UMP… Ce que propose le NPA, c’est de fermer toutes les boîtes privées, de nationaliser France Telecom et de faire un Internet d’État. Leur niveau de réflexion ne va pas plus loin que cette idée : c’est une industrie, il faut la nationaliser. Point. J’ai pas mal de copains au NPA qui essaient de pousser pour que le programme intègre deux-trois fondamentaux. Quelques petites choses sur les logiciels libres versus les brevets, par exemple, ce ne serait pas idiot.

Le seul parti politique de France, à ma connaissance, qui ait réellement quelque chose d’intéressant sur le réseau dans son programme est le PCF. Soit une ligne assez claire, votée il y a près de dix ans, qui prenait position contre les brevets logiciels. Ils ont une avance considérable sur le sujet. Hors cela : morne plaine.

Tu mentionnais deux-trois fondamentaux pour comprendre le réseau. Quels sont-ils ?

En fait, il ne s’agit pas de comprendre le réseau, mais la société qui vient. Et parmi ces fondamentaux, il y a d’abord la nécessité de comprendre la modification du tissu social. C’est assez facile à expliquer. Posons qu’une société se définit par les interactions entre les gens : le média structure la société. Il n’y a là rien de neuf. C’est-à-dire qu’il y a eu la société de l’écriture manuscrite, puis la société que l’imprimerie a formée – qui est l’un des facteur-clés dans le passage du Moyen-Âge à la Renaissance. Il y a ensuite la société que la télévision a formé, qui est encore différente. Et enfin, il y a Internet, qui change beaucoup plus profondément les choses que la télévision.

Ces évolutions techniques portent des modèles profonds. L’imprimerie, c’est un éditeur qui juge que l’écrit est suffisamment important pour être publié et qui le diffuse vers des lecteurs n’ayant pas eu leur mot à dire dans cette décision. C’est un monde vertical. Alors qu’avec Internet, tout le monde publie, et lit qui veut bien lire.

Le modèle – je parle bien du réseau, pas de services à la Google ou Facebook – est ainsi totalement horizontal.

Premier point, donc : le changement de structure de la société. Dans le monde de l’écrit, vous êtes en contact avec quelques dizaines de personnes – tout au plus. Dans le monde d’Internet, le plus crétin des ados boutonneux a deux cents amis sur sa page Facebook. Le changement de structure est intéressant. Mes parents ou mes grands-parents ne correspondaient pas par écrit avec une cinquantaine personnes. Correspondaient-ils plus profondément, plus véritablement ? Peut-être… Mais ce n’est pas la question.

Société du savoir

Deuxième point : comprendre les enjeux de la question de la propriété intellectuelle. Toute cette société dont on parle est la société du savoir. Les savoirs sont les seules choses y existant réellement ; dans cette société-là, le monde lui-même est une construction intellectuelle. Par conséquent, la notion de propriété intellectuelle est à revoir totalement. Relisez les textes de Louis Blanc sur la question de ce qui était à l’époque appelé propriété littéraire. Il posait parfaitement le problème : comment voulez-vous être propriétaire d’une idée ? Soit vous la gardez dans le fond de votre tête, vous ne l’énoncez jamais et – simplement – elle n’existe pas. Soit vous l’énoncez, et sitôt qu’elle est entendue, elle se répand ; comment voulez-vous la retenir, l’attraper ?

La question de la propriété intellectuelle n’a pas de sens ?

Bien sûr que non. Parce qu’une idée ne peut pas être à vous. Si vous étiez né dans une grotte d’ermite, abandonné par vos parents et élevé par des loups, et qu’il vous vienne une idée géniale, on pourrait légitimement supposer qu’elle est un peu à vous ; elle serait à 90 % aux loups, mais un peu à vous. La véritable quantité d’innovation dans une œuvre de l’esprit est toujours marginale. À preuve, si une œuvre de l’esprit est trop innovante, elle devient incompréhensible : si vous inventez la langue dans laquelle votre texte est écrit, il ne sera jamais lu.

La très grande majorité d’une œuvre appartient donc de facto à la société. L’apport de l’auteur est extrêmement faible – ce qui ne veut pas dire qu’il n’a pas de valeur. C’est l’une des raisons pour laquelle, dans les débats sur le droit d’auteur au début du XIXe, un grand principe s’est imposé, celui du domaine public. Par principe, toute œuvre appartient au domaine public ; par exception et pendant un temps donné, une exclusivité est accordée à l’auteur. C’était alors une exception de très courte durée ; de mémoire, ce devait être neuf ans renouvelables une fois. Aujourd’hui, cette durée est devenue délirante : on parle de rémunérer les petits-enfants pour le travail effectué par le grand-père…

Tout se joue – en fait – à l’aune de Disney : à chaque fois qu’on va atteindre la date de fin des droits d’auteur pour papa Disney, les Américains font le forcing pour qu’on rallonge cette durée. Ça fait déjà un moment qu’on est passé à cinquante ans après la mort de l’auteur, puis c’est devenu soixante-dix quand on a atteint les cinquante ans après la mort de Disney. Et là, ils essayent de pousser pour qu’on passe à 90 ans parce qu’on va bientôt atteindre les 70 ans après la mort de Disney. Pour eux, pas question que Mickey entre dans le domaine public.

Le paradoxe, c’est qu’en fait Mickey est dans le domaine public depuis des dizaines d’années. Tout le monde le connaît, il est même devenu un mot de la langue courante. Mieux : le personnage est en train de tomber dans l’oubli. Cherchez dans votre entourage combien d’enfants ont vu un dessin animé avec Mickey : assez peu. Le mot est donc devenu courant, le personnage tombe dans l’oubli, mais il n’est pas encore entré dans le domaine public. Délirant.

Il faudrait revenir à ce qu’était le droit d’auteur à l’origine : l’auteur d’une œuvre était associé à une exclusivité temporaire dans le cadre d’une exploitation commerciale. Le droit d’auteur protégeait alors les artistes contre les marchands. Il s’agissait d’empêcher que ces derniers ne s’enrichissent indûment sans rémunérer les auteurs. Il faudrait que ça redevienne le cas. Empêcher, par exemple, qu’Apple ne s’enrichisse indûment de la musique des gens avec sa plate-forme iTunes. Pour rappel, il y a quelque chose comme 50 % des revenus d’iTunes qui tombent directement dans les poches d’Apple, le reste partant vers les maisons de disque, où est opéré le partage habituel : au final, seuls 6 ou 7 % de ces 50 % finissent dans les poches de l’auteur. Quand il était encore question de support matériel, ça pouvait – à la limite – se justifier : la fabrication du support coûtait cher, comme la gestion du stock. Mais une fois que le support matériel n’est plus, il en va tout autrement.

Que le support matériel disparaisse : n’est-ce pas un autre de ces fondamentaux que vous évoquiez ?

Tout-à-fait : la dématérialisation est un pilier de cette société qui vient. Une quantité phénoménale de choses n’ont désormais plus besoin de support matériel – musiques, films, écrits. Sur ce point, nombre de gens s’emmêlent les pinceaux : ils disent « virtuel » là où il faut dire « immatériel ». La discussion que vous avez sur Facebook, par mail ou par IRC est immatérielle, et non virtuelle ; ce ne sont pas des êtres imaginaires qui parlent. Le monde de la société du savoir, qui se développe autour d’Internet, n’est pas un monde irréel. La distinction est essentielle.

Le réseau est l’espace physique dans lequel s’inscrit le monde immatériel. Et on ne peut pas accepter que la physique ne soit pas neutre, que la physique du monde dans lequel on vit soit différente selon que vous soyez riche ou pauvre. S’il y a une chose qui touche les riches comme les pauvres, c’est bien la mort, la maladie ou le fait de voir apparaître une bosse quand on se cogne. Il en va de même sur le réseau. C’est fondamental : il n’est pas possible que le substrat de la société à venir soit non-neutre.

Attenter à la neutralité des réseaux devrait donc être considéré comme un crime assez grave.

De quoi s’agit-il ?

Le modèle de développement d’Internet est d’être totalement acentré. Il n’y a pas de centre, pas de partie plus importante ou par principe plus grosse que les autres, afin de rendre l’ensemble indestructible. Les échanges y sont normalisés de manière à préserver une grande hétérogénéité ; Internet a été conçu pour que deux ordinateurs de marque et de constructeur différents puissent discuter entre eux, pour peu qu’ils respectent un tout petit bout de norme.

Ce réseau acentré existe, même s’il est en même temps un optimal qu’on n’atteint par définition jamais. Et ce réseau a de grandes vertus, dont celle de garantir les libertés sur Internet. Je prends un exemple : s’il n’y avait plus que des plateformes centralisées de blogs, vous y publieriez ce qu’on voudrait bien vous laisser publier – nous serions revenus au modèle de la télévision. Mais pour l’instant, aucune plateforme ne peut se permettre de trop censurer, parce qu’il suffit de dix jours pour lancer une nouvelle plateforme. C’est cette capacité d’acentrer qui garantit les libertés dans les systèmes centralisés.

Cela évoque autre chose : il y a finalement une notion de biodiversité sur Internet. C’est-à-dire qu’il y a une diversité strictement nécessaire. Par exemple, s’il n’y a plus qu’un seul système d’exploitation, le réseau change très vite, pouvant dériver vers autre chose. On l’a vu quand Internet Explorer était ultra-hégémonique : le web était paralysé, il n’a à peu près pas évolué pendant dix ans.

Tout cela renvoie – enfin – à l’existence d’une masse critique. S’il n’y a plus assez de partie acentrée, très vite le système dégénère et s’effondre. C’est pour ça que j’ai lancé le sujet sur le minitel 2.0 ; je redoutais et je redoute encore qu’on descende en-dessous de la masse critique. Par exemple, le jour où le service mail sera trop centralisé, ceux qui n’utiliseront pas de grosses messageries se retrouveront le bec dans l’eau. Pour rappel : il y a à peu près 150 fournisseurs de mail sur la planète, dont des très importants (Gmail, Hotmail, Facebook…), des importants (qui sont les gros FAI en général, dont Orange et Free) et enfin, autour, des moucherons. Que les très importants et les importants décident de ne plus parler qu’entre eux, c’est-à-dire de bloquer les mails des moucherons, et ces derniers disparaîtront.

C’est en cours. Il y a des périodes où les mails sortant de telle ou telle micro-structure ne sont pas acceptés par Hotmail, d’autres périodes où ils se retrouvent d’office classés par les spams. Mais tant qu’il reste une masse critique, en l’espèce 1 % du trafic mail géré par les moucherons, les géants ne peuvent pas les ignorer totalement ; ils sont obligés de faire un tout petit peu attention à eux. Au risque, sinon, de provoquer trop de remous : 1 % de la population, ça peut faire du bruit…

C’est étonnant de vous entendre parler – un peu au-dessus – de biodiversité : ça semble incongru s’agissant d’Internet…

Et pourtant… Une illustration très parlante : les écolos sont en train de se saisir de cette idée de réseau acentré, et tout ce qu’ils construisent autour de la notion de développement durable ressemble énormément à Internet. Exemple : les travaux se penchant sur la meilleure façon de gérer l’électricité dégagent deux gros modèles. Soit on a recours à d’énormes centres, qui diffusent des puissances électriques monumentales sur des réseaux gigantesques et où on utilise à peu près 30 % de l’énergie pour chauffer le réseau (c’est-à-dire qu’on la perd en ligne). Soit on est sur des modèles totalement acentrés, où chacun produit un petit peu d’électricité servant à se chauffer (si nécessaire), ou à chauffer les voisins (si superflu). Les écolos se rendent compte, aujourd’hui, que ce second modèle est beaucoup plus efficace.

Résilience des réseaux

Ce modèle ressemble d’ailleurs beaucoup à d’antiques modèles de société, qui sont des sociétés beaucoup plus résilientes. Au XVIe siècle, la peste avait besoin d’un bon bout de temps pour aller d’une partie du pays à l’autre ; aujourd’hui, elle ne mettrait pas quinze jours… La résilience de ces réseaux, on la connait donc depuis très longtemps. Le grand intérêt des systèmes ultra-centralisés qu’on a commencé à construire au Moyen-Âge était de gagner en communication, en vitesse, de permettre à la civilisation de progresser beaucoup plus vite. Mais quand on arrive à l’extrême de ces modèles-là, on débouche sur le monde de la fin du XXe siècle. Soit des sociétés folles, qui sont devenues très fragiles – presque rien suffit à les faire vaciller. Des systèmes dangereux – à l’image des centrales nucléaires. Le problème est là.

Il en va de même en ce qui concerne les serveurs. Si vous avez chez vous un petit bout de serveur qui correspond parfaitement à la puissance dont vous avez besoin (soit moins de puissance qu’un iPhone pour la majorité des gens, c’est-à-dire une quantité d’énergie très limitée) : parfait. Pas besoin d’alimenter des bandes passantes énormes vers des serveurs qui sont à l’autre bout de la planète, stockés par centaines de milliers dans un data-center de 30 000 mètres carrés qu’il faut refroidir en permanence – pour peu que ce soit dans les déserts de Californie, il faut les climatiser….

L’efficacité énergétique est bien meilleure quand le réseau est décentralisé, il est même possible de l’alimenter avec un petit peu de photovoltaïque.

Essayez un petit peu d’alimenter un data-center avec du photovoltaïque, on va doucement rigoler…

Pour résumer : tel qu’il existe aujourd’hui, le coût énergétique du réseau est négligeable par rapport aux gains qu’il permet ; mais il est très important par rapport à ce qu’il pourrait être. Par contre, le coût énergétique des machines de Google – qui ne participe pas du réseau, mais des services – est tout simplement énorme. Vous saviez que Google, qui doit faire tourner peu ou prou dix millions de machines, était le deuxième ou troisième plus gros fabricant d’ordinateur au monde ? Juste pour ses propres besoins… C’est du délire.

D’autant qu’il s’agit d’un service dangereux et intrusif…

Bien sûr. Les atteintes à la vie privée opérées par Google sont inacceptables. Le côté monopolistique de la chose est épouvantablement dangereux. Pour le moment, Google se comporte relativement bien en terme de respect des libertés, mais il n’y a aucune raison que ça dure – donc ça ne durera pas. Google, c’est à deux doigts d’être Big Brother : il sait tout sur tout le monde, tout le temps.

C’est une vraie question : on a là un machin qui indexe la totalité de la connaissance en ligne, plus que n’importe quelle bibliothèque dans le monde. Qui indexe la totalité des échanges en public, comme s’il indexait toutes les conversations de tous les bistrots du monde. Qui indexe – pour peu que vous utilisez Gmail – votre messagerie personnelle, qu’il met en relation ou non, comme bon lui chante, avec la messagerie personnelle des gens qui vous ont écrit ou à qui vous avez écrit. Qui est capable de vous présenter des publicités ciblées, puisqu’il connaît toutes les recherches que vous avez effectuées et quels sont les liens que vous avez sélectionnés dans les résultats de cette recherche. C’est affolant…

Il y a une différence entre la vie du village, où tout le monde surveille tout le monde, et la société de Google, où Google surveille tout le monde. Une différence évidente. Dans la société du village, je suis tout le monde, je surveille mes voisins presque sans le faire exprès. Ok. Mais si un point – en l’espèce Google – surveille tout, et l’homme qui le contrôle bénéficie d’un pouvoir sidérant. C’est un vrai problème, beaucoup plus sérieux que tout le reste.

Verticalisation du Net

Il ne s’agit pas que de Google. Tout cela, ce que j’évoque ici, renvoie à un phénomène que je détaillais largement dans ma conférence sur le Minitel 2.0 : la verticalisation du Net. Celui qui tient le point d’émission décide de ce qu’on a la droit d’émettre. Un exemple super simple, dont je suis surpris qu’il n’ait pas fait davantage hurler : l’iPhone ou l’iPad, sur lesquels il est impossible de visionner du contenu pornographique. Les petites moeurs de Steve Jobs définissent ce qu’on a le droit de faire ou non sur un de ses appareils … C’est un objet que j’ai acheté, sur lequel je peux lire des contenus, regarder des images, visionner des vidéos, et je n’ai pas la liberté de choisir les vidéos en question ? C’est surnaturel ! Et tout ça parce que le patron de la boîte qui me l’a vendu trouve que « touche-zizi » c’est mal…

Nous sommes en plein dans le délire de la centralisation. Steve Jobs n’a pas encore imposé ses idées politiques, mais ça viendra. Et les gens ne réagissent pas, achètent quand même Apple ou choisissent Gmail pour messagerie. Le pire, c’est que ce sont parfois les mêmes qui prétendent défendre les libertés…

Comment renverser la vapeur ?

Il faut d’abord expliquer, faire des efforts de pédagogie ; les gens doivent par exemple comprendre combien Google est dangereux et apprendre à s’en passer. Il faut aussi se débrouiller pour que les outils deviennent plus simples d’usage.

Quand j’ai débuté sur le réseau, les gens considéraient compliqué d’envoyer un mail ; ce n’est plus le cas. Il faut espérer que cette évolution se poursuive. Par exemple : si dans un avenir proche, chacun pouvait s’héberger à domicile – c’est-à-dire posséder un petit serveur personnel – une bonne partie du problème serait résolu. Il n’y a là rien de difficile : n’importe quel accès Internet fixe permet en France d’héberger un serveur, il manque juste des outils simples d’utilisation. Si les gens comprenaient en sus pourquoi il est essentiel de s’auto-héberger, l’autre partie du problème serait réglée.

Nous n’y sommes évidemment pas. Mais cela progresse. Les geeks ont désormais compris qu’il fallait permettre la compréhension du plus grand nombre. Et ils ont aussi compris qu’il y avait effectivement un danger. Que Youtube est utile, mais dangereux. Que Facebook est ultra-dangereux. Que toutes ces plate-formes centralisées sont à éviter. Encore une fois, un bon moyen de les éviter tient à l’existence d’une masse critique acentrée.

C’est finalement étrange que ce combat pour un modèle acentré ne soit pas davantage porté par les sphères radicales…

C’est un problème : dans l’effort de sensibilisation actuellement mené, nous constatons qu’il existe certains publics que nous n’arrivons pas à atteindre. Pour moi, la question du réseau acentré devrait intéresser les gens de la sphère altermondialiste, écolo, libertaire, etc.

Protect the planet, save Internet

Toute la frange écolo ou altermondialiste devrait pourtant comprendre que le sujet est absolument central, que leurs débats perdent tout sens sans le réseau.

Internet est l’un des outils majeurs de la gestion de la fin du pétrole, parce qu’il réduit très largement les déplacements.

Si tu veux revenir dans une société où tu consommes local, ça signifie que tu ne passes pas ton temps à faire 200 bornes en voiture. Mais comment faire pour que ça ne corresponde pas à un déclin de l’humanité, c’est-à-dire à une baisse des connaissances scientifiques ou des savoirs techniques ? Comment feras-tu pour suivre des études universitaires en physique quantique si tu ne peux pas sortir de ton village de province ? Comment feras-tu pour que ta petite université de province ait accès à la totalité des savoirs scientifiques ? Sans le réseau, c’est impossible.

En centralisant, on avait appris à faire des choses qui n’étaient pas possibles avant : les grandes bibliothèques universitaires permettaient de stocker beaucoup plus de savoirs. Aujourd’hui, c’est l’inverse : impossible de réunir tous les savoirs tant les choses vont vite et tant les publications, en France comme à l’étranger, se sont multipliées. Et il n’y a plus que le réseau pour permettre un libre accès à toutes les publications scientifiques du monde, qu’elles traitent de physique, de mathématiques ou de chimie, qu’elles soient rédigées en hindou ou en italien. Il faut comprendre que le réseau sert à ça, à décentraliser, à t’offrir tout le savoir de l’humanité sans que tu n’aies besoin de te déplacer… Il est désormais possible de relocaliser le monde parce que ce qui avait été obtenu par centralisation – à savoir la réunion d’une grande masse de connaissances à un endroit, d’une grande masse de production à un autre – peut désormais être obtenu de manière acentrée avec le réseau.


Article initialement publié sur Article11 sous le titre : « Benjamin Bayart: “Il est désormais possible de relocaliser le monde” »

Crédits Photo FlickR CC: by-sa opensourceway / by-nc-sa Inmigrante a media jordana

]]>
http://owni.fr/2011/08/10/benjamin-bayart-proteger-la-biodiversite-du-net/feed/ 23
Sur les traces de la PirateBox http://owni.fr/2011/04/20/sur-les-traces-de-la-pirate-box/ http://owni.fr/2011/04/20/sur-les-traces-de-la-pirate-box/#comments Wed, 20 Apr 2011 08:20:26 +0000 microtokyo http://owni.fr/?p=56561

Passer un week-end à la campagne a du bon : rien de tel qu’une randonnée pour entretenir vos muscles et voir les effets de la rurbanisation. Se mettre au vert, c’est aussi l’occasion d’un apéro au cours duquel vos amis vous soufflent votre prochain sujet de post. Samedi soir, c’est donc au pote/DJ/producteur de drum n’bass-dubstep Jean Zar de délivrer le précieux mot clé : PirateBox. Qu’il soit à nouveau remercié ici, la notion de piratage urbain me taraudant depuis la visite de la Demeure du chaos.

Les corsaires du XVIIIe siècle auraient pu se cantonner aux cours de récré si leurs aspirations ne nourrissaient pas aussi celles des adultes. Que mettent en scène des œuvres aussi différentes que la saga Pirates des Caraïbes et le célèbre essai d’Hakim Bey, TAZ [pdf] - Zones d’autonomie temporaire (1997) ? Des individus réunis dans des espaces démocratiques où chacun échange et partage librement, en marge d’un État centralisateur distillant l’information au compte-goutte à ses populations. À moins d’être vraiment réac’, comment ne pas adhérer ?

Hadopi, muse des hackers ?

Intéressons-nous à Bey. Dès le début du web, il voit dans ce réseau non hiérarchisé d’informations le terreau idéal pour ses zones temporaires d’autonomie. L’évolution de la marche mondiale lui donnera raison :

Comme Gibson et Sterling, je ne pense pas que le Net officiel  parviendra un jour à interrompre le Web ou le contre-Net. Le piratage de données, les transmissions non autorisées et le libre-flux de l’information ne peuvent être arrêtés. En fait la théorie du chaos, telle que je la comprends, prédit l’impossibilité de tout Système de Contrôle universel. Le web n’est pas une fin en soi. C’est une arme.

Une arme ? Plutôt un arsenal : co-production de logiciels libres, hackers, espaces d’expression participatifs et communautés affinitaires sont autant de techniques permettant de contrer lois et monopoles.

Dernière pépite française en date, Hadopi, ou comment faire la chasse aux internautes soupçonnés de télécharger illégalement des fichiers sur le principe du mouchardage. Dans un premier temps, des acteurs privés comme les ayants droit et les éditeurs épient puis dénoncent les adresses IP des ordinateurs incriminés en s’invitant dans les échanges  peer-to-peer. Le ver est dans le fruit.

C’est ensuite Hadopi (donc l’État) qui sévit : mails d’avertissement, lettres en recommandé, amende, voire suspension de connexion ou procès. Surveiller et punir, on connaissait déjà la chanson. C’était sans compter sur la débrouillardise des internautes fort empressés d’appliquer la stratégie de la disparition si chère à Nietzsche, Foucault et Deleuze. S’extraire du regard omniprésent de la loi en cryptant l’adresse IP de son ordinateur personnel ou en indiquant une fausse.

Le développeur allemand I2P [en] propose ainsi un réseau d’adresses IP anonymes. Le navigateur libre Mozilla va dans le même sens en proposant la fonctionnalité Do not track [en]. Cette stratégie renvoie peut-être à deux demandes de liberté plus fondamentales : celle d’échanger librement des paroles et des fichiers, et celle d’utiliser le web anonymement, en toute privacité , sans être traqué par d’innombrables mouchards – sites, navigateurs et moteurs de recherche en tête. Les données de votre connexion Internet engraissent bien des informaticiens et des marketeurs !

Elle revient à moins de 100 euros

Si cette dernière phrase vous donne la chair de poule, c’est que la PirateBox [en] est pour vous. Conçue par l’universitaire new-yorkais David Darts [en], c’est une boîte à repas pour enfants… abritant une plateforme WiFi portable permettant de chatter et de partager tous types de fichiers dans le plus parfait anonymat. Sobrement composée d’un routeur wireless, d’un serveur Linux connecté à un disque dur USB et d’une batterie, la PirateBox permet à tout internaute se trouvant à proximité de se connecter et d’échanger avec les membres du réseau. De quoi satisfaire les plus mobiles d’entre nous !

Fonctionnant en réseau fermé (pas de raccord avec d’autres box ou d’autres sites), les avantages sont nombreux : le caractère éphémère et hyperlocal du réseau permet de rencontrer de nouvelles têtes partout où se trouve une PirateBox. On rompt ainsi avec l’entre soi assez typique des communautés supposées plus ouvertes (Facebook, QuePasa…).

D’autre part, le fait que la box n’enregistre ni votre adresse ni votre historique de navigation permet d’échanger des fichiers sans risquer de passer sous les fourches caudines des sbires d’Hadopi. Mobilité, privacité et simplicité semblent les atouts de cette box enfantine. Histoire de joindre l’utile à l’agréable, le design du skull apporte un doux parfum de détournement.

Mais le plus fort dans cette affaire, c’est que, dans le plus pur esprit Do It Yourself, vous pouvez monter une PirateBox vous-même pour moins de 100 euros. David Darts est un mec bien, il vous laisse les tutoriels ici [en] ! On vous sent brûlant d’impatience, regardez ce petit docu :

Cliquer ici pour voir la vidéo.

Déjà utilisée à NYC, Oslo ou Paris, la boîte pirate est bien plus qu’un simple gadget technologique. En misant sur son caractère artisanal et privatif, elle relativise la notion (si tendance) de trace numérique.

À l’heure où l’on parle à tout bout de champ d’éditorialisation participative de la ville, la Box semble remixer plusieurs leitmotivs alternatifs : la générosité et la bonne humeur hippie, le no future punk des années 70, la méfiance des radios rock face aux industries culturelles et l’anonymat des  raves parties des années 1990.

La PirateBox n’en finit pas avec les traces. Elle permet aux usagers à la fois d’en laisser entre membres du réseau (amitiés naissantes, partage de fichiers et de valeurs), et de ne pas en laisser à leur insu à des acteurs du web intéressés par l’argent et/ou le pouvoir.

Le savoir, j’y ai droit !

On le sait, la technologie n’est qu’un outil. Elle ne donne ni le mode d’emploi clé en main ni le sens à la société qui l’utilise. Toute généreuse que soit la PirateBox, elle ne résout pas la confusion qui s’opère souvent entre désir d’accès pour tous au savoir et protection des droits d’auteurs. A moins de devenir soi-même un tyran, on ne peut systématiquement en appeler à la générosité forcée de celles et ceux qui créent quelque chose de leur tête et/ou de leurs mains.
Risquons-nous à cette banalité : en ce monde où il est difficile de ne vivre que d’amour et d’eau fraîche, il est légitime pour un créateur de vouloir et pouvoir gagner sa vie avec son travail. La PirateBox aurait t-elle le même potentiel d’effet pervers que les échanges peer-to-peer ?

David Darts propose la Free Art Licence [en], sur le principe du copyleft, double jeu de mot par rapport au copyright. Parmi les grands axes de celui-ci, copying in not theft !. En d’autres termes, un auteur peut autoriser la copie, la diffusion, l’utilisation et la modification de son œuvre par des tiers.

Sans être juriste, on peut se rappeler ce que disait le sociologue Marcel Mauss il y a près d’un siècle : toute société, à commencer par celles traditionnelles non régies par l’argent roi, fonctionne sur le principe du don et du contre-don. Le fait d’avoir toujours une obligation de réciprocité, fut-elle symbolique (reconnaissance, soutien, participation), permet d’équilibrer les rapports sociaux et rend possible davantage d’égalité. Ce que fait l’autre est à la fois un don et un dû dès lors que je m’inscris dans la même logique d’échange.

Cette PirateBox, on l’aime parce qu’elle est accessible à tous, nous fait gagner en privacité et facilite la diffusion du savoir hors des seuls paramètres du profit. On l’aime aussi en ce qu’elle est un outil de questionnement sur nos pratiques de téléchargement et notre rapport à la production d’œuvres. Le débat amorcé par les licences libres et l’éthique sont de bonnes pistes.

Par exemple, cette maxime de la plate-forme de labels musicaux indépendants, CD1D : télécharger c’est découvrir, acheter c’est soutenir. Mais aussi, celle de Lénine reprise par quelqu’un de plus pacifique, Edgar Morin : moins mais mieux.


Publié initialement sur le blog Microtokyo, sous le titre, Avec la Pirate Box, partager votre butin !
Crédits photos et illustrations :
Photos de la Pirate Box par David Darts [cc-by-nc-sa] ; Logo du Copyleft stylisé pirate ; Leaker-Hacker par Abode of Chaos [cc-by] sur Flickr

]]>
http://owni.fr/2011/04/20/sur-les-traces-de-la-pirate-box/feed/ 8
Internet et la technique : l’univers des possibles http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/ http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/#comments Thu, 14 Apr 2011 14:43:08 +0000 Félix Treguer http://owni.fr/?p=56901 … ou Internet pour les nuls (moi compris).

Après avoir présenté dans ses grandes lignes l’éthos qui anime les concepteurs d’Internet la semaine dernière, il s’agit désormais de comprendre comme cet éthos a débouché sur certaines caractéristiques essentielles. Ces caractéristiques techniques sont, comme on va le voir, au fondement de la malléabilité d’Internet et donc de la liberté de communication rendue possible par le « réseau des réseaux ».

Le premier choix technique essentiel consiste à organiser Internet sur une architecture relativement simple et obéissant selon le principe du « bout-à-bout » («end-to-end » en anglais) . Pour que les réseaux interconnectés soient compatibles (ou « interopérables »), les concepteurs d’Internet ont fait le choix d’un principe de fonctionnement relativement simple, fondé sur trois niveaux de couches jouant différents rôles dans le transport de l’information. Au niveau inférieur, on trouve tout d’abord la couche physique du réseau, qui correspond aux réseaux physiques, filaires ou hertzien, le long desquels circulent les données (des protocoles permettent par exemple l’allocation de la bande passante entre différents utilisateurs, ou encore le formatage des données). Au niveau supérieur se trouve la couche « applicative », constituée par les applications que les utilisateurs finaux du réseaux utilisent pour communiquer (email, web, messagerie instantanée, peer-to-peer, etc). Au milieu, se trouve enfin la couche des protocoles de transport, tel le protocole TCP, et le protocole IP, qui est utilisé par tous les paquets de données transitant sur Internet et permet leur adressage en vue de leur transmission depuis un émetteur vers un récepteur.

IP et transmission des paquets

Comme l’explique Walid Dabbour, chercheur à l’Institut National de Recherche en Informatique Appliquée (INRIA), celui-ci joue en fait un double rôle. Chaque machine connectée est dotée d’une adresse IP qui l’identifie et la localise au sein du réseau.

Elle prend la forme d’une série de chiffres de type 138.96.196. : il s’agit de l’équivalent dans le réseau Internet de l’adresse postale . Au contraire de la commutation par circuit qui caractérise le réseau téléphonique ou le Minitel, qui nécessitent l’établissement d’un liaison continue entre deux points du réseau cherchant à échanger de l’information et qui suppose une intelligence du réseau capable de localiser l’émetteur et le récepteur. Dans le réseau Internet, les paquets sont transmis indépendamment les uns des autres entre les différents routeurs, qui sont les équipements physiques chargés d’orienter à partir de la seule adresse de réception les paquets de données au sein du réseau. Il se peut que, pour un même fichier scindé en différents paquets de donnés, les paquets empruntent des routes différentes.

Cette architecture en couches est traditionnellement représentée sous la forme d’un sablier. Du fait du fonctionnement indépendant de ces différentes couches, n’importe qui peut ainsi développer des protocoles applicatifs sans avoir à se préoccuper de la couche physique, ni du transport des données. Si un fournisseur d’accès Internet décide de déployer de nouvelles méthodes d’allocation de la bande passante entre utilisateurs, le développeur d’un programme de messagerie instantanée n’a pas besoin de réécrire le code pour faire fonctionner son application.

Les deux couches, physiques et applicatives, fonctionnent indépendamment l’une de l’autre. Cette architecture technique permet donc un modèle de fonctionnement décentralisé, ou les différents acteurs du réseau peuvent agir en toute autonomie sans avoir à se soucier des actions des autres. Chacun peut donc participer au développement de l’architecture globale sans besoin de coordination.

Grâce à la commutation par paquet et le système d’adressage par IP, un grand nombre de configurations communicationnelles différentes peut se développer entre les différents points de ce réseaux. Du point à point, et donc une communication privée, dans le cas où seuls deux ordinateurs connectés sont en communication (similaire à une communication radio entre deux talkies-walkies ou une conversation téléphonique). Du point multipoint, dans le cas où un ordinateur diffuse des données en direction de plusieurs ordinateurs. Selon le nombre de destinataires et le caractère ou non confidentiel de la communication, on passe alors dans un schéma de « communication », c’est-à-dire de mise à disposition du public un message. Enfin, et c’est la une vraie nouveauté, Internet permet aussi des configurations multipoint-à-multipoint, ou une diversité d’émetteurs peut envoyer de l’information à une diversité de récepteurs.

C’est notamment le cas des application peer-to-peer ou des jeux en ligne multijoueurs. La commutation par paquets adressés séparément les uns des autres permet, enfin, qu’un même point du réseau établisse simultanément un nombre potentiellement infini de communications distinctes. Ainsi, on peut écouter de la musique en streaming (avant tout une réception point-à-multipoint), tout en échangeant avec un ami au travers d’un client de messagerie instantanée (communication point-à-point), et en postant une contribution à un blog collectif (émission multipoint-à-multipoint). Du point de vue des modes de communication qu’il rend possible, Internet est donc extrêmement versatile.

Jouissance et liberté des utilisateurs

L’architecture d’Internet en couche indépendante permet de faire d’Internet un réseau « malléable », fondé sur une structure « bout-à-bout ». Ce principe structurel fut pour la première fois formalisé et exposé en 1981 par Jérôme Saltzer, David P. Reed, et David D. Clark. Selon eux, la fiabilité du système impose de faire en sorte que le contrôle des protocoles ait lieu autant que faire se peut en bout de réseau. Là encore, il s’agit de laisser aux utilisateurs du réseau le contrôle de celui-ci, et de favoriser un modèle a-centré, dans lequel l’intelligence est poussée en périphérie.

Les concepteurs d’Internet ne souhaitaient pas prédire les innovations qui surviendraient que ce soit dans la couche inférieure ou dans la couche supérieure de l’architecture d’Internet. Il se sont contentés de trouver un dénominateur commun, le protocole IP, qui permet un transport fluide des données entre plusieurs réseaux. Il suffisait (et il suffit encore) à un opérateur de réseau d’être interconnecté à d’autres réseaux et d’obtenir une adresse IP pour pouvoir émettre et recevoir de l’information. Outre ce pré-requis, Internet est un réseau dit « future-proof », ne limitant pas les utilisations qui peuvent en être faites puisqu’adaptables à l’envi par ses utilisateurs. C’est pour cela que l’on trouve une grande variété de protocoles dans la couche physique et dans la couche applicative du réseau.

Selon Jonathan Zittrain cette plasticité du réseau Internet est une caractéristique essentielle qui explique sa supériorité sur d’autres réseaux de communication – fondé sur les mêmes principes technologiques mais propriétaires et contrôlés par l’opérateur du réseau – qui, dans les années 1980, proposaient eux aussi des services de ligne. L’environnement informationnel dont nous héritons aujourd’hui est fondé selon lui sur ce concept de « générativité », ou de malléabilité, qui caractérise non seulement Internet, mais également les ordinateurs que l’on y connecte. Zittrain définit la « générativité » de la manière suivante :

« La générativité est la capacité d’un système donné à produire des évolutions non anticipées au travers des contributions non-filtrées des utilisateurs »

La « générativité » repose donc sur des libres contributions des utilisateurs. L’écosystème informationnel qui résulte du couplage d’Internet et des postes informatiques eux aussi « malléables », est fondé sur la liberté dont jouissent les utilisateurs.

Cet écosystème est propice à l’innovation. La création du World Wide Web par le britannique Tim Berners-Lee, alors chercheur au CERN , est un exemple majeur de cette faculté d’Internet d’engendrer de nouvelles manières de communiquer. Avant la création de la « toile », Internet était un outil utilisé par la communauté scientifique, et les applications étaient pour l’essentiel limitées à l’envoi de courriers électroniques, au transfert de fichiers ou à la participation à des groupes de discussion et autres forums thématiques. Le protocole HTTP va révolutionner la manière dont l’information peut se partager sur Internet, grâce à l’utilisation de liens hypertexte permettant de naviguer sur Internet entre différents serveurs connectés au réseau au moyen de simples clics. Comme les membres du projet ArpaNet avant lui, Berners-Lee va rendre public ces protocoles et collaborer avec d’autres chercheurs pour les améliorer. Comme l’explique Philippe Aigrain, les conséquences sociales de cette innovation sont colossales :

La Toile, conçue sur la base d’Internet et sur les mêmes principes de protocoles pair à pair, ouverts, asynchrones et équitables, devint la mémoire et l’espace de coopération de groupes d’une échelle sans précédent. La Toile met en place un réseau gigantesque et non coordonné de contenus textuels ou graphiques (…). C’est une remarquable invention sociale, car elle permet une création distribuée, avec un très faible coût d’entrée pour devenir auteur »

Avec le Web, Internet devient un moyen de communication grand public, il se démocratise. Et puisque de nouvelles audiences se constituent dans cet espace public en gestation, les premiers acteurs commerciaux y investissent pour se rendre visibles mais aussi et surtout pour profiter de cet extraordinaire canal de distribution de biens et services, avec le développement progressif de ce qu’on appelle assez étrangement le « commerce électronique ». En retour, l’effet de réseau joue à plein et on assiste à l’arrivée de ces nouveaux adeptes d’Internet, qui sont ainsi introduits à ce nouvel univers communicationnel.

Depuis le World Wide Web, des milliers d’autres innovations ont eu lieu : l’arrivée de la vidéo, des protocoles d’échanges peer-to-peer, la téléphonie sur IP (rendue célèbre avec l’application Skype) et de bien d’autres encore, plus ou moins confidentielles, mises au point par des étudiants passionnés d’informatique, des entreprises de tailles diverses, des centres de recherche publics… Prises dans leur ensemble, elles font d’Internet un moyen de communication d’une richesse inégalée ; un réseau en constante évolution, inventant sans cesse de nouvelles formes d’ « action communicationnelle ».

La neutralité du réseau

Du fait de son rôle historique dans le développement de ce que Yochai Benkler nomme « l’économie informationnelle en réseau » , le principe « bout-à-bout » est essentiel à la liberté de communication permise par Internet et à l’innovation qui en résulte. Il garantit que l’utilisateur final préserve en bout du réseau l’autonomie nécessaire à une libre utilisation de cet outil de communication et notamment du type d’information qu’il entend y faire circuler. Ce principe va donc également de paire avec la neutralité du réseau.

Le réseau, entendu non pas comme l’ensemble des nœud mais comme l’architecture physique qui relie ces nœuds entre eux, ne remplit qu’un rôle de « simple transport ». En 2011, près de deux milliards d’êtres humains se connectent régulièrement en ligne et ont pour l’essentiel le choix des outils qu’ils utilisent pour s’y connecter.

En revanche, chacun d’entre eux reste dépendant d’un fournisseur d’accès, qui remplit le rôle du facteur en transportant les données. Historiquement, le rôle de ces opérateurs de réseaux est limité. Ils se contentent de construire l’infrastructure physique permettant de relier physiquement les « consommateurs » aux grands réseaux de télécommunications mondiaux. Ils leur fournissent une adresse IP leur permettant d’être localisable, d’émettre et recevoir de l’information, c’est-à-dire d’exister au sein d’Internet. En leur qualité de prestataire, les fournisseurs d’accès s’assurent du bon fonctionnement de l’infrastructure télécom dont ils ont la charge. Leur rôle s’arrête là. La communication entre deux points du réseau est toujours traitée de la même manière, quelque soit l’émetteur, le destinataire ou la nature des données transportées. En ce sens, Internet est un réseau neutre.

Lors des Rencontres Mondiales du Logiciel Libre de 2009, Benjamin Bayart, pionnier de l’internet en France et président du fournisseur d’accès associatif French Data Network (FDN), propose de définir quatre axiomes pour tout fournisseur d’accès à Internet : 1) transmission des données par les opérateurs sans en examiner le contenu; 2) transmission des données sans prise en compte de la source ou de la destination des données ; 3) transmission des données sans privilégier un protocole de communication ; 4) transmission des données sans en altérer le contenu.

La neutralité du Net garantit ainsi que les données transitent de manière non discriminée sur le réseau. Le mode de transport dépend des décisions et des protocoles choisis par l’utilisateur final, en bout de réseau, et le transporteur qu’est l’opérateur de réseau se contente de les relayer au sein du réseau dont il a la charge. Ce principe de fonctionnement vient, là encore, d’une volonté de décentraliser au maximum la gestion des activités communicationnelles. C’est aujourd’hui ce concept de neutralité qui cristallise les débats politiques et juridiques relatifs sur la manière dont le droit doit s’appliquer sur Internet.

Les nouvelles « affordances »

Le principe bout-à-bout, la plasticité du réseau qu’il engendre, ainsi que la neutralité de l’infrastructure de transport constituent l’identité d’Internet. Elles en font un réseau de pairs, où chaque nœud est égal à tous les autres. La structure technique d’Internet crée ce que les sociologues nord-américains nomment les « affordances ».

Ce mot anglais, repris tel quel par certains auteurs francophones, semble renvoyer à première vue à un concept sophistiqué. Il n’en est rien : il s’agit simplement des potentialités qu’offre une situation sociale particulière, un objet ou une technologie, pour faciliter certains modes d’interaction sociale ou de configurations politiques. Pour l’illustrer, Benklerdonne l’exemple de l’imprimerie, qui a eu des conséquences différentes sur les taux d’alphabétisation dans les sociétés dans lesquelles elle était introduite, en fonction de l’environnement socio-culturel de ces dernières. L’effet d’entraînement fut bien plus important dans les pays où la pratique de lecture personnelle était encouragée par le système social (religieux en l’occurrence) – tels que la Prusse, l’Écosse, l’Angleterre ou le nord-est des États-Unis – que dans les pays qui décourageaient l’interaction directe avec les textes religieux, comme en France ou en Espagne.

L’environnement socio-culturel conditionne en première instance les effets de la technique, ici l’imprimerie. En dépit de sa simplicité, ce concept d’ « affordance » est important, car il permet de s’interroger sur les enjeux socio-politiques d’une technologie donnée tout en sortant de l’impasse conceptuelle du déterminisme technologique, qui pose une relation de stricte causalité entre une technologie et un processus de changement social qu’elle est supposée provoquer. La technologie ne fait que faciliter certains processus ; elle met en capacité et c’est déjà beaucoup.


Retrouvez tous les articles sur la neutralité, ainsi que notre dossier du jour (image de Une: Elsa Secco):

- Pour un Internet “neutre et universel”
- Neutralité en Europe: laissez-faire et petits pas

> Article publié initialement sur We The Net sous le titre Les caractéristiques d’Internet et ses potentialités politiques

> Illustrations Truthout, _boris et RémiC

]]>
http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/feed/ 8
Influence Networks: mode d’emploi http://owni.fr/2011/04/11/influence-networks-mode-emploi/ http://owni.fr/2011/04/11/influence-networks-mode-emploi/#comments Mon, 11 Apr 2011 15:29:53 +0000 Nicolas Kayser-Bril http://owni.fr/?p=56180 En octobre 2010, lors du Personal Democracy Forum de Barcelone, plusieurs journalistes d’investigation ont expliqué comment ils avaient débusqué des affaires de corruption en procédant à l’analyse de réseaux. L’un d’entre eux, Dejan Milovac, a enquêté sur un projet immobilier situé sur la côte du Monténégro. Il a décortiqué les réseaux financiers autour du projet et montré comment des politiciens locaux étaient de mèche avec les promoteurs qui saccagent le littoral. Le résultat se visualise ainsi :

Le schéma pourrait gagner en lisibilité. Par ailleurs, les relations exposées par cette enquête peuvent être utiles à d’autres journalistes travaillant sur des thèmes connexes. En l’état, difficile de réutiliser le travail de Milovac.

L’analyse de réseaux est un thème en vogue chez les médias et les ONG. Channel 4 entretien Who Knows Who, une base de relations entre personnalités britanniques. A Hong Kong, le South China Morning Post a lancé Who Runs HK ?, qui fonctionne de la même manière. Ces interfaces, bien que gérées par des journalistes, restent fermées et incompatibles avec les standards ouverts.

Du côté des geeks, le projet Little Sis est, lui, collaboratif et ouvert, avec son API. Il recense 57 000 personnes et près de 300 000 connexions. Seul problème : l’information présentée n’est pas validée et seul un système d’alerte (flag) permet de lutter contre la désinformation. Compte-tenu de la sensibilité d’un tel projet, les lobbys de tous poils auront tôt fait de manipuler le système.

Comment ça marche ?

Il manquait donc un outil d’analyse de réseaux d’influence à l’usage des journalistes qui soit à la fois ouvert et fiable. Influence Networks cherche à répondre à ce problème. La plateforme permet à quiconque d’insérer une relation dans la base de données (onglet add a relation). L’information insérée reçoit le statut de “rumeur” tant que personne n’a vérifié sa fiabilité.

L’onglet review a relation permet de vérifier la crédibilité des relations ajoutées par les autres utilisateurs. La relation est alors notée sur une échelle allant de rumeur à fait établi. La note reçue par la relation dépend également de l’indice de confiance (trust level) de l’utilisateur qui la vérifie.

Prenons un exemple. Mathias s’inscrit sur la plateforme. Il commence avec un trust level de 1 sur une échelle de 5. Il insère une relation sourcée, qui est ensuite validée comme un fait établi par un utilisateur possédant un trust level de 5. La relation obtient alors le statut de fait établi et le trust level de Mathias augmente de 0.5.

Mathias ajoute ensuite une autre relation sourcée, validée cette fois en tant que “fait établi” ci par Georges, qui a, lui, un trust level de 1. Cette fois-ci, puisque l’on ne sait pas quelle confiance accorder à Georges, la relation obtient un statut légèrement supérieur à celui de rumeur.

Aujourd’hui, alors que le projet vient d’être lancé, la base ne compte encore que peu de relations. Nous ajouterons dans les mois qui viennent une fonctionnalité d’ajout de relations en masse (une feuille de présence à un meeting, par exemple). Par ailleurs, les entités (personnes et organisations) que l’on peut mettre en relation sont celles offertes par freebase, une sorte de Wikipédia structuré dans un format compréhensible par l’ordinateur. Dès lors, si l’entité recherchée n’est pas disponible, il faut aller l’ajouter manuellement dans freebase [inscription nécessaire]. Là encore, nous allons ajouter une fonctionnalité permettant d’effectuer cette tâche au sein d’Influence Networks.

Investigation collaborative

L’objectif d’Influence Networks est, à terme, qu’un journaliste ou un groupe de citoyens engagés puissent définir un sujet d’enquête (les liens entre l’actionnaire majoritaire d’un groupe de cosmétiques et le gouvernement, par exemple) et collecter des informations de manière collaborative, sans passer un temps considérable à valider et vérifier les éléments reçus.

Les éléments collectés étant recueillis dans un format compréhensible par l’ordinateur et structuré de manière sémantique, les données peuvent être croisées et parler d’elles-mêmes. Une recherche entre les entités L’Oréal et gouvernement français, par exemple, aurait pu montrer directement les possibles conflits d’intérêts d’Eric Woerth en montrant qu’il était lié à la multinationale via sa femme.

L’outil n’est, bien sûr, pas adapté à de l’investigation réalisée à partir de documents confidentiels, mais il permet de structurer et de réorganiser l’information déjà publique. Et l’analyse d’origine source ouverte (OSINT) reste l’un des domaines les plus dynamiques du renseignement – et, partant, du journalisme d’investigation.

Open-source et international

Influence Networks est le fruit d’une collaboration entre OWNI, Transparency International, Zeit Online et l’Obsweb de l’université de Metz. Ce groupe a porté le projet et l’a présenté à deux concours de journalisme innovant. Nous n’avons pas été sélectionnés en finale du Knight News Challenge, mais sommes arrivés parmi les 75 premiers (sur plus de 1 500 candidats).

Nous faisons en revanche partie des 10 finalistes de l’Uutisraivaaja Challenge, concours similaire organisé par les finlandais de la Sanomat Foundation. La dotation de 10 000€ reçue nous permettra de rajouter plusieurs fonctionnalités et de continuer à rechercher des moyens de développer le projet.

Par ailleurs, le code de l’application est ouvert avec la licence MIT. N’hésitez pas à aller le décortiquer chez GitHub et à contribuer au développement de nouvelles fonctionnalités !

]]>
http://owni.fr/2011/04/11/influence-networks-mode-emploi/feed/ 0
Albin Serviant : MXP4, précurseur du social music game http://owni.fr/2011/01/13/albin-serviant-mxp4-pre-curseur-du-social-music-game/ http://owni.fr/2011/01/13/albin-serviant-mxp4-pre-curseur-du-social-music-game/#comments Thu, 13 Jan 2011 12:38:00 +0000 Loïc Dumoulin-Richet http://owni.fr/?p=29547

Cliquer ici pour voir la vidéo.

MXP4 développe et propose des outils et applications web pour les musiciens et les labels, mettant en valeur les contenus pour un usage ludique via les réseaux sociaux.

Albin Serviant, son PDG, a accepté de répondre à nos questions et évoque avec nous son parcours, mais surtout celui d’MXP4, start-up dont il a pris la tête début 2009. Partant en 2007 de l’idée que l’expérience musicale serait interactive dans le futur, ses fondateurs (parmi lesquelles Gilles Babinet) ont participé à la réinventer par le biais d’applications musicales permettant à l’internaute de jouer avec les artistes.

Si au départ l’innovation était principalement autour d’un “format” elle est aujourd’hui principalement déployée sur Facebook, MXP4 ayant rapidement saisi les opportunités qu’offre le premier réseau social mondial, à commencer par ses plus de 500 millions d’inscrits. Avec une moyenne de 15 minutes passées à jouer avec une application il semblerait que l’idée du jeu puisse s’imposer auprès d’un large public.

En s’orientant encore plus clairement sur le créneau du jeu vidéo musical à la fin de l’été (avec le jeu “David Guetta”) la start up est passée à la vitesse supérieure en proposant une expérience plus complète et qui permet e dynamiser considérablement la relation fan/artiste en impliquant le premier de manière active.

Les innovations prévues pour les prochaines semaines devraient confirmer que MXP4 a atteint sa vitesse de croisière et va renforcer encore plus les ponts entre musique et social gaming. Une idée du futur ?

Retrouvez Albin Serviant sur Twitter : @albinserviant

Interview réalisée par Valentin Squirelo et Loïc Dumoulin-Richet

Montage : Romain Saillet

]]>
http://owni.fr/2011/01/13/albin-serviant-mxp4-pre-curseur-du-social-music-game/feed/ 4
Musique “sociale”: meilleure ennemie des artistes? http://owni.fr/2010/12/04/musique-sociale-meilleure-ennemie-des-artistes/ http://owni.fr/2010/12/04/musique-sociale-meilleure-ennemie-des-artistes/#comments Sat, 04 Dec 2010 17:51:51 +0000 garrett-goodman http://owni.fr/?p=37961 Le simple fait d’être un internaute avisé visitant OWNImusic veut dire que vous avez été, d’une manière ou d’une autre, victime de la “musique sociale”.

Vous avez peut-être vous même partagé, supporté ou vanté un de vos groupes, chansons ou artistes préférés auprès de tous vos amis virtuels.

En faisant cela, vous avez peut-être contribué à la disparition de l’expérience bouleversante, de la frénésie qu’engendre l’écoute d’un concert live. Ou peut-être avez vous simplement partagé une chanson géniale avec vos connexions sur Internet. La question est donc de savoir comment votre action impacte ceux qui font de la musique.

Cette musique sociale, cette musique en réseaux, est-elle la meilleure amie des groupes ou leur pire ennemie ?

Musique socialisée

L’industrie de la musique en ligne commence à prendre un sérieux tournant. Elle devient de plus en plus sociale, mobilisant les connexions entre les fans dans les réseaux pour diffuser la bonne parole (le bon son, en l’occurence), et faire en sorte que les gens achètent de la musique plutôt que de la pirater. Tout est question de découverte : avec le déclin de la radio, le marketing traditionnel et les relations presse se sont transformées en stratégies dans les médias sociaux, et les groupes, grands et petits, utilisent les réseaux pour atteindre leurs fans. Examinons quelques évolutions récentes.

Ping flop

Apple a lancé Ping en septembre de cette année, avec pour intention de créer un réseau social centré sur la musique, en permettant aux 160 millions d’utilisateurs d’iTunes de recommander de la musique et des artistes à d’autres fans sur iTunes, et de créer une communauté de partage et un forum de discussion sur la musique. Il est devenu possible pour les groupes de se créer leur propre page à destination des fans et de poster des pistes exclusives achetables directement via iTunes. Ce qui a réellement été lancé était loin d’être social et de faciliter le partage.

Twitter donne des ailes à Ping

Apple a tenté de lever ces frustrantes limites en autorisant les utilisateurs à relier leur compte Ping avec leur compte Twitter, et à diffuser tous leurs billets, ‘likes’ et chroniques directement sur la plateforme de microblogging. Les tweets incluent des liens vers des extraits de la chanson sur iTunes où il est possible d’acheter et de télécharger directement la chanson. Cette évolution est profitable pour les groupes, puisqu’elle lie un réseau social extrêmement populaire avec un magasin en ligne à succès où les gens peuvent acheter leur musique.

Spotify : le trésor de l’Europe est dans les nuages

Spotify est un service de streaming musical qui se vante de proposer une expérience profondément sociale, et qui compte 10,000 nouveaux visiteurs par semaine. Il utilise Facebook Connect pour permettre un partage simplifié depuis l’application. Il fonctionne sur un modèle “freemium” où les usagers paient pour le service avec leur temps (en écoutant des publicités insérées entre les chansons). Paul Brown, le directeur général de Spotify UK a déclaré que les fonctions sociales ont été un énorme succès :

Lorsque nous avons sorties les fonctions locales et sociales, la souscription aux abonnements premium a doublé.

Sean Parker, le co-fondateur de Napster, récemment incarné par Justin Timberlake dans The Social Network, est un des investisseurs de Spotify et explique à merveille pourquoi ce service est si séduisant et attirant.

Cette vidéo est en anglais.

Cliquer ici pour voir la vidéo.

TuneCore + Spotify = un ‘multi-pass’ pour les indépendants

La nouveauté de Spotify c’est que ce service centralise des millions de chansons dans un seul logiciel, en streaming instantané et gratuit. Des discographies entières, incluant les albums sur lesquels l’artiste fait des apparitions (featuring), les singles et même les biographies, font de Spotify un endroit extraordinaire pour découvrir de la nouvelle musique et redécouvrir de vieux favoris. Via son partenaire TuneCore, les groupes indépendants peuvent désormais proposer leur musique sur Spotify pour un tarif de 10 dollars par an et par titre. Non seulement cela expose des petits groupes à une audience gigantesque, mais TuneCore se charge de proposer ces mêmes titres sur ITunes et d’autres magasins en ligne. Tunecore a collecté plus de 30 millions de dollars l’année dernière pour ses artistes, selon le magazine Wired.

Découverte digitale

Comment les gens découvraient-ils la musique avant Internet ? A part les quelques rares vrais mélomanes qui savaient dans quels clubs trouver de nouveaux groupes, chez quels disquaires dénicher les valeurs montantes, l’amateur de musique lambda restait à peu près cantonné au bouche à oreille et à la radio. Aujourd’hui, il existe des services comme Last.fm ou Pandora (accessible uniquement aux États-Unis pour le moment) qui suivent ce que vous écoutez, et vous propose de manière automatique et intelligente de nouvelles playlists correspondant à vos goûts. Ils poussent même la bonne vieille technique du bouche-à-oreille à un niveau supérieur en laissant les utilisateurs poster directement leur favoris sur Facebook, et Last.fm dispose d’outils qui permettent de visualiser joliment vos goûts musicaux (infographies qui peuvent aussi être partagées avec toutes vos connexions).

Myspace collabore avec Facebook

Le processus de découverte est devenue encore plus social avec la mise en place récente d’une collaboration entre Myspace et Facebook. Appelée Mashup with Facebook, elle permet aux membres de Myspace d’importer tous leur ‘likes’ et tous leurs centres d’intérêt depuis Facebook, qui sont ensuite analysés par un algorithme de Myspace afin de suggérer des artistes qu’ils pourraient aimer (sur Myspace, bien sûr). Traditionnellement, la préférence des groupes allait à Myspace, mais à partir du moment où les pages ‘Fan’ de Facebook se sont développées (ie. quand leurs mises à jour apparaissaient directement sur la page d’accueil), cette tendance est allée en s’affaiblissant. Myspace a été de nouveau catapulté sous les projecteurs, avec un nouveau design et Facebook Connect, ce qui signifie, pour les artistes, une plus grande visibilité (les ‘likes’ sur Myspace sont postés sur Facebook, et inversement). Myspace a également l’avantage de proposer une plus grande sélection et de choix en termes d’affichage et de fonctionnalités du player, ce qui est évidemment très important pour les groupes.

Du bon vieux groove

Tout ce mouvement vers la musique sociale a provoqué un retour de bâton dans certains cercles musicaux. Ainsi, le 44ème Kent State Folk Festival a mené une campagne anti-média sociaux pour son édition de cette année qui soulève quelques questions légitimes. Un des posters clame que “frapper dans ses mains quand on aime un groupe c’est bien mieux que de cliquer sur un bouton”. Un autre presse les fans de laisser leur mémoire télécharger la musique, pour changer.

Le fait que rien ne remplacera jamais la musique live, en tout cas pas avec la technologie actuelle, est indubitable. Qui sait, peut-être que nous verrons un jour des super concerts immersifs en 3D mais pour le moment, en termes de son, d’énergie et d’expérience, il n’y a rien d’autre que le live et il en va de même pour les groupes. Se produire devant une foule remplie de fans qui dansent, frappent dans les mains ou chantent est probablement l’expérience la plus gratifiante pour un musicien. Évidemment, avoir des dizaines de milliers de fans en ligne est agréable, mais encore une fois, l’expérience n’est pas aussi viscérale. Les messages martelés par ces affiches sont très clairement contre la musique “sociale”, ils se battent pour le pouvoir du live, pas pour les connexions en ligne. Mais est-ce qu’un groupe peut aujourd’hui rencontrer le succès en étant hors-ligne ?

Les nombres font plus de bruit que les accords

Il est toujours utile d’avoir quelques chiffres pour remettre les choses en perspective.  Dans ce cas, les nombres parlent d’eux-même. Selon le rapport le plus récent de la Recording Industry Association of America le nombre d’envois de CDs vendus aux États-Unis a diminué de 20,5 % entre 2008 et 2009. Pendant ce temps, le nombre d’albums téléchargés a augmenté de 20,2 % pendant la même période. Il est donc assez clair que les ventes en ligne se multitplient et que les ventes physiques sont en chute libre. Quid du téléchargement illégal et de son effet sur l’industrie de la musique en ligne ?

Dans la vidéo ci-dessus, Sean Parker explique que 10 trillion de morceaux sont téléchargées chaque année, alors que seulement 4 milliards le sont légalement. C’est un déséquilibre vertigineux, qui soutient l’idée que les méthodes associées au téléchargement illégal sont encore bien plus populaires que celles associées à la consommation légale. Ce que je veux dire c’est que cela suggère que le partage des chansons est bien plus efficace pour distribuer de la musique que les moyens de vente classiques.

Illustrer le pouvoir de la recommandation sociale

On peut jeter un coup d’oeil à l’industrie des médias pour voir comment l’adoption d’une stratégie de recommandation sociale peut aboutir à une énorme augmentation du trafic. Facebook explique dans sa page Facebook + Media que “de nombreux médias ont vu leur trafic augmenter lorsqu’ils ont adopté des plugins sociaux, comme ABC News (+ 190%), Gawker (+ 200%)… Sporting News (+ 500%)”. Ils expliquent aussi que le “liker” moyen a en moyenne 2,4 fois plus d’amis que l’utilisateur de Facebook typique. Donc, en plus d’augmenter le trafic, implémenter des boutons de recommandation sociale attire en fait des visiteurs mieux connectés. Le facteur bouche à oreille devient de fait encore plus important. Évidemment, si les groupes veulent plus de fans, ils pourraient apprendre des agences de communication et commencer tout de suite à développer une stratégie sur les médias sociaux, mais ce n’est pas leur travail.

La clé est de savoir comment les groupes peuvent promouvoir le partage de leur musique sans donner le fruit de leurs entrailles gratuitement. Si le partage de la musique semble augmenter les ventes je doute qu’un jour, ces nouveaux usages prennent le pas sur le live.

Retrouvez Garrett Goodman sur Twitter : @garrettgoodman

Crédits Photos CC FLickR par oliverchesler

]]>
http://owni.fr/2010/12/04/musique-sociale-meilleure-ennemie-des-artistes/feed/ 21
Evolution de la consommation collaborative au rythme des réseaux http://owni.fr/2010/11/15/evolution-de-la-consommation-collaborative-au-rythme-des-reseaux/ http://owni.fr/2010/11/15/evolution-de-la-consommation-collaborative-au-rythme-des-reseaux/#comments Mon, 15 Nov 2010 10:57:33 +0000 Hubert Guillaud http://owni.fr/?p=35680 La consommation collaborative correspond au fait de prêter, louer, donner, échanger des objets via les technologies et les communautés de pairs”, explique le site éponyme lancé par Rachel Botsman et Roo Rogers, les auteurs de What’s mine is yours, the rise of collaborative consumption (Ce qui est à moi est à toi, la montée de la consommation collaborative).

Ceux-ci affirment d’ailleurs que cette pratique est en passe de devenir un “mouvement”. Un mouvement qui va des places de marchés mondiales comme eBay ou Craiglist à des secteurs de niches comme le prêt entre particuliers (Zopa) ou les plates-formes de partage de voitures (Zipcar). Un mouvement dont les formes évoluent rapidement, comme le montre le secteur automobile par exemple, où nous sommes passés de la vente de voitures par les constructeurs au partage de voitures (Zipcar, StreetCar, GoGet… et Autolib bientôt à Paris) au covoiturage (Nuride qui est plutôt un système de compensation pour inciter les gens à prendre d’autres types de transports, Zimride, Goloco ou Covoiturage en France) à la location de voiture en P2P (DriveMyCar, GetAround, RelayRides, WhipCar). Dans la monnaie, nous sommes passés des banques établies, à des systèmes de prêts entre particuliers (Zopa, Peepex…), puis à des monnaies alternatives (Superfluid ou Batercard…).

“La consommation collaborative modifie les façons de faire des affaires et réinvente non seulement ce que nous consommons, mais également comment nous consommons”, affirment ses défenseurs. De nombreuses nouvelles places de marchés voient ainsi le jour en ligne : que ce soit les systèmes qui transforment les produits en service (on paye pour utiliser un produit sans avoir besoin de l’acheter), les marchés de redistribution (qui organisent la redistribution de produits utilisés ou achetés quand ils ne sont pas ou plus utilisés) et les styles de vie collaboratifs (des gens avec des intérêts similaires s’assemblent pour partager bien, temps, espace, compétences, monnaie, comme dans le cas des achats groupés sur l’internet via les ventes privées, ou du développement des espaces de Coworking comme les Cantines en France).

La liste des sites web permettant ce type d’échanges gagne toutes les thématiques : de l’échange de maison (HomeExchange) à la location de chambre ou de canapés chez le particulier (Airbnb et Couchsurfing) ou de parking en ville (ParkAtMyHouse), voire de jardins (Urban Garden Share ou Landshare)… au prêt de matériel électroménager (Zilok), à celui des produits culturels (Swap), ou de fringues (thredUP), ou à l’échange de la production du jardin (LePotiron)… jusqu’au partage de compétence (Teach Street ou Brooklyn Skill Share) et bien sûr au don d’objets usagers (Kashless, FreeCycle et autres Ressourceries…).

Cliquer ici pour voir la vidéo.


Vidéo : la vidéo promotionnelle du livre de Rachel Botsman et Roo Rogers.

Les fans du partage ont déjà leur magazine : Shareable.net. D’un coup, L’âge de l’accès que décrivait brillamment Jeremy Rifkins dans son livre semble être en passe de s’être réalisé… mais pas de manière uniforme. Les visions et les modèles économiques qui président à la “consommation collaborative” n’ont pas tous la même orientation politique, ne partagent pas toute la même vision de l’économie et du fonctionnement de nos sociétés, tant s’en faut. Certains donnent clairement lieu à des modèles d’affaires qui n’ont rien d’altruiste (Groupon a généré 500 millions de dollars de revenus cette année), alors que d’autres proposent ouvertement un autre modèle de société et d’échange.

Un mode d’échange par défaut

Pour Rachel Botsman et Roo Rogers ces systèmes ont “tendance à devenir, par défaut, la façon dont les gens échangent que ce soit des biens, des lieux, des compétences, de la monnaie ou des services”. Et des sites de ce type apparaissent chaque jour, tout autour du monde. Mode ou phénomène de niche qui devient phénomène de masse ? Difficile à dire parce qu’il n’est pas évident d’arriver à mesurer ce phénomène.
C’est pourtant ce que veut proposer le site Collaborative Consumption, tenter de donner une mesure au phénomène, tout en recensant les outils et en centralisant la discussion sur cette évolution, pointe Bruce Sterling sur Wired.

Jenna Wortham pour le New York Times a ainsi loué un Roomba, ce robot aspirateur, pour 24 heures via la plate-forme SnapGoods. Une plate-forme parmi de nombreuses autres comme NeighborGoods ou ShareSomeSugar. Il existe bien d’autres services de ce type, allant des services d’achats groupés comme Groupon ou Vente privée, aux sites de voyages entre pairs comme Airbnb, aux sites d’échanges de maisons comme Home Exchange, voir même aux sites d’investissements collaboratifs comme My Major Company ou Kickstarter.

Il y a plusieurs formes de consommation collaborative : les formes où l’on achète en commun, de manière groupée, un bien ou un service pour obtenir le plus souvent un prix ; et les formes où les gens se prêtent, se donnent ou s’échangent des biens et services plutôt que de les acheter, estime Jenna Wortham.

Pour Ron Williams, cofondateur de SnapGoods, ce phénomène est lié à ce qu’il appelle “l’économie de l’accès” qu’évoquait Jeremy Rifkins. “Il y a une sensibilisation croissante au fait que vous n’êtes pas toujours heureux d’hyperconsommer. La notion de propriété et la barrière entre vous et ce dont vous avez besoin est dépassée.” La crise est également passée par là et le fait de pouvoir tester un produit avant de l’acheter réfrène (à moins qu’elle ne l’encourage) l’hyperconsommation dans laquelle notre société a depuis longtemps basculé, comme le souligne Gilles Lipovetsky dans son essai sur la société d’hyperconsommation.

Pour autant, ces places de marchés ne devraient pas renverser le modèle traditionnel avant longtemps, estiment les spécialistes. “Ce n’est pas la fin de notre vieille façon de consommer. Mais petit à petit, l’échange entre pairs pourrait bien devenir la façon par défaut dont nous échangeons”, estime Rachel Botsman.

Du produit au sens de la communauté

En attendant, les gens louent un nécessaire de camping pour un voyage, plutôt que de l’acheter, passent la nuit chez d’autres habitants plutôt qu’à l’hôtel… Pour les gens qui louent leur matériel, c’est une façon de se faire un peu d’argent, voire de rentabiliser leur achat. Ce n’est pas pour les économies qu’ils permettent de réaliser que ces services devraient gagner en popularité, mais parce qu’ils renforcent le sens de la communauté.

Ces services transforment un bien de consommation en un moyen de rencontrer ses voisins, estime un utilisateur actif. “Nous surfons sur le désir d’avoir toujours de réelles connexions avec la communauté”, estime Paul Zak, directeur du Centre pour les études en neuroéconomie de la Claremont Graduate University. L’interaction sociale réduit l’émission d’hormones de stress, même en ligne, estime le chercheur qui a montré que poster un message sur Twitter déclenchait une libération d’ocytocine, un neurotransmetteur de satisfaction. Selon lui, le commerce en ligne est appelé à se déplacer au-delà des transactions pour développer l’interaction et les contacts sociaux, comme nous le faisons déjà dans les magasins réels.

Le web ramène le business à l’individu à mesure que les sociétés de commerce en ligne deviennent plus petites, plus spécialisées, de niches. Paradoxalement, le web nous ramène à un modèle d’affaires centré sur l’humain.

Voilà longtemps que les places de marchés comme eBay utilisent la notation et les critiques des consommateurs pour créer un sentiment de confiance entre les participants et éliminer les participants non fiables, en plus de protections techniques. Cette nouvelle vague de systèmes de pairs à pairs utilise également les réseaux sociaux comme Facebook ou Twitter pour susciter de la confiance. “Cette nouvelle économie va être entièrement basée sur la réputation, qui fait partie d’un nouveau tournant culturel : votre comportement dans une communauté affecte ce que vous pouvez faire ou ce à quoi vous pouvez accéder dans une autre”, estime Rachel Botsman. Pas sûr que la réputation soit aussi poreuse d’une communauté l’autre, ni que l’utilisation des sites sociaux comme systèmes d’identification suffise à transformer la relation d’échange. Comme le montre le succès du BonCoin, il n’y a pas nécessairement besoin de ce type de fonctionnalités pour développer les échanges.

Article initialement publié sur Internet Actu.net sous le titre “La montée de la consommation collaborative”

>>Crédit photo Flickr CC : colodio

>Capture d’écran du site Neighborgoods

]]>
http://owni.fr/2010/11/15/evolution-de-la-consommation-collaborative-au-rythme-des-reseaux/feed/ 50
Facebook, Twitter: le vocabulaire s’adapte http://owni.fr/2010/10/05/facebook-twitter-le-vocabulaire-sadapte/ http://owni.fr/2010/10/05/facebook-twitter-le-vocabulaire-sadapte/#comments Tue, 05 Oct 2010 06:30:39 +0000 Boumbox http://owni.fr/?p=30356 « Mal nommer les choses, ça fait grave chier », disait en substance Camus. C’est parfois vrai des néologismes, ça l’est encore plus des vieux logismes employés à tort et à travers.

Internet en est plein. Ça fait peut-être chier les éditeurs du New York Times que les journalistes conjuguent le verbe tweeter à toutes les sauces, mais il vaut peut-être mieux risquer d’employer un mot à la mode qui sera oublié dans cinquante ans que de s’accrocher à un vieux vocabulaire inventé pour décrire une réalité en voie d’extinction.

Facebook est encore une fois le pire des coupables. Zuckerberg ne pouvait probablement pas s’en douter, mais en choisissant le mot « ami » (qu’il a de toute façon repris à Friendster et MySpace) plutôt que « contact » comme un client mail ou plutôt que d’inventer un mot comme « Facers » ou je ne sais quoi, en faisant ce choix donc Zuckerberg et les gens à qui il a piqué leurs idées ont probablement transformé le sens du mot « ami ».

Ami : du latin amīcus de même sens, dérivé de amare (« aimer »). Je sais pas vous, mais moi j’ai quelques « amis Facebook » que je n’aime pas vraiment.

« Ami Facebook », on entend ça de plus en plus, parce que la distinction avec un véritable ami est importante. Quelqu’un de chez Google avait fait une présentation intitulée « The Real Life Social Network ».

Malgré son titre qui laisse croire à une version télé-réalité du prochain film de David Fincher, c’était en fait une présentation PowerPoint super instructive qui expliquait quelques trucs sur les réseaux sociaux IRL et ce que les réseaux sociaux du web pouvaient en tirer comme leçon pour s’améliorer.

L’un des constats les plus évidents, c’est que les réseaux de la vraie vie sont plus complexes que Facebook et qu’un seul mot comme « friend » ne pouvait décrire l’ensemble des relations avec les « collègues », les « connaissances », la « famille », les gens avec qui on a été à l’école, les types qu’on a croisés dans une soirée une fois, les profils de putes russes qu’on a ajoutés « par mégarde »…

D’ici 10-20 ans, si les plans de domination de Zuckerberg se déroulent comme prévu, il aura probablement totalement annexé le mot « ami » et on aura naturellement développé des néologismes destinés à dire exactement ce qu’ami voulait dire auparavant.

Ce n’est pas comme si ce genre de glissement du sens était un phénomène si nouveau que ça : « Énervant » voulait dire exactement l’inverse de ce qu’il veut dire aujourd’hui, à l’origine. « Formidable » signifiait « capable d’inspirer la plus grande crainte ».  « Je tiens beaucoup à toi, tu es important dans ma vie » ne voulait pas dire « tourne moi le dos que j’y plante des couteaux » et « essayons de repartir sur des bases saines » pour moi ça voulait pas dire « approche-toi j’ai encore quelques lames pour toi ». Biatch !

Enfin, bref… Les problèmes de la terminologie néophobe de Facebook ne s’arrêtent pas là : si je clique « j’aime » en bas d’un article de presse, je peux me retrouver, sur mon mur, avec des choses comme « Cédric aime 10 000 morts au Pakistan ». On ne sait souvent pas si on aime l’article, les faits qu’il relate ou si j’ai cliqué sur « j’aime » pour « partager » un truc que je n’aime pas du tout. Nous sommes nombreux à résoudre une partie du problème en utilisant la terminologie de la V.O. : on dit « liker », parce que ce n’est pas la même chose que « aimer ».

C’est moins évident, mais même « partager » pose problème : le sens originel du mot implique une division de l’objet du partage en « parts ». Quand je « partage » quelque chose sur Facebook, je ne fais preuve d’aucun altruisme, puisque j’en ai toujours autant pour moi. Utiliser le mot « diffuser » ou un néologisme facebookien serait plus juste, encore une fois.

Alors chez Twitter on écrit des « tweets » et on a des « followers », on fait des #followfriday, #hashtags, « cc », « RT », etc. et on a l’air un peu con quand on en parle aux gens qui ne connaissent rien de tout ça, mais au moins, on sait nous clairement de quoi on parle.

Un autre de ces trucs intéressants que nous apprenait la présentation « the real life social network », c’est qu’il semble que les êtres humains ne peuvent pas vraiment entretenir des liens, même ténus avec plus de 150 personnes en moyenne. Genre au-delà de 150 habitants, les villages des premiers hommes se divisaient et aujourd’hui sur World Of Warcraft les guildes qui dépassent 150 personnes emmerdent leurs membres.

Moi quand je dépasse de trop loin 150 followings sur Twitter, je fais du ménage, mais apparemment ça n’est pas un problème pour tous ceux qui suivent 800 personnes et qui ont plus de 500 « amis Facebook ». Si quelqu’un fait de vous son 151ème « ami », ne vous emballez pas, vous êtes probablement moins qu’une « connaissance » pour lui, vous êtes un chiffre.

Billet initialement publié sur Boum box

Image CC Flickr Juliana Coutinho

]]>
http://owni.fr/2010/10/05/facebook-twitter-le-vocabulaire-sadapte/feed/ 3