OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Mesure ta pollution http://owni.fr/2012/11/26/mesure-ta-pollution/ http://owni.fr/2012/11/26/mesure-ta-pollution/#comments Mon, 26 Nov 2012 12:06:38 +0000 Sylvain Lapoix http://owni.fr/?p=126646

Citoyens capteurs - Photo CC bync Pierre Metivier

À peine arrivé à la table matinale de ce café parisien, Gabriel Dulac sort son tournevis pour offrir au regard le contenu du capteur citoyen de qualité de l’air. À l’intérieur de cette espèce de boîtier gris EDF, gros comme une boîte à sucre, le strict minimum vital : un mini ordinateur, deux capteurs, une batterie et une clef 3G pour transmettre les données. Le tout en “full open hardware”, terme que répète avec méthode Olivier Blondeau, docteur à Sciences Po : “présenter l’objet ouvert fait partie de notre démarche”. Né de la rencontre de ce duo de Labo citoyen et de l’association Respire, le projet Citoyens capteurs vise à rendre abordable pour 200 euros un système fiable de relevé de la qualité de l’air, avec plans et données en format open source.

L’idée de mesures à l’échelle citoyenne n’est pas inédite. Avec la catastrophe de Fukushima, la nécessité d’un réseau de capteurs complémentaire de celui des pouvoirs publics (dépassés par les besoins d’information sur l’étendue des dégâts radiologiques) a amené à la constitution de toute une infrastructure associative de recueil des taux de radioactivité, le réseau Safecast. Une idée qui avait déjà été celle de la Criirad en France et pour le même indicateur.

Expertise

Lancé sur le champ de la mesure de qualité de l’air, Labo citoyen et Respire ont également pu s’inspirer d’autres initiatives ayant défriché le terrain des capteurs à bas coût et de la mise à disposition de données, comme AirQualityEgg.

Mais si la mesure de radioactivité ne nécessite que le recueil d’une variable (le nombre de désintégrations de noyaux radioactifs, exprimé en Becquerel), celle de la qualité de l’air porte sur une quantité de composantes : ozone (O3), particules fines et dioxyde d’azote, pour ne citer que les seuils clés. Or, pour rendre les données recueillies comparables à celles des organismes reconnus, le capteur citoyen de qualité de l’air se devait de répondre aux normes admises et donc d’aligner une haute qualité de mesure. Une expertise disponible uniquement chez les organismes eux-mêmes, ce qui a amené Gabriel à discuter directement avec AirParif :

En deux heures de discussion, nous avons gagné cinq mois d’expertise. Au départ, nous mesurions les microparticules en volume, sauf que le seuil est en poids et que la densité peut varier du tout au tout au moindre changement de température.

Si AirParif refuse l’idée d’un “label”, l’association agréée de mesure de qualité de l’air parisien a ouvert ses labos aux prototypes de capteurs citoyens, suivant une démarche détaillée par sa directrice de la communication Karine Léger :

Cette initiative s’inscrit pour nous dans la continuité de notre mission : en complément de notre réseau de soixante capteurs en Île-de-France, placés dans des zones représentatives, nous souhaitons obtenir des mesures dans les zones d’exposition des gens. Depuis 2006, nous avons déjà fait des tests dans les habitacles des automobiles, dans les transports en commun (ou avec des tubes tests) sur des citoyens volontaires tout au long de la journée. À chaque fois, il s’agissait de versions réduites de nos capteurs principaux. Nous opérons un échange d’expertise scientifique sur les capteurs citoyens afin qu’ils puissent produire des données qui complètent les nôtres.

En pratique, les capteurs d’AirParif sont disposés dans des endroits représentatifs, permettant d’élargir la mesure par des outils de modélisation. Carrefour d’Alésia, dans le XIVe arrondissement, un capteur mesure ainsi les émission sur un “grand rond-point congestionné de Paris” tandis que, le long du boulevard périphérique, deux points de mesure évaluent la qualité de l’air à la frontière de la capitale.

Anti-Linky

La démarche des citoyens capteurs n’est cependant pas strictement scientifique. Derrière le concept de “full open hardware”, le projet tout entier s’inscrit dans une logique d’ouverture à la réappropriation et à la contribution citoyenne : chaque pièce (du mini ordinateur Rapsberry Pi aux outils de mesure) est listé sur le wiki [en], le code de la base de données recueillant les mesures est disponible sur le réseau social Github… Et le tout en licence ouverte et réutilisable. Une démarche d’ouverture totale du dispositif que Labo citoyen et Respire souhaitent accompagner mêlant formation technique, exposé médical sur les dangers de la pollution atmosphérique et initiation à la chimie de l’air urbain.

Nous sommes dans l’anti-Linky, ironise Olivier Blondeau. EDF nous propose un boîtier fermé, dans lequel personne ne sait ce qu’il y a et qui communique des informations qui vous concernent mais uniquement à EDF. Là, tout est ouvert et disponible pour l’amélioration et la réappropriation.

L’interprétation même des données est laissée à l’imagination et aux besoins des utilisateurs. Chercheuse à l’université Paris-III en Sciences de la communication et associée au projet, Laurence Allard inscrit cette démarche dans une réappropriation politique de l’objet à rebours du transhumanisme :

Cliquer ici pour voir la vidéo.

Chacun peut mettre en scène les données à sa guise : pour une manifestation, nous avions fixé un haut-parleur qui hurlait les résultats, pour une autre, un téléscripteur qui les crachait comme un sismographe… Nous ne sommes pas dans une machinisation des humains mais dans un outillage de l’homme par la machine. Il ne s’agit pas d’un objet mais d’une expertise embarquée qui vise à donner à chaque citoyen une capacité d’empowerment) politique grâce à l’Internet des objets.

Bottom-up

Dans la perspective d’un déploiement plus large, l’ingénieur de la bande a déjà prévu de permettre aux capteurs de communiquer entre eux, “qu’ils puissent s’étalonner, prévenir d’une panne, relayer une batterie faible…” énumère Gabriel Dulac.

Pour assurer l’accessibilité des capteurs aux associations, le coût reste une contrainte-clé et justifie, à lui seul, le recours au do-it-yourself : un seul boîtier AirParif, produit de qualité industrielle, est facturé 10 000 euros. Aux yeux de Sébastien Vray, président de l’association Respire, le potentiel d’empowerment est considérable :

Aujourd’hui, les associations de surveillance de la qualité de l’air (Asca) produisent des données fiables mais sur des échantillons très étroits : une batterie de station de fond, éloignée du trafic, et des batteries de proximité, plongées dans la circulation. Avec les capteurs citoyens, la possibilité serait offerte de produire une véritable information bottom-up sur la qualité de l’air : placer des capteurs dans des poussettes, simuler des trajets ou, tout simplement, mettre des capteurs chez les “pauvres” pour pouvoir établir le lien entre précarité sociale et précarité environnementale.

L’OMS évalue à deux millions par an le nombre de décès prématurés liés à la dégradation de la qualité de l’air (30 000 en France) . Avec les capteurs bon marché, Respire espère donner aux associations de défense du cadre de vie les moyens d’argumenter sur les nuisances liées à la pollution de l’air. Pour héberger les premières données, Sébastien Vray vient d’inaugurer PollutionDeLAir.info, une des premières extensions du projet Capteurs citoyens qui lance ses sondes en direction d’autres défis offerts par les données environnementales : pollution sonore, pollution visuelle et qualité de l’eau.


“Citoyens capteurs”Photo CC [bync] Pierre Metivier. L’autre photo (sur fond vert) est issue du wiki mentionné dans l’article.
Photo de une de Pierre Métivier, éditée par Owni.

]]>
http://owni.fr/2012/11/26/mesure-ta-pollution/feed/ 17
Les licences libres aux portes de la révolution http://owni.fr/2012/11/09/les-licences-libres-aux-portes-de-la-revolution/ http://owni.fr/2012/11/09/les-licences-libres-aux-portes-de-la-revolution/#comments Fri, 09 Nov 2012 09:44:55 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=125571

Dans une chronique précédente, j’avais pris parti dans le débat à propos de la clause Non-Commerciale des Creative Commons, dont certains réclament la suppression à l’occasion du passage à la version 4.0 des licences.

Je défendais l’idée que cette clause devait être maintenue, dans l’intérêt même de la Culture libre, notamment parce que la notion de Non Commercial est importante pour espérer parvenir un jour à une légalisation des échanges non marchands, seule solution pour mettre fin à la guerre au partage qui sévit actuellement.

L’un des arguments les plus forts avancés par les détracteurs de la clause NC consiste à dire qu’elle est incompatible avec la notion de biens communs, alors que celle-ci figure pourtant dans le nom-même des Creative “Commons”. C’est ce qu’avance notamment Rufus Pollock, co-fondateur de l’Open Knowledge Foundation, dans ce billet :

C’est un point crucial [...] Les Creative Commons ne permettent tout simplement pas la constitution de biens communs. Les licences NC (Non-Commercial) et ND (Pas de modification) empêchent les oeuvres placées sous CC de constituer un commun numérique unifié que tout le monde serait en mesure d’utiliser, de réutiliser et de partager [...] Le fait que Creative Commons  paraît promouvoir un commun (qui n’en est pourtant pas un) s’avère en définitive avoir un effet négatif sur la croissance et le développement de biens communs numériques.

Le non commercial, avenir de la culture libre

Le non commercial, avenir de la culture libre

La licence NC (non commerciale) des Creative Commons permet à chacun de diffuser la culture librement en se laissant ...

Dans mon précédent billet, j’étais déjà en désaccord avec cette analyse, estimant que toute forme de mise en partage des contenus par le biais de licences s’inscrit dans le mouvement de constitution des communs numériques.

Depuis, j’ai découvert une nouvelle licence – la Peer Production Licence – qui me conforte grandement dans cette analyse, en permettant d’élever le débat à un niveau encore plus général. Ce nouvel instrument a été créé en adaptant la licence CC-BY-NC-SA (Creative Commons -  Paternité – Pas d’usage commercial – Partage à l’identique). Il s’inspire des conceptions de Dmitry Kleiner, fondateur du collectif Telekommunisten, qui prône l’avènement d’une nouvelle conception des licences libres : le Copyfarleft (“Extrême gauche d’auteur”) dans le but de permettre la création de biens communs à une échelle supérieure.

Son approche est sensiblement différente de celle qui a présidé à la création des licences libres dans le secteur du logiciel, comme la GNU-GPL de Richard Stallman. La Peer Production Licence n’entend pas en effet rejeter la clause Non Commerciale, mais l’adapter afin de promouvoir le développement d’une nouvelle économie, organisée sur un mode décentralisé et tournée vers la production de biens communs.

Cette licence est soutenue par d’autres penseurs importants du mouvement des biens communs et de l’économie numérique, comme le belge Michel Bauwens, théoricien de la Peer to Peer Economy et fondateur de P2P Foundation.

Contrairement aux arguments “libristes” traditionnels, la Peer Production Licence prouve que non seulement le Non-Commercial n’est pas incompatible avec la notion de biens communs, mais qu’il pourrait bien être indispensable à l’avènement de nouveaux modèles économiques centrés sur leur production, à condition d’en revoir la définition.

Redéfinir la clause Non-Commerciale en faveur des biens communs

Dans les licences Creative Commons, la clause non-commerciale soumet à autorisation préalable les usages commerciaux, conçus d’une manière très large :

L’Acceptant ne peut exercer aucun des droits qui lui ont été accordés [...] d’une manière telle qu’il aurait l’intention première ou l’objectif d’obtenir un avantage commercial ou une compensation financière privée.

Un des reproches fréquemment adressés à cette définition du NC est d’être trop floue et de s’appliquer indistinctement à une société commerciale qui voudrait utiliser une oeuvre pour en faire profit, ou à une association caritative, qui pourrait ponctuellement avoir une activité commerciale, sans que son but soit lucratif.

La Peer Production Licence (Licence de production de pair à pair) fonctionne justement en prenant en compte la nature de la structure qui fait un usage commercial de l’oeuvre. Inspiré par la théorie des biens communs, son principe consiste à permettre aux commoners (ceux qui participent à la création et au maintien d’un bien commun), aux coopératives et aux organismes à but non-lucratif d’utiliser et de partager les oeuvres, y compris à des fins commerciales, mais les entités commerciales qui chercheraient à faire du profit en utilisant le bien commun ne pourrait le faire que dans le cadre d’une stricte réciprocité, en contribuant financièrement à l’entretien du commun.

Pour ce faire, la Peer Production Licence redéfinit la clause Non-Commerciale de cette façon :

c. Vous pouvez exercer les droits qui vous sont conférés à des fins commerciales seulement si :

i. Vous êtes une entreprise ou une coopérative dont la propriété appartient aux travailleurs (workerowned) ; et

ii. Tous les gains financiers, surplus, profits et bénéfices générés par la société ou la coopérative sont redistribués aux travailleurs.

d. Tout usage par une société dont la propriété et la gouvernance sont privées et dont le but est de générer du profit  à partir du travail d’employés rémunérés sous forme de salaires est interdit par cette licence.

L’usage par une structure à but lucratif est interdit, mais cela ne signifie pas qu’il est impossible : il faut que la société commerciale négocie une autorisation et verse le cas échéant une rémunération, si le titulaire des droits sur l’oeuvre l’exige.

Copyheart, un amour de licence libre

Copyheart, un amour de licence libre

Le Copyheart créé par Nina Paley véhicule un message : copier est un acte d'amour. Derrière le côté peace & love, ...

Au vu de ces éléments, on comprend mieux l’appellation de cette licence : licence de production de pair à pair. Ses termes sont asymétriques et l’effet de sa clause NC à géométrie variable. Pour les acteurs qui se comportent comme des “pairs” et sont structurés organiquement pour ce faire, l’usage commercial est possible et la licence est identique à une licence Copyleft classique. Pour les acteurs structurés dans le but de faire du profit, la Peer Production Licence leur impose les contraintes classiques du copyright (autorisation préalable et paiement).

Ces mécanismes sont particulièrement intéressants et ils s’inscrivent dans le cadre d’une philosophie particulière des licences libres : le Copyfarleft.

Au-delà du copyleft…

Dmitry Kleiner, qui est à l’origine de cette conception, en a énoncé les grandes lignes dans un article intitulé Copyfarleft and Copyjustright, paru en 2007, qui critiquait à la fois les licences Copyleft et les licences de type Creative Commons.

Kleiner faisait tout d’abord remarquer que le Copyleft dans le secteur du logiciel a profondément bouleversé le paysage en permettant la mise en place d’une propriété partagée. Mais de nombreuses firmes privées, parfaitement capitalistes, ont fini par trouver un intérêt à contribuer au développement de logiciels libres, afin de bénéficier d’outils performants à moindre coût. Ces sociétés vont jusqu’à embaucher et rémunérer des développeurs afin qu’ils améliorent le code, même si elles ne bénéficient pas en retour de la propriété exclusive sur celui-ci.

Ces relations entre les biens communs que constituent les logiciels libres et les entreprises capitalistes sont certainement bénéfiques aux deux parties et elles font partie intégrante de l’écosystème de l’Open Source. Mais d’un certain côté, elles sont aussi le signe que le Copyleft n’a pas abouti à une remise en cause fondamentale des structures même de l’économie de marché : ces firmes restent formatées pour maximiser leurs profits et les salariés qu’elles emploient demeurent des employés comme les autres.

Par ailleurs – et c’est aussi un aspect que j’avais développé dans ma chronique précédente sur le Non-Commercial, le Copyleft avec son effet viral fonctionne bien pour les logiciels, mais il n’est pas forcément adapté pour les autres formes de création, surtout lorsqu’il s’agit d’assurer une rémunération aux auteurs :

[...] Il y a un problème : l’art ne constitue pas, dans la plupart des cas, un facteur pour la production comme peuvent l’être les logiciels. Les propriétaires capitalistes peuvent avoir intérêt à soutenir la création de logiciels libres, pour les raisons décrites plus haut. Pourtant, dans la majorité des cas, ils ne soutiendront pas la création artistique sous copyleft. Pourquoi le feraient-ils ? Comme toutes les informations reproductibles, l’art sous copyleft n’a pas directement de valeur d’échange, et contrairement aux logiciels, il n’a pas non plus généralement de valeur d’usage pour la production. Sa valeur d’usage existe uniquement parmi les amateurs de cet art, et si les propriétaires capitalistes ne peuvent pas imposer à ces amateurs de payer pour avoir le droit de copier, en quoi cela pourrait-il leur être utile ? Et si les propriétaires capitalistes ne soutiennent pas l’art sous copyleft qui est gratuitement diffusé, qui le fera ?

Le Copyleft, tel que développé par la communauté du logiciel, n’est donc pas une option viable pour la plupart des artistes. Et même pour les développeurs de logiciels, il ne modifie pas la loi d’airain des salaires, qui fait qu’ils sont capables de gagner leur vie, mais rien de plus, tandis que les propriétaires capitalistes continuent à capter toute la valeur du produit de leur travail.

Les licences Creative Commons classiques, que Kleiner appelle “Copyjustright”, ne sont à ses yeux pas plus capables de changer la donne, notamment parce que leur clause Non-Commercial est trop large.

Pour changer les règles du jeu en faveur du développement des biens communs, il est nécessaire selon Kleiner d’adopter la nouvelle conception du Copyfarleft, qui passe par un Non-Commercial à deux vitesses que nous avons décrit ci-dessus :

Pour que le copyleft développe un potentiel révolutionnaire, il doit devenir Copyfarleft, ce qui signifie qu’il doit insister sur la propriété partagée des moyens de production.

Pour arriver à ce but, la licence ne doit pas avoir un seul jeu de règles identiques pour tous les utilisateurs, mais elle doit avoir des règles différentes selon les différentes catégories d’utilisateurs. Concrètement, cela veut dire un jeu de règles pour ceux qui fonctionnent à partir de la propriété partagée et de la production en commun et un autre pour ceux qui utilisent la propriété privée et le travail salarié dans la production.

Une licence Copyfarleft doit permettre aux producteurs de partager librement, tout en réservant la valeur de leur travail productif. En d’autres termes, il doit être possible pour les travailleurs de faire de l’argent en consacrant leur travail à la propriété commune, mais il doit être impossible pour les titulaires de la propriété privée de faire de l’argent en employant du travail salarié.

Il n’est pas étonnant que la Peer Production Licence soit soutenue par un penseur comme Michel Bauwens, qui consacre ses travaux à la nouvelle économie collaborative. Pour que les pratiques de pair à pair (Peer to Peer Economy) constituent à terme un véritable système de production viable, fonctionnant selon des principes différents des structures capitalistes classiques, l’effet dissymétrique de la Peer Production Licence est indispensable :

Si un individu contribue au commun, il peut aussi l’utiliser gratuitement ; en revanche, s’il profite sans contribuer, il contribue sous forme de paiement. De cette façon, les commoners (ce qui développent des biens communs) seraient facilités dans leur propre production sociale en lien direct avec la création de valeur. Il devrait également être possible de changer les formes légales des entreprises qui occupent la sphère du marché, en opérant un déplacement des entreprises profit-maximizers à des product-maximizers, favorisant la synergie entre consommateur et producteur. Il faut que les entreprises ne soient pas structurellement incitées à être des requins, mais des dauphins.

Cliquer ici pour voir la vidéo.

L’objectif du Copyfarleft n’est pas seulement de faire en sorte que les produits du travail créatif deviennent des biens communs partageables, mais que les structures de production elles-mêmes s’organisent sous la forme de biens communs. Cela va dans le sens des principes de l’économie sociale et solidaire, en ajoutant la dimension propre aux licences libres. Pour Michel Bauwens, l’objectif final est que les structures de l’économie collaborative puissent se rendre peu à peu autonomes du marché et prendre leur essor en temps qu’alternatives viables, capables de rémunérer les créateurs en dépassant le simple “bénévolat”.

Quelles différences entre les biens communs et le communisme ?

Quelles différences entre les biens communs et le communisme ?

Quelle sont les similitudes divergences entre les traditions socialistes et l'émergence des idées et pratiques liées au ...

Ces considérations peuvent paraître utopiques et on peut se demander si de telles sociétés ou coopératives, dans lesquelles les moyens de production appartiendraient vraiment aux travailleurs, ne sont pas qu’une vue de l’esprit.

Or ce n’est pas le cas. Il existe d’ores et déjà de nouvelles formes d’entreprises qui fonctionnent selon des principes révolutionnaires.

Entreprise collaborative et ouverte

Un exemple frappant de ces nouveaux types d’organisation en gestation est la start-up SENSORICA, basée à Montréal, oeuvrant dans le secteur de l’invention et de la fabrication de senseurs et de capteurs, notamment à destination de la recherche bio-médicale.

SENSORICA se définit elle-même non comme une entreprise classique, mais plutôt comme “un réseau de valeur ouvert, décentralisé et auto-organisé” ou encore “un réseau de production en commun de pair à pair“. La start-up est innovante dans le sens où  toutes ses productions sont placées en Open Source et où elle emploie elle-même des technologies ouvertes, comme les puces Arduino.

Mais c’est surtout dans son mode d’organisation que SENSORICA est proprement révolutionnaire. SENSORICA n’est pas incorporée sous la forme d’une société. Elle n’a pas en elle-même de personnalité juridique et ses membres forment plutôt un collectif, fonctionnant de manière horizontale, sans hiérarchie. L’équipe n’a d’ailleurs pas de frontières strictement délimitée : il s’agit d’une entreprise ouverte et toutes les personnes intéressées peuvent venir collaborer à ses projets.

SENSORICA n’a pas d’employés, mais des contributeurs, qui peuvent apporter selon leurs possibilités de leur temps, de leurs compétences ou de leur argent. Pour rétribuer financièrement les participants, la start-up utilise un système particulier qu’elle a créé et mis en place, dit Open Value Network.

Cliquer ici pour voir la vidéo.

Ce système consiste en une plateforme qui permet de garder trace des différentes contributions réalisées par les participants aux projets de SENSORICA. Un dispositif de notation permet aux pairs d’évaluer les contributions de chacun de manière à leur attribuer une certaine valeur. Cette valeur ajoutée des contributions confère à chacun un score et lorsqu’une réalisation de SENSORICA atteint le marché et génère des revenus, ceux-ci sont répartis entre les membres en fonction de ces évaluations.

Chacun est donc incité à contribuer aux développement des biens communs ouverts que produit l’entreprise et celle-ci est donc bien organisée pour que ses membres se partagent la propriété des moyens de production.

Ce système de production décentralisée en commun n’est donc plus une utopie et on trouvera d’autres exemples de ces Open Company Formats sur le wiki de la P2P Foundation. C’est pour favoriser le développement de telles structures alternatives que l’asymétrie de la Peer Production Licence pourrait s’avérer précieuse.

***

Laurent Chemla, dans sa dernière chronique sur Owni consacrée à la révolution numérique, termine en ces termes :

Les nouvelles structures se mettent en place, tranquillement, en dehors des modèles anciens. AMAPs, SELs, logiciels et cultures libres, jardins partagés… l’économie solidaire est en plein développement, hors des sentiers battus du capitalisme centralisateur.

[...] il manque encore pour bien faire, un moyen d’assurer le gîte et le couvert [...]

Ce dernier point est essentiel. Le Copyleft et les licences Creative Commons ont permis la mise en place de nouvelles façons de créer de la valeur, de manière collaborative et décentralisée. Mais ces formules n’assurent que rarement aux créateurs un moyen de subsistance, leur donnant l’indépendance nécessaire pour contribuer à la constitution de biens communs, en dehors d’un “bénévolat” forcément inscrit en creux dans le système classique et accessible uniquement à un nombre réduit.

Pour dépasser cet état, il faut explorer de nouvelles voies et la Peer Production Licence en est une, parmi d’autres, pour faire émerger une économie des communs.


Photo par Alpha du centaure [CC-by]

]]>
http://owni.fr/2012/11/09/les-licences-libres-aux-portes-de-la-revolution/feed/ 0
Un Pompidou virtuel… et verrouillé http://owni.fr/2012/10/10/pompidou-virtuel-ouvert-ou-sous-verre/ http://owni.fr/2012/10/10/pompidou-virtuel-ouvert-ou-sous-verre/#comments Wed, 10 Oct 2012 11:18:06 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=122002

C’était un événement très attendu dans le champ culturel : le Centre Pompidou a lancé officiellement la semaine dernière son nouveau site internet, baptisé le Centre Pompidou Virtuel (CPV).

La communication institutionnelle qui a accompagné ce lancement a mis en avant les aspects innovants du site, comme l’usage des technologies du web sémantique, le recours aux logiciels libres ou la volonté de s’engager dans une démarche de co-construction avec les usagers, par l’intermédiaire des réseaux sociaux.

Alain Seban, le président du Centre, insiste sur le fait que ce nouveau site s’inscrit dans une logique “d’ouverture” et dans une stratégie d’intégration du “web collaboratif“.

Nous faisons un grand bond en avant en ouvrant à tous les internautes les contenus du Centre. C’est la première fois qu’un musée ouvre ainsi ses contenus sur son site, au lieu de se limiter à fournir des contenus créés spécifiquement pour internet.

Les médias reprennent ce discours, en écrivant que le Centre Pompidou a “ouvert” ses contenus aux internautes. Il est vrai qu’une vaste entreprise de numérisation des collections a été conduite, avec la mise en ligne de plus de 75 000 reproductions d’œuvres désormais accessibles gratuitement sur le CPV.

Mais entre “rendre accessible” et “ouvrir”, il y a une différence de taille. Sans minimiser l’importance des efforts déployés pour diffuser ces contenus (notamment la négociation des droits, car la très grande majorité des collections de Pompidou sont toujours protégées par le droit d’auteur), on peut s’interroger sur la réalité de cette politique d’ouverture.

Des critiques ont d’ailleurs fusé sur les réseaux sociaux après le lancement du site, au point qu’Emmanuelle Bermès, chef du service multimédia du Centre Pompidou, a pris la peine d’écrire un billet sur son blog pour s’expliquer :

Bien sûr ma communauté d’intérêt favorite, informée de l’événement sur Twitter, s’est jetée sur le nouveau joujou à la recherche du RDF… et en est revenue toute dépitée.

La déception peut en effet être forte, notamment lorsqu’on dépasse les communiqués de presse pour se plonger dans les mentions légales du site, qui détaillent les conditions d’utilisation. Il en ressort l’impression une certaine confusion et un décalage avec le discours affiché sur l’ouverture.

Il ne s’agit pas ici de tirer sur une ambulance, ni de mettre en doute les intentions réelles des porteurs de ce projet, mais le Centre Pompidou Virtuel n’en reste pas moins très représentatif des contradictions de la politique culturelle conduite dans ce pays.

L’ouverture n’est pas seulement un argument marketing et s’engager dans une telle politique nécessite de mettre en oeuvre des actions concrètes. En l’état actuel, si l’on respecte le sens des mots, ce site n’est pas ouvert : il est “sous verre” et les objets culturels qu’ils diffusent restent prisonniers sous une épaisse glace numérique et juridique, que l’on peut voir comme un prolongement des vitrines du musée physique. De telles restrictions soulèvent de réelles questions sur la place accordée à la culture numérique par l’institution muséale et sur la manière dont elle entend s’y articuler.

Une curieuse conception de l’Open Source

A la question “En quoi le nouveau centrepompidou.fr est-il ouvert ?“, Emmanuelle Bermès répond dans cette interview en évoquant en premier lieu l’utilisation des logiciels libres :

Le nouveau centrepompidou.fr est résolument ouvert, jusque dans sa conception qui repose entièrement sur des logiciels libres. Cela signifie que le site pourra évoluer tout au long de sa vie, sans autre contrainte technique que celle de s’adapter à l’usage des publics. La liberté de ce mode de développement permet également d’envisager la diffusion des principes techniques de ce site auprès d’autres institutions qui auraient besoin d’une solution équivalente.

Il faut bien entendu se réjouir que le CPV ait fait le choix des logiciels libres, mais un passage par les mentions légales du site laisse un peu dubitatif quant à la mise en oeuvre effective de cette option :

Le Centre Pompidou met à disposition un site internet conçu sous licence libre. L’utilisation des éléments du site internet se fait sous réserve de la licence spécifique à celui-ci, en accord avec le Centre Pompidou et les équipes ayant développé l’élément en question.

Cette formulation est singulièrement maladroite et elle s’avère même contradictoire. On nous dit que le site est “sous licence libre”. Fort bien, mais laquelle ? Il ne suffit pas d’affirmer que l’on est sous licence libre pour que les logiciels deviennent effectivement réutilisables. Encore faut-il indiquer avec précision la (ou les) licences utilisées. Le texte indique qu’il existerait “une licence spécifique [au site]“. Est-ce à dire que le Centre Pompidou a rédigé sa propre licence (ce qui irait à l’encontre des bonnes pratiques en matière de prolifération des licences) ?

Plus loin, on bascule même franchement dans l’étrange, puisqu’on nous dit que l’utilisation des éléments du site, non seulement doit se faire dans le respect de la licence (normal), mais aussi “en accord avec le Centre et les équipes ayant développé l’élément en question“. Plaît-il ? Les logiciels sont “sous licence libre”, mais il faut l’accord du Centre et des équipes pour les réutiliser ? Si une autorisation reste nécessaire, c’est tout simplement que la structure du site… n’est pas sous licence libre, contrairement au discours affiché ! Espérons qu’il ne s’agisse que d’une maladresse de rédaction, mais ces ambiguïtés jettent déjà un premier doute sur la stratégie d’ouverture du site.

Du web sémantique, mais pas de données ouvertes

C’est sans doute sur ce point que la déception est la plus forte. Le Centre Pompidou Virtuel met en avant le fait qu’il utilise les technologies du web sémantique et les possibilités étendues de navigation par mots-clés entre les différents types de contenus l’attestent effectivement. Alain Seban insiste sur le fait qu’il s’agit d’une “révolution technologique” qui va permettre à l’internaute “de naviguer par le sens” au sein des collections.

Tout ceci est excellent, mais il ne s’agit pas pour autant d’une démarche d’ouverture des données, comme l’explique Emmanuelle Bermès sur son blog :

Oui, c’est vrai, le Web sémantique est au cœur de la machine mais on ne le diffuse pas pour l’instant. Comme je l’expliquais à l’IFLA cet été, nous n’avons pas fait du Linked OPEN Data mais du Linked ENTERPRISE Data. C’est-à-dire que nous avons appliqué les technologies du Web sémantique à nos propres données afin de construire notre propre service.

Cela signifie que le Centre Pompidou Virtuel a bien fait passer ses métadonnées sous les formats nécessaires au déploiement des technologies du Web sémantique, mais qu’il ne s’est pas engagé dans une démarche d’Open Data, en permettant la réutilisation de ses données par le biais d’une licence ouverte.

Certes, il est parfaitement vrai que le Linked Data et l’Open Data constituent deux choses différentes. Cependant, qui peut contester que le web sémantique et l’Open Data entretiennent des liens très étroits ? A quoi bon développer des technologies permettant de lier des données si c’est pour maintenir la barrière juridique qui les laisse enfermées dans des silos ? Utiliser en interne le web sémantique pour faire communiquer ses propres jeux de données et développer de nouveaux services, c’est bien, mais permettre à des tiers d’utiliser les données pour les connecter avec des ressources externes, c’est l’objectif final de la démarche, qui ne peut être atteint que par le biais d’une politique d’Open Data. Le web sémantique n’est pas qu’une simple technologie, il s’appuie sur un projet global, au sein duquel l’ouverture tient une place centrale.

Ici, tel n’est pas le cas, même si on nous explique que cette évolution pourrait voir le jour dans une prochaine étape :

La deuxième étape sera de développer des mécanismes permettant à d’autres de réutiliser nos données, et d’y associer la licence ouverte qui va bien. Je l’ai dit plusieurs fois dans des conférences, c’est une suite logique, et cela s’inscrit complètement dans l’ADN du projet qui est par nature ouvert.

Pourtant, il existe déjà des précédents en France d’usage de licence ouverte pour les données dans le champ culturel (l’exemple de la Bibliothèque nationale de France avec data.bnf.fr, placé sous la Licence Ouverte d’Etalab, également employée par la Bibliothèque Nationale et Universitaire de Strasbourg). Ces réalisations montrent que l’ouverture des données culturelles est possible, à condition de le vouloir politiquement.

Les métadonnées (contrairement aux reproductions des œuvres dont il sera question plus loin) constituaient des éléments sur lesquels le Centre Pompidou était détenteur des droits. Il aurait donc pu juridiquement embrasser une politique d’Open Data pour tout ou partie de ses données. Le secteur culturel est très largement en retard en France en ce qui concerne l’Open Data. On aurait pu attendre que le Centre Pompidou Virtuel fasse un pas dans cette direction dès maintenant, pour envoyer un signal fort notamment en direction des musées qui demeurent encore largement à l’écart du mouvement d’ouverture des données.

Exposition d’art très libéré

Exposition d’art très libéré

Les licences libres elles-mêmes productrices d’œuvres, d'images, d'installations artistiques. Qui n'existeraient pas sans ...

Un appel à l’intelligence collective, sans réciprocité…

Cette fermeture concernant les données a des répercussions fortes sur les relations que le site entend nouer avec les internautes. Car  bien que ne permettant pas la réutilisation de ses données, le Centre Pompidou Virtuel fait appel au public, dans l’esprit du web collaboratif, afin qu’il vienne consacrer son temps, ses connaissances et sa bonne volonté pour les enrichir.

L’interface permet en effet à l’usager d’ouvrir un espace personnel pour “contribuer” de différentes manières : en ajoutant des mots clés sur les notices des oeuvres, en proposant des liens entre les différentes ressources du site ou en soumettant des enrichissements éditoriaux. Tous ces contenus produits par les utilisateurs seront remployés, grâce aux technologies sémantiques déployées sur le site, afin d’améliorer la navigation au sein des contenus. Mais les informations résultant de ce travail de “petites mains”, réalisé bénévolement par les internautes, deviendront aussi des données publiques et tomberont sous le coup de l’interdiction de réutilisation maintenues pour l’instant par le Centre Pompidou.

Sur ce point, l’appel lancé à l’intelligence collective ne paraît pas équitable, car il ne comporte pas d’élément de réciprocité. La stratégie de communication parle de co-construction du contenu du site avec les internautes, mais en l’état actuel des choses, cette démarche “collaborative” conduit à une appropriation exclusive des informations par l’institution. On est très loin d’un site comme Wikipédia où la licence libre employée, couvrant à la fois les contenus et les données, garantit que les contributions des individus resteront bien réutilisables et ne pourront pas être “appropriées”.

L’institution met d’ailleurs également en avant un partenariat avec Wikipédia :

[...] ce partenariat permettra aussi bien d’engager une réflexion conjointe sur la co-construction, par l’intermédiaire de l’organisation d’événements tels que des conférences, que de produire des contenus à travers l’animation d’ateliers qui déboucheront à la fois sur l’enrichissement de Wikipédia et sur la création de textes potentiellement réutilisables pour le Centre Pompidou.

La démarche est sans doute intéressante, mais employer la communauté des Wikipédiens pour produire des contenus, les réutiliser et ne pas dans le même temps s’engager a minima dans une politique de réutilisation de ses données, c’est avoir une conception bien déséquilibrée des rapports qu’une institution peut entretenir avec son environnement numérique.

Des œuvres accessibles, mais coupées de l’écosystème du web

Au-delà de ces restrictions sur la réutilisation des données, d’autres formes de limitations importantes pèsent sur les œuvres elles-mêmes diffusées par le site. Mais elles ne peuvent cette fois être imputées au Centre lui-même, car elles découlent du fait que les collections du musée sont dans leur grande majorité encore protégées par des droits d’auteurs.

Pour pouvoir les numériser et les mettre en ligne, le Centre Pompidou a dû négocier des autorisations auprès des titulaires de droits (artistes eux-mêmes, ayants droit, sociétés de gestion collective, type ADAGP ou SAIF). On ne doute pas que sur un tel volume de dizaines de milliers d’œuvres, cette étape ait pu s’avérer complexe et coûteuse, car même pour une diffusion gratuite en ligne, les ayants droit sont fondés à demander une rémunération.

Le problème, c’est que ces autorisations ne concernent que l’accès aux œuvres sur le site et non leur réutilisation, qui reste empêchée au titre du droit d’auteur. Les mentions légales sont à nouveau très claires sur le sujet :

Le Centre Pompidou met à disposition des internautes des contenus numériques, protégés dans leur utilisation par les lois en vigueur. Leur réutilisation par les internautes est soumise à une demande préalable directement auprès des ayants-droits. Faute d’autorisation, toute reproduction ou représentation totale ou partielle, toute utilisation, toute adaptation, toute mise à disposition ou modification de ces éléments est strictement interdite et constitue un délit de contrefaçon au sens du code de la propriété intellectuelle.

Par ailleurs, certains titulaires de droits ont visiblement refusé d’accorder des autorisations de mise en ligne des œuvres, ce qui conduit le Centre Pompidou Virtuel à proposer des notices vides. C’est le cas pour des artistes importants, comme Henri Matisse :

Imaginerait-on un musée qui présenterait aux visiteurs des cadres vides dans ses salless ? C’est pourtant ce qui se passe pour le Centre Pompidou Virtuel. On notera en revanche dans le cas de Matisse que les mêmes ayants droit qui refusent la mise en ligne gratuite par le Musée acceptent par contre que cette notice vide contienne un lien vers des produits dérivés à acheter dans la Boutique…

Mais même quand le CPV a obtenu une autorisation de diffusion, des restrictions importantes continuent à s’appliquer . On peut relever par exemple que le clic droit est désactivé sur toutes les images diffusées par le site (alors qu’il permettrait d’effectuer des actes de copie privée des contenus, parfaitement légaux). Il n’est pas possible non plus d’effectuer d’embed (intégration) à partir des vidéos figurant sur le site.

Plus caricatural encore, bien qu’une fonctionnalité de partage soit intégrée sur toutes les pages présentant des œuvres, voilà ce qui se passe concrètement lorsque l’on essaie de partager sur Facebook une œuvre du Centre Pompidou Virtuel :

On n’exporte que le titre, un lien en retour vers le site et… un gros logo de l’institution ! Bon courage pour développer une réelle politique de médiation numérique en direction des réseaux sociaux avec des contenus verrouillés de la sorte…

Ces restrictions découlent certainement d’exigences imposées par les titulaires de droits et non d’une volonté de l’établissement de figer les contenus sur le site. Mais elles aboutissent à dresser une barrière entre le Centre Pompidou Virtuel et l’écosystème global du web dans lequel il pourrait s’insérer. Elles isolent aussi les œuvres des pratiques numériques créatives qui sont devenues monnaie courante.

Face à une telle situation, on mesure l’urgence de faire évoluer les exceptions au droit d’auteur en faveur des institutions culturelles comme les musées, afin qu’elles puissent réellement devenir des médiateurs de la culture dans l’environnement numérique. Par ailleurs, l’introduction d’une exception pour le remix, voire d’une légalisation du partage non-marchand, permettraient aussi aux internautes de réutiliser de tels contenus mis en ligne, plutôt que d’être cantonnés dans le rôle de spectateurs passifs.

Incidences fortes du modèle économique sur l’ouverture

Mais les œuvres protégées issues des collections ne forment qu’une partie des contenus figurant sur le site du Centre Pompidou Virtuel. L’établissement propose également des éléments  produits par ses services et apportant une valeur ajoutée indéniable pour les internautes, comme le précise encore Emmanuelle Bermès :

En tant que centre de ressources, le site internet proposera un accès aux œuvres de la collection du Centre Pompidou, aux archives de l’établissement, aux captations audiovisuelles de conférences, à des interviews d’artistes et de commissaires d’exposition, des affiches, bandes-annonces, dossiers de presse et dossiers pédagogiques

Sur ces éléments, le Centre Pompidou dispose d’une bonne partie des droits et aurait pu être en mesure de négocier afin de permettre la réutilisation, notamment en les faisant passer sous des licences de libre diffusion, comme les Creative Commons.

Pourtant,  des raisons juridiques sont invoquées pour expliquer que les contenus les plus élaborés produits par le Centre ne pourront être diffusés gratuitement :

Pour des raisons également juridiques, lors de son lancement, le nouveau centrepompidou.fr diffusera les contenus bruts (reproduction des œuvres de la collection si accord des ayant droits, notices, captations de conférences…) mais ne pourra pas offrir gratuitement les contenus spécifiquement produits et éditorialisés tels qu’un parcours audioguide ou le catalogue d’une exposition.

Par ailleurs, pour être en mesure de rembourser une partie des sommes nécessaires à l’élaboration du site (12 millions d’euros), le Centre Pompidou Virtuel va devoir conduire une politique de commercialisation de contenus, comme des applications mobiles ou des livres numériques.

On comprend que dans le contexte budgétaire actuel, la question des ressources propres puisse être épineuse, mais quelle place un établissement culturel comme le Centre Pompidou peut-il faire à une ouverture réelle de ses données et de ses contenus,  en étant soumis à ce type d’impératifs financiers ?

Des données culturelles à diffuser

Des données culturelles à diffuser

La libération des données est loin d'être complètement acquise en France. Si le portail Etalab est une première étape, ...

Une violence symbolique envers la culture numérique ?

Les contradictions dans lesquelles se trouve placé le Centre Pompidou Virtuel sont représentatives des ambiguïtés de la politique culturelle actuelle. La diffusion de la culture française en ligne se heurte à une conception rigide et inadaptée de la propriété intellectuelle. La pression exercée sur l’auto-financement des établissements les éloigne également de la mise en place d’une réelle politique d’ouverture, en dépit du discours affiché. Le plus contestable est la manière dont le Centre a récupéré la rhétorique de l’ouverture a des fins de communication, pour faire de l’Institutional Branding, alors que la réalité est différente. Il faut qu’une porte soit ouverte ou fermée, dit-on, il faut aussi qu’une donnée soit ouverte ou fermée !

Les musées ont parfois été accusés d’être des lieux où s’exerçait une forme de violence symbolique. En l’état, on peut considérer que le Centre Pompidou Virtuel véhicule une telle violence symbolique envers ce qui est le propre de la culture numérique. Le site place l’utilisateur dans une position de passivité vis-à-vis des œuvres, découlant des contraintes juridiques et techniques imposées par la plateforme. La même passivité se retrouve vis-à-vis des données, que l’utilisateur ne peut réutiliser, quand bien même il est sollicité pour les enrichir par crowdsourcing.

Le propre de la culture numérique est de mettre en capacité les individus de réutiliser de manière créative les contenus culturels, pour devenir acteur à part entière de la culture. En laissant ainsi les données et les œuvres “sous verre”, le Centre Pompidou Virtuel manque clairement l’objectif affiché de s’inscrire dans les pratiques contemporaines, qui ne peuvent se satisfaire de la seule logique de l’accès.

Mais les choses peuvent évoluer. Le groupe Open GLAM a publié en septembre dernier un rapport comportant une série de recommandations en faveur de l’ouverture des données et des contenus culturels. Il est urgent que ces revendications soient écoutées, si l’on veut dépasser la situation de blocage actuelle.


Photo CC by-nd Hans Splinter

]]>
http://owni.fr/2012/10/10/pompidou-virtuel-ouvert-ou-sous-verre/feed/ 11
Débuguer nos cancers http://owni.fr/2012/10/02/debuguer-nos-cancers/ http://owni.fr/2012/10/02/debuguer-nos-cancers/#comments Tue, 02 Oct 2012 16:49:43 +0000 Antonio A. Casilli http://owni.fr/?p=121506 Owni publie une série inédite du chercheur ès-cultures numériques Antonio Casilli, Addicted to bad ideas. Premier épisode consacré aux alternatives offertes par l'innombrable, présent sur le réseau des réseaux, face à la grave maladie d'un seul. Bienvenue dans la Médecine 2.0.]]> Alors que je m’intéressais aux violences urbaines, je suis tombé sur le data artist et TED fellow Salvatore Iaconesi (alias @xDxD.vs.xDxD), qui travaillait sur des visualisations d’émeutes assez impressionnantes. Il y a quelques semaines, il a publié sur son site Web une vidéo apportant de bien tristes nouvelles…

Après un court instant de doute, j’ai su qu’il ne s’agissait ni d’un canular, ni d’une expérimentation artistique situationniste. Admis à l’hôpital San Camillo de Rome et diagnostiqué d’une tumeur du cerveau située dans le lobe frontal, Iaconesi ne dispose que d’options thérapeutiques limitées (chirurgie, chimiothérapie ou radiothérapie) et d’un pronostic peu favorable (les tumeurs du type gliome sont presque impossibles à soigner).

Décidé à chercher d’autres avis, il s’empare de ses dossiers médicaux et retourne chez lui. Où il découvre que son IRM et ses scanners sont en format propriétaire… Heureusement, ce virtuose du piratage de logiciel et créateur du collectif Art is Open Source, possède plus d’un tour d’hacker dans son sac. Il craque les fichiers, les publie sur Internet et invite experts médicaux et profanes à réagir. En quelques jours, il commence à recevoir toute sorte de contributions : des mails de bon rétablissement aux suggestions d’articles scientifiques, en passant par les coordonnées de professionnels de santé et des conseils pour les thérapies de pointe. Il y a, bien entendu, de tout et n’importe quoi. Il décide donc de cartographier, trier et analyser ces contributions disparates au moyen d’un outil de datavisualisation de sa création. Mis à jour quotidiennement par ses soins, ce graphe navigable donne accès aux dossiers médicaux et aux informations pertinentes collectées par la communauté de contributeurs Web de La Cura, son “traitement open source”.

La médecine 2.0

La portée culturelle du cas Iaconesi est de plusieurs ordres. L’angle le plus direct pour l’interroger consisterait à se concentrer sur les implications en terme de vie privée de cette quête connectée d’un traitement ouvert du cancer. Le partage de fichiers médicaux et le crowdsourcing thérapeutique sont-ils révélateurs d’un basculement dans notre rapport à la dimension personnelle de la maladie ? Bien que la décision de l’artiste de “s’ouvrir” au sujet de son état s’avère peut-être tentant pour la presse qui déploie autour de lui le cirque médiatique habituel, la question est bien moins originale qu’il n’y paraît. Les plus célèbres survivants du cancer (à l’instar de Jeff Jarvis ou Howard Rheingold) ont longtemps soutenu que la “publitude” sur Internet recelait un grand potentiel curatif. La création de réseaux de personnes apportant leur soutien émotionnel et partageant leurs expériences ainsi que leurs conseils médicaux sont loin d’être une nouveauté. Ceci entre en résonance avec l’expérience de millions de membres de forums de discussion et de blogueurs atteints d’un cancer, qui documentent sur le Net leurs vies et leur lutte quotidienne.

L’originalité du traitement Open Source de Iaconesi se trouve ailleurs, en l’occurrence dans la façon dont il problématise la notion d’ouverture (openness) en mêlant “humanités médicales”, hacking et e-santé.

Enlarge your conciousness "gelée émotionelle" par Salvatore Iaconesi (cc)

Permettez-moi de clarifier ces points. En fait, quand l’artiste se plaint que ses dossiers médicaux ne soient “pas ouverts”, il a techniquement tort. Le format DICOM (Digital Imaging and COmmunications in Medicine) utilisé pour enregistrer ses IRM et tomographies est, en théorie, ouvert dans la mesure où il garantit l’interopérabilité presque universelle entre tous les équipements d’information médicale. Cependant, dans une interview récente, Iaconesi soutient que :

“même” s’il est “techniquement ouvert”, le format dans lequel mes dossiers médicaux m’ont été délivrés n’est pas satisfaisant car il est “ouvert pour les professionnels” et par conséquent la seule chose que je puisse en faire est de les montrer à des professionnels, écartant toutes les formidables autres composantes de “traitement” qui sont disponibles à travers le monde.

Ce qui se joue dans cette définition différenciée de l’ouverture – celle de l’information au patient, des standards techniques de l’archivage numérique des dossiers médicaux et, finalement, du traitement lui-même – est le rapport entre professionnels de santé et patients. La mise à disposition en ligne de données médicales a été saluée comme un outil inestimable de capacitation des patients et a considérablement redéfini les professions de santé durant la dernière décennie. Les chercheurs ont constaté la montée de la “désintermédiation médicale”, c’est-à-dire le déclin progressif du rôle d’intermédiaires joué jusque là par les professionnels de santé entre le patient et l’information médicale. D’aucuns ont poussé le constat jusqu’à annoncer l’émergence d’une médecine en “peer-to-peer”.

En ce sens, le traitement open source auquel nous sommes confronté dans ce cas de figure s’inscrit dans une mouvance Médecine 2.0 qui glorifie le rôle des patients connectés en leur conférant le droit d’accéder, de manipuler et de partager leurs propres dossiers médicaux – comme on l’a vu dans les récents évènements très médiatisés tel le “Datapalooza”, sponsorisé par le département de la santé US.

Toutefois, cela ne signifie pas que l’opinion et la voix des profanes écartent l’expertise des professionnels de santé. La question de la crédibilité et de la fiabilité des informations médicales est cruciale. Comme le remarque Ulrike Rauer, chercheuse de l’Oxford Internet Institute, quand ils rencontrent des données médicales provenant d’Internet, les patients font encore davantage confiance aux professionnels de santé qu’à des sites privés.

Même les plus fervents apôtres de la Médecine 2.0 ne cèdent pas complètement aux sirènes de la désintermédiation. Au contraire, ils s’accordent pour dire que les professionnels de santé et les patients font partie d’un vaste écosystème d’”apomediaries” informatiques. Comme le dit Gunther Eysenbach :

à la différence de l’apomédiaire, l’intermédiaire se situe “entre” (du latin inter- “entre”) l’usager et l’information, ce qui signifie qu’il est un médiateur incontournable pour recevoir de l’information en premier lieu. De fait, la crédibilité et la qualité de l’intermédiaire détermine grandement la crédibilité et la qualité de l’information reçue par le consommateur. En revanche, l’apomédiation signifie qu’il existe des agents (personnes, outils) qui se tiennent prêts (du latin apo- : séparé, détaché, éloigné) à guider le consommateur vers des informations et des services de haute qualité sans être au départ une condition préalable à l’obtention du service ou de l’information, et avec un pouvoir individuel de sélectionner ou d’altérer l’information négociée qui est limité. Tandis que ces catégories ne sont pas mutuellement exclusives (en pratique, il pourrait y avoir un mélange des deux, de gens qui vont et viennent de l’apomédiation à l’intermédiation), l’hypothèse a été émise qu’elles influencent comment les gens jugent la crédibilité.

Humanités médicales numériques

Un autre aspect important dans le traitement open source de Iaconesi est son plaidoyer pour une approche humaine de la santé et de la maladie. Son projet a pour but de traduire des données en une sorte de langage naturel hybride, compréhensible par le profane comme par les opérateurs d’équipements médicaux.

La première chose que vous notez dans un hôpital est qu’ils ne vous parlent pas vraiment. Le langage médical est complexe et difficile, et ils font rarement grand chose pour le rendre plus compréhensible. L’un des témoignages que j’ai reçu à La Cura venait d’une dame qui a entendu un médecin lui crier dessus : “Vous pensez vraiment que je vais vous expliquer pourquoi je dois vous retirer votre tyroïde ? Elle doit être retirée ! Point !”. Ce n’est pas vraiment “ouvert”, à aucun point de vue. Et, à plus d’un titre, c’est une preuve explicite de l’approche de la médecine vis-à-vis des patients : ils cessent d’être “humains” et deviennent des jeux de paramètres dans un dossier médical sujet à certains protocoles et certains standards. Quand vous êtes à l’hôpital, c’est souvent comme si vous n’étiez pas là. La seule chose qui compte c’est vos données : pression sanguine, rythme cardiaque, résonnance magnétique etc.

Enlarge your conciousness "gelée émotionelle" par Salvatore Iaconesi (cc)

Ouvrir les données médicales revient à réconcilier le savoir médical avec l’expérience corporelle de la maladie. Et, de ce point de vue spécifique, l’inspiration pour le “traitement” de l’artiste italien peut être retracée à l’intérêt croissant pour les humanités médicales. Depuis la fin des années 1950, un corpus d’oeuvres littéraires et artistiques, ainsi que des productions universitaires en anthropologie médicale et en sciences sociales sur l’expérience de la maladie est utilisé dans la pratique médicale et son enseignement.

Au-delà des contacts basiques avec les patients, les professionnels de la médecine sont de plus en plus entraînés à développer des compétences de soins médicaux à visage humain, des aptitudes d’observation et d’empathie avec leurs patients. Ceci est réalisé en examinant des récits à la première personne de patients ou en étudiant le contexte sociologique et culturel de la pratique de la biomédecine. Même sans s’aventurer dans le champ le plus créatif, et parfois controversé, de l’art-thérapie, ce nouveau domaine a clairement le potentiel de complexifier et d’améliorer la compréhension actuelle du bien-être et de ses nombreux contraires.

Iaconesi a invité non seulement des experts médicaux et leurs patients, mais aussi des poètes, des plasticiens et des musiciens à participer à son expérimentation Web, et ceci place son traitement open source au croisement des humanités numériques et médicales. Jusqu’ici, le lien entre l’informatique, les humanités et la médecine a été surtout assuré par les professionnels de santé avec un bagage en informatique, comme les initiateurs du Medical Future Labs et d’autres programmes proches autour du monde. Le fait qu’un artiste – et une personne vivant avec un cancer – ait maintenant lancé une initiative proche promet d’offrir un aperçu inestimable sur la façon dont la maladie et la guérison sont vécues dans des environnements sociaux connectés.

Pensez aux possibles évolutions des notions de maladie et santé appliquées à cette situation, la possibilité de rendre des formes de dignité humaine et de sociabilité en se fondant sur le partage d’idées et d’expériences, sur la réappropriation d’un état de sincère et active solidarité, complète et variée.


Photo des créations de Salvatore Iaconesi :”Enlarge your conciousness : emotional jellies” [CC-by-sa]
Version anglaise du texte disponible sur Bodyspacesociety, le blog d’Antonio Casilli (@bodyspacesoc)

]]>
http://owni.fr/2012/10/02/debuguer-nos-cancers/feed/ 0
L’impression 3D vend son âme http://owni.fr/2012/09/25/limpression-3d-vend-son-ame/ http://owni.fr/2012/09/25/limpression-3d-vend-son-ame/#comments Tue, 25 Sep 2012 10:06:36 +0000 Sabine Blanc http://owni.fr/?p=120703 business model basé sur l'open source. Mais la polémique enfle depuis le lancement ce mois-ci de leur nouveau modèle, qui est fermé. Certains l'accusent d'avoir renoncé à leur éthique sous la pression des investisseurs qui ont apporté 10 millions de dollars l'année dernière. ]]>

Deux imprimantes 3B Replicator Makerbot

Ce jeudi, Bre Pettis, co-fondateur de MakerBot Industries, fabricant à succès d’imprimantes 3D grand public MakerBot, doit donner un talk à l’Open Hardware Summit sur “les challenges des biens de consommation open source”. Ce qui fait bien ricaner une partie de la communauté de l’open hardware, et en particulier ceux qui contribuent au développement desdites imprimantes.

Car depuis le lancement ce mois-ci de la quatrième génération d’imprimante de l’entreprise américaine, la Replicator 2, la polémique enfle dans le petit milieu : ce nouveau modèle n’est pas open source. MakerBot a vendu son âme au monde des systèmes propriétaires sous la pression des investisseurs, accuse-t-on dans le milieu. Fini a priori l’éthique hacker qui guidait ses décisions. Une triste évolution qui se lirait dans la chronologie des faits marquants de leur jeune histoire.

MakerBot Industries a été créée en 2009 de la volonté de développer les imprimantes 3D open source domestiques, en se basant sur la RepRap, la pionnière du genre. Ses trois co-fondateurs, Bre Pettis, Zachary Smith et Adam Mayer sont issus du milieu hacker. Les deux premiers ont d’ailleurs fondé le hackerspace new-yorkais NYC Resistor.

Plus qu’un outil, RepRap symbolise une vision politique de l’open source hardware (OSHW), dont témoigne le discours d’un de ses développeurs, Adrian Bowyer : cet ingénieur rêve d’un monde où les entreprises traditionnelles seraient court-circuitées. La fabrication des produits manufacturés serait assurée par les citoyens eux-mêmes, grâce à des imprimantes 3D utilisant des plans open source partagés en ligne.

Le fondateur d’Amazon dans le tour de table

Dans les premiers temps de son existence, MakerBot réussit à fédérer une jolie communauté soudée autour des valeurs de partage et d’ouverture chères à l’éthique hacker. L’entreprise a aussi lancé le site Thingiverse, où les bidouilleurs du monde entier peuvent faire profiter des plans des objets qu’ils bidouillent avec les machines.

L’entreprise est un succès, elle compte maintenant 150 salariés, et finit par attirer l’attention des investisseurs. L’année dernière, elle lève 10 millions de dollars, alors qu’elle a commencé avec 75.000 dollars en poche. Dans son tour de table, Jeff Bezos, un des fondateurs d’Amazon. Et début de la descente aux “enfers propriétaires”.

Parmi les signes avant-coureur, le changement des conditions d’utilisation en février dernier est pointé, plus particulièrement la clause 3.2, qui oblige les contributeurs à renoncer à leur droit moral et notamment à leur droit à la paternité. Du coup, MakerBot peut utiliser le travail de la communauté dans ses produits, qu’ils soient ouverts ou fermés.

Josef Prusa, un des développeurs importants de RepRap qui monte aussi sa boîte, entame dans la foulée un mouvement Occupy Thingiverse et publie un billet à l’ironie amère :

L’impression 3D est maintenant pleine de merde. [...]

Hey regarde, nous avons pris toutes vos améliorations que vous avez partagées sur Thingiverse, nous les avons compilées dans un package et nous les avons fermées pour vous :-D .

Les imprimantes MakerBot 3D : la Replicator à gauche et la Thing-o-matic à droite

Parmi les autres indices, il y avait eu aussi au printemps dernier le départ de Zachary Smith. Il s’est aussi exprimé sur la polémique avec la même franchise :

J’essaye de contacter les gens pour prendre la mesure des choses mais jusqu’à présent, personne ne parle, et mes anciens partenaires ne répondent pas à mes appels et mes mails. Cela ne va pas, certainement. La meilleure information que j’ai trouvée est une tonne de double langage d’entreprise bullshit [La réponse de Bre Pettis, ndlr] qui caractérisait mes interactions récentes avec MakerBot.

Louvoiement

Face aux critiques, Bre Pettis se défend dans un billet au titre risqué, tant les reproches semblent fondés : “Réparer la désinformation avec de l’information”

Question 1 : est-ce que la MakerBot Replicator 2 est Open Source ?

Nous y travaillons et nous serons aussi ouvert que nous pourrons l’être alors que nous construisons un business durable.

Ou plutôt louvoie, comme taclent certains commentateurs :

Uh, FYI, tu as posé cette question :

Question 1 : est-ce que la MakerBot Replicator 2 est Open Source ?

Mais tu n’y as pas répondu. Tu tournes juste autour du pot et tu saupoudres d’une poignée de joyeux mots sur l’open source.

Steve Jobs du hardware

L’histoire dépasse la simple anecdote pour renvoyer à une histoire plus ancienne, celle du logiciel. Libre par défaut à ses débuts, sans que ce soit codifié, il est devenu propriétaire à la fin des années 70-début des années 80, quand il a commencé à générer une économie viable avec la montée en puissance de l’ordinateur personnel. Bre Pettis serait somme toute le nouveau Steve Jobs, plus entrepreneur que hacker.

Et comme le souligne Zachary Smith, ce tournant de MakerBot est un coup porté à ceux qui croient que l’OSHW constitue un écosystème viable :

Non seulement ce serait la perte d’un fabricant OSHW important, mais ce serait aussi la perte d’une figure emblématique pour le mouvement. De nombreuses personnes ont montré MakerBot et ont dit : “Oui, l’OSHW constitue un business model viable, regardez combien MakerBot a de succès.”

S’ils ferment leurs portes, alors cela donnerait aux gens qui diraient que l’open source hardware n’est pas viable des munitions pour leur argumentation.

Cela découragerait de nouvelles entreprises OSHW de se monter. C’est vraiment triste.

Si l’histoire se répète, la logique voudrait qu’après un coup de barre propriétaire, l’open hardware prenne sa revanche dans quelques années : l’OSHW a ses Steve Jobs, elle aura bien ses Stallman.


Imprimantes 3D via les galeries photo de wwward0, makerbot et cogdogblog sous licences Creative Commons

]]>
http://owni.fr/2012/09/25/limpression-3d-vend-son-ame/feed/ 13
L’avenir de la médecine en open source http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/ http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/#comments Tue, 03 Jul 2012 08:55:08 +0000 aKa (Framasoft) http://owni.fr/?p=114580 The Economist traduit par Framasoft. Certains chercheurs prônent donc les techniques et modèles open source. Quitte à inquiéter quelques industriels.]]>

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Vulnérable

Les pompes SMART délivrent des médicaments parfaitement dosés pour chaque patient. Des défibrillateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et cœurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux États-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi, le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion, 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis-à-vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002.

En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or, le dysfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq.

L’ organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus.

Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme :

Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique.

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité.

La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel “d’analyse statique” aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Plus stables et moins chères

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée.

En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux États-Unis et en Inde. Comme le souligne Peri Kasthuri, l’un de ses cofondateurs :

Pour un nouveau fabricant, c’est un bon départ.

En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents. Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20 dollars. Comme le confie Dave Arnez, un chercheur participant à ce projet :

Mon rêve est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures.

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT : appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron.

Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. Comme le déclare le Dr Prajapati :

La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement. Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance (là ou les modèles libres sont plus durables NDLR). Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même

Code source standardisé

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical.

Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source. Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. Comme l’explique le Dr Mackie :

Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer.

Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. “Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne.”

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. Comme le dit le Dr Fu :

Quand un avion s’écrase, les gens le remarquent mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention.

Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.


Article initialement traduit et publié sur Framasoft et paru dans  The Economist sous le titre “When code can kill or cure”
Photos et illustrations sous licence creative commons par YanivG, Czar et Gwen Vanhee

]]>
http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/feed/ 11
Naissance d’un mythe de la bidouille http://owni.fr/2011/12/16/arduino-naissance-mythe-bidouille/ http://owni.fr/2011/12/16/arduino-naissance-mythe-bidouille/#comments Fri, 16 Dec 2011 18:01:18 +0000 aKa (Framasoft) http://owni.fr/?p=90471 Arduino

L’histoire retiendra que c’est dans un bar d’une petite ville du nord de l’Italie qu’est né le projet Arduino qui, de manière totalement inattendue, est en train de révolutionner le domaine de l’électronique à l’échelle mondiale, puisque pour la première fois tout le monde peut vraiment s’y essayer et découvrir qu’il aime ça !

L’histoire retiendra également que rien de tout ceci n’aurait été possible sans le choix initial des licences libres qui a conditionné non seulement son bas prix et sa massive diffusion mais également son approche et son état d’esprit.

Acteur et non consommateur, on retrouve ici le goût de comprendre, créer et faire des choses ensemble. Concepts simple et plein de bon sens mais que notre époqu’Apple a fortement tendance à oublier.

PS : Ceci est la troisième traduction de suite initiée sur Twitter/Identica et réalisée dans un Framapad. Je remercie vivement tous les volontaires qui ont bossé dur hier soir pour arriver à un résultat d’un étonnante qualité quand on pense que les invitations sont ouvertes à tout le monde. On se donne rendez-vous, on communique, on se met d’accord sur tel ou tel passage via le chat intégré… au final on passe un moment ponctuel et commun agréable tout en travaillant (bénévolement). Je reste fasciné par le dynamisme et la bienveillance des gens et par la capacité d’Internet à favoriser cela. Si vous voulez vous aussi participer aux prochaines, il suffit de me suivre sur Twitter ou Identica avec le hashtag (que je viens d’inventer) « #EnFrSprint ».

La genèse d’Arduino

The making of Arduino

David Kushner – Octobre 2011 – Spectrum
(Traduction Framalang : Yoha, Keyln, Fab et Luc)

Ou comment cinq amis ont conçu la petite carte électronique qui a bouleversé le monde du DIY (Do It Yourself – Faites-le vous-même).

La pittoresque ville d’Ivrea, qui chevauche la rivière bleue-verte Dora Baltea au nord de l’Italie, est connue pour ses rois déchus. En l’an 1002, le roi Arduin (Arduino en italien) devint le seigneur du pays, pour être détrôné par Henri II d’Allemagne, deux ans plus tard. Aujourd’hui, le Bar di Re Arduino, un bar dans une rue pavée de la ville, honore sa mémoire, et c’est là qu’un nouveau roi inattendu naquit.

C’est en l’honneur de ce bar où Massimo Banzi a pour habitude d’étancher sa soif que fut nommé le projet électronique Arduino (dont il est le cofondateur). Arduino est une carte microcontrôleur à bas prix qui permet — même aux novices — de faire des choses époustouflantes. Vous pouvez connecter l’Arduino à toutes sortes de capteurs, lampes, moteurs, et autres appareils, et vous servir d’un logiciel facile à appréhender pour programmer le comportement de votre création. Vous pouvez construire un affichage interactif, ou un robot mobile, puis en partager les plans avec le monde entier en les postant sur Internet.

Sorti en 2005 comme un modeste outil pour les étudiants de Banzi à l’Interaction Design Institute Ivrea (IDII), Arduino a initié une révolution DIY dans l’électronique à l’échelle mondiale. Vous pouvez acheter une carte Arduino pour seulement 30 dollars ou vous construire la vôtre à partir de rien : tous les schémas électroniques et le code source sont disponibles gratuitement sous des licences libres. Le résultat en est qu’Arduino est devenu le projet le plus influent de son époque dans le monde du matériel libre.

Le couteau suisse rêvé devenu réalité

La petite carte est désormais devenu le couteau suisse de nombreux artistes, passionnés, étudiants, et tous ceux qui rêvaient d’un tel gadget. Plus de 250 000 cartes Arduino ont été vendues à travers le monde — sans compter celles construites à la maison. “Cela a permis aux gens de faire des choses qu’ils n’auraient pas pu faire autrement”, explique David A. Mellis, ancien étudiant à l’IDII et diplômé au MIT Media Lab, actuellement développeur en chef de la partie logicielle d’Arduino.

On trouve des alcootests, des cubes à DEL, des systèmes de domotique, des afficheurs Twitter et même des kits d’analyse ADN basés sur Arduino. Il y a des soirées Arduino et des clubs Arduino. Google a récemment publié un kit de développement basé sur Arduino pour ses smartphones Android. Comme le dit Dale Dougherty, l’éditeur et rédacteur du magazine Make, la bible des créateurs passionnés. Arduino est devenu “la partie intelligente dans les projets créatifs”.

Mais Arduino n’est pas qu’un projet open source ayant pour but de rendre la technologie plus accessible. C’est aussi une startup conduite par Banzi et un groupe d’amis, qui fait face à un challenge que même leur carte magique ne peut résoudre : comment survivre au succès et s’élargir. Banzi m’explique :

Nous devons passer à l’étape suivante, et devenir une entreprise établie.

arduino gps

Arduino a soulevé un autre défi formidable : comment apprendre aux étudiants à créer rapidement de l’électronique. En 2002, Banzi, un architecte logiciel barbu et avunculaire [NDT : qui ressemble à un oncle] y a été amené par l’IDII en tant que professeur associé pour promouvoir de nouvelles approches pour la conception interactive — un champ naissant parfois connu sous le nom d’informatique physique. Mais avec un budget se réduisant et un temps d’enseignement limité, ses options de choix d’outils étaient rares.

Comme beaucoup de ses collègues, Banzi se reposait sur le BASIC Stamp, un microcontrôleur créé et utilisé par l’entreprise californienne Parallax depuis près de 10 ans. Codé avec le langage BASIC, le Stamp était comme un tout petit circuit, embarquant l’essentiel : une alimentation, un microcontrôleur, de la mémoire et des ports d’entrée/sortie pour y connecter du matériel. Mais le BASIC Stamp avait deux problèmes auxquels Banzi se confronta : il n’avait pas assez de puissance de calcul pour certains des projets que ses étudiants avaient en tête, et il était aussi un peu trop cher — une carte avec les parties basiques pouvait coûter jusqu’à 100 dollars. Il avait aussi besoin de quelque chose qui puisse tourner sur Macintosh, omniprésents parmi les designers de l’IDII. Et s’ils concevaient eux-mêmes une carte qui répondrait à leurs besoins ?

Un collègue de Banzi au MIT avait développé un langage de programmation intuitif, du nom de Processing. Processing gagna rapidement en popularité, parce qu’il permettait aux programmeurs sans expérience de créer des infographies complexes et de toute beauté. Une des raisons de son succès était l’environnement de développement extrêmement facile à utiliser. Banzi se demanda s’il pourrait créer un logiciel similaire pour programmer un microcontrôleur, plutôt que des images sur l’écran.

Un étudiant du programme, Henando Barragán, fit les premiers pas dans cette direction. Il développa un prototype de plateforme, Wiring, qui comprenait un environnement de développement facile à appréhender et un circuit imprimé prêt-à-l’emploi. C’était un projet prometteur — encore en activité à ce jour — mais Banzi pensait déjà plus grand : il voulait faire une plate-forme encore plus simple, moins chère et plus facile à utiliser.

Banzi et ses collaborateurs croyaient fermement en l’open source. Puisque l’objectif était de mettre au point une plateforme rapide et facile d’accès, ils se sont dit qu’il vaudrait mieux ouvrir le projet au plus de personnes possibles plutôt que de le garder fermé. Un autre facteur qui a contribué à cette décision est que, après cinq ans de fonctionnement, l’IDII manquait de fonds et allait fermer ses portes. Les membres de la faculté craignaient que leurs projets n’y survivent pas ou soient détournés. Banzi se souvient :

Alors on s’est dit : oublions ça, rendons-le open source !

Le modèle de l’open source a longtemps été utilisé pour aider à l’innovation logicielle, mais pas matérielle. Pour que cela fonctionne, il leur fallait trouver une licence appropriée pour leur carte électronique. Après quelques recherches, ils se rendirent compte que s’ils regardaient leur projet sous un autre œil, ils pouvaient utiliser une licence Creative Commons, une organisation à but non-lucratif dont les contrats sont habituellement utilisés pour les travaux artistiques comme la musique et les écrits. Banzi argumente :

Vous pouvez penser le matériel comme un élément culturel que vous voulez partager avec d’autres personnes.

arduino schema

Aussi bon marché qu’un repas dans une pizzeria

Le groupe avait pour objectif de conception un prix particulier, accessible aux étudiants, de 30$. “Il fallait que ce soit équivalent à un repas dans une pizzeria” raconte Banzi. Ils voulaient aussi faire quelque chose de surprenant qui pourrait se démarquer et que les geeks chevronnés trouveraient cool. Puisque les autres circuits imprimés sont souvent verts, ils feraient le leur bleu ; puisque les constructeurs économisaient sur les broches d’entrée et de sortie, ils en ajouteraient plein à leur circuit. Comme touche finale, ils ajoutèrent une petite carte de l’Italie au dos de la carte. “Une grande partie des choix de conception paraîtraient étranges à un vrai ingénieur, se moque savamment Banzi, mais je ne suis pas un vrai ingénieur, donc je l’ai fait n’importe comment !”

Pour l’un des vrais ingénieurs de l’équipe, Gianluca Martino, la conception inhabituelle, entre chirurgie et boucherie, était une illumination. Martino la décrit comme une “nouvelle manière de penser l’électronique, non pas de façon professionnelle, où vous devez compter vos électrodes, mais dans une optique DIY.”

Le produit que l’équipe créa se constituait d’éléments bon marchés qui pourraient être trouvés facilement si les utilisateurs voulaient construire leurs propres cartes (par exemple, le microcontrôleur ATmega328). Cependant, une décision clé fut de s’assurer que ce soit, en grande partie, plug-and-play : ainsi quelqu’un pourrait la sortir de la boîte, la brancher, et l’utiliser immédiatement. Les cartes telles que la BASIC Stamp demandaient à ce que les adeptes de DIY achètent une dizaine d’autres éléments à ajouter au prix final. Mais pour la leur, l’utilisateur pourrait tout simplement connecter un câble USB de la carte à l’ordinateur — Mac, PC ou Linux — pour la programmer. Un autre membre de l’équipe, David Cuartielles, ingénieur en télécommunications, nous dit :

La philosophie derrière Arduino est que si vous voulez apprendre l’électronique, vous devriez être capable d’apprendre par la pratique dès le premier jour, au lieu de commencer par apprendre l’algèbre.

L’équipe testa bientôt cette philosophie. Ils remirent 300 circuits imprimés nus (sans composants) aux étudiants de l’IDII avec une consigne simple : regardez les instructions de montage en ligne, construisez votre propre carte et utilisez-la pour faire quelque chose. Un des premiers projets était un réveil fait maison suspendu au plafond par un câble. Chaque fois que vous poussiez le bouton snooze, le réveil montait plus haut d’un ton railleur jusqu’à ce que vous ne puissiez que vous lever.

D’autres personnes ont vite entendu parler de ces cartes. Et ils en voulaient une. Le premier acheteur fut un ami de Banzi, qui en commanda une. Le projet commençait à décoller mais il manquait un élément majeur : un nom. Une nuit, autour d’un verre au pub local, il vint à eux : Arduino, juste comme le bar — et le roi.

Rapidement, l’histoire d’Arduino se répandit sur la toile, sans marketing ni publicité. Elle attira très tôt l’attention de Tom Igoe, un professeur d’informatique physique au Programme de Télécommunications Interactives de l’Université de New York et aujourd’hui membre de l’équipe centrale d’Arduino. Igoe enseignait à des étudiants non techniciens en utilisant le BASIC Stamp mais fut impressionné par les fonctionnalités d’Arduino :

Ils partaient de l’hypothèse que vous ne connaissiez ni l’électronique, ni la programmation, que vous ne vouliez pas configurer une machine entière juste pour pouvoir programmer une puce — vous n’avez qu’à allumer la carte, appuyer sur upload et ça marche. J’étais aussi impressionné par l’objectif de fixer le prix à 30$, ce qui la rendait accessible. C’était l’un des facteurs clefs pour moi.

De ce point de vue, le succès de l’Arduino doit beaucoup à l’existence préalable de Processing et de Wiring. Ces projets donnèrent à Arduino une de ses forces essentielles : un environnement de programmation convivial. Avant Arduino, coder un microcontrôleur nécessitait une courbe d’apprentissage difficile. Avec Arduino, même ceux sans expérience électronique préalable avaient accès à un monde précédemment impénétrable. Les débutant peuvent à présent construire un prototype qui fonctionne vraiment sans passer par une longue phase d’apprentissage. Le mouvement est puissant, à une époque où la plupart des gadgets les plus populaires fonctionnent comme des “boîtes noires” fermées et protégées par brevet.

robot Arduino

La démocratisation de l’ingénierie

Pour Banzi, c’est peut-être l’impact le plus important d’Arduino : la démocratisation de l’ingénierie :

Il y a cinquante ans, pour faire un logiciel, il fallait du personnel en blouses blanches qui savait tout sur les tubes à vide. Maintenant, même ma mère peut programmer. Nous avons permis à beaucoup de gens de créer eux-mêmes des produits.

Tous les ingénieurs n’aiment pas Arduino. Les plus pointilleux se plaignent de ce que la carte abaisse le niveau créatif et inonde le marché des passionnés avec des produits médiocres. Cependant, Mellis ne voit pas du tout l’invention comme dévaluant le rôle de l’ingénieur :

Il s’agit de fournir une plateforme qui laisse une porte entrouverte aux artistes et aux concepteurs et leur permet de travailler plus facilement avec les ingénieurs en leur communiquant leurs avis et leurs besoins.

Et il ajoute :

Je ne pense pas que cela remplace l’ingénieur ; cela facilite juste la collaboration.

Pour accélérer l’adoption d’Arduino, l’équipe cherche à l’ancrer plus profondément dans le monde de l’éducation, depuis les écoles primaires jusqu’aux universités. Plusieurs d’entre elles, dont Carnegie Mellon et Stanford, utilisent déjà Arduino. Mellis a observé comment les étudiants et les profanes abordaient l’électronique lors d’une série d’ateliers au MIT Media Lab. Il a ainsi invité des groupes de 8 à 10 personnes à l’atelier où le projet à réaliser devait tenir dans une seule journée. Parmi les réalisations, on peut noter des enceintes pour iPod, des radios FM, et une souris d’ordinateur utilisant certains composants similaires à ceux d’Arduino.

Mais diffuser la bonne parole d’Arduino n’est qu’une partie du travail. L’équipe doit aussi répondre aux demandes pour les cartes. En fait, la plateforme Arduino ne se résume plus à un seul type de carte — il y a maintenant toute une famille de cartes. En plus du design originel, appelé Arduino Uno, on trouve parmi les nouveaux modèles une carte bien plus puissante appelée Arduino Mega, une carte compacte, l’Arduino Nano, une carte résistante à l’eau, la LilyPad Arduino, et une carte capable de se connecter au réseau, récemment sortie, l’Arduino Ethernet.

Arduino a aussi créé sa propre industrie artisanale pour l’électronique DIY. Il y a plus de 200 distributeurs de produits Arduino dans le monde, de grandes sociétés comme SparkFun Electronics à Boulder, Colorado mais aussi de plus petites structures répondant aux besoins locaux. Banzi a récemment entendu parler d’un homme au Portugal qui a quitté son travail dans une société de téléphonie pour vendre des produits Arduino depuis chez lui. Le membre de l’équipe Arduino Gianluca Martino, qui supervise la production et la distribution, nous confie qu’ils font des heures supplémentaires pour atteindre les marchés émergents comme la Chine, l’Inde et l’Amérique du Sud. Aujourd’hui, près de 80% du marché de l’Arduino est concentré entre les États-Unis et l’Europe.

Puisque l’équipe ne peut pas se permettre de stocker des centaines de milliers de cartes, ils en produisent entre 100 et 3000 par jour selon la demande dans une usine de fabrication près d’Ivrea. L’équipe a créé un système sur mesure pour tester les broches de chaque carte, comme la Uno, qui comprend 14 broches d’entrée/sortie numériques, 6 broches d’entrée analogiques et 6 autres pour l’alimentation. C’est une bonne assurance qualité quand vous gérez des milliers d’unités par jour. L’Arduino est suffisamment peu chère pour que l’équipe promette de remplacer toute carte qui ne fonctionnerait pas. Martino rapporte que le taux de matériel défectueux est de un pour cent.

L’équipe d’Arduino engrange suffisamment d’argent pour payer deux employés à plein temps et projette de faire connaître de façon plus large la puissance des circuits imprimés. En septembre, à la Maker Faire, un congrès à New York soutenu par le magazine Make, l’équipe a dévoilé sa première carte à processeur 32 bits — une puce ARM — à la place du processeur 8 bits précédent. Cela permettra de répondre à la demande de puissance des périphériques plus évolués. Par exemple, la MakerBot Thing-O-Matic, une imprimante 3D à monter soi-même basée sur Arduino, pourrait bénéficier d’un processeur plus rapide pour accomplir des tâches plus complexes.

Arduino a bénéficié d’un autre coup d’accélérateur cette année quand Google à mis à disposition une carte de développement pour Android basée sur Arduino. Le kit de développement d’accessoires (ADK) d’Android est une plateforme qui permet à un téléphone sous Android d’interagir avec des moteurs, capteurs et autres dispositifs. Vous pouvez concevoir une application Android qui utilise la caméra du téléphone, les capteurs de mouvements, l’écran tactile, et la connexion à Internet pour contrôler un écran ou un robot, par exemple. Les plus enthousiastes disent que cette nouvelle fonctionnalité élargit encore plus les possibilités de projets Arduino.

L’équipe évite cependant de rendre Arduino trop complexe. Selon Mellis :

Le défi est de trouver un moyen de faire en sorte que chacun puisse faire ce qu’il veut avec la plateforme sans la rendre trop complexe pour quelqu’un qui débuterait.

En attendant, ils profitent de leur gloire inattendue. Des fans viennent de loin simplement pour boire au bar d’Ivrea qui a donné son nom au phénomène. ” Les gens vont au bar et disent ‘Nous sommes ici pour l’Arduino !’”, narre Banzi. “Il y a juste un problème“, ajoute-t-il dans un éclat de rire, “les employés du bar ne savent pas ce qu’est Arduino !”

Billet initialement publié sur Framablog sous le titre “Le making-of d’Arduino”

Crédits photos CC Flickr PaternitéPas d'utilisation commerciale Anthony Mattox, PaternitéPas d'utilisation commercialePas de modification sean_carney, PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales atduskgreg et PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales atduskgreg

]]>
http://owni.fr/2011/12/16/arduino-naissance-mythe-bidouille/feed/ 49
Le CAC40 entre dans les “fab labs” http://owni.fr/2011/09/26/les-fab-labs-capitalisent/ http://owni.fr/2011/09/26/les-fab-labs-capitalisent/#comments Mon, 26 Sep 2011 13:56:21 +0000 Sabine Blanc http://owni.fr/?p=80356

Robots du hackerspace de Toulouse (cc) Ophelia Noor

Les industriels des télécoms, de l’énergie et de la grande distribution lorgnent du côté des fab lab (fabrication laboratory), c’est-à-dire un lieu citoyen ou universitaire, non lucratif, dédié aux fabrications d’objets à la demande. Cet été, Orange a montré les premiers résultats de Thinging, un fab lab expérimental autour de l’internet des objets. EDP, l’équivalent portugais d’EDF, a fait de même l’année dernière, le groupe Adeo, propriétaire de Leroy-Merlin, s’y intéresse de près. Ces mini-usines constituées de machines-outils assistées par ordinateur (imprimante 3D, découpeuse-laser, fraiseuse, etc) sont nées au début des années 2000 au MIT sous l’impulsion de Neil Gershenfeld, et essaiment depuis dans le monde entier [en].

Jusqu’à présent, hormis les particuliers, ce sont surtout de petites structures souples qui sont allées sur ce terrain, artisans et designers. « Nous avions plusieurs fabricants de meubles au lab, explique Joris, de Protospace [nl], en Hollande, l’un d’eux a même programmé pour faire un placard customisé, deux autres avaient déjà leur machine à fraiser CNC, sans l’expérience au lab, ils n’y auraient jamais pensé. Il y a l’initiative de Waag fablab et le label Droof design, ils ont présenté au Salon du mobile de Milan leur concept de design numérique, Design for download. Droog a demandé à quelques designers de dessiner quelque chose qui peut être fabriqué dans différentes structures, par exemple les fab labs. »

Autant de projets dont l’inscription dans la philosophie des fab labs, définie par une charte, semble assez naturelle : ouverture, partage, éducation, et donc logiciels open source, publication sous licence Creative Commons, etc. Pourtant si les grosses sociétés en sont a priori à mille lieux, les deux univers ne sont pas incompatibles. Sur le chapitre argent, la charte est en effet assez floue :

Business : des activités commerciales peuvent être initiées dans les fab labs, mais elles ne doivent pas faire obstacle à l’accès ouvert. Elles doivent se développer au-delà du lab plutôt qu’en son sein et bénéficier à leur tour aux inventeurs, aux labs et aux réseaux qui ont contribué à leur succès.

De même, la protection des inventions est autorisée :

Secret : les concepts et les processus développés dans les fab labs doivent demeurer utilisables à titre individuel. En revanche, vous pouvez les protéger de la manière que vous choisirez.
Le code de notation, qui classe les fab labs en fonction de leur degré de respect de la charte, en dit long sur les abus de nom ! Même un fab lab noté A offre « au moins un accès libre/ouvert au public (mais peut faire payer les coûts réels du matériel) ». Traduction : l’accès peut parfois être fermé au public, par exemple pour le louer à une entreprise, ou restreint à un type de public.

De quoi favoriser « des dissensions philosophiques au sein même de la communauté, explique Fabien Eychenne, de la Fondation Internet nouvelle génération (Fing). En Norvège [en], ils sont assez stricts par exemple alors qu’à Manchester [en], ils sont plus ouverts. » La raison est pragmatique, explique-t-il : cela permet de financer la structure, dont le coût s’élève à quelques milliers d’euros minimum, jusqu’à plusieurs dizaines de milliers d’euros. Dans un contexte de baisse des subventions publiques, « privatiser » l’accès moyennant finances fait partie des solutions.

« Nous gérons le fab lab sans subventions, comme la plupart des autres, explique Jaap Vermas, de FabLab Truck [en], qui, comme son nom l’indique, emporte tout le matériel dans un (gros) camion. Mais nous choisissons aussi de faire des événements gratuits. Nous sommes parfois payés par les écoles où nous faisons des workshops. Cela fait partie de la philosophie de proposer l’usage gratuit pour de courtes durées, le temps de faire un prototype, et de faire payer pour les utilisations longues. Nous avons aussi comme clients des sociétés qui investissent dans des projets non-profits, pour compliquer encore les choses… Par exemple, en Ecosse, une entreprise dans les technologies de l’information a payé notre visite, mais elle nous a demandé de faire des ateliers dans les écoles. Je pense qu’ils investissent dans un fab lab à Troon, en cours de démarrage [en], car ils pensent que c’est bon pour la compagnie d’être en relation avec. Mais ils n’ont pas d’intérêt direct à l’utiliser, à mon avis. » Il conclut dans un sourire :

Le non-profit n’existe pas. Tout le monde doit manger de temps en temps…

Quand fab lab pas content, lui toujours faire ainsi (dragon imprimé en 3D dans un fab lab au Japon).

Maintenir le territoire

Toutefois, le but principal n’est pas la rentabilité mais bien d’assurer la pérennité de la structure, contrairement à une entreprise commerciale. À ce titre, les marges de manœuvres ne sont pas légion. Le label fab lab du MIT n’a pas de valeur juridique : contrairement au logo AB, une entreprise ne peut pas se voir infliger une amende si elle ne respecte pas la charte, elle se verra retirer son logo, c’est tout.

Pourtant, les « fablabeurs » ne manifestent pas d’inquiétude outre-mesure. « En cas d’offensive de la grande distribution, les fab labs ne seront peut-être pas assez structurés pour résister, analyse Nicolas Lassabe, d’Artilect à Toulouse. Les fab labs ont intérêt à tisser des liens avec les institutions pour s’ancrer dans le paysage : universités, organismes publics. » Un retour dans la matrice protectrice somme toute puisque les fab labs ont été incubés à l’université. Et contrairement aux idées reçues, « l’université est plus ouverte qu’on ne le pense, témoigne Emmanuelle Roux, sa démarche de base, c’est la recherche, l’idée d’essayer, de tâtonner, pour trouver. » Elle témoigne en connaissance de cause puisqu’elle a obtenu en quelques mois avec son collègue Laurent Ricard l’accord de l’université de Cergy pour lancer FacLab. De même, les collectivités territoriales sont demandeuses : le fab lab, c’est du lien social et de la relocalisation à relativement peu de frais.

Nicolas Lassabe cite aussi l’exemple de Ponoko [en], un site où les gens, entre autres possibilités, fabriquent leur bien sur mesure avant de le recevoir par la poste : « son développement est un bon signe, il travaille avec des fab labs, ils sont ouverts, leur modèle économique est basé sur l’open source et le DIY. »

« Je pense que ces deux chemins peuvent coexister, explique Michael Weinberg, de Public Knowledge [en], un organisme de défense des droits des utilisateurs à l’ère du numérique, auteur d’un livre blanc sur l’impression 3D. Si je vais dans un Ikea et que je vois une imprimante 3D qui me permet de customiser une lampe achetée, cela peut me motiver à m’acheter une imprimante 3D, et je ne pense pas que cela détruirait le côté hacker de la communauté impression 3D. Le logiciel est utilisé par toutes sortes de personnes mais la communauté du logiciel open source est forte. »

Joris est plutôt optimiste : la rapidité de l’évolution technologique devrait permettre la multiplication des lieux. Ainsi, il arrive déjà à proposer son « un euro la minute de design » :

Si je peux déjà le faire maintenant, ce serait étrange si un magasin ne peut pas le faire dans quelques années. Par exemple, si votre aspirateur cesse de fonctionner, vous allez au magasin de pièces détachées (partshop, ndlr), ou DIY shop, il y a un ordinateur avec une imprimante 3D, vous tapez l’année et la marque de votre modèle et quelques heures après, vous avez votre pièce. Vous passez complètement à la trappe toute l’économie, la distribution, la logistique.

« J’aimerais voir des labs de petite taille partout »

« C’est bien si les fab labs deviennent le “business normal”, avance aussi Jaap. J’aimerais voir des labs de petite taille partout, comme il y avait des magasins d’impression avant que l’imprimante ne se généralise dans les foyers. Alors les fab labs comme les miens seraient moins nécessaires, mais seraient davantage comme un hackerspace. » Il va même plus loin : “Je pense que l’accès aux outils pour la communauté est le plus important. Si cela fonctionne sur un modèle commercial, il n’y a pas besoin des fab labs en tant que tels. D’un autre côté, ils ont aussi une fonction importante : c’est un espace de rencontre et de co-working que les structures commerciales n’auront peut-être pas. Mais je ne pense pas que cela doive être gratuit. La plupart des fab labs ont peu de temps pour un usage gratuit et uniquement pour les gens qui ont d’abord payé pour un cours d’initiation. C’est plus une question d’accès pour tous. La plupart du temps, si vous venez un jour dit “gratuit”, vous pouvez attendre longtemps avant d’avoir une machine. Ou vous devez réserver deux mois à l’avance.

L’écrivain anglais J. G. Ballard avait déjà imaginé l’issue de la question : des fab labs partout, aux mains de néo-artisans boostés à la haute technologie. C’était en 1976, dans la nouvelle L’Ultime cité :

En une génération, ils avaient réussi, comme d’innombrables communautés du même type établies autour des grandes cités, à construire leur paradis pastoral, mariage forcé d’Arcadie et d’une technologie perfectionnée. [...] À Garden city, les magasins étaient rares : tout ce dont on pouvait avoir besoin […] était commandé directement à l’artisan qui le dessinait et le fabriquait selon les exigences précises du client. À Garden City, tout était si bien fabriqué qu’il durait éternellement.

Photos CC Flickr  Paternité Atsushi Tadokoro

Robots du hackerspace de Toulouse par Ophelia Noor PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales pour Owni

Image de Une Loguy pour OWNI, téléchargez le poster.

À lire aussi : Leroy-Merlin se paye les labos citoyens ; Imprimer le réel à portée de main

Rendez-vous : FabLab Toulouse Conference du 20 au 23 octobre prochain.

]]>
http://owni.fr/2011/09/26/les-fab-labs-capitalisent/feed/ 12
Le WiFi libre dans les actes http://owni.fr/2011/09/12/le-wifi-un-bien-commun/ http://owni.fr/2011/09/12/le-wifi-un-bien-commun/#comments Mon, 12 Sep 2011 17:28:00 +0000 Ophelia Noor http://owni.fr/?p=78998

Juillet 2011. Sur un terrain de football perdu au milieu des volcans pyrénéens la Guifineta profite du soleil pour se recharger. Cette petite camionnette de l’association Guifi.net, équipée d’un panneau solaire, d’antennes WiFi, de petits routeurs et autres câbles, parcourt les routes de Catalogne pour connecter les nouveaux utilisateurs d’une des plus grande communautés WiFi en Europe.

Une trentaine de hackers, informaticiens et associatifs se sont réunis dans ce camp d’été de Garrotxa, crée en 2008 par Blackhold, une administratrice système de Guifi.net. L’objectif ? Parler réseaux, technologies sans fil, routage et bidouillages en tout genre, du coucher du soleil jusqu’à 4 heures du matin. De l’autre côté des Pyrénées, les conférences (xarlas) ont lieu la nuit, et le seul moyen de connecter la petite communauté à Internet dans cette zone montagneuse est le WiFi.

Guifi.net est né en 2004 en Catalogne, de la réunion de plusieurs projets qui cherchaient des moyens de connecter les habitants des zones blanches, ces régions rurales, montagneuses ou désertiques non desservies par les infrastructures des opérateurs par manque de rentabilité : “Nous avions commencé à bidouiller des installations en WiFi chacun dans notre coin dès le début des années 2000, explique Jose Legido, un des leaders de la communauté. Tout le monde allait vers le même but, nous avions juste à mettre nos ressources en commun pour être plus forts.”

Une stratégie qui paie puisque la petite association est devenue aujourd’hui l’un des FAI associatifs les plus dynamiques d’Europe. Tout va très vite, des premières connections locales vers un réseau de niveau régional fortement développé en Catalogne et qui s’exporte dans d’autre régions d’Espagne comme l’Andalousie et Madrid. De 5000 noeuds en 2008 on passe à près de 15000 noeuds en 2011, et le réseau ne cesse de s’étendre avec l’installation de fibre optique sur tout le territoire et des partenariats avec des petites municipalités.

L’intérêt ne réside pas seulement dans le fait de profiter d’une connexion gratuite à Internet, mais aussi de participer à la construction d’un réseau qui appartient à tous ses membres. Comme beaucoup de membres présents au camp pendant ces trois jours, José a participé au développement du logiciel qui permet permet de voir la zone où il se trouve en relief, et d’y repérer sur une carte les antennes WiFi qui sont dans sa ligne de mire.

L’association est aussi soutenue par une fondation, créée en 2008 et qui lui apporte un soutien juridique et financier : “nous avons obtenu au bout de trois ans des fonds – 50 000 euros- de la Generalitat de Catalogne pour créer notre fondation en 2008”, explique Jose Legido.

Et c’est le fondateur de Guifi, Ramón Roca, qui monte au créneau lorsqu’il s’agit d’aller défendre la neutralité du net sur le terrain politique ou de militer pour la libéralisation du spectre électromagnétique au sein de l’Open Spectrum Alliance.

Cette montée en puissance du secteur associatif dans les réseaux sans fil depuis le début des années 2000 s’explique notamment par la baisse des prix de l’électronique. Un routeur coûtait la bagatelle de quelques millions de dollars au début de l’Internet et prenait la place d’un frigidaire. Ils coûtent aujourd’hui entre 10 et 40 euros, et certains modèles n’atteignent même pas la taille d’un livre de poche, ce dont se félicite Jose Legido :

Aujourd’hui, un équipement pour se connecter en WiFi avec antenne et routeur coûte entre 70 et 150 euros. C’est un investissement très rentable quand on sait qu’on bénéficie ensuite d’une connexion gratuite à vie.

Berlin, août 2011. Cven, vieux routard parmi les hackers, mal rasé, cheveux grisonnants attachés en une longue queue de cheval, sirote une bouteille de Club Mate, la boisson préférée des hackers, derrière le bar de C-Base, la station spatiale berlinoise, vaisseau amiral des hackerspaces situé au centre de Berlin. Illuminée de néons colorés et des images du dernier Chaos Computer Camp qui passent en boucle sur un écran géant, C-Base accueille aussi depuis ses débuts une des plus anciennes communauté WiFi en Europe, Freifunk (radio libre, en VF), créée en 2002 :

J’organisais plusieurs fois par semaine des ateliers pour montrer comment se servir des routeurs, des antennes, comment programmer le logiciel. La technologie a beaucoup évolué depuis dix ans. Aujourd’hui, tout tient dans une petite boîte, il suffit juste de brancher des fils et d’installer l’antenne.

Pour Cven, l’enjeu était technique, mais également politique : “la partie Est de Berlin avait des problèmes de connexion entre le cuivre et la fibre et beaucoup de gens ne pouvaient pas avoir accès à Internet.” A la même période, Juergen Neumann, co-fondateur de FreiFunk, rencontrait de son côté les pionniers du WiFi en Europe, et la communauté londonienne de consume.net :

L’idée était de fonder une méta-communauté la plus décentralisée possible pour échanger et partager nos savoirs avec d’autres communautés en Europe et dans le monde. Nous voulions innover, rechercher, créer, échanger, en mode DIY (ndlr : Do it Yourself) et open source.

Cven ajoute, très fier : “Nous avons créée notre propre logiciel, le FreiFunk Firmware, utilisé partout dans le monde, mais également notre propre protocole de routage B.A.T.M.AN.” En l’espace de quelques années, la communauté des hackers berlinois a de fait créé un modèle qui s’est exporté dans le monde entier : ses avancées techniques -sur les routeurs et les antennes-, leur conception -ils ont travaillé avec des designers- et la coordination de rencontres internationales des communautés WiFi de Copenhague à Dharamsala en 2006 font encore aujourd’hui référence.

Très vite ces communautés de réseaux sans fil communautaires (on en dénombre une quinzaine en France) ont rédigé des règles de bonne conduite, des constitutions qui définissent ces réseaux. Les utilisateurs sont d’accords pour partager leur connexion et faire circuler les données entre eux, sans porter atteinte aux contenus.

En 2005, Ramon Roca, fondateur de Guifi.net et aujourd’hui Président de la fondation, publia de son côté en 2005 le Comuns Sensefils (Wireless Commons License, en anglais, licence des biens communs sans fil, en VF). Tous les textes de ces réseaux associatifs, décentralisés, porteur de la culture du et des valeurs du culture Libre, ont une valeur universelle et peuvent être repris et adaptés par n’importe quelle communauté dans le monde.

Reste à savoir si ces réseaux communautaires connaîtront le succès des logiciels libres ou encore des Creative Commons. Pour Rop Gonggrijp, fondateur du premier fournisseur d’accès à Internet XS4ALL, l’avenir appartient aux petites structures, décentralisées et flexibles. “Le FAI du futur ressemblera plus à celui des années 90. Nous nous éloignons de l’individualisme et du modèle des grandes structures et les communautés qui survivront seront celles qui auront créé leurs propres réseaux.”


Photos, Ophelia Noor, cc-by-nc-sa
Camp d’été SCG, Garrotxa, Juillet 2011
C-Base, Berlin, Août 2011

À lire aussi : Le WiFi libre entre en résistance

]]>
http://owni.fr/2011/09/12/le-wifi-un-bien-commun/feed/ 15
Les chaleurs du festival Burning Man http://owni.fr/2011/09/06/dans-la-chaleur-du-festival-burning-man/ http://owni.fr/2011/09/06/dans-la-chaleur-du-festival-burning-man/#comments Tue, 06 Sep 2011 12:56:39 +0000 Clément Baudet http://owni.fr/?p=78299 MAJ : Le Burning man dans une (belle) vidéo ? C’est comme si vous y étiez et c’est ici.

Tous les ans, au début du mois de septembre, se déroule dans le désert du Nevada le fameux festival Burning Man [en]. Projet collectif un peu fou qui existe depuis plus de vingt ans. La dernière édition s’est achevée la nuit dernière. Cette gigantesque fête collaborative qui prend sa source sur la côte Ouest des États Unis est liée à l’émergence des industries du web dans la Silicon Valley. Une fois cher payée l’entrée, économie du don et culture jamming et Do It Yoursef (DIY, fais-le toi-même) sont joyeusement pratiquées pendant sept jours dédiés à la création. La ville éphémère de Black Rock City attire aujourd’hui de plus en plus de geeks et autres fous de nouvelles technologies. Exemple parfait des liens qui existent entre les hippies de San Francisco et les dirigeants de Google…

Burning Man c’est un peu une incarnation de la Zone d’Autonomie Temporaire d’Hakim Bey, avec couleurs, costumes excentriques, installations artistiques, numériques et pyrotechniques hors du commun, voitures mutantes (art cars) tout droit sorties de MadMax errant dans un décor post-apocalyptique, interdiction de pratiquer toute transaction commerciale pendant le rassemblement… Black Rock City [en] est un « espace autre », recréé ex-nihilo par des milliers de « burners » qui forment cette ville qui devient alors la troisième plus grande du Nevada.

La première fois que j’en ai entendu parler, c’était en 2009. Des amis me montrent sur YouTube quelques vidéos qui posaient ce cadre. Scotché, j’ai passé la nuit à regarder des photos. Une chose était sûre, il fallait que j’y sois là-pour la prochaine édition. Grâce à CouchSurfing [en], – le site Internet d’hospitalité qui permet de squatter, partout dans le monde, un canap’ pour la nuit – je trouverai une place dans un véhicule pour me rendre sur la playa, cette vaste étendue désertique d’où émerge Black Rock City.

Black Rock City, ville éphémère

Expérience communautaire ou utopie urbaine, je ne savais trop quoi penser en arrivant dans la ville. Organisée en arc de cercle ouvert sur le désert, on s’y repère comme sur un cadran d’horloge imaginaire. C’est au centre de que s’élève le man, véritable axis mundi, centre spatial et temporel du rassemblement : une effigie en bois de forme humaine de plus de vingt mètres de haut qui sera brûlée le samedi soir dans une festive effervescence. Black Rock City est une grande bourgade qui possède un aéroport, un bureau de poste, des journaux quotidiens (comme le Black Rock Beacon [en]), plusieurs stations de radio, et de nombreux autres services rendus possibles par la participation bénévole des burners. Il y a même un éclairage public ! Les lamp lighters [en] allument tous les soirs des lampes à huile le long des plus grandes « avenues » de la cité.

Loin de ressembler à une vaste anarchie, dix principes servant de référence se sont progressivement imposés à Black Rock City, sorte de contrat social informel adopté par les participants. Pratique du don, libre expression de soi, autonomie de chacun sont encouragés en mettant l’accent sur la solidarité, la responsabilité écologique et la communauté. Selon la devise « leave no trace », les burners sont invités à protéger cet espace naturel en ne laissant aucune trace physique. Après l’événement, une équipe de bénévoles passe plusieurs semaines le site au peigne fin.

L’absence de relation marchande est ce qui frappe le plus. Excepté pour l’achat de la glace ou du café, l’argent est banni et chacun doit apporter de quoi survivre dans des conditions climatiques difficiles (chaleur, fréquentes tempêtes de poussière) et être autosuffisant en eau et en nourriture.

This is not a consumer event. No spectator, participant only !

Mais ça va plus loin que ça. Burning Man repose sur l’idée de l’inclusion radicale et de la participation active de chacun. Certains offrent des poèmes, de la nourriture (des pancakes servis tous les matins en plein désert, si c’est possible !), d’autres organisent des concerts, des jeux absurdes, construisent de manière collective des installations artistiques, des camps à thème, projettent des films, se déguisent ou se baladent plus simplement à poil… Une stimulation de la créativité et de l’imagination qui ramène en enfance, assis devant une feuille blanche, la trousse remplie de crayons de couleur. J’ai ainsi distribué aux burners des citations de philosophie, écrites à la main dans de petites enveloppes. Au gré des rencontres, des surprises, des déambulations sans fin dans ce parc d’attraction pour adultes, gigantesque musée d’art contemporain à ciel ouvert. La musique, à dominante électronique, accompagne jusqu’au petit matin les danseurs et la diversité sonore [en] présente sur la playa ravit toutes les oreilles.

La nuit tombée, l’émerveillement visuel vous saisit de plus belle. The Serpent Mother, une sculpture géante du groupe d’artistes Flaming Lotus Girls [en], représentant un serpent enroulé autour de son œuf, crache du feu. Sous un gigantesque dôme, Thunderdome – oui, le même que dans le troisième volet de la trilogie Mad Max ! -, des burners s’affrontent. J’avoue avoir passé plusieurs nuits à jouer au Groovik’s Cube [en], une installation numérique lumineuse inspirée du célèbre jeu Rubik’s Cube. Trois personnes pouvaient faire tourner les axes du cube à partir de d’emplacements situés autour de la structure.

De la Cacophony Society à Google

Lorsque Larry Harvey et son ami Jerry James ont construit en 1986 une effigie en bois pour la brûler à Baker beach au pied du Golden Gate Bridge à San Francisco, ils ne se doutaient pas qu’ils allaient donner naissance à un tel mouvement. Parce que c’est bien d’un mouvement dont il s’agit. Rassemblement incontournable pour les jeunes et les moins jeunes de la baie de San Francisco, Black Rock City comptait plus de 50 000 personnes en 2010. Parallèlement, des centaines évènements similaires se développent et s’organisent à l’échelle locale, aux États-Unis et ailleurs, autour des mêmes principes. C’est le festival Nowhere en Espagne, le Kiwiburn en Nouvelle Zélande ou l’Afrikaburn en Afrique du Sud.

Brian Doherty raconte avec passion la genèse de cet homme en feu dans son livre This is Burning Man [en]. En 1990, suite à l’interdiction par les autorités locales (la Local Park Police) de brûler le man sur la plage de Baker Beach, il fut démonté et transporté au Zone Trip [en], un événement artistique organisé en plein désert de Black Rock par un regroupement d’excentriques urbains néo-situationnistes de San Francisco : la Cacophony Society [en].

Chaque année, le nombre de participants va doubler pour atteindre 4.000 personnes en 1995. Rassemblement anarchique à ses début, espace de liberté totale dédié aux expérimentations, même les plus dangereuses (le port d’arme n’était pas interdit et Brian Doherty raconte bien les accidents des premières années), les participants vont vite créer une organisation à but non lucratif pour lui permettre de croître et surtout de perdurer. Aujourd’hui la Burning Man Organization [en] emploie une trentaine de personnes à l’année et comprend un comité exécutif de six membres permanents (dont le cofondateur Larry Harvey) responsable des obligations légales et financières de Burning Man. Le billet d’entrée à Black Rock City varie en fonction de la date d’achat et s’élève aujourd’hui entre 210 et 300 dollars. Il permet de financer les installations sanitaires et médicales de Black Rock City et de reverser de nombreuses bourses [en] pour les projets artistiques.

Si certains anciens burners que j’ai rencontrés déplorent le succès de Burning Man, il reste un lieu unique de création et de libre expression. En 1995, Matt Wray décrivait Black Rock City comme un patchwork inégalé de la contre-culture américaine :

Toutes sortes d’espèces coexistent ici, une encyclopédie vivante de sous-culture : des survivants du désert, des primitifs urbains, des artistes, des rocketeers, des hippies, des Deadheads, des queers, des pyromanes, des cybernautes, des musiciens, des harangueurs, des frappés de l’éco, des têtes d’acide, des éleveurs, des punks, des amoureux des armes, des danseurs, des amateurs de sado-maso, des nudistes, des réfugiés du mouvement des hommes, des anarchistes, des raveurs, des transgenres et des spiritualistes New Age

Hippies 2.0 : Silicon Man et Burning Valley

Mais ce n’est pas un rassemblement de hippies traditionnels comme le donne à voir un des épisodes de South Park [en]. Il attire rapidement des ingénieurs en nouvelles technologies de la baie de San Francisco qui surfent sur la dot-com bubble [en]. En novembre 1996, Bruce Sterling publiait dans Wired magazine un article [en] sur Burning Man dans lequel il comparait Black Rock City à « une version physique d’Internet ». Cet événement va ainsi rapidement devenir la destination phare pour les nouvelles élites de l’informatique [en].

De nombreux ingénieurs des environs de Palo Alto s’y rendent régulièrement comme le soulignent les études de Fred Turner, Robert Kozinets et Lee Gilmore [lien ?]. Parmi ces digerati, Jeff Bezos, directeur fondateur d’Amazon.com, Larry Page et Sergey Brin, fondateurs de Google, participèrent plusieurs fois. L’origine des logos à thème de Google serait même directement lié à leur voyage en 1998.

Howard Rheingold, théoricien de la notion de « communauté virtuelle » (The Virtual Community, 1993) et spécialiste dans l’étude des rapports entre et l’homme et les nouvelles technologies, s’y rend lui tous les ans. Il dévoile les projets artistiques qu’il y prépare chaque année sur son compte Twitter.

Les liens entre le Silicon Man et la Burning Valley [en] sont évidents : ils s’inscrivent dans la même zone géographique et rassemblent les mêmes participants. Preuve à l’appui : cette vidéo (de 37 minutes !) réalisée en 2007 par deux employés de Google qui nous apprennent comment cuisiner à Burning Man.

Mais comment expliquer que les dirigeants et les employés des plus grandes entreprises du web décident d’aller passer tous les ans une semaine au milieu de nulle part ? Le journaliste Quentin Noirfalisse rappelle bien que la cyber-culture prend ses racines dans les mouvements contre-culturels de la fin des années 1970. Synthèse de la culture alternative et de la techno-culture, Burning Man est un sujet de discussion sur Internet dès 1994, notamment sur The WELL, première communauté virtuelle créée par Stewart Brand, célèbre éditeur de la revue Whole Earth Catalog. Larry Harvey a lui aussi abordé en 1997, dans un discours un rien prophétique, les liens de continuité entre Internet et Burning Man :

Burning Man et Internet offrent tous les deux la possibilité de rassembler de nouveau la tribu de l’humanité, de parler à des millions d’individus dispersés dans la grande diaspora de notre société de masse.

Internet et Burning Man : zones d’inclusion radicale

Selon les recherches de l’anthropologue américaine Lee Gilmore, « pour la communauté de Burning Man, Internet va être un outil essentiel pour organiser, communiquer et construire Black Rock City. Les burners de tous les coins du monde restent connectés toute l’année à travers de nombreuses mailinglists globales et régionales (…) ». Parmi elles, e-playa et bien d’autres communautés en ligne comme tribe.net, livejournal.com et Facebook, dont la page de Burning Man compte plus de 241 990 amis. À Black Rock City, comme dans le cyberespace, les burners portent des playa names [en], pseudonymes de circonstance donnés généralement par d’autres burners et depuis 2003, un Burning Man virtuel, – Burning Life – est organisé dans Secondlife au début du mois d’octobre. Un rassemblement d’avatars qui brûlent un man digital dans un décor désertique. Oui, on peut le dire, Burning Man est un vrai rassemblement de geeks créatifs.

Si le développement d’Internet et de son industrie semble lié à l’émergence de Burning man c’est qu’il existe des convergences de valeurs ou convergences culturelles pour reprendre le terme du professeur Henry Jenkins [en]. Black Rock City est peut-être bien une incarnation physique d’Internet comme le déclarait Bruce Sterling. Ce rapprochement est repris par Lee Gilmore : « Internet est le secteur dans lequel la frontière entre participant et observateur et surement la plus obscure, et Internet comme Burning Man sont des zones d’inclusion radicale et le libre expression. » L’interactivité, la participation promue à Burning Man est alors la même que celle du web 2.0.

Certaines entreprises n’hésitent pas à payer des billets à leurs employés pour s’y rendre, dans une démarche professionnelle susceptible d’augmenter leur créativité comme le relève [en] Vanessa Hua, journaliste au San Francisco Chronicle. Pour des entreprises qui recherchent l’innovation, cette incroyable créativité est une véritable mine d’or, à tel point que Chris Taylor publiait en 2006 un article [en] sur le sujet dans le Businnes 2.0 magazine en incitant les lecteurs à venir découvrir et participer. C’est aussi un lieu de rencontre, qui permet de se faire des contacts. Vanessa Hua souligne qu’il est relativement tabou d’y parler boulot ou argent, mais que les contacts se nouent facilement dans ce cadre informel où chacun, libéré des hiérarchies du monde réel, est à même de déployer toute sa créativité en plein désert. Sympa comme cadre de rencontres professionnelles.

Une infrastructure culturelle pour la Silicon Valley

Fred Turner, professeur de communication à l’université de Stanford analyse les liens qui existent entre cet événement et l’émergence des industries en nouvelles technologies de la Silicon Valley. Burning Man est selon lui, une infrastructure culturelle qui permet l’émergence de nouvelles fabrications de médias (new media manufacturing). Cette infrastructure culturelle repose sur une organisation collaborative du travail, la common-based peer production [en] théorisée par Yochai Benkler de l’Université d’Harvard, lui-même auteur de La Richesse des réseaux (2006), où il analyse les manières dont les technologies de l’information et de la communication permettent des formes augmentées de collaboration qui transforment l’économie et la société. On est pas loin des smart mobs d’Howard Rheingold, son livre sur les potentialités des nouvelles technologies pour augmenter l’intelligence collective.

Cette organisation collaborative du travail se retrouve à la fois dans des projets Open source, les licences Creative Commons, dans Wikipédia, et également à Burning Man : Il est possible de participer, en écrivant un article, en apportant un savoir-faire, qui est « donner » à la communauté, dans la même logique qu’une installation artistique ou une performance réalisée à Burning Man.

En prenant l’exemple de Google, Fred Turner dans son article (en ligne [pdf, en]) démontre de quelle manière Burning Man peut être considéré comme un support idéologique aux nouveaux modes de productions mis en œuvre dans la Silicon Valley.

Turner dénonce cette nouvelle d’organisation du travail qui fusionne épanouissement personnel et professionnel, lieu de travail et lieu de vie, temps de travail et temps de loisir. Loin d’une visée purement humaniste, elle permettrait d’augmenter la productivité et la créativité des employés. En témoignent les installations artistiques et numériques réalisées de manière collaborative, ou des programmes comme Burning Man Earth, un projet réalisé par des burners développeurs et programmateurs informatiques avec l’équipe de Google Earth. L’objectif ? Permettre une visite virtuelle en 3D de Black Rock City tout en développant (bénévolement bien sûr) de nouveaux outils pour la plateforme de Google Earth.

Burn, baby burn ! Mais qui est cet homme qui brûle ?

Cette effigie en bois n’est pas sans rappeler The Wicker Man, ce mauvais film d’horreur de 1973, mais Larry Harvey affirme n’avoir pas vu le film lorsqu’il y mit le feu pour la première fois. Que représente-t-elle alors ? Quel sens peut-on y trouver ? François Gauthier, professeur d’anthropologie à l’UQAM à Montréal considère que Burning Man, c’est « l’indétermination de sens qui est la condition de possibilité de la communauté ». Le man, cette sculpture de forme humaine au genre neutre, n’a aucune signification préétablie. Mais le succès de ce rassemblement réside peut-être dans le fait qu’il nous dit quelque chose de notre époque, qu’il fusionne l’héritage de la contre-culture hippie et la cyber-culture, s’inscrivant dans le développement d’Internet et des nouvelles technologies. Le man, comme un totem post-moderne, ne serait alors que le symbole du changement et du dépassement.

Et cette volonté, cette force de création, peut faire penser à l’euphorie technophile qui se retrouve dans le mouvement transhumaniste. On aperçoit d’ailleurs des images de Burning Man en introduction de TechnoCalypse, documentaire de Frank Theys consacré au transhumanisme. Grâce aux nouvelles technologies, il est aujourd’hui possible de transcender les limites humaines, tel serait le message. L’homme est aujourd’hui capable de se transformer, et il n’y a qu’un pas entre la création numérique, informatique et biologique. “Humain, trop humain” écrivait Nietzsche, Burning Man professerait-il l’avènement d’une l’humanité 2.0 ?

Cliquer ici pour voir la vidéo.

Et toi, lecteur d’OWNI, ça te dis d’aller faire un tour à Black Rock City ? N’oubliez pas vos googles goggles (lunettes anti duststorm) et see you on the playa ! ;)


Cliquer ici pour voir la vidéo.


N.B : Un grand merci à @aSciiA pour son aide à la rédaction de cet article.

Crédit photos : FlickR CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par foxgrrl par zenzineburner ; par Michael Holden par zenzineburner; DR Google; par jonandesign; par Halcyon

]]>
http://owni.fr/2011/09/06/dans-la-chaleur-du-festival-burning-man/feed/ 0