OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet: la métaphore file http://owni.fr/2011/07/06/internet-la-metaphore-file/ http://owni.fr/2011/07/06/internet-la-metaphore-file/#comments Wed, 06 Jul 2011 11:03:57 +0000 Emmanuelle Erny-Newton http://owni.fr/?p=70594

Attentat à Marrakech : L’auteur présumé s’est formé sur Internet

Ceci est le titre d’un article de France Soir, publié début mai. Un titre qui avait accroché l’internaute positive que je suis : “Et s’il avait acheté un livre pour fabriquer ses bombes, aurait-on titré Marrakech : l’auteur présumé s’est formé dans un manuel ?”

La boutade n’est pas anodine et révèle en fait quelque chose de central dans la façon de penser le Web. Chacun de ces titres utilisent des métaphores différentes pour parler d’Internet : ma version sarcastique décrit Internet comme un moyen d’information ; le titre original de France-Soir fait allusion à Internet comme un lieu – et qui plus est un lieu dérèglementé, sauvage, puisqu’on y trouve la recette des bombes. Un lieu assimilé à un endroit physique, puisque c’est là que l’auteur a appris à faire des bombes (pas dans sa cuisine, à l’aide d’un document ou d’une vidéo en ligne). Internet est un repère de malfaiteurs.

Sous des dehors neutres – on cite des faits, “l’auteur s’est formé sur Internet” – les mots utilisés véhiculent en fait toute une représentation d’Internet. Ce qui fait la force et le danger d’une métaphore, c’est  sa dimension inconsciente.

De la rhétorique à la linguistique cognitive

L’idée de persuader une audience par le maniement de la langue n’est certainement pas neuve : la rhétorique ne date pas d’hier. Ce qui est nouveau, cependant, c’est la découverte de l’assise neurologique de la pensée métaphorique. Le spécialiste de la recherche en ce domaine est George Lakoff, un linguiste cognitiviste.

Comme Lakoff l’explique, l’être humain “fait du sens” avec son environnement grâce à des séries de métaphores élaborées à partir de métaphores primaires que nous formons dans l’enfance. Par exemple, un bébé qui pleure est pris aux bras par son père. Cela le calme, il fait l’expérience simultanée, et répétée durant toute son enfance, du réconfort émotionnel et de la chaleur des bras paternels. Or, comme le décrit la loi de Hebb “Neurons that fire together wire together” (“des neurones qui sont stimulés ensemble se lient ensemble”).

C’est ainsi que les notions de chaleur et de (ré)confort émotionnel en viennent à être liées neurologiquement ; ce qui se traduira linguistiquement par des expressions métaphoriques tellement quotidiennes qu’on n’a même plus conscience qu’elles le sont : on dira qu’on a été reçu avec beaucoup de chaleur, ou d’une personne, qu’elle est chaleureuse.

Au fur et à mesure que l’individu se développe, ces métaphores primaires se combinent pour en créer d’autres, plus complexes. Des scénarios particuliers émergent de cadres (frames) cognitifs prototypiques, chacun y positionnant ses héros, ses méchants… le tout articulant la façon dont on pense.

Voici un exemple de mise en place d’un cadre et d’un scénario métaphorique dans un débat sur Internet et création ; il est particulièrement frappant :

Alors que Félix Tréguer de La Quadrature du Net tentait de finir une phrase pour défendre le partage des œuvres culturelles numériques, Thierry Solère, chargé des questions internet à l’UMP l’interrompit avec cette phrase : “Prendre une œuvre créée par quelqu’un qui vit de sa création, gratuitement alors qu’elle est payante, c’est tuer le créateur.”

A l’image d’Internet lieu de partage, la réflexion de Solère oppose et impose un scénario métaphorique où le méchant est bien repéré – un méchant absolu, puisque c’est un assassin, rien de moins. La victime est également bien choisie : ce n’est pas l’industrie (du livre, du disque ou du film), c’est le créateur (avec toutes les connotations divines que cela peut faire résonner).

De tels scénarios issus de cadres particuliers ont un impact énorme (et jusqu’à récemment, insoupçonné) sur la façon dont nous décryptons le monde autour de nous, ainsi que dans les décisions que nous prenons quotidiennement.

Imaginons que vous êtes gravement malade et que vous avez à choisir de subir ou non une opération. (…) Dans le cas A, on vous dit que vous avez 10 % de chances de mourir pendant l’opération. Dans le cas B, on vous dit que vous avez 90 % de chances de survivre. Le cas A vous donne un cadre de décision en terme de mort. Le cas B cadre la décision en termes de survie.  Littéralement, c’est la même chose. (…) Mais l’expérimentation montre que beaucoup plus de gens se prononcent en faveur de l’opération lorsque celle-ci est présentée dans le cadre cognitif de la survie que dans celui de la mort. (Lakoff G., The Policital Mind, 2008, p. 224, ma traduction).

C’est pour cette recherche qu’en 2002, Daniel Kahneman, un psychologue cognitiviste, recevait le prix Nobel d’économie. Pour avoir mis en évidence que le raisonnement humain est bien éloigné du modèle de l’“acteur rationnel” qui prédominait jusque là en économie.

Exit l’homo economicus

Héritage du siècle des lumières, la pensée humaine était considérée comme avant tout guidée par la réflexion, un processus lent, sériel, gouverné par des règles et demandant un effort conscient. La pensée humaine, dit Kahneman, n’est pas de l’ordre de la réflexion mais du réflexe : c’est un processus cognitif rapide, inconscient (98 % de nos pensées sont inconscientes), et associatif.

Alors que la rhétorique est depuis longtemps tombée en désuétude (qui l’étudie encore ?), la neurologie et les sciences cognitives modernes nous réveillent brusquement à l’impact réel qu’elle a sur nos vies : le choix de métaphores dans le discours public pour parler d’une chose, et le cadre sélectionné pour en parler, influencent directement la façon dont le public pense cette chose. Comme le résume élégamment Judith E. Schlanger dans Les métaphores de l’organisme :

Une façon de parler devient une façon de penser.

Dans le discours autour d’Internet particulièrement, les métaphores sont omniprésentes. Internet est à la fois un concept technologique complexe et un medium utilisé par un public souvent novice. Son vocabulaire a dû s’adapter à cette double contrainte, puisant largement dans l’analogie au familier pour expliquer la nouveauté.

La métaphore la plus répandue pour décrire Internet et celle d’un espace, un lieu : Adresse courriel, site qu’on visite, hébergeur de blog, internautes, cyberespace… Le Internet mapping project de Kevin Kelly (co-fondateur du magazine Wired) en dit également long, tout en images. L’“espace Internet” peut être terrestre, ou maritime : surfer, naviguer, pirates, flux, ancre, filtre, hameçonnage, Netscape Navigator, eBay…

Denis Jamet, de la Faculté des Langues à l’université Lyon 3,  note également “l’utilisation (métaphorique) quasi-exclusive de la préposition sur pour parler d’Internet : aller sur Internet, surfer sur Internet, être sur msn, le mettre sur son blog, etc., préposition qui selon Johansson [2006 : 86] “correspond bien à l’absence de limites d’Internet et aux frontières vagues de ce lieu fictif”, en d’autres termes, qui marque encore la vastitude.”

La métaphore maritime insiste sur certains traits précis d’Internet : un lieu immense, en mouvement perpétuel (flux d’information), sur lequel l’Homme n’est qu’un visiteur de passage. Un lieu sauvage – et par conséquent dangereux (pirates, hameçonnage). On retrouve aussi cette idée de danger dans les termes terrestres : Cheval de Troies, ver, virus…

Le fait de voir Internet comme un lieu, et non comme un simple medium a des retombées très concrètes :

La façon dont nous choisissons nos métaphores (…) a d’importantes ramifications légales et politiques : l’analogie est l’un des chemins le plus souvent emprunté pour les prises de décision juridiques et politiques, en matière de changement technologique. (Lokman Tsui, An Inadequate Metaphor: The Great Firewall and Chinese Internet Censorship traduction de l’auteur)

Un exemple récent nous est fourni par l’Union Européenne et sa réflexion par rapport à la création d’un “Great firewall” (mur pare-feu) autour de ses frontières.

Internet possède également tout un vocabulaire qui tourne autour des loisirs : surfer, butiner, réseaux sociaux, amis… Ceci s’oppose au vocabulaire “de travail” développé pour parler de l’ordinateur : bureau, dossiers, corbeille, etc. On peut se demander si ces choix lexicaux, qui situent Internet comme essentiellement ludique, et l’ordinateur comme “plus sérieux” ne guident pas certaines politiques éducatives : l’école accueille volontiers la machine, mais est plus partagée sur les bénéfices pédagogiques du Web. Si certains sites “officiels” sont les bienvenus en classe, le web social ou Web 2 continue de susciter la méfiance.

Un site “officiel” (de type .gouv), dont le contenu est fixe et non modifiable (ou commentable) par les utilisateurs se rapproche suffisamment d’un livre pour être perçu comme sûr. Les sites du Web 2, par opposition, sont vus comme peu sûrs à tous les niveaux :  si l’on peut commenter, ajouter du contenu, le site n’est plus un espace où l’on passe, ou un document (medium) qu’on consulte : c’est un endroit où l’on vit (ce que la chercheuse Annette Markham appelle “a way of being”, une façon d’être).

Au niveau du Web 2, la question de l’intégration des nouvelles technologies à l’éducation ne se pose pas en termes d’intégration du Web à la classe, mais d’intégration de la classe au Web. Ce n’est pas un mince changement, et cela demande certainement encore du travail en matière d’élaboration métaphorique positive.

Lorsque nous parlons d’Internet et des technologies de la communication, les choix discursifs que nous faisons ont de réelles et tangibles conséquences sur la forme et la perception de ces technologies. Plus important encore : nos cadres discursifs étant omniprésents dans notre langage quotidien,  des alternatives se retrouvent subséquemment oubliées ou écartées. A ce stade de développement des technologies de l’Internet, il est vital de considérer quelles capacités et possibilités sont mises en valeur à travers nos constructions métaphoriques, mais également quelles capacités et possibilités ces constructions métaphoriques font disparaître. (Annette Markham, Metaphors Reflecting and Shaping the Reality of the Internet: Tool, Place, Way of Being)


Crédits photo FlickR CC by-nc-nd Graig Glober / by-nc-sa cookieevans5 / by karen horton

]]>
http://owni.fr/2011/07/06/internet-la-metaphore-file/feed/ 13
“Allo, c’est Google Translate” http://owni.fr/2011/04/18/allo-c-est-google-translate/ http://owni.fr/2011/04/18/allo-c-est-google-translate/#comments Mon, 18 Apr 2011 08:30:30 +0000 h16 http://owni.fr/?p=57181 Pendant que les politiciens s’agitent puérilement, de moins en moins synchrones avec le reste du monde, ce dernier continue, lui, sa marche tranquille vers l’abaissement concret des frontières entre les hommes. J’ai déjà évoqué, dans deux précédents billets, cette notion de singularité, moment de basculement historique où l’humanité verra émerger une véritable « intelligence » de la part des machines. Aujourd’hui, une nouvelle étape, modeste mais prometteuse, vient d’être franchie dans les technologies de communication entre les peuples.

C’est jeudi 10 février qu’un article est assez discrètement paru, décrivant la nouvelle application de traduction Google à la volée. Attention, je ne parle pas ici de la maintenant célèbre traduction Google en ligne, mais de sa version mobile et à partir de la reconnaissance vocale.

L’idée générale est la suivante : en utilisant l’application mobile sur un téléphone Android, un utilisateur peut capter et enregistrer les paroles d’une tierce personne, les envoyer, toujours par téléphone, à Google, qui se charge ensuite de traduire dans un langage ciblé et de renvoyer le texte résultant pour qu’il puisse être, au choix, lu par l’utilisateur sur son écran ou entendu directement par le téléphone.

En pratique, le son enregistré est envoyé dans un format idoine aux serveurs de Google qui se chargent ensuite de rapidement découper les phonèmes en accord avec la langue source choisie par l’opérateur du téléphone. La puissance de calcul des serveurs du géant californien (un gros million, tout de même) lui permet d’assurer une assez bonne analyse vocale. Une fois le son transcrit dans un texte à peu près cohérent, la même puissance de calcul et la base statistique établie sur des millions de textes permet d’obtenir une traduction à peu près correcte. Soit le texte est renvoyé au téléphone (qui peut se charger assez facilement de la synthèse vocale) soit la synthèse est directement effectuée depuis les serveurs avant d’être renvoyée, prête à l’écoute, sur le téléphone.

Quelques remarques

Oui, la qualité de l’analyse vocale est perfectible. On est encore loin de l’oreille humaine.
Oui, la qualité de la traduction à la volée est encore un peu faible. Très suffisante pour les conversations de base où il s’agit essentiellement de demander son chemin, négocier un prix dans une boutique ou d’obtenir des informations de base, ce système, on s’en doute, n’est cependant pas suffisant, et loin s’en faut, pour permettre une relation commerciale, diplomatique ou amicale plus poussée…
Oui, le temps de latence générale pour obtenir la traduction est encore suffisamment important pour tuer proprement toute spontanéité dans l’échange.
Et oui, enfin, il est évident que l’interface utilisateur proposée est encore rudimentaire et manque de souplesse. Les manipulations tactiles sont encore importantes pour corriger les approximations que font les machines.

Vers la traduction sans latence

Mais prenons, si vous le voulez, un peu de recul, pour apprécier d’où l’on vient, avant d’envisager regarder de l’autre côté, et d’estimer où l’on va et à quel rythme.

Il y a 10 ans, en 2001, Google avait 3 ans et 3 milliards de pages indexées. La quantité de données disponibles n’étaient pas encore suffisante pour ne serait-ce qu’imaginer une traduction purement textuelle de l’anglais vers le français, sans que le résultat ne fasse franchement rire.

Il y a 10 ans, le débit moyen disponible dans la plupart des pays pour l’utilisateur lambda frôlait hardiment les 56 kilobits par seconde.

Il y a 10 ans, il y avait 1 milliards d’abonnés au mobile, mais très rares étaient ceux qui pouvaient accéder à internet avec.

Le monde en 2009: faits et chiffres relatifs aux TIC - Source UIT

Aujourd’hui, Google a indexé 3000 milliards de pages, les traductions fonctionnent pour une dizaine de langues et les résultats rudimentaires obtenus, s’ils n’ont bien évidemment pas la qualité de traducteurs professionnels, n’en sont pas moins utiles pour les petits travaux de tous les jours : qui n’a jamais acheté sur internet dans un pays étranger, quitte à faire traduire le site ou la correspondance -facture inclue- depuis une langue inconnue vers la sienne ?

Aujourd’hui, il y a plus de 5 milliards d’abonnements à la téléphonie mobile, dont un demi-milliard se connectent à internet. Ces 500 millions de personnes le font en haut débit et sont, potentiellement, des utilisateurs de la technologie proposée par Google. Cette dernière, comme toutes les technologies basées sur les statistiques d’utilisation, s’enrichit et s’enrichira de toutes les expériences qui seront tentées ; autrement dit, chaque nouvelle traduction sera un élément ajouté à la gigantesque base de données permettant d’améliorer les traductions futures. Avec plusieurs centaines de milliers d’essais et corrections par jour, voire par heure, on imagine que, dans 10 ans, le système se sera grandement affiné.

Abattre la barrière du langage

L’étape suivante apparaît dès lors limpide et certains, comme chez Samsung, y travaillent déjà : la traduction à la volée, sans temps de latence, et avec une qualité bien supérieure.

Ne nous leurrons pas : il faudra encore des années pour que les traductions automatiques soient d’un niveau suffisant pour qu’on envisage sérieusement de se passer de bilingues humains chevronnés. Mais la question n’est plus du tout de savoir si on arrivera, un jour, à un tel niveau. Elle n’est d’ailleurs même plus de savoir quand, puisqu’on peut maintenant compter en années et non en décennies ou en siècles.
La question qui reste réellement est d’envisager les changements sociétaux profonds que cette technologie va offrir.

Une des barrières les plus importantes entre deux pays est en effet celle de la langue. A mesure que celle-ci s’abaisse, on imagine sans mal l’accroissement rapide, voire exponentiel, des relations commerciales, diplomatiques et humaines entre des pays auparavant éloignés. La disparition progressive des barrières douanières a, par exemple, été un excellent exemple de ces multiplications relationnelles fructueuses sur les dernières décennies. D’ailleurs, le fait même que cette technologie ait pris naissance dans un pays où l’innovation est largement encouragée, dans un contexte de mondialisation générale poussé, n’est sans doute un hasard.

J’entends déjà les esprits chagrins pleurer sur les métiers de traducteurs, d’interprètes ; oh, il leur reste encore de belles années, mais oui, effectivement, leur métier va, comme beaucoup d’autres lors des cent dernières années, disparaître. Tout comme apparaîtront sans aucun doute des métiers connexes dont on ne sait pas encore comment ils s’intègreront avec cette nouvelle donne.

Mais il semble déjà évident que le gain humain d’une telle technologie, qui n’en est encore qu’à ses balbutiements, dépassera probablement ce que l’on est en mesure de concevoir maintenant.

>> Billet initialement publié sur Hashtable sous le titre “Not lost in translation anymore”

>> Photos Flickr CC-NC-NDL PaternitéPas d'utilisation commercialePas de modification par Florin Hatmanu.

]]>
http://owni.fr/2011/04/18/allo-c-est-google-translate/feed/ 0
Le Self-Tracking: Quand les chiffres parlent http://owni.fr/2010/10/15/le-self-tracking-quand-les-chiffres-parlent/ http://owni.fr/2010/10/15/le-self-tracking-quand-les-chiffres-parlent/#comments Fri, 15 Oct 2010 16:34:48 +0000 Stéphanie Vidal http://owni.fr/?p=31724 Assise à la terrasse d’un café, j’écoute Denis Harscoat de Quantter – site de self-tracking permettant à chacun de mesurer ses efforts – me vanter la beauté et l’utilité des nombres. Avec lui, je commence mon immersion dans la communauté des self-trackers : ceux qui collectent, analysent, visualisent et partagent leurs propres données.

Je ne lui cache pas mon scepticisme premier à l’égard de cette pratique que je cherche à connaitre et à comprendre. Denis me confie:

j’ai l’habitude qu’on nous prenne pour des tarés. J’entends toujours les mêmes choses. Les gens se demandent ce que l’on peut bien faire avec les chiffres.

Je n’arrive pas à contenir un sourire. Denis ne m’en tient par rigueur et continue : ” ils répètent que la vie ce n’est pas cela, que c’est la qualité qui importe et pas la quantité. La belle affaire ! Je pense que la vie c’est la quantité, que la qualité c’est la quantité. Quand une œuvre d’art ou une bonne bouteille de vin nous émerveille c’est parce qu’elles sont riches et qu’une vaste somme d’impressions affluent simultanément à notre cerveau. La qualité ce n’est que de la quantité”. Voilà le postulat de départ. C’est donc avec quantité de mots – et même d’anglicismes – que je vais vous parler des qualités des chiffres.

Le life-logging ou la mémoire de sa vie

Avant, l’agenda et le journal recueillaient rendez-vous notés à la va-vite, gribouillis en tout genre, ratures et pensées intimes. Ils étaient les seuls à conserver les vestiges du quotidien. Désormais, diverses méthodes permettent de garder une partie ou même l’ensemble des traces qu’on laisse derrière soi. Le life-logging en fait partie.

Kevin Kelly, rédacteur en chef du magazine Wired, le définit comme l’action “d’enregistrer et conserver l’ensemble des informations de la vie d’une personne. A savoir la totalité des textes, des images et des documents audios qui la concerne mais aussi le rapport qu’il entretient aux différents médias et l’intégralité de ses donnés biologiques relevées par des capteurs apposés à même le corps. L’information, archivée au profit du life-logger, peut être partagée avec d’autres à divers degrés et selon son bon-vouloir.”

Si l’est un nom qui doit être associé au life-logging c’est celui de Gordon Bell : pionnier de la pratique mais aussi détenteur des plus vastes archives personnelles au monde. Cet ingénieur américain a intégré le laboratoire  de Microsoft Research à San Fransico en 1995 et travaille depuis sur le projet MyLifeBits qui n’est autre que l’archivage exhaustif de sa vie. L’aventure a débuté quand il a décidé de se passer définitivement du papier et donc de faire scanner l’ensemble de ses documents. Plus le projet prenait de l’ampleur et plus il importait de l’implémenter encore. On y trouve aujourd’hui des photographies d’époque et des clichés pris automatiquement par un appareil photo qu’il porte sur lui, l’ensemble des sites web qu’il a parcouru et des applications qu’il utilise sur son ordinateur, l’intégralité de ses e-mails et de sa correspondance, ainsi que les enregistrements audio de toutes ses conversations.

Pratique extrême, le life-logging n’est que l’aboutissement d’un autre concept plus répandu, le life-caching – conserver des traces et les partager avec d’autres – permis par les technologies actuelles. En recommandant un lien sur Twitter, en mettant à jour son statut sur Facebook, en postant des photos sur Flickr, nous pratiquons tous le life-caching. Certains poussent même le vice à la démarche artistique, à l’instar de Joost Plattel qui prend et poste chaque jour un cliché à 20h36 précise ou encore de feu l’artiste new-yorkais Dash Snow dont les polaroids furent les seuls souvenirs de ses nuits sous héroïne.

Les self-trackers, des individus quantifiés

Même s’ils utilisent parfois la photographie, nos self-trackers sont généralement plus obnubilés par le compteur que par le déclencheur.

Collecter des données sur soi-même n’est rien d’autre que l’équivalent geek de tenir un journal

dit Andy Cotgreave de The Data Studio. Life-logger et self-tracker collectent ainsi données et reproches. Surnommés les data-freaks, ces gentils monstres dévoreurs de chiffres font parfois peur aux bien-pensants… et aux autres. Pour expliquer leur mode de vie – et le fait qu’ils ne soient pas si différents du reste de la population – ils font souvent l’analogie entre le journaling – tenir un journal – et le data-journaling – tenir un journal avec des données. Pour autant le data-journaling n’abandonne pas que le papier; dans certains cas il se passent tout simplement des mots.

A la différence des life-loggers – qui s’adonnent à l’écriture, l’audio ou encore la vidéo – les self-trackers se concentrent surtout dans les chiffres, leur grande marotte. En effet, le self-tracking (ou l’auto-monitoring ou le personnal informatics si vous appréciez les tags affiliés) consiste à compter des paramètres de sa vie, pour ensuite pouvoir les analyser et les partager. Le self-tracking est d’abord une affaire de collecte, et donc de procédures. Pour pouvoir bien se logger, et se compter ensuite, il est important d’avoir des outils fiables et adaptés à ses besoins. Quantité d’applications sont à disposition pour ce faire. Il en existe pratiquement une dédiée à chaque activité. On peut ainsi aisément trouver son bonheur si l’on souhaite suivre ses performances sportives ou sexuelles, surveiller sa nourriture ou ses humeurs, contrôler sa santé ou ses finances.

Ces applications ne prennent généralement en compte qu’un seul paramètre et parfois quelques uns tout au plus. Sur Daytum, une des plus plateformes les connues de self-tracking, les membre peuvent customiser leur pages. Ils choisissent dès lors ce qu’ils veulent tracker – nourriture consommée, nombre de cafés bus, programmes télé regardés par exemple – et la forme visuelle (histogrammes, camemberts, etc.) sous laquelle apparaitront leurs “résultats”.

Exemple de page Daytum

Smartphones et capteurs, des outils indispensables

Si la feuille de calcul Excel reste un must, le smartphone (surtout l’Iphone, même si l’Android commence à gagner du terrain) occupe une place centrale dans la vie du self-tracker. Toujours à portée de main, il lui permet d’actualiser ses données en temps réel. Aux dires des trackers, cette pratique, supposée chronophage, ne prendrait pourtant pas plus de temps que d’écrire d’un tweet: sur le site YourFlowinData, les updates se font en envoyant un DM à @yfd.

Même s’ils se défendent que le logging manuel soit si fastidieux, les traqueurs souhaitent évidemment plus d’automatisation dans la collecte de leur données. Les capteurs – ou sensors – existent déjà mais leur usage reste encore cantonné à certaines applications. On en trouve par exemple dans les semelles des Nike+ ou sur les vélos intelligents nommés The Copenhagen Wheel. Les self-trackers rêvent en fait du moment proche où ils pourront porter des sensors – sous la forme d’une montre par exemple – qui relèveraient en continu les données et les enverraient directement aux applications en vue de leur traitement.

Concrètement, ils veulent toujours plus de chiffres et de paramètres au menu et à la carte. Certains pris au jeu tombent parfois dans un véritable piège. L’histoire d’Alexandra Carmichael, fondatrice de la plateforme CureTogether et pionnière de la pratique est éloquente. Monitorant plus de quarante paramètres quotidiennement, elle a dû mettre un terme à son tracking pour se protéger de son emprise aliénante. Dans un un article à la prose syncopée posté sur le blog The Quantfied Self, elle écrit :

Comme n’importe quel outil, le self-tracking peut être utilisé pour aider ou pour blesser. Je ne le laisserai plus être un instrument de torture. Plus. Du tout.

Une pratique qui séduit de plus en plus

Entre mesure et démesure, les chiffres n’aidaient plus Alexandra. Pourtant, ils semblent servir la majorité de ceux qui débutent et poursuivent l’aventure. S’il n’en est qu’à ses balbutiement, le self-tracking séduit déjà beaucoup de monde. En fonction des centres d’intérêts, les self-trackers se comptent en centaines, en milliers et maintenant en millions. Au mois de mai dernier, l’application RunKeeper ( qui compte entre autre distance parcourue et calories brulées, nombres de minutes de l’effort et de battements de cœur pendant celui-ci ) a dépassé les deux millions de téléchargement. Le succès de la Wii-fit en est un autre exemple.

Au début de mes recherches, j’ai ouvert un compte sur Daytum pour y suivre des paramètres simples. Je n’ai pas tenu deux jours. J’en ai déduis que le self-tracking, avant d’être un mode de vie, est une histoire de motivation. Et je n’en démords pas, une inclinaison naturelle pour la rigueur ou un caractère obsessionnel et compulsif semblent être des avantages considérables voire des qualités indéniables dans cette pratique.

Les motivations qui poussent les self-trackers à commencer leur aventure et à la poursuivre sont individuelles. Pour la majorité d’entre eux, le self-tracking est un outil qui accompagne un projet de vie permettant de s’y tenir en s’auto-surveillant en permanence. Les sportifs voulant mesurer leur performances, les malades qui doivent surveiller leur paramètres vitaux, les dodus qui suivent un régime ou les travailleurs curieux de connaitre leur productivité, y trouvent leur comptent. Pour d’autres, le self-tracking permet la réalisation de projet graphique. C’est par exemple le cas pour les designers Nicholas Felton rendu célèbre par ses “Annual Report” (voir interview) ou Florent Guerlain et son projet “Hyper, Consommation Alimentaire”.

La connaissance de soi par les nombres

Au delà de leurs motivation divergentes, les self-trackers considèrent cette méthode comme une véritable aventure. Ils font de leur vie une expérience, dont ils sont à la fois le cobaye et la blouse blanche. En confrontant les résultats de différents paramètres, ils cherchent à découvrir des choses sur eux-mêmes, à être surpris par leur comportement, à les comprendre et à les infléchir. Ils démentent vouloir correspondre à une norme mais entrer dans une communauté d’individus dans laquelle prouesses et imperfections seraient montrés avec honnêteté, ne craignant pas le regard de l’autre et le cherchant.

Car le self-tracking, pratique on ne peut plus personnelle, se déploie aussi dans l’interaction avec les autres et les trackers aiment à partager leur résultats sur le net ou en comité. Nées aux Etats-Unis, les réunions “The Quantified Self”- du nom du blog monté par Kevin Kelly et Gary Wolf de Wired – commencent à arriver en Europe. Après Londres et Amsterdam en septembre, un meeting parisien ne devrait pas tarder. Lors de ces réunions, les membres échangent des informations et présentent outils et méthodologies. Armés de présentation PowerPoint richement pourvues de graphiques, les self-trackers font le récit de leurs péripéties devant un auditoire attentif. Intérêt pour autrui ou comble du narcissisme ? A la place d’une réponse voici une autre question : peut-on parler d’exhibitionnisme dans un camp de naturiste ?

Les self-trackers rejoignent Walter Benjamin dans sa définition du bonheur : être heureux, c’est se connaitre soi-même sans avoir peur. Si The Quantified Self devait être légendé, Gary Wolf opterait pour “la connaissance de soi par les chiffres”. Le self-tracking se revendique comme une nouvelle facette de la fameuse devise socratique “connais-toi toi-même”. Les trackers envisagent à travers les chiffres, un accès inédit à soi-même, une alternative à la démarche psychanalytique. Ils préfèrent la machine au divan trouvant leur méthode bien plus féconde et efficace du fait qu’elle se passe de mots; ces mots soumis à l’équivoque, qui peuvent tromper, trahir et mentir.

L’universalité du langage mathématique

Pour les trackers le chiffre pallie les défaillances du mot, le suppléé et peut-être même le supplante. C’est même le langage dans son intégralité qui est jugé trop limité et qui est critiqué à cause de sa linéarité, sa longueur, sa subjectivité, sa capacité à être excluant. Car les langues, à contrario du langage mathématique, ne sont pas communément partagées par tous. Elles cloisonnent et limitent la communication entre les hommes, mais aussi entre les espèces. Grâce aux capteurs, les trackers espèrent même pouvoir parler numériquement avec les plantes et les animaux.

Avec les nombres, les trackers visent à une meilleure connaissance d’eux-mêmes et du monde qui les entourent. A l’instar des pionniers d’internet, ces fanas de chiffres croient qu’il faut d’abord envisager de modifier les comportements individuels avant de pouvoir bouleverser l’ordre du monde. Qu’il faut œuvrer soi-même et ensemble, pour améliorer sa qualité d’être humain, pour tendre à de meilleure conditions de vie… si ce n’est à une meilleur humanité.

Les chiffres regroupent les individus par la pratique et le partage. La confrontation des données d’un groupe de personnes volontaires peuvent être parfois bénéfiques à la communauté. Dans le domaine de la santé, les initiatives se font de plus en plus nombreuses. Grâce à des sites comme PatientsLikeMe, les malades s’organisent pour mener leurs propres études. Alexandra Carmichael rapporte par exemple que des patients souffrant de sclérose latérale amyotrophie ont décidé d’observer l’effet du Lithium sur la progression de leur maladie. Qu’ils en prennent ou non, les malades ont répertoriés leurs données. La comparaison des progrès des deux groupes n’a pas été concluante mais jamais aucune étude médicale sur la SLA n’avait réuni autant de patients, et n’avaient obtenu de résultats aussi rapidement, pour si peu d’argent.

De la vie privée à l’attention publique


Il existe aujourd'hui d'autres moyens de tout enregistrer

Agir sur soi-même pour agir sur le monde, c’est aussi remettre en cause les systèmes établis et non pas uniquement celui de la langue. Les feuilles de calculs sont généralement le pré-carré des scientifiques, des économistes, des comptables, des gouvernants et des commerciaux. En s’emparant des méthodes de ces derniers et en pistant eux-mêmes leurs chiffres, les self-trackers prétendent en fait désamorcer la tyrannie d’un système qui nous demande de faire toujours plus de chiffres ou qui nous en affublent sans cesse.

Quittes à être trackés par les gouvernements et chiffrés à mauvais escient par les entreprises, les self-trackers préfèrent autant le faire eux-mêmes. Considérant le self-tracking comme une subversion, les datactivistes ont décidé de prendre le contrôle de leur données. C’est le cas par exemple de l’artiste Hasan Elahi (voire l’article) qui à mis l’ensemble de ses données personnelles sur le site Tracking Transience permettant au FBI de tout savoir sur lui tout en dévaluant ces informations par leur nombre et leur accessibilité.

Mais on peut légitimement se demander si les chiffres utilisés pour contrecarrer le système ne pourraient pas se retourner contre les self-trackers. Mark Zuckerberg co-fondateur de Facebook annonçait au début de l’année 2010 que l’époque de la vie privée était révolue. Les questions concernant la vie privée sur Internet ne cessent d’être posées sans pour autant trouver de réponses. Mais qu’en est-il de la vie privée quand celle-ci s’exprime par des chiffres? Y-a-t-il des paramètres qui doivent rester confidentiels, quand d’autres peuvent être largement communiqués ? Encore une fois, les réponses sont à inventer car la pratique est encore neuve et nous n’avons rien d’autres à offrir que des suppositions.

Les self-trackers, eux, ne paraissent pas très inquiets de ce qui pourrait advenir des chiffres qu’ils partagent avec tant de générosité, franchissant sans aucune difficulté l’état de data-loggers à celui de data-bloggers. D’après le critique Hal Niedzviecki  les self-trackers n’ont que faire de la vie privée et n’accordent que peu de valeur à ce concept désuet. Ils lui préfèrent celui d’attention, ce qui est un véritable changement de paradigme culturel.

Le meilleur des mondes

Dans cette histoire, la vraie question tient surtout à savoir si les self-trackers ne se moqueraient pas de la vie privée pour la bonne raison que la leur – s’exprimant en chiffres – n’a pas encore affectée. Imaginons que je me sois appliquée à tenir mon compte Daytum. En un click, n’importe qui, aurait pu découvrir mon penchant pour le chocolat et la nicotine ainsi qu’une certaine irrégularité dans ma pratique sportive. N’importe qui dont mon père, mon assureur ou un chef de projet dans l’industrie agro-alimentaire. J’aurais pu alors recevoir les trois mails que voici :

Je viens de voir tes chiffres sur Daytum. Ta mère et moi sommes très déçus. Encore plus que la fois où nous t’avons vu ivre sur YouTube. J’espère que tu vas arrêter de fumer, c’est mauvais pour toi. Tu devrais le savoir c’est inscrit sur le paquet que tu fumes chaque jour. J’ai décidé d’enlever un euro sur ton compte épargne chaque fois que tu cliqueras sur +1. Je fais ça par ce que je t’aime. Bisous

Mademoiselle, ayant constaté la faible qualité de vos chiffres, j’ai le regret de nous annoncer que nous ne pouvons accepter de vous couvrir. Le mode de vie que vous menez ne peut en aucun cas vous permettre de bénéficier d’une assurance-vie dans notre compagnie. Votre tabagisme – vous conduisant à une mort prématurée – et votre attrait pour le chocolat combiné à de faibles performances sportives – faisant de vous une personne potentiellement en sur-poids et hypothétiquement sujette à des maladies cardio-vasculaires – vous classent dans la catégorie des individus à risques. Risques, Mademoiselle, que nous se sommes pas en mesure de prendre. Cordialement

Bonjour, je vous écris car je voudrais vous vanter les mérites de notre toute nouvelle barre chocolatée et nicotinée low-carb : Chococlop. Chococlop vous permettra d’assouvir votre gourmandise sans culpabilité ! Vous pourrez grignoter tout en gardant la ligne et même diminuer votre consommation de cigarettes : ) Sachez qu’en plus pour l’achat de 8 cartons de Chococlop vous ferez partie de nos clientes privilégiées et aurez droit à un bon de réduction de 50% sur un vélo d’appartement chez notre partenaire Les Machines de Machin. Super non ?

Personnellement, cela me donne la chair de poule. D’autres histoires de ce genre restent à imaginer, et peut-être nous les expérimenterons dans un futur proche, si nous les vivons pas déjà.

Pratique numérique, pratique magique

Au contact des self-trackers – et par delà les motivations concrètes qui les ont amenés à le devenir – il m’a semblé qu’ils ne cherchaient pas uniquement des nombres mais aussi des valeurs. En instaurant des manières inédites d’être et d’agir pour soi et pour les autres, ils ont crée un système dont chacun est à la fois le centre et une des multiples particules périphériques qui le composent.

En s’imposant une ligne de conduite rigoureuse, les trackers semblent vouloir ancrer leur quotidien dans des rites et donner du sens à leur actes. Y aurait-il du spirituel dans les chiffres ? Les trackers sont affirmatifs. En investissant leurs données, ils ont découvert un monde fait de nombres, traversés de flux de données que les graphiques donne à voir partiellement.

Nos self-trackers l’expérimentent et l’explorent à foison sans pour autant connaître le précis but de leur quête. Qu’ils soient datafreaks, savanturiers ou maitres ignorants, les self-trackers nous apprennent avec leurs feuilles que l’émancipation de soi peut s’envisager à travers les chiffres et que notre environnement est une élégante équation remplie d’inconnues, de mystères et de magies.

Crédits photos CC FlickR par theskinimin, Heartbeatbox

]]>
http://owni.fr/2010/10/15/le-self-tracking-quand-les-chiffres-parlent/feed/ 11
Le web est mort deux fois http://owni.fr/2010/09/21/le-web-est-mort-deux-fois/ http://owni.fr/2010/09/21/le-web-est-mort-deux-fois/#comments Tue, 21 Sep 2010 11:36:50 +0000 Thierry Crouzet http://owni.fr/?p=28765 J’ai tardé à réagir à l’article de Chris Ander­son dans Wired, parce que, depuis plus d’un an, j’ai annoncé cette mort du Web, et qu’il me sem­blait inutile de me répé­ter, et puis parce que la posi­tion capitalo-libéraliste d’Anderson com­mence à me cou­rir sur le hari­cot. Il oscille au gré des modes, sur­fant la vague idéo­lo­gique du moment, pour mieux la reje­ter quand il entre­voit une nou­velle pos­si­bi­lité de busi­ness. La plu­part des auteurs de son espèce ne pensent que gros sous. Ils croient que tout se règlera par des contrats (et par les séries TV qui consti­tuent le sum­mum de leur culture).

Le gra­phique publié dans Wired paraît défi­ni­tif. La messe est dite. Mais, à y regar­der mieux, il ne s’agit que d’un com­pa­ra­tif en parts de mar­ché. Ce n’est pas parce que le Web perd des parts qu’il meurt. Aujourd’hui par exemple, on publie plus de livres que jamais même si les gens passent pro­por­tion­nel­le­ment moins de temps qu’avant à les lire. Le dis­cours d’Anderson est biaisé, collé au seul plan com­mer­cial. Il se vautre sur le cultu­rel et le poli­tique. Dans l’absolu, en termes de tra­fic et de quan­tité d’information dis­po­nible, le Web n’a jamais cessé de progresser.

Ne croyez pas que je sois devenu un défen­seur du Web. Je dénonce juste une cer­taine rhétorique.

C’est le chemin naturel de l’industrialisation: invention, propagation, adaptation, contrôle, explique Anderson.

Qu’est-il en train de faire sans le dire ? De mettre en pièce sa théo­rie de la longue traine. Michael Wolf écrit en parallèle :

Selon Compete, une agence d’analyse web, les 10 sites les plus importants ont drainé 31% des pages vues aux Etats-Unis, contre 40% en 2006 et près de 75% en 2010. ‘Les gros captent le trafic des petits’, explique Milner. ‘En théorie, une petite frange d’individus à la réussite insolente peuvent contrôler des centaines de millions d’individus. Vous pouvez grandir rapidement, et cela favorise la domination des personnes fortes.’

On dirait qu’ils viennent de décou­vrir une loi uni­ver­selle, et de se mettre à genoux devant elle. On com­prend mieux ce qu’entendait Ander­son par longue traîne, et que j’ai par­fois dénoncé. Pour lui, des ven­deurs mono­po­lis­tiques créent la longue traîne en leur sein pour accroître leur part de marché.

Armes d’interconnexion

De mon côté, je défends l’idée d’une longue traîne exo­gène, externe à toute entre­prise, qui s’observe dans l’ensemble de l’écosystème. Comme je l’explique dans L’alternative nomade, nous devons nous battre pour déve­lop­per cette traîne si nous vou­lons défendre nos liber­tés. La longue traîne sur le cata­logue d’Amazon est une bonne chose, mais insuf­fi­sante à mes yeux. Nous devons lut­ter avec nos nou­velles armes d’interconnexion contre cet ave­nir qui serait déjà écrit.

En fait, avec Ander­son, toute l’industrie média­tique se féli­cite de la mort du Web, c’est-à-dire de la mort des sys­tèmes ouverts et de la décen­tra­li­sa­tion incon­trô­lée. De nou­veaux opé­ra­teurs mono­po­lis­tiques émergent, avec comme Apple leurs plates-formes pro­prié­taires, et leurs sys­tèmes de micro paye­ment, ce qui injecte de nou­veaux reve­nus dans la boucle. Et comme par hasard, Wired qui a frôlé l’asphyxie en début d’année, voit peu à peu le retour des publicités.

Toute per­sonne qui veut faire for­tune sur Inter­net ne peut que prô­ner une forme ou une autre de cen­tra­li­sa­tion, c’est-à-dire une forme de contrôle. Nous devons en être conscients et lire leurs décla­ra­tions sui­vant cette perspective.

Nous ne sommes plus à l’époque où un busi­ness décen­tra­lisé sédui­sait par le seul nombre de ses usa­gers. Il s’agit aujourd’hui de les fli­quer pour les faire payer. Alors oui, l’idéal du Web est bien mort, mais rien ne nous empêche de nous battre contre les barons de la finance, contre tous ces gens qui ont remisé leurs rêves, contre tous ceux qui veulent que rien ne change, sinon nos jouets technologiques.

Deux tendances qui s’opposent

J’en reviens main­te­nant aux causes de la mort du Web. J’en vois deux.

L’émergence des appli­ca­tions pro­prié­taires. Avec les Apps­tores qui les accom­pagnent, elles n’utilisent ni HTML, ni les URL, deux des trois inno­va­tions de Tim Ber­ners Lee. Elles nous font bas­cu­ler vers des solu­tions pro­prié­taires, avec la pro­messe d’une plus grande ergo­no­mie et la tarte à la crème d’une plus grande sécu­rité. Au pas­sage, nous ban­quons. Il devient dif­fi­cile de créer des liens vers ces écosys­tèmes qui se veulent auto­nomes (com­ment est-ce que je lie depuis mon blog vers la météo affi­chée dans une appli iPhone ?).

Le pas­sage au flux. Nous nous retrou­vons avec des objets mou­vants, des fichiers ePub par exemple, qui ne sont plus sta­tiques dans le cybers­pace comme l’étaient les sites. Tout le monde va bien­tôt com­prendre leur impor­tance. Plus besoin de s’embêter avec un ser­veur ou un héber­geur pour exis­ter en ligne.

Ces deux ten­dances s’opposent. La pre­mière veut nous rame­ner avant le Web (mini­tel, AOL, Com­pu­Serve…), la seconde après le Web. Je vois mal com­ment il pour­rait sur­vivre dans ces conditions.

Le retour des appli­ca­tions pro­prié­taires, c’est la vic­toire des mar­chands. Plu­tôt que de déve­lop­per un espace ouvert avec des sites dif­fi­ciles à mon­nayer, on referme les inter­faces, les asso­cie à des appa­reils par­ti­cu­liers. Apple a ini­tié ce mou­ve­ment rétrograde.

Aucun langage universel

Il ne fau­drait tou­te­fois pas oublier l’enseignement phi­lo­so­phique du ving­tième siècle. Il n’existe aucun lan­gage uni­ver­sel. HTML est insuf­fi­sant et sera tou­jours insuf­fi­sant. Il est pré­fé­rable d’entretenir un écosys­tème divers, ce qui implique des dif­fi­cul­tés d’interfaçage. Nous devons en pas­ser par là si nous vou­lons, après une phase appa­rente de régres­sion, connaître un nou­veau boom créa­tif. L’innovation suit une res­pi­ra­tion entre les hip­pies idéa­listes et les mar­chands réactionnaires.

Si la pre­mière ten­dance est néces­saire, elle ne m’en déplait pas moins, et je pré­fère me consa­crer à la seconde, qui plu­tôt que cen­tra­li­ser le Web l’éclate plus que jamais.

Les ePub, et j’espère pour bien­tôt les ePub sociaux, cir­cu­le­ront par­tout, aussi bien dans les mondes fer­més que les mondes ouverts. Ils reprennent tout ce qui fai­sait le Web : HTML ou plu­tôt XML, les objets inclus, les scripts… Il ne leur manque que la pos­si­bi­lité de se par­ler entre eux. Leur force, c’est leur liberté plus grande que jamais, leur capa­cité à être ava­lés par une mul­ti­tude d’applications ouvertes ou non, d’être mon­nayables ou non.

Il nous reste à inven­ter un nou­veau pro­to­cole de com­mu­ni­ca­tion entre ces fichiers libres et riches, sans doute sur une base P2P. Le Web est bien en train de mou­rir, il res­tera une immense gale­rie mar­chande et un point de pro­pul­sion pour nos conte­nus qui vivront ensuite libre­ment dans le flux, voire atter­ri­ront dans des applications.

Billet initialement publié sur le blog de Thierry Crouzet

Crédits Flickr CC toprankonlinemarketing, nicolasnova

]]>
http://owni.fr/2010/09/21/le-web-est-mort-deux-fois/feed/ 36
La carte-mère http://owni.fr/2010/05/17/la-carte-mere/ http://owni.fr/2010/05/17/la-carte-mere/#comments Mon, 17 May 2010 15:22:30 +0000 Jean-Michel Cornu http://owni.fr/?p=15777

À l’occasion de la parution de “ProspecTic, nouvelles technologies, nouvelles pensées ?” par Jean-Michel Cornu, directeur scientifique de la Fing – un ouvrage pédagogique et de synthèse sur les défis des prochaines révolutions scientifiques (Amazon, Fnac, Place des libraires) -, il nous a semblé intéressant de revenir sur les enjeux que vont nous poser demain nanotechnologies, biotechnologies, information et cognition.

Maintenant que nous avons posé l’avenir des prochaines révolutions technologiques, observons les clefs pour comprendre et les défis qu’elles nous adressent.

Peut-on sortir du rapport de force ?

Une grande partie des difficultés à mieux prendre en compte les risques des diverses technologies viennent des conflits d’intérêts : plutôt que de chercher des solutions qui puissent émerger des connaissances de chacun et des échanges entre tous, il se crée un rapport de force qui fait pencher la balance en faveur de l’intérêt d’un seul des acteurs, au détriment des autres et bien souvent à l’encontre de l’intérêt général. Les solutions simplistes et souvent utopistes n’ont pas permis d’aller beaucoup plus loin. Du coup, la compréhension des causes du conflit d’intérêts a été souvent délaissée pour n’en gérer que les conséquences. Les nouvelles sciences et technologies peuvent-elles nous proposer des approches innovantes de cette question ?

Les sciences de la complexité, qui sont transversales aux différentes nouvelles technologies, permettent de faire émerger des solutions nouvelles, parfois étonnantes, à partir des interactions entre les différents constituants d’un système. Reprenons l’exemple du tir à la corde que nous avons proposé dans le chapitre 5. Il illustre bien la notion de rapport de force : chacun tire de son côté et, en général, le plus fort gagne. Le marché est une des tentatives pour complexifier la situation et éviter qu’une des parties ne s’accapare l’ensemble des richesses.

Situation évidente de conflit.

Mais dans les faits, on observe le plus souvent l’inverse. Le principe de Matthieu (1) selon lequel « on donne beaucoup à celui qui a, et on donne peu à celui qui n’a pas » est peut-être une des règles qui fait converger l’ensemble vers une situation où le rapport de force devient rapidement inégal. Le plus souvent, la solution proposée consiste à placer un arbitre, juridique ou politique. Mais ce même arbitre, inséré lui-même dans la société, n’est pas exempt d’intérêts particuliers. Les parties en présence vont alors rivaliser pour influencer le médiateur. Bien sûr, la situation serait radicalement transformée si les enjeux et les discussions devenaient transparents et si les intérêts de chacun s’affichaient au grand jour. Mais, cela va à l’encontre de l’intérêt des acteurs qui disposent d’un avantage de puissance et qui peuvent s’en servir pour le conserver (2). Nous restons bloqués et il semble que le rapport de force transforme une situation qui pouvait être complexe en une solution simpliste, bipolaire, avec une partie qui devient de plus en plus forte et une qui est de plus en plus dominée. Ce n’est donc pas tant le conflit qui pose problème que son mode de résolution par le rapport de force et le choix d’une seule des deux propositions en compétition. Le conflit n’est finalement que le symptôme d’un problème, il signifie qu’il y a une opportunité pour produire une innovation qui permette une meilleure adaptation aux besoins.

Peut-être pourrions-nous utiliser notre intelligence pour modifier les règles d’interaction, les propriétés globales du système ou encore notre environnement afin d’obtenir une solution différente au conflit d’intérêts. En changeant la façon d’interagir dans une des équipes du tir à la corde ou encore en modifiant le terrain sur lequel se joue le jeu, la situation peut devenir différente. Mais, encore une fois, ceux qui choisissent les règles peuvent également être parties prenantes. Par exemple, les plus rusés chercheront à trouver la pente du terrain pour profiter d’un avantage. C’est tout le savoir-faire de Machiavel dans Le Prince et de Sun Tzu dans L’Art de la guerre que de transformer le rapport de force dans les cas de conflits d’intérêts en remplaçant la force brute par de l’intelligence. Mais nous restons cependant toujours dans le rapport de force. La complexité semble ne pas être suffisante pour trouver une solution qui converge plutôt vers un intérêt commun que vers un intérêt particulier.

Imaginons maintenant une autre règle ajoutée au jeu du tir à la corde : une pierre est attachée au milieu de la corde entre les deux équipes. Lorsque la pierre est légère, le jeu ne change pratiquement pas. Mais si la pierre devient très lourde, alors les équipes ont de plus en plus de mal à gagner, car cela nécessite d’apporter une force suffisante pour vaincre l’équipe adverse mais aussi la masse de la pierre.

Lorsque la pierre est particulièrement lourde, il se passe alors un phénomène intéressant : les deux équipes peuvent, sans même que cela ne résulte de leur choix, ne plus être totalement alignées. La corde forme alors un angle dont le sommet est la pierre. Suivant l’angle formé par la corde, une partie des forces des deux équipes continue de s’opposer tandis qu’une autre partie s’additionne. Plus l’angle formé par les équipes se réduit et plus elles arrivent à déplacer la pierre. Naturellement, le jeu va se transformer et les équipes vont non seulement s’affronter mais également lutter contre la pierre qui intervient comme un troisième acteur. Ce jeu à trois acteurs permet de sortir de la bipolarisation de la situation de départ en faisant converger – au moins partiellement – les intérêts (3).

Dans notre exemple, l’objectif même du jeu a changé. La pierre modifie la situation en ajoutant une part de convergence dans une situation de conflit d’intérêts. Cela se passe au niveau des règles d’interaction, et modifie le résultat global sans nécessiter une volonté commune, justement difficile à obtenir dans les cas de conflits d’intérêts. La recherche d’une solution convergente est appelée stratégie gagnant-gagnant (win-win). Elle présente un intérêt accru pour toutes les parties, y compris les plus fortes, qui bénéficient ainsi d’une part de la force des autres plutôt que de gaspiller leur propre force à les combattre – à condition bien sûr que le rapport de force ne soit pas trop disproportionné, sinon l’avantage pour le plus fort est trop faible face à l’énergie à dépenser pour trouver une solution de convergence.

Pourquoi alors cette approche n’est-t-elle-pas celle utilisée le plus naturellement par l’homme pour sortir de ses difficultés en alliant ses forces ? Nous allons chercher si les récentes avancées sur la compréhension des limites de la cognition humaine peuvent nous éclairer sur ce sujet.

Unissons nos forces, oui unissons-les.

Le langage, source d’intelligence et de conflits

Pour cela nous devons remonter dans le temps. Contrairement à une idée reçue, le langage n’a pas émergé grâce à notre intelligence. Jacques Monod considère, à l’inverse, que c’est le langage qui est la cause de notre intelligence. Certes, de nombreuses espèces animales disposent d’un langage. Mais ce qui fait la particularité du langage humain c’est notre capacité à nommer les choses. Nous avons vu dans le chapitre sur la cognition que notre mémoire de travail à court terme avait des limitations. En particulier, un de ses constituants, la boucle phonologique qui nous permet de retenir des concepts pour les enchaîner, permet difficilement de dépasser trois concepts dans un discours. La relation entre les mots et les concepts qui y sont associés est en revanche stockée dans notre mémoire à long terme. Nous pouvons y plonger pour faire allusion à des concepts passés ou bien d’autres que nous imaginons. Notre mémoire de travail permet ensuite d’articuler ces concepts à la suite les uns des autres pour construire une longue chaîne qui constitue notre discours, bien que de temps en temps nous perdions le « fil de notre pensée ».

Notre langage est donc comme une promenade dans les différents concepts que nous avons stockés et que nous ressortons sous forme de mots. Mais cette fantastique capacité à dépasser les limitations de notre mémoire à court terme porte en elle sa propre limitation : tout comme un parcours sur un territoire, le langage ressemble à une ligne qui serpente parmi nos idées. Nous avons alors une vision égocentrée, ce qui signifie que nous ne pouvons voir le paysage que depuis l’endroit où nous sommes dans notre cheminement de pensée, et trop souvent uniquement la partie qui se trouve devant nous en oubliant de regarder sur les côtés ou derrière nous.

Si nous arrivons à un croisement, nous devons choisir au préalable, la route que nous allons emprunter. Bien sûr, il est possible de revenir en arrière et d’explorer d’autres chemins, mais les limitations de notre mémoire de travail feront que nous serons vite perdus. Le langage implique donc principalement un mode de pensée monodimensionnel. En cela il n’est pas très différent de ce qui se passe lors d’un tir à la corde. Si nous avons choisi une voie et si une autre personne a choisi une voie opposée, nous tirerons très probablement chacun dans notre sens jusqu’à ce que le plus fort, ou le plus rusé, gagne. Pour sortir du simple rapport de force, nous avons vu qu’il fallait introduire un angle, une deuxième dimension. Mais si cela ne nous est pas apporté par l’extérieur, comme la pierre de notre exemple, nous avons peu de chance que notre langage et la pensée qui y est associée nous permettent de nous en sortir.

Encadré
Les trois écritures et leur « fluide »
Pour mieux comprendre notre mode de pensée, nous pouvons regarder ce qui se passe du coté de l’écriture. En effet, Michel Morange considère que « l’écriture est le fondement des modes de pensée ». De même, le philosophe autrichien Ludwig Wittgenstein disait : « Je pense avec ma plume ».

L’anthropologue et sémiologue Clarisse Herrenschmidt distingue ainsi plusieurs types d’écriture :

* L’écriture de la langue est née à Ourouk, chez les Sumériens (actuellement l’Irak), entre 3300 et 3100 avant notre ère et à peu près en même temps à Suse en Iran où vivait le peuple élamite. Pour ses tâches administratives, ce dernier utilisait des « bulles-enveloppes » en forme de calebasse creuse qui contenaient des petits objets d’argile de différentes formes, les calculi, indiquant un nombre de chèvres, de moutons, etc. L’auteure explique ces bulles-enveloppes, des artefacts creux et sphériques, symbolisent une bouche dont sort la salive. L’écriture du langage aurait été pensée comme la production de la représentation d’un organe humain externalisé, animé d’un fluide, l’eau ou la parole.
* L’écriture monétaire arithmétique (écriture des nombres sur la monnaie frappée) est née à Éphèse, en Grèce ionienne (actuelle Turquie), au VIIe siècle avant notre ère. À cette période, des globules sphériques d’électrum, un alliage d’or et d’argent, symbolisaient un oeil brillant dont sortait le fluide de la lumière – pour les Grecs, la lumière sort des objets brillants et du regard. Peu après, la monnaie fut frappée en particulier avec des figures arithmo-géométriques représentant des nombres. De fait, s’il ne s’agit plus dans ce cas de créer un cheminement de pensée comme avec les langues, les nombres et leur proportionnalité peuvent également être représentés par un système monodimensionnel. Bien que différent du langage, le calcul – en particulier lorsqu’il est exprimé par la monnaie – utilise donc un mode de pensée du même type.
* Le code informatique, né plus récemment, peut être compris comme une troisième écriture. Mais la machine de Turing, à l’origine de l’ordinateur, a également été conçue comme un système monodimensionnel capable de traiter n’importe quel problème par une séquence d’instructions se succédant dans le temps. Cette fois l’organe symbolisé est clairement le cerveau, associé au fluide électrique.

Ainsi, les différents modes d’écriture inventés au cours de l’histoire humaine restent sur une logique monodimensionnelle en fonction du temps (pour l’écriture du langage et du code) ou de la proportionnalité (pour les nombres). Cela est d’autant plus frappant que l’écriture, bien qu’elle soit le plus souvent réalisée sur un support à deux dimensions, reste, tout comme le langage oral, un système à une dimension.

L’écriture et le regard comme support à d’autres formes de pensées

Bien que les écrits représentent le plus souvent une pensée monodimensionnelle disposée sur une page qui en comporte pourtant deux, l’écriture permet pourtant de réaliser des choses totalement nouvelles.

Ainsi, il devient possible de produire des listes structurées pour définir des catégories. La question de savoir si, par exemple, la tomate est un fruit ou un légume ne se pose pas dans les sociétés uniquement orales qui ont beaucoup moins recours à la catégorisation. Nous pourrions également utiliser notre langage oral pour détailler différentes catégories et sous-catégories, mais nous serions vite limités par une autre partie de notre mémoire de travail à court terme : le calepin visuo-spatial, qui nous permet d’aborder plusieurs choses simultanément. Sa capacité (l’empan mnésique du calepin visuo-spatial) est comprise entre cinq et neuf éléments. L’écriture de listes structurées représente une véritable révolution cognitive. Il devient possible de poser un ensemble de catégories sur le papier et de choisir ensuite ce que nous voulons sélectionner. De ce point de vue, nous sortons de la vision égocentrée (ce que nous voyons quand nous cheminons sur une route) pour atteindre une vision allocentrée (ce que nous voyons lorsque nous regardons un plan). La hiérarchisation, permise par la catégorisation des listes écrites, a également structuré notre pensée et donc notre société. Il n’est pas neutre dans ce sens que les administrations soient avant tout des organisations basées sur l’écriture. Celle-ci permet de mieux catégoriser que ne le ferait le langage oral.

Cette capacité de catégorisation du langage écrit est soutenue par un système graphique codifié – les listes à points – qui le rend facile à comprendre et à utiliser par le plus grand nombre. Cependant, la liste à points est utilisée dans des textes particuliers, moins littéraires. Ainsi par exemple dans cet ouvrage, elle a été utilisée dans les encadrés pour aider à structurer les différents domaines, alors que le corps du texte est resté plus traditionnel pour en faciliter une lecture plus linéaire (4). Les outils de mind mapping (5) représentent une autre forme de hiérarchisation des idées.

Mais la hiérarchisation elle-même comporte d’autres limites. Dans un tel système, deux personnes ou deux concepts qui sont reliés à un troisième ne sont jamais reliés directement entre eux. Le tableau permet une autre vision des choses que l’on peut qualifier de matricielle. La pensée scientifique expérimentale utilise beaucoup ce type de représentation.

Pour permettre de relier n’importe quel concept avec n’importe quel autre, tout en en donnant une vision d’ensemble, il faut alors les représenter sous la forme d’un schéma ou d’une carte. Cette dernière, bien qu’elle offre moins de possibilités que le schéma libre, est plus intuitive et mieux codifiée (6). Ainsi, l’agence japonaise Information Architects réalise-t-elle des analyses des différents acteurs du numérique en utilisant comme support des cartes du métro. Les schémas sont diversement utilisés suivant les professions. Dans certains cas, ils sont très codifiés et sont devenus de véritables écritures comme, par exemple, la représentation des réseaux de signalisation en biologie. Suivant le proverbe chinois « Une image vaut mille mots », les schémas permettent de représenter des interactions complexes multidimensionnelles d’une façon facilement appréhendable par l’esprit humain. Ils servent de support à un autre mode de pensée que l’anthropologue Jack Goody a appelé la raison graphique.

Encadré
Les trois types de cartographie
L’artiste numérique Olivier Auber explique dans un rapport pour l’Observatoire des territoires numériques (OTeN) qu’il existe trois types de perspectives qui ont chacune un rapport avec un type de cartographie :

* La perspective spatiale s’est développée à partir de la Renaissance. Elle influence la géométrie descriptive, la géodésie mais aussi la cartographie physique qui ont constitué le principal moteur du phénomène d’urbanisation. Dans ce cas, le temps est corrélé avec l’espace. Les cartes de territoires sont de ce type.
* La perspective temporelle que l’on rencontre dans les réseaux de télécommunication, et dès le début du télégraphe. Cette fois, la distance ne dépend plus du temps qui devient quasi instantané. On voit émerger alors des points particuliers dans l’espace – les super noeuds – qui reçoivent et réémettent l’information. Olivier Auber parle de perspective temporelle pour montrer l’importance du nombre d’étapes à franchir pour aller d’un point à un autre plutôt que celle de la distance qui les sépare. La cartographie interactive attache un groupe à un nouveau centre (les communautés en ligne Myspace ou Facebook par exemple). Les cartes de réseaux de télécommunication ou encore de liens entre différentes communautés sur le web sont de ce type.
* La perspective numérique, pour sa part, ne s’appuie sur aucun centre physique particulier et s’affranchit de tout ancrage territorial. Elle génère une cartographie sémantique comme les nuages de mots clés. L’agrégation se fait autour de mots clés (les tags) ou de codes – comme un numéro IP qui, dans la nouvelle version du protocole Internet IPv6, n’est pas nécessairement attaché à une machine particulière mais peut permettre à un groupe d’utilisateurs d’échanger sans l’intermédiaire d’un tiers.

Chaque type de représentation cartographique du monde induit des régimes de légitimité différents qui se confrontent ou s’articulent (collectivités territoriales, communautés centralisées sur internet, blogosphère et groupes pair-à-pair, etc.).

Pensée-2 et conflits d’intérêts

Nous l’avons vu au début de ce chapitre, il est très difficile de sortir du conflit d’intérêts d’une autre façon que par le rapport de force en conservant un mode de pensée linéaire. Faire converger les intérêts dans un sens bénéfique aux différents protagonistes nécessite une vision cartographiée, donc allocentrée, des intérêts de chacun et des possibilités de modification. La nécessité d’un changement de mode de pensée pour résoudre les conflits a été analysée, dès 1985, par le psychologue et cogniticien maltais Edward de Bono. Il a formé pour cela le terme de pensée-2 pour la distinguer de la pensée exploratoire – le raisonnement linéaire qui crée un cheminement pour arriver à un résultat de type vrai ou faux. Le nombre deux peut représenter non seulement un deuxième mode de pensée, utilisant une partie différente de notre mémoire de travail que notre pensée habituelle basée sur le langage, mais aussi le fait d’utiliser une cartographie à deux dimensions, ou encore la nécessité de procéder en deux étapes : d’abord dresser une carte, et après seulement l’utiliser.

Plutôt que de débattre pour savoir lequel de deux protagonistes a raison, la cartographie des idées permet au contraire d’explorer les différentes positions, de chercher comment les articuler et même de s’en servir pour développer de nouveaux concepts (un saut qualitatif dans la dialectique de Hegel).

Ainsi, la cartographie permet de sortir du conflit « bipolaire ». Il ne reste plus alors qu’une crise « multipolaire » qui peut, au contraire, être salutaire en favorisant un changement d’approche.

La cartographie mentale

Si la pensée-1 peut être supportée à la fois par le langage oral et écrit, sommes-nous condamnés pour ce qui est de la pensée-2 à dépendre d’un outil extérieur, que ce soit une simple feuille et un crayon ou bien un ordinateur ? Pour répondre à cette question, nous devons regarder les choses de façon plus approfondie.

Notre aptitude à former un discours est limitée par la capacité de la boucle phonologique de notre mémoire de travail, qui peut conserver à l’esprit trois concepts qui s’enchaînent suivant une suite logique. Nous avons pu dépasser cette limitation en conservant dans notre mémoire à long terme des mots associés aux différents concepts. Ainsi, notre mémoire de travail n’a qu’à ordonner à chaque étape les différents concepts puisés dans notre mémoire à long terme et indexés par des mots (7). Dans le cas de la pensée-2, nous avons vu que nous étions limités par la taille de l’empan mnésique du calepin visuo-spatial, qui gère les données en parallèle plutôt qu’en série dans notre mémoire de travail à court terme. Pour dépasser cela, nous pourrions utiliser une carte déjà conservée dans notre mémoire à long terme (par exemple, un plan de ville) pour y stocker les différents concepts cette fois indexés par le lieu où nous les avons placés sur notre carte.

C’est exactement ainsi que fonctionne l’art de la mémoire dont Cicéron attribue l’origine aux Grecs. Lors d’un banquet, raconte-t-il, le poète Simonide de Céos fut invité comme il était de tradition pour faire l’éloge du maître des lieux. Mais il y inclut un passage à la gloire de Castor et Pollux. Scopas, le maître de céans, dit alors à Simonide qu’il ne lui paierait que la moitié de son dû et qu’il n’avait qu’à demander le solde aux dieux jumeaux. Un peu plus tard au cours du repas, une personne appelle Simonide pour lui dire que deux jeunes gens l’attendent dehors. À peine sorti de la maison, il voit le toit s’effondrer sur l’ensemble des convives. Les corps sont écrasés à tel point qu’ils sont méconnaissables pour leurs proches venus les identifier. Le poète est alors capable de reconnaître la totalité des victimes en se rappelant les places qu’ils occupaient lors du banquet fatal.

Progressivement, d’un simple système mnémotechnique, l’art de la mémoire s’est transformé en un système qui ambitionnait de catégoriser l’ensemble de la pensée humaine sur un plan spatial. Bien au-delà du simple procédé mnémotechnique, ce système dessinait un art de créer de la pensée. Mais l’utilisation même de l’expression « art de la mémoire » a sans doute poussé à oublier ces techniques au moment où l’imprimerie, puis l’ordinateur se substituaient à nos capacités de mémoire. Pourtant ce type de méthode, utilisé dès le Moyen Âge par les moines, permet de penser avec un très grand nombre de concepts simplement en les associant à des parties d’un lieu connu, conservé quant à lui dans notre mémoire à long terme.

Encadré
Comment pensaient Giulio Camillo et Giordano Bruno ?
Au XIVe siècle, dans son livre L’Idea del teatro, Giulio Camillo imagina un théâtre de la mémoire, amphithéâtre romain composé de sept gradins, chacun comportant sept sièges, soit un total de 49 lieux de mémoire, des locis. La progression du gradin le plus bas vers le plus haut indiquait le développement d’un thème du monde des idées jusqu’aux détails les plus pratiques. Chaque siège d’une rangée représentait une des sept planètes connues à l’époque. À chaque siège étaient assignés un thème et un ensemble de connaissances. Camillo est devenu une icône dans les milieux de la réalité virtuelle, pour avoir été le premier à avoir essayé de donner une interface graphique et tridimensionnelle à un ensemble de connaissances.

À la fin de la Renaissance, l’art de la combinaison, l’ars magna, et l’art de la mémoire se rencontrent avec Giordano Bruno qui se passionnait pour l’esprit humain et la mémoire. Il utilisa des roues contenant des figures symboliques associées à des lieux de mémoire. Leur rotation permettait de fabriquer l’ensemble des associations d’un groupe de concepts.

L'idea del teatro de Camillo selon Kircher

Une nouvelle pensée ?

De même que le langage symbolique nous a permis de dépasser nos limites physiologiques grâce à l’utilisation du langage, l’art de la mémoire – nous devrions plutôt dire l’art de penser cartographié – nous donne la capacité de poser d’abord un nombre illimité de concepts, pour ensuite seulement les combiner et nous en servir pour créer de la pensée. Cette vision cartographique nous donne la possibilité, contrairement à la pensée linéaire du discours, d’appréhender pleinement la combinaison des différentes positions dans un groupe. Elle permet en cela de sortir des oppositions pour inventer de nouvelles convergences. Cet autre mode de pensée sera-t-il suffisant pour permettre la résolution des conflits d’intérêts par un échange entre les protagonistes eux-mêmes ? Peut-être pas, mais il semble tout au moins nécessaire. Il sera intéressant de voir si les enfants de l’Internet, du pair-à-pair et du web 2.0 seront plus à même d’utiliser les conflits d’intérêts pour inventer des solutions nouvelles qui ne soient pas au détriment de l’un ou de l’autre.

Le mode de pensée cartographique pourrait également avoir d’autres applications, y compris dans le développement technologique. C’est du moins ce que suggère Michel Riguidel, directeur du département informatique et réseaux à Telecom ParisTech. Il considère que l’informatique est aujourd’hui limitée par son approche monodimensionnelle. La machine de Turing, qui en constitue le socle, fonctionne de façon séquentielle. De même, les protocoles, qui permettent la communication sur les réseaux, sont également bâtis sur une suite d’étapes. Michel Riguidel en appelle donc à des langages de programmation spatiaux (8).

Et si nous développions désormais notre pensée-2 comme nous l’avons fait pour notre pensée-1 ? Et si nous développions un langage commun cartographié et l’enseignions dans les écoles, comme c’est le cas pour le langage linéaire ? Tout cela sans renier l’apport indispensable du discours. Cela pourrait représenter une rupture cognitive majeure, offrant à l’homme non plus un mais deux modes de pensée. Les conséquences sont difficiles à appréhender, mais elles pourraient se développer dans le domaine des conflits humains, dans la création et la transmission de nouvelles connaissances et probablement dans de nombreux domaines de la société.

Encadré
Quelles autres formes de pensée ?
Pourrait-on aller encore plus loin et développer d’autres formes de pensée, comme nous l’avons fait avec la pensée-1 avec le langage symbolique, ou comme nous tentons de le faire avec la pensée-2 avec la cartographie mentale ou la cartographie écrite ? Il existe plusieurs pistes pour imaginer d’autres formes de pensée :

Foldit est un jeu sérieux d’un nouveau genre. Les ordinateurs ont du mal à calculer le pliage des protéines pour former des structures complexes : une journée de calcul pour obtenir une nanoseconde (un milliardième de seconde) du déroulement du pliage. Il faudrait de cette façon trente ans à un ordinateur pour calculer la structure tridimensionnelle d’une protéine qui se plie en dix microsecondes. Mais le cerveau humain a une capacité innée à reconnaître les formes. David Baker, le créateur de Foldit, propose donc aux internautes de jouer à plier manuellement des protéines et à lui envoyer le résultat pour le contrôler. Vérifier si une forme est bien associée à une séquence d’acides aminés est bien plus facile que de découvrir cette forme à partir de la séquence. Le type de travail, illustré ici par Foldit, est mieux adapté à l’homme qu’à l’ordinateur. Il pourrait encore s’améliorer grâce à notre mémoire procédu-rale qui conserve nos savoir-faire et nos gestes habituels. Quel type de pensée se crée par l’action, par le geste ? A-t-elle des limites ? Pouvons-nous également les dépasser ?

Thierry Gaudin introduit la notion de « pensée anticipatrice » qui se « produit à ce moment où des éléments séparés se reconnaissent et se réunissent pour faire corps dans un processus d’individuation ». Il faut dans ce cas comprendre le terme de pensée comme une activité cognitive qui se déclenche le plus souvent spontanément, indépendamment de la volonté du sujet. Il s’agit dans ce cas, à partir de la conjonction de plusieurs perceptions, de reconnaître comme existant – c’est-à-dire comme
relativement prévisible – un objet ou un autre sujet. Ainsi se constitue d’abord la connaissance des choses, puis de l’autre et finalement la connaissance de soi, avec pour résultat la construction d’une entité individuée. L’auteur donne plusieurs exemples de ce processus : la constitution des premières cellules eucaryotes composées de plusieurs organites, les êtres pluricellulaires, les échanges entre êtres vivants grâce à l’émergence d’un système nerveux, et l’interconnexion planétaire grâce aux technologies numériques.

Jean-Michel Cornu

Extrait de ProspecTic, nouvelles technologies, nouvelles pensées, FYP Editions, 2008.

(1) Ce principe est nommé d’après l’évangéliste Matthieu (12,13, traduction Louis Segond) : « Car on donnera à celui qui a, et il sera dans l’abondance, mais à celui qui n’a pas, on ôtera même ce qu’il a ». On le rencontre dans les réseaux « sans échelle ».
(2) En économie, une telle situation où une personne est imparfaitement renseignée sur une autre conduit à ce qui est appelé une asymétrie d’information. Elle peut mener à une antisélection (en anglais, adverse selection) : une mesure aboutit à un résultat opposé à celui pour lequel elle a été créée.
(3) Mais si les deux équipes se rejoignent pour tirer la pierre dans le même sens, alors on est ramené à un simple « conflit d’intérêts » entre la pierre et les deux équipes réunifiées.
(4) Cependant, des gras, des soulignés et des italiques ont été utilisés pour permettre une recherche dans le texte global. Il est malgré tout paradoxal de constater que ce chapitre présentant un mode de pensée différent du discours linéaire est écrit de façon traditionnelle, à défaut d’avoir une formalisation suffisamment acceptée des schémas d’idées pour qu’ils puissent servir d’écriture de façon autonome.
(5) Les cartes heuristiques, ou mind mapping, sont des diagrammes qui présentent les liens entres différentes idées. Le plus souvent, il s’agit de représentation arborescente.
(6) La carte qui permet de représenter des idées comme des territoires ne permet pas toujours de relier des concepts distants ou d’indiquer des recouvrements entre deux idées. Elle peut cependant être complétée d’indications graphiques (par exemple des couleurs).
(7) Nous pourrions faire un parallèle avec les registres de l’unité centrale d’un ordinateur qui stockent provisoirement pour les traiter les données de travail puisées dans la mémoire centrale.
(8) Les programmations graphiques de type Logo, l’informatique quantique ou encore l’adaptation morphologique de certains insectes aux conditions de leur environnement vont dans ce sens. Mais elles ne sont pas encore adaptées au traitement de tous les problèmes comme l’est la machine de Turing.

Billet initialement publié sur InternetActu en décembre 2008 sous le titre ProspecTic 9/12 : Quatrième clé, mode de pensée et conflit d’intérêt ; à lire aussi Le matin des cartographes.

Illustration CC Flickr uɐɯǝʌɐɔ ; pasukaru76 ; laimagendelmundo ; Darwin Bell ; jaxxon

]]>
http://owni.fr/2010/05/17/la-carte-mere/feed/ 1
Style et smileys http://owni.fr/2010/04/21/style-et-smileys/ http://owni.fr/2010/04/21/style-et-smileys/#comments Wed, 21 Apr 2010 09:20:47 +0000 workingirl http://owni.fr/?p=12742

Image CC Flickr Leo Reynolds

D’où vient l’émoticône (en bon français dans le texte), l’utiliser, est-ce nécessairement un signe d’analphabétisme, comment en user avec bon goût ? Analyse par workingirl, nouvelle venue sur la soucoupe. \o/

On va commencer la semaine en beauté.

Commençons par une généralité. Internet produisant de nouveaux moyens de communication, il engendre également des formes langagières inédites. Au premier rang desquelles, une source de crispation, un sujet d’interminable polémique : les smileys. Impardonnable faute de goût pour certains, signe de cool attitude pour d’autres, leur usage divise désormais le pays en deux. Ceux qui les utilisent VS ceux qui ne les utilisent pas.

Et la question agite même les milieux universitaires : doit-on croire aux potentialités stylistiques des émoticônes ? De très sérieux universitaires s’y sont intéressés (la preuve en lien).

Un peu d’histoire

En des temps immémoriaux, ils se réduisaient à deux expressions assez simples.
Il y avait    :-) et   :-(
On est en 1982, précisément le 19 septembre à 11:44 am et Scott E. Fahlman, professeur à l’université, vient d’envoyer un message historique dans lequel il propose l’emploi de ces deux symboles pour simplifier les communications informatiques. Contrairement aux usages modernes, il ne s’agissait pas du tout d’une opposition entre content et pas content. A l’époque, le premier devait servir à préciser que le message était à prendre sur un ton humoristique alors que le second était sensé souligner le caractère sérieux du libellé — parce que quand on est sérieux, on fait la gueule. Distinction effectivement fort utile puisque la communication exclusivement écrite du web et son emploi d’expressions orales peut donner lieu à de nombreux malentendus.

Graphisme

Il existe deux grandes familles d’émoticônes : les japonais et les occidentaux. Les émoticônes japonais sont beaucoup plus expressifs que les occidentaux (voir le tableau sur la page wiki).  Autre infériorité des émoticônes occidentaux : il faut se tordre la tête pour qu’ils prennent sens.
Et si on prend l’exemple de la colère, entre  :-(    et    è_é    y a pas à tortiller. Ou l’étonnement    :-o et      O_o
Face aux binettes japonaises, j’ai juste envie de dire \o/ (pour les plus de 19 ans je précise qu’il s’agit bien sûr d’un bonhomme qui lève les bras d’enthousiasme).

Utilité

Le smiley a gardé cette utilité de préciser le ton sur lequel prendre le message. En linguistique, on dit que le smiley sert à compenser l’absence de para verbal, c’est-à-dire les intonations, postures, regards de notre interlocuteur. Cette compensation n’est pas négligeable, la communication inter individu s’appuyant autant, si ce n’est plus, sur ce qui est explicitement dit que sur la manière dont c’est dit.

Imaginons une situation de la vie de tous les jours. Un garçon écrit à une fille « va te faire foutre ». Comment doit-elle le prendre ?

va te faire foutre :-) => discret appel du pied dans une perspective copulatoire jouant sur la polysémie de la lexie  »foutre ». (Évidemment, s’il avait écrit ça 3====D c’était tout de suite beaucoup plus clair.)
va te faire foutre :-( => je t’emmerde connasse.
Mais bien sûr on va rétorquer que nos ancêtres s’écrivaient et que Mme de Sévigné n’a jamais eu besoin de smiley pour se faire comprendre de sa chère fille. De là, on passe rapidement à l’idée que l’émoticône marque une défaite du langage verbal, l’incapacité des mots à traduire nos inflexions. Avant les gens s’exprimaient intelligemment, maintenant ils sont tellement analphabètes qu’ils ont recours à de ridicules personnages pour mimer leurs intentions.
Sauf que la vitesse de transmission des messages s’est considérablement accélérée depuis les pigeons voyageurs ou même les pneumatiques. Et corrélativement, le nombre de messages. On peaufine moins ses mails qu’anciennement les lettres. C’est le règne de l’efficacité. Il faut aller au plus direct et là, l’émoticône a toute sa place. Il permet de lever en deux touches une possible ambiguïté verbale. Deuxième argument, le langage Internet, contrairement à l’épistolaire plus classique, marque une tendance à copier l’oralité, donc des expressions plus crues et directes qui, transposées à l’écrit, nécessitent une précision (comme dans l’exemple ci-dessus du « va te faire foutre », que Mme de Sévigné employait assez peu).
Évidemment, on ne peut pas nier que derrière les smileys, il y a un problème d’éducation et de niveau social. Leur emploi est perçu soit comme une invention saugrenue des jeunes, soit comme un signe d’analphabétisme — avec un recoupement assez facile entre les deux catégories ;-)  (pour la justification de ce clin d’œil, voir plus bas). Et en un sens c’est vrai. Les gens qui ne sont pas à l’aise avec l’écrit auront tendance à multiplier ces signes. Mais ils n’ont peut-être pas tort. Ils s’assurent ainsi une meilleure communication — le but de la communication restant avant tout de se faire comprendre.
Notons tout de même que nombre de journalistes ou chercheurs hautement qualifiés ponctuent leurs blogs de smileys (Narvic, Eolas, Olivier Ertzscheid) ce qui est sans doute pour eux un moyen plus ou moins conscient de marquer leur ancrage dans l’univers du Net, la communication sur Internet n’étant pas une simple transposition sur informatique de l’écrit papier mais bien une forme d’expression différente.

Emplois stylistiques

Il y a un code implicite du bon goût régissant les emplois stylistiques des émoticônes. Si pour les puristes l’apparition d’un :-) est ontologiquement une faute impardonnable, d’autres acceptent sa modernité et tentent d’en exploiter la richesse. Il devient ridicule quand on sent combien telle figure s’insérerait parfaitement dans un message de ne pas le faire de peur de paraître ringard.
Tout l’art de la chose consiste à jouer sur les degrés de décalage entre la valeur du smiley et le sens verbal du message qui l’accompagne.
En règle générale, plus l’adéquation entre message et smiley est forte, plus l’emploi du smiley paraîtra maladroit car redondant (à moins que le degré de compétence linguistique de l’énonciateur ne suffise à faire comprendre qu’il feint la maladresse).
C’est toute la différence entre deux réponses à une même question : la soirée s’est bien finie ?
Réponse 1 :    j’ai vomi :-(
Le smiley ne sert ici qu’à insister sur un état et souligne finalement la pauvreté du message.
Réponse 2 :   j’ai vomi :-)
L’apparente contradiction entre les deux enrichit alors considérablement le message.
Le côté gentillet crétin du :-)  peut également être détourné au profit d’une bonne vanne, de n’importe quelle blague atroce (par exemple tournant autour de thème comme la pédophilie) ou d’insanités totales.
- Tu me trouves comment sur la photo ?
- Encore plus moche qu’en vrai :-)
Un usage ironique des smileys a d’autant plus de force que l’ironie est un procédé de discours très élaboré – qui marque donc une forte capacité langagière à l’inverse de l’impression donnée par l’emploi des smileys (comme incapacité).

Le cas à part du ;-)

Le clin d’œil occupe une place à part dans la mesure où il n’exprime pas une émotion mais permet avant tout d’atténuer ses propos.
Retenez une règle simple : éviter au maximum de mettre un ;-)  dans un message ironique. Le propre de l’ironie étant d’être diffuse, un panneau « c’est de l’ironie » ne fait que souligner que vous n’étiez pas très sûr de votre effet. En clair, si vous recevez un message avec un ;-)  c’est soit que votre interlocuteur use d’une référence commune (il est dans une démarche de connivence, une tentative de rapprochement) soit plus généralement qu’il y a quelque chose dans ce message que vous auriez pu mal prendre (comme je l’ai employé dans la vanne sur les jeunes analphabètes).

Billet initialement publié sur Working girl

]]>
http://owni.fr/2010/04/21/style-et-smileys/feed/ 3
Frontières digitales http://owni.fr/2010/03/17/frontieres-digitales/ http://owni.fr/2010/03/17/frontieres-digitales/#comments Wed, 17 Mar 2010 12:23:58 +0000 Cyroul http://owni.fr/?p=10242 Cyril Rimbaud, aka Cyroul,  dresse dans ce billet “spécial-soucoupe” un état des lieux des frontières digitales et envisage leurs évolutions futures. Car le digital est un territoire, c’est-à-dire un espace à la géographie mouvante, basée sur des spécificités naturelles ou technologiques, des appartenances culturelles ou linguistiques…”

2174166231_dba7903594_o
Digital is not a media, it is a territoryannonçait il y a 2 ans le suédois Måns Tesch (Digital Strategy Director et initiateur de l’immense saga digitale de Stella Artois).
Effectivement, le digital* est un territoire, c’est-à-dire un espace à la géographie mouvante, basée sur des spécificités naturelles ou technologiques, des appartenances culturelles; linguistiques ou même juridiquement différentes.

Et qui dit territoire, dit frontières. Les frontières du digital existent. Ce sont des limites évidentes ou pas, qui se forment et se déforment au grès des migrations des internautes et du grand jeu géo-politico-social des grands e-conquérants d’aujourd’hui, futurs e-gouvernants de demain.
Alors l’internaute saura-t-il s’affranchir de ces frontières digitales ou deviendra-t-il captif de ces grands territoires numériques ?

Des frontières sans avenir

Les frontières les plus visibles des territoires du digital sont les frontières matérielles. Les différences sont immédiates entre un téléphone mobile, le GPS d’une voiture, une console de jeux vidéo ou une télévision HD. Des frontières évidentes donc, mais temporaires, car elles disparaissent peu à peu.

D’ici 2 ans, en effet, de manière tout à fait naturelle, vous jouerez avec votre ordinateur de voiture et vous surferez sur le web avec votre télé (téléphoner avec son ordinateur et surfer avec son téléphone mobile ne sont-ils pas déjà des usages actuels ?). Ces frontières matérielles vont donc s’effacer pour vous permettre une connexion permanente, où que vous vous trouviez. Oublions donc ces frontières obsolètes !

D’autres frontières en voie de disparition vont être les frontières des services Internet. Il y a 10 ans, il fallait en effet s’y connaitre pour savoir utiliser d’autres protocoles que les traditionnelles http et smtp (respectivement réservés au web et aux e-mails). Aujourd’hui, vous manipulez les protocoles irctelnet ou même ftp sans vous en rendre compte. Suivant la philosophie du tout-en-un instaurée par Firefox, les nouvelles générations de navigateurs vous permettent de mélanger tous les protocoles de services. Vous pouvez lire vos mails, chatter, utiliser le FTP, et tout ça avec un seul outil.

Bientôt votre OS (Operating System comme Windows ou MacOS) sera lui-même une sorte de gros navigateur web et tous vos services seront on-line. Non, ces frontières n’existeront plus (sauf pour un développeur informatique), alors n’en parlons plus.

Au delà de ces frontières très matérielles, on trouve des frontières d’expertise qui vont isoler le débrouillard (digital smart) du profane (digital less). Le digital smart, c’est celui qui agrège ses flux RSS sur Netvibes, qui utilise Delicious pour ne pas perdre ses bookmarks, qui utilise une dizaine de moteurs de recherche spécifiques, qui sait gérer sa e-reputation lui-même. Le profane c’est celui qui lance une recherche via le portail de son FAI, qui ne comprend pas pourquoi des photos de lui à poil se promènent sur la toile, qui ne sait jamais retrouver le site génial qu’il a vu il y a 2 semaines, qui passe le plus clair de son temps à remplir des formulaires d’inscription à des concours et le reste à supprimer le spam de sa boite e-mail.

Heureusement, il s’agit de frontières faciles à franchir. Un peu comme dans la vraie vie en fait. Il suffira de se renseigner, d’avoir de bons amis, et de beaucoup travailler et votre expertise grandira. Évidemment tout ça prend du temps. Et ce sera à l’internaute de voir si cet investissement personnel vaut le coup ou s’il continuera à croire ce que lui dit son pourvoyeur de média favoris. Et puis une génération chassant l’autre, l’expertise va se déplacer (votre vieille maman sait se servir d’un e-mail non ?).

De vraies frontières insoupçonnées

Mais votre môman, qui ne parle que le Français, va éviter de se promener sur des sites écrits dans une langue étrangère. Elle va se heurter aux frontières du langage, frontières que l’on retrouve dans la vie réelle, mais qui sont encore plus évidentes sur Internet. Mais plus qu’un problème de traduction, les véritables frontière entre les sites sont des frontières culturelles, reliées à des typologie d’utilisateurs utilisant constamment moult abréviations, acronymes, et autres références cryptiques qu’elle n’arrivera pas à déchiffrer.

P eu à peu se créent des vocabulaires propres à des populations précises. Le langage spécifique et l’absence de besoin de votre môman la tiendront éloignée définitivement de ces territoires qui lui seront ouverts, mais qu’elle n’explorera jamais. Alors forcément, votre mère ne sait pas lire le L337 couramment. Mais vous-même, arrivez vous à lire le langage sms d’un skyblog sur Tokyo Hotel ? Ou encore le blog d’une guilde de MMORPG ? Ou encore un forum de passionnés de Unoa ? Illisible pour vous, ces frontières vous resteront à jamais inviolables si vous n’apprenez pas ces langages (et comme vous n’y voyez aucun intérêt pratique, vous ne risquez pas d’y mettre les pieds…).

Votre voyage dans le territoire digital va forcément dépendre de vos besoins. Et les besoins des Internautes étant tous différents, ceux-ci vont dessiner les contours des territoires numériques. C’est là que se dressent les frontières des usages. Vous avez besoin d’un itinéraire précis pour votre week-end à la campagne ? Hop, faites un tour dans le territoire des mappeurs/géographeurs, vous voulez acheter un cadeau pour la fête des mères ? vous voilà dans le royaume du consommateur pressé, besoin d’une petite pause détente ? direction les collines verdoyantes des jeux en ligne, besoin de calmer votre libido ? hop direction l’océan des sites de charme, besoin de glander au bureau ? butinez dans la galaxie des blogs gossip, etc., etc.

Ces territoire sont construits par des entreprises (services web, publicités, FAI) dont l’objectif principal est de créer de l’audience récurrente, c’est-à-dire d’attirer le plus possible d’habitants sur leur territoire. Ils se livrent donc de farouches batailles à coup d’investissements massifs dans des bannières de pub, d’achat surprise de mots clés, de SEO illégal ou même de campagnes de calomn-e. Car ceux qui arrivent à attirer le plus d’audience auront les territoires les plus peuplés, et de ce fait les plus riches.

Une représentation des territoires numériques. Cliquez pour télécharger /-)

Une représentation des territoires numériques. Cliquez pour télécharger /-)


Des arguments libertaires pour mieux construire des frontières liberticides

Le plus grand argument de vente depuis l’avènement de la techno-conso est la maîtrise de la complexité (par exemple votre lecteur iphone est bourré de technologie de pointe, mais il n’a qu’un gros bouton en façade). Depuis 3 ans, la plupart des grands empires du digital (google, microsoft, yahoo, myspace, orange, …) ont donc axé leurs efforts sur la simplification des potentialités du digital.

Car vous pouvez tout faire avec le digital, oui, mais comment ? Alors, eux vont vous l’expliquer. Le premier pas pour créer des ponts entre les frontières vues auparavant a été la création de pages permettant d’accéder à l’information. Google a ainsi crée le moteur de recherche, outil le plus primitif pour trouver une information sur le web. Yahoo au départ moteur de recherche s’est, lui, recentré sur la création d’un portail suivi dans ce sens par MSN, Orange (et la plupart des fournisseurs d’accès à Internet).

Mais plutôt que de simplement guider l’internaute dans la jungle du web, ces e-empires ont décidé d’immerger l’utilisateur dans le digital, en lui faisant découvrir les outils de demain (c’est-à-dire les services web qu’il pourra facturer ou monnayer d’ici quelques temps). Ces e-conquérants ont multiplié les contenus et expériences digitales accessibles à partir de leur page d’accès. Ils ont ainsi acheté ou développé des partenariats avec des réseaux sociaux, des outils pour créer son blog, pour afficher des itinéraires, la météo, les programmes tv, pour gérer ses photos, de la musique, des vidéos, des jeux vidéos, et même des boutiques en ligne. Ils ne s’en cachent pas.

Alors sous prétexte de supprimer ces frontières, ces grands e-empires renforcent la profondeur de leurs séparations, afin de rendre l’utilisateur captif de leur territoire. L’empêcher de fuir, de quitter leur royaume. Pourquoi aller ailleurs alors qu’il y a tout ce dont il a besoin ici ? Les frontières digitales de demain se créent véritablement ici et, maintenant, dans cette grande bataille d’offre de contenus et services gratuits aux internautes perdus dans la jungle digitale.

Ségrégations digitales en vue

A quoi ressemblera le territoire du digital dans 4 ans ? Nul ne peut le dire avec précision. La pangée Internet originelle va se transformer et s’organiser au gré des batailles et des victoires de ses e-conquérants. Mais si on ne peut prédire sa géographie définitive, il est certain qu’on y trouvera au moins 3 aires définies par leurs usages et population :

1> Des lieux étanches aux frontières fortement fermées réservées à une population très identifiée (par le numéro de CB, leur identifiant numérique, ou encore pire, leur numéro de sécu) au contenu entièrement filtré et surveillé. Véritables ghettos numériques, ce seront les grands réseaux privés des entreprises, des FAI et des gros pontes du web (msn, google, yahoo, facebook, …), de producteurs exclusifs de contenus (à l’instar de la BBC) et également de certains pays (Chine).

2> Des lieux où l’on pourra trouver un contenu moyennement surveillé où se déroulera la guerre des pontes ci-dessus. Des lieux de liberté contrôlés partiellement par les états (ou les corporations qui les auront remplacés) qui feront ce qu’ils peuvent pour maintenir un semblant de contrôle dans un système qui ne s’y prête pas. Hadopi est l’exemple type de cette tentative de contrôle inutile.

3> Et de véritables zones de liberté digitales (des zones d’autonomie temporaire chères à Hakim Bey), véritables zones franches où se côtoieront les hackers fous, les cyber-punks arty, les chercheurs d’e-motions fortes, les para-religieux, les salar-e-men véreux et des harcore gamers. Où l’on pourra trouver, acheter, voler tout ce qu’on veut, mais aussi ce qu’on ne veut pas forcément. Zones sans surveillance, au langage et aux coutumes spécifiques, elles nécessiteront de s’y connaître en technologie et usages, sous peine de ne pas réussir à s’en sortir sans casse.<

Google/Yahoo/Microsoft Free Zone

Google/Yahoo/Microsoft Free Zone

Frontières digitales = frontières de liberté

Ces 3 frontières, dont les contours s’esquissent déjà aujourd’hui, sont prévisibles, et inéluctables. Elles vont entrainer une séparation entre les voyageurs digitaux “libres” (qui peuvent passer d’une frontière à l’autre) et les autres, prisonniers d’un territoire qui leur a été attribué. Les libertés individuelles ne seront pas les mêmes en fonction du territoire où vous vous trouverez.

Dans les premières zones, le moindre de vos faits et gestes (messages personnels inclus) sera observé et analysé par de grands serveurs CRM, aboutissement ultime des fantasmes des marketers publicitaires et qui proposeront une analyse comportementale personnalisée. Ainsi votre maman qui vous écrit car son chat a des problèmes de digestion, recevra dans sa boite aux lettres une réduction pour une boite de laxatif félin. Ca existe déjà. Ce qui n’existe pas encore, c’est une descente de police à votre domicile quand vous parlerez par visio-conf de votre collection de films téléchargés illégalement à vos amis de travail. Mais ça ne devrait tarder. Alors que le vrai pirate lui, fréquentant les zones de libertés digitales ne sera pas inquiété.

Les libertés individuelles du futur vont donc dépendre de votre connaissance de la technologie et des usages des territoires digitaux. Les geeks, nerds et autres explorateurs curieux auront plus de libertés que la population qui n’aura pas ces connaissances. Une des solutions évidentes pour préparer les libertés de demain est dans l’éducation.

Mais qui va éduquer ? Ceux qui ont voté pour Hadopi ? C’est pas gagné.

Heureusement pour moi, si il est trop tard pour des études d’avocat, je sais quand même crypter mon IP.

* Le terme “digital” est utilisé ici comme traduction du mot anglais digital (numérique). Numérique nous renvoyant à l’époque des autoroutes de l’informations (1995), nous lui préférons ce terme anglais, à la mode en ce moment. Les territoires digitaux regroupent le web, l’internet mobile, mais également les consoles permettant du jeux vidéos en réseaux, les objets connectés (Nabaztag, GPS, etc.)

> Illustrations par Andrea Vascellari, par niallkennedy et par ottonassar sur Flickr

]]>
http://owni.fr/2010/03/17/frontieres-digitales/feed/ 15