La vision transhumaniste prévoit la possibilité dans un futur proche de télécharger son cerveau sur le réseau. Vision à la fois séduisante et effrayante mais qui n’est pas sans implications quant à la nature de l’intelligence ainsi transférée.

Commençons par voir le cerveau comme une boite noire qui prend des intrants et produits des extrants. Numériser le cerveau de manière fidèle consiste alors à pouvoir produire pour tout intrant le même extrant qui serait produit par le cerveau « réel ». Passons sur le fait qu’une telle preuve est impossible à établir, et intéressons nous à la manière de produire une version digitale du cerveau. Pour produire les mêmes extrants à partir d’intrants donnés il faut être capable de reproduire les règles du fonctionnement du cerveau. Les transhumanistes envisagent qu’avec les progrès de la science/médecine il soit possible d’extraire ces règles (qui seraient spécifiques à chaque individu) et de se libérer ainsi de la matérialité du cerveau.

Malgré les difficultés que cela représente, admettons. On réussirait donc à créer un modèle numérique du cerveau dont les réactions seraient strictement équivalentes à celui sur lequel il a été copié. Cela suffit-il à conclure à la réussite de l’entreprise ? Heureusement/Malheureusement loin de là !

En mathématique irait-on conclure que deux courbes ayant un point commun sont identique ? Non elles ont seulement un point commun. En génétique, deux phénotypes exactement identiques peuvent disposer de génotypes différents, du fait de ce qu’on appelle la neutralité. Par exemple certaines mutations génétiques sont dites neutres parce que plusieurs codons peuvent coder le même acide aminé. Seulement l’étude de la neutralité montre que deux génotypes ayant la même expression phénotypique à un temps T n’ont plus nécessairement la même expression à un temps T+n.

Dans notre cas notre disposons de deux représentations, l’une analogique l’autre digitale, s’exprimant de la même manière à un temps T. Expression que j’appellerai « intelligence ». Toute la question est de savoir si intelligence analogique et intelligence digitale disposent de la même dynamique. Et c’est bien là que la théorie transhumaniste risque le plus de se trouver prise en défaut. En effet les chercheurs en intelligence artificielle (particulièrement les chercheurs en programmation génétique) ont depuis plusieurs années compris qu’à une représentation particulière d’un problème correspond ce qu’ils appellent un landscape qui influence très fortement les probabilités d’évolution de leurs algorithmes dans une direction plutôt que dans une autre. Un changement de représentation modifie donc le landscape et les probabilités associées. Il en va de même pour le cerveau : un changement de représentation modifie les probabilités d’évolution de l’intelligence résultante dans un sens plutôt que dans un autre. C’est cette divergence liée à la représentation qui fait dire à Rucker et Wolfram que l’univers n’est pas simulable par autre chose que lui-même (voir à ce sujet l’article de Rémi Sussan).

Mais alors quel serait l’évolution d’une représentation digitale de notre cerveau ? Dans le meilleur (et probablement dans la plupart) des cas elle se dégraderait. La capacité de l’intelligence humaine à réaliser le lien entre le passé et le futur, à avoir conscience du corps qui l’abrite, en un mot sa capacité réflexive, est une chose. Maintenir cette capacité, la faire persister dans le temps, en est une tout autre. Nombreuses sont les maladies psychiatriques qui prouvent que l’équilibre sur lequel se tient l’intelligence est fragile.

La dégradation de l’intelligence digitale est donc très probable mais on peut tout aussi bien imaginer une évolution pathologique ou une évolution « méchante », i.e. nuisible à elle-même ou aux autres. La probabilité de cette dernière possibilité est probablement faible, mais en même temps si vous réunissez suffisamment de singes et leur faites assembler des lettres de scrabble pendant suffisamment longtemps, la possibilité de voir apparaitre une séquence de lettre correspondant au texte de la bible est égale à 1…

Dernier billet sur les relations entre la philosophie de Berkeley et l’actualité digitale. Berkeley fait la distinction entre « concept général » et « terme général ». Dans sa sémiotique, le signe « arbre » peut être compris comme un concept, par la relation qu’il entretient avec d’autres concepts. Il soutient cependant qu’il n’est pas nécessaire d’être capable de concevoir ce qu’est un arbre (si tant est que cela soit possible) pour pouvoir en utiliser le signe. C’est-à-dire qu’il est possible sans disposer du concept d’arbre d’en reconnaitre un ou d’en parler. L’arbre est alors un terme général : il regroupe un ensemble de perceptions décrites par ce signe, c’est-à-dire les images mentales associées à ce signe. Il est alors possible par analogie de reconnaitre d’autres arbres. Ces « mémoires » réunies sous le même terme d’arbre seront différentes d’un individu à un autre mais cela ne les empêchera pas de communiquer autour de ce terme. En l’absence d’un concept partagé ils risquent cependant de ne pas pouvoir s’accorder sur ce qu’ils placent exactement derrière.

L’entreprise du web sémantique se place clairement du point de vue du « concept général ». Il s’agit (comme pour la science en général) de construire des modèles permettant de « décrire la réalité ». Il ne s’agit pas de remettre en cause l’utilité d’une telle approche mais il faut en garder les dangers à l’esprit. Un modèle distille une version de la réalité. L’histoire des sciences montre que des modèles ont pu entrer en conflit, certains en supplanter d’autres, etc…

Cependant un phénomène qui peut exister dans le domaine des sciences mais à une magnitude bien moindre que dans le monde des affaires est « l’effet de réseau » d’un modèle. L’effet de réseau dans ce cas peut s’énoncer de la façon suivante : si mon voisin se met à utiliser le même modèle que moi alors la valeur que je tire de ce modèle augmente.

Cet effet de réseau a de fortes chances d’être important à l’heure de la conception des outils du web sémantique : les développeurs iront vers les vocabulaires les plus répandus, ceux qui leur permettront de maximiser le territoire sur lequel seront utilisables leurs outils. Alors, bien sûr, rien n’empêchera qui que ce soit de créer son propre modèle, mais dans les faits on risque d’assister à une convergence sur un petit nombre qui assureront une interopérabilité maximum.

Alors quel rapport avec Berkeley ? Il est dans le rapport entre concept et terme général. L’usage d’un langage se fait par aller-retour entre concepts et termes généraux. Que se passe-t-il alors lorsqu’il y a inconsistance entre un terme général et le concept associé ?

En effet, on peut raisonnablement imaginer que parmi les modèles sémantiques dominants à terme, bon nombre seront d’origine anglo-saxonne (et/ou peut-être chinoise). L’utilisation de ces schémas pourra-t-elle préfigurer d’un alignement des schémas conceptuels et par suite des usages linguistiques dans leur ensemble sur la langue anglaise ? Ou saurons-nous les faire coexister avec nos propres modèles conceptuels et termes généraux ?

Second post de la série consacrée aux liens entre la philosophie de Berkeley et les mondes digitaux. Le point de départ en est la seconde partie du principe de Berkeley :

Exister c’est percevoir.

Peut-on alors dire que Percevoir plus, c’est exister plus ? La réalité augmentée permet d’établir des ponts entre l’univers réel et un/des univers digitaux, mais pour répondre à cette question il faut se demander :

  • La réalité augmentée permet-elle de percevoir plus ou seulement de percevoir différemment ? Peut-elle devenir une sorte de 6e sens qui nous donne accès à l’information ambiante ?
  • Peut établir une telle relation ? Berkeley ne pose pas de rapport d’intensité entre percevoir et exister. Une autre manière d’aborder la question est de se demander si Percevoir moins c’est exister moins

Qu’en pensez-vous ?

L’idée de ce post m’est venue de la lecture de l’ouvrage d’André Scala sur Berkeley, qui m’avait par ailleurs inspiré une réponse à un twit d’Hubert Guillaud. Je trouve des parallèles intéressants entre la pensée de Berkeley et le fonctionnements des univers digitaux. Je vais essayer au cours de deux billets de les restituer, tout en priant les lecteurs avertis d’excuser les imprécisions qui pourraient résulter de ma faible culture philosophique.

Berkeley fonde sa philosophie sur un principe qui se décompose en deux parties. La première est la suivante :

Esse est percipi

Ce qui peut se traduire par Etre (au sens d’exister), c’est être perçu. La négation de cette équivalence revient à dire que ce qui n’est pas perçu n’existe pas. Ce qui a valu à Berkeley de nombreuses critiques ou sarcasmes de nombre de ses contemporains qui prirent des exemples du type : si je vois un arbre devant moi alors il existe, mais dès que je tourne la tête, il cesserait donc d’exister… L’absurdité apparente d’une telle assertion tient à la croyance d’un monde existant dans l’absolu, d’une essence des choses qui se manifeste au travers de leur apparence. Berkeley, lui, s’en tient au fait que seules existent les perceptions.

L’objet de ce post n’est pas de prendre parti dans cette opposition de conceptions mais d’illustrer comment le postulat de Berkeley est pertinent dans le cadre des mondes virtuels. Soit donc un univers virtuel du type Second Life. Cet univers est vaste, et comprend par exemple de nombreux arbres. Imaginons que dans cet univers il existe du vent (ou un phénomène s’y apparentant), qui fait donc bouger les feuilles des arbres. Si mon avatar se trouve devant un tel arbre, il est donc normal que je voie ses feuilles bouger. Si maintenant je m’en vais, les feuilles de cet arbre vont-elles continuer de s’agiter ?

Un recyclage d’une conception largement partagée sur le fonctionnement du monde réel nous conduirait à dire que oui (bien que dans aucun des cas nous ne puissions en être témoins puisque nous ne sommes pas là…). Cependant continuer de calculer les mouvements des feuilles de cet arbre est extrêmement couteux en ressources de calcul quand personne n’est là pour en profiter. Surtout lorsqu’on multiplie cet arbre en des milliers d’exemplaires…

Une solution pour diminuer ce coût est le recours à une « représentation générative ». Le terme est repris d’un échange dans les commentaires suite à un article de Rémi Sussan sur la création d’objets dans les univers virtuels. Les représentations génératives consistent en l’utilisation d’une « graine » à laquelle on applique une suite de règles pour reconstruire un objet à la demande. Par exemple le nombre 33 232 930 569 601 est égal à l’application à quatre reprise de la règle « monter au carré » à la graine « 7 ». Ainsi le stockage d’une graine et d’un ensemble simple de règles peut se révéler beaucoup plus économique en permettant de reconstruire les objets à la demande que le maintient d’une simulation complexe en permanence.

Dans ce type de mondes générés selon les besoins, ce qui existe est bien ce qui est perçu. Et la frontière entre monde virtuel et monde réel est plus fine qu’on ne s’empresse de s’en convaincre. Il suffira de regarder Matrix ou de songer à ces rêves plus vrais que nature qui nous troublent tant…

Le prochain post sera consacré à la seconde partie du principe de Berkeley qui permettra de faire le lien avec la réalité augementée, et le suivant à la relation entre la doctrine des signes de Berkeley et le web sémantique.

Question quelque peu provocatrice face à l’idée généralement admise que les liens sont le sang et la chair de l’internet. Elle m’est venue suite à mon dernier article que j’ai publié sans un seul lien. Cette absence  était volontaire mais sans raison bien identifiée. Ci-dessous différentes possibilités :

  1. Je suis paresseux. C’est possible, mais si c’était une raison suffisante je ne bloggerais probablement pas du tout…
  2. Je suis orgueilleux: j’estime que la valeur ajoutée des liens est marginale comparée à la valeur de mon article. L’analyse que j’y propose se suffit à elle-même. Il y a probablement de cela…
  3. Je suis à la fois paresseux et orgueilleux, certes, mais la valeur d’un lien n’est pas nécessairement positive.

Considérons cette dernière possibilité. Nous avons tous fait l’expérience d’un lien que nous nous félicitons d’avoir suivi et que nous remercions l’auteur d’avoir placé dans son article. Inversement combien de liens sans intérêt pour un lien de qualité.

Il est possible d’essayer d’évaluer la valeur intrinsèque d’un lien. Il faut alors mettre en balance la valeur apportée par le lien et le coût représenté par le click et le temps passé sur la page de destination. Un lien peut avoir une forte valeur positive et seulement une faible valeur négative, on peut donc aisément imaginer qu’on aboutit à une valeur moyenne des liens positive. Si on suppose que la valeur cumulée de liens d’un article est additive, c’est-à-dire que la valeur de la somme des liens est égale à la somme des valeurs des liens, alors la valeur ajoutée des liens d’un article croît avec leur nombre.

Je vois en plus aux liens d’un article une valeur de « réseau », ou plutôt une moins-value de réseau. Je suis même tenté d’affirmer que le moins-value marginale des liens est croissante. Sous cette condition la valeur moyenne mais aussi la valeur totale des liens peut être amenée à diminuer avec l’ajout d’un nouveau lien. Comment justifier d’une telle moins value de réseau ?

La sociologie de l’entreprise nous apprend que l’angoisse du manager est liée au nombre de choix qui sont à sa disposition : face à ce choix trop vaste, le manager manque d’outils pour évaluer la meilleure marche à suivre. La peur de se tromper et l’incapacité à y faire face est cause de cette angoisse, et aboutit généralement au statu quo.

Pour reprendre cette image, la surabondance de liens me conduit généralement à ne pas cliquer : n’ayant pas le temps de tous les explorer, et ne disposant pas des outils me permettant de juger ceux qui présentent le plus de valeur pour moi…

En observant mes propres comportements et ceux des visiteurs de ce blog, j’ai fait les observations suivantes qui tendent à conforter l’analyse précédente :

  1. Les liens fondus dans le texte sont peu clickés
  2. Plus 2 liens sont proches dans le texte et moins ils sont cliqués
  3. Les liens auxquels je consacre plusieurs lignes de contextualisation/description (comme dans les Fourre-tout) sont les plus cliqués

Qu’en pensez-vous ?

Le lien entre l’existence d’un objet et la perception que l’on a en est sujet à débats philosophiques depuis bien longtemps. Ce n’est pas mon objet que de l’aborder mais il se rapproche du lien que l’on peut faire entre la présence d’un individu et la perception qu’on a de lui.

Ce sujet m’a paru d’intérêt alors que l’on parle de « présence ambiante » en regard du succès des réseaux sociaux et de leur portage imminent sur terminaux mobiles. Avant de se consacrer aux univers digitaux faisons un détour par l’univers réel qui est le notre.

Supposons l’existence d’hommes invisibles, ou devrais-je dire d’hommes imperceptibles. Ils peuvent alors être présents dans mon salon alors que je regarde la télévision, mais ne pouvant les percevoir je n’aurai pas conscience de cette présence. De mon point de vue il n’y a présence que dès lors que je perçois.

Mais percevoir quoi ? Une forme, une odeur, une ombre…? N’importe : ce sont là autant de marqueurs de l’identité de la personne qui m’indique sa présence à défaut d’être suffisamment révélateur pour me dévoiler son identité.

L’absence, la présence imperceptible, puis la présence anonyme. De là se déroule un continuum qui permet de caractériser de mieux en mieux cette présence, jusqu’à ce que la personne nous soit pleinement perceptible : son visage, sa corpulence, son odeur, le son de sa voix,…

Marqueurs imperceptibles

Dans le métro nous sommes percevons les autres voyageur (parfois même un peu trop…), ils n’en restent pas des anonymes. Cependant nous amenés à reconnaitre ces personnes que nous y croisons régulièrement. L’anonymat s’entend donc ici en terme d’état civil. Ils nous sont anonymes sans nous être totalement étrangers. Nous connaissons certains marqueurs de leur identité sans être capable de les connecter à d’autres que sont leurs noms, adresses, etc…

Comme illustré par ailleurs, il n’existe pas une définition unique absolue de l’identité. Il s’agit plutôt d’un ensemble à géométrie variable de marqueurs dont la cohérence persistante nous permet d’affirmer d’une fois sur l’autre qu’une personne est celle dont nous avons la mémoire.

Au-delà de ces considérations sur l’identité il n’en reste pas moins que des marqueurs tels que ceux constituant l’état civil ont un importance particulière car ils permettent de désigner une personne de manière (relativement) non-ambiguë. Ces marqueurs, contrairement par exemple au visage ou au son de la voix, sont des marqueurs imperceptibles : il ne nous est pas donné de les connaitre de manière immédiate au travers de nos sens.

Médiation de la perception dans les univers digitaux

Dans les mondes digitaux nous ne percevons que ce que notre interface (essentiellement notre écran) nous transmet. Certains services tentent d’introduire une forme de perception de « l’autre » sans laquelle il ne peut y avoir de dimension sociale.

Ainsi lorsque je visite une page web, je suis a priori invisible pour les autres personnes présentes sur la même page au même instant. Les forums informent de la présence d’utilisateur « anonymous ». On peut aussi connaitre les pseudos des membres inscrits présents.

La volonté de rendre la navigation internet plus sociale se traduit par l’ajout de marqueurs supplémentaires sous forme d’avatars, qui vont des images 2D fixes aux représentations 3D mobiles. Ainsi les services proposant le « walking web » transforment une page 2D à usage individuel en un univers 3D, lieu d’échange et de mouvement.

Cette socialisation du web consiste donc à le transformer d’un lieu privé en un lieu public de divulgation de soi. Divulgation de marqueurs de son identité, ces marqueurs pouvant être liés à notre réalité physique (photos par exemple) ou pas.

La médiation de la perception permet donc l’enrichissement de la notion d’identité par la création de nouveaux marqueurs (marqueurs synthétique) ou par le travestissement de marqueurs « physiques » (photos truquées).

Ce nouveau flou qu’introduisent les mondes digitaux autour de la notion d’identité me parait, malgré les risques de manipulation qu’il introduit, être un juste retour des choses face au diktat réducteur de l’état civil. Sur le net la question « Qui es-tu ? » ne dispose pas d’une seule réponse…

Pour les tenants de l’indépendance de la forme et du fond, des services web récents illustrent l’influence de l’un sur l’autre. Twitter et 12seconds.tv en sont des exemples : ces services reprennent des modalités d’expression (le texte et la vidéo respectivement) préexistantes et leur adjoignent une contrainte, celle de la concision.

La question qui vient à l’esprit est : en quoi cette contrainte, que chacun pourrait s’appliquer de manière volontaire en utilisant des outils déjà existants (blogs pour Twitter, et plateforme de vidéo telles que Youtube ou Seesmic pour 12seconds.tv), suffit à fonder le succès de ces services ?

Cette contrainte de concision pourrait être comparée à celle imposée lors d’exposé oraux, présentations, elevator’s pitch… obligeant le locuteur à s’exprimer de manière synthétique. Cependant les effets constatés sont beaucoup plus profonds : on ne dit pas la même chose en moins de mots, on dit des choses différentes.

De la même manière que des modalités d’expression différentes trouvent des pratiques différenciées, ces nouveaux services introduisent de nouveaux modes de communication. Une fois apprivoisés on peut s’attendre à ce qu’ils nous deviennent aussi naturels et complémentaires (non concurrents) que des modes de communication déjà existants.

A quand un perec.com qui nous oblige à nous exprimer sans utiliser la lettre « e » ?

J’ai été publié voici quelques jour sur le blog Alt Search Engines. Suite à un commentaire laissé sur son blog, Charles Knight m’a demandé de traduire l’article auquel je liais : Idée reçue numéro 2 : le web sera 3D ou ne sera pas. Je l’ai un peu édité et cela donne 2-D or not 2-D : that is the question (titre de Charles).

C’est le début d’une reconnaissance internationale ! (bah tiens…)

Thank you Charles for the opportunity.

  1. Je me suis ouvert un compte sur Twitter. Je n’ai pas de plage de disponibilité assez longues pour écrire des articles « de fond » comme je le faisais, et je n’ai pas réussi à écrire des articles semi-structurés comme j’en avais l’intention. Dans le cadre de ce blog Twitter pourrait m’aider à mettre en place une forme de write as you think, quitte à me contredire, à être confus, etc… comme ma réflexion a tendance à l’être avant d’accoucher d’un article de blog. Mon compte : http://twitter.com/ihmmedia

  2. Mobilizing the web : Small Surface (définitivement une ressource de grande qualité) cite un article d’Adaptive Path (définitivement un cabinet de design où on se pose des questions). Je me contente de citer la dernière phrase qui me parait tellement pleine de vérité :

    Most importantly, it will have to be based on a deep understanding of how people want to use Internet content in mobile contexts.

    On réplique actuellement notre mode de consommation de l’information en mode statique sur le mobile. La mobilité crée un (des) contexte physique et cognitif tellement différent de celui d’un bureau, que les pratiques seront nécessairement différentes. Les outils finiront par s’adapter au contexte puis par en tirer parti.

  3. Ca me ramène à des réflexions que j’avais plutôt au démarrage de ce blog sur la mobilité. J’ai en effet porté un projet voici deux ans qui m’a amené à beaucoup turbiner sur le sujet. Voici un lien vers un article sur le design d’interaction pour les interface mobiles que j’ai pris plaisir à relire (quelle prétention !).

  4. Encore Small Surface rapporte le concept de tapping and sharing développé par Nokia. Il s’agit d’utiliser la technologie NFC pour déclencher des services grâce au « toucher ». Cette techno est celle utilisée dans les pass Navigo. Nokia l’utiliserait pour déclencher des fonctionnalités particulières en approchant le téléphone d’un tag particulier. L’environnement physique devient alors une interface d’interaction avec le téléphone. Le contexte, encore lui, s’exprime directement en devenant l’interface. Au MEX la phrase The content is the interface est un lieu commun, bien que je la comprenne mal. Moi je donnerais plutôt dans The context is the interface. Ca m’évoque un post sur les surfaces d’engagement et de contact entre hommes et interfaces…

L’origine de ma réflexion sur les différences entre univers 2D et 3D vient de l’utilisation extensive du terme Web3D comme successeur au Web 2.0. J’avais écrit un article critique sur le sujet. J’essaie dans le présent post de définir quelques caractéristiques différentiant les espaces 2D et 3D.

 

Navigation météorique

Notre espace physique étant à 3 dimensions, nous ne faisons jamais physiquement l’expérience d’un espace à 2 dimensions. Une simplification mentale nous fait cependant concevoir un écran d’ordinateur, une page de livre, un mur, une façade comme un espace 2D.

Une telle surface plane étant baignée dans un espace de dimension 3 il est possible à l’observateur de s’en éloigner ou de s’en rapprocher en évoluant selon la dimension orthogonale à cette surface (je peux coller mon nez au mur ou prendre du recul).

A l’évidence lorsqu’on s’écarte d’une surface, on se permet de l’embrasser du regard plus largement mais on distingue moins bien les détails qui y figurent. Il existe donc un compromis entre la surface observée et la résolution d’observation. Ainsi, si du pied de la tour Montparnasse je m’éloigne, je vais pouvoir (pourvu que je puisse m’éloigner suffisamment) observer la tour dans son ensemble d’un seul regard, i.e. sans avoir à lever la tête. Je ne pourrai cependant plus percevoir les traces de doigts sur les vitres à cette distance.

Il s’agit là du principe mis à l’oeuvre dans la navigation météorique (dont il fut question dans un article précédent sur les espaces contigus et continus) : s’éloigner pour changer d’échelle, et offrir une perspective plus large et des déplacements plus rapides.

 

Jeux vidéos 2D

La perception des détails n’est par ailleurs pas identique pour l’ensemble d’une surface observée : si la résolution est inversement proportionnelle à la distance d’observation, ce qui est loin de moi m’apparait moins clairement. Ainsi regardant la tour Montparnasse, et étant moi même au sol, certains détails qui seront observable sur la partie inférieure de la tour (les montants des fenêtres par exemple) ne le seront pas pour le sommet (qui est beaucoup plus loin de moi, cf théorème de Pythagore…). Ce principe ne se vérifie pas seulement lorsqu’on observe un surface 2D. La résolution est inversement proportionnelle à la profondeur de champ.

Voilà quelques années encore la plupart des jeux se jouaient en 2D et à la 1ère personne. Pour rendre dans le monde 2D les limites de la vision humaine, ces jeux ont recréé un « flou » sous forme d’un assombrissement centré sur le ou les avatars incarnés par le joueur (voir screenshot de Civilization 3 ci-dessous). Puisque nous ne sommes pas capables, nous créatures 3D, de nous projeter dans un monde en 2D, les conditions d’une projection sont artificiellement recréées en nous empêchant de voir ce que nous pourrions voir du fait de notre distance à l’écran mais que nous ne pourrions pas voir si nous étions à l’intérieur du monde rendu.

 

Champ de vision et cloisonnement

Pour les jeux à la première personne le champs de vision ainsi recréé est de forme circulaire. Sauf à l’intérieur de bâtiments où les murs restreignent la profondeur de champ. Ainsi le joueur devant l’écran pourrait voir ce qu’il y a derrière le mur, mais l’avatar ne le peut pas. La projection du champ de vision se fait donc en rendant sa dégradation avec la distance mais aussi son possible cloisonnement…

Le cloisonnement est (pour nous habitant un monde en 3D) propre à un espace 3D. Si on met de côté la projection dans un espace 2D dont il vient d’être question, il est impossible de construire un « mur » dans un espace 2D. Le cloisonnement conduit à passer de la notion d’espace à la notion de « site » (place en anglais chez Dourish). Le cloisonnement d’un appartement permet d’en séparer les différentes pièces. Il permet une spécialisation des sites ainsi créés. Et de cette spécialisation découlent des conventions et des schémas mentaux qui conditionnent notre action. Si à un diner chez des amis je cherche un couteau, je commencerais par chercher la cuisine.

Cet exemple peut sembler trivial, mais si sur un ordinateur qui n’est pas le mien je recherche un document particulier, par où vais-je commencer à chercher ? La spécialisation permet donc en premier lieu de diviser l’information entre les différents sites et ainsi de réduire la charge informationnelle en chacun d’eux. En second lieu, la spécialisation des espaces permet la mise en place de routines qui réduisent la charge cognitive des tâches à effectuer : prenez en exemple ces matin où, de votre lit, vous vous rendez à votre douche presque mécaniquement, puis avalez votre petit-déjeuner et vous retrouvez au métro sans même avoir l’impression d’avoir réalisé une seule opération consciente.

 

Angles morts, point de vue et immersion

Le cloisonnement est reproductible en 2D par projection au travers d’un avatar. Hors des jeux, cette technique n’a, me semble-t-il, jamais été utilisée dans des interfaces. Elle mériterait qu’on s’y intéresse…

Le cloisonnement est associé à la définition du champ de vision. De la même manière l’angle mort est associé à la définition du point de vue. Je ne peux voir les deux profils d’un même visage en même temps (sauf dans les peintures de Picasso). Il faudrait disposer d’une 4e dimension, celle du recul, pour pouvoir embrasser un objet 3D dans son ensemble (4e dimension difficile à se représenter, j’en conviens). Les angles mort au sens strict sont les zones du champs de vision obstrués par des objets (le cloisonnement n’est alors rien d’autre que la définition d’angles morts). Ici l’angle mort peut aussi prendre le sens de « face cachée », c’est-à-dire la portion d’un objet appartenant à la zone du champ de vision que lui-même obstrue.

En changeant de position, les angles mort changent aussi. Chaque point de vue est unique. Cette variation en fonction de la position est extrêmement difficile à recréer par projection dans un univers 2D, d’où le qualificatif d’immersif accolé aux mondes synthétiques 3D : la sensation d’immersion liée au point de vue ne peut être recréé sans la troisième dimension.

 

Conclusion : De la 3D à la notion de chemin

Dans ce post j’ai utilisé les notions de champ de vision et de point de vue pour distinguer espaces 2D et espaces 3D. Des différences qui ont été relevées il faudrait ensuite passer aux conséquences sur nos pratiques. Celles-ci sont cependant, en général, le résultat d’un parcours, d’un succession d’actions prenant place dans les mondes physiques et/ou digitaux. Il existe donc une forte connexion entre les pratiques et les déplacements topographiques. Nous entrons là dans la sphère du design d’interaction. L’étape suivante est de s’interroger sur ce en quoi les chemins (au sens de parcours) dans des espaces 3D diffèrent des chemins dans les espaces 2D. Par ailleurs il pourrait être fructueux de confronter les notions de champ de vision et de point de vue aux espaces contigu (comme le web) alors qu’elles semblent consubstantielles aux espaces continus.