Dans l’espace physique, la trace n’est pas une vérité, c’est un indice, une donnée passée, transformée, et elle est perçue comme telle.
Alors que le vent du désert efface les marques sur le sable, que la chaleur du soleil fait fondre les empreintes laissées dans la neige ; il y a peu d’aléas climatiques dans l’espace numérique ou pas encore.
Sur le web, nos données, simplifications de nous-mêmes, sont lues par des cookies avec l’objectif souvent d’en tirer profit. Nous traquer pour nous connaître, prédire nos comportements, nous suggérer de nouveaux désirs* (économie de l’attention), nous vendre des produits ou nous vendre comme produit (marchandisation de la vie). Mais ces données peuvent aussi constituer des souvenirs, prévoir, prédire des situations pour les anticiper, proposer des services et des biens «individualisés», faire vivre une expérience, améliorer le quotidien, nous mettre en relation.
Dans l’espace numérique, il y a une équivalence implicite entre traces et données. Les traces sont des données présentes, actives ou activables (valeur latente), des données exploitables et souvent exploitées qui agissent sur l’espace qui les contient. Le présent a valeur de quasi-éternité, espaces et temps se transforment, et le contexte disparaît.
L’algorithme transforme la trace
Dans un problème mathématique, la donnée est la base, elle est le contrepoids de l’inconnu, et nourrit avec les axiomes le «problème» en vue d’en trouver la «solution». Données et résultats : il s’agit de construire la bonne opération pour aller de l’un à l’autre. Dans l’espace numérique, cette opération c’est souvent l’algorithme.
Les algorithmes sont des recettes, il y en a des bonnes et des mauvaises, mais ils sont souvent jalousement conservés, alors que nous les nourrissons collectivement par nos données. Ne devraient-ils pas, au bout d’un certain temps, tomber dans le domaine public comme un bien commun à la manière des brevets industriels ? Ou devenir des outils ouverts pour s’organiser collectivement ? ** Leurs natures et leurs structures sont essentielles car ils construisent un monde.
Par exemple, le jumeau numérique du bâtiment, la maquette BIM (je m’intéresse ici davantage au BIM exploitation qu’au BIM conception) conserve toutes les traces/données reçues par ses capteurs. Un algorithme lui permet de réagir et de s’adapter, voire d’anticiper, comme dans le cas d’intelligences artificielles. La maquette BIM exploitation, devient alors une ressource d’une grande valeur pour assurer le bon fonctionnement du bâtiment en termes de dépenses énergétiques mais aussi d’usages des espaces, d’accès et de consommation de services, de coordination des n-spaces etc.
En conséquence, la mise au point de ces algorithmes et de ces IA sera précieuse. Ils différencieront entre eux les ‘smart building’ de demain, et constitueront une part essentielle de l’identité et du langage du bâtiment.
Des données spatiales sanctuarisées
Quant à l’ensemble des données collectées, à l’échelle d’un îlot ou d’un bâtiment, je défends l’idée qu’elles puissent appartenir au «bâtiment». Elles, devraient être dans tous les cas conservées par des tiers de confiances car c’est aux habitants des lieux de décider collectivement qui peut y avoir accès. Cet accès pouvant être rémunérateur, elles seront une nouvelle ressource pour entretenir nos bâtiments – passage du bâtiment passif au bâtiment actif.***
Mais pour qu’elles soient utilisables et compréhensibles, il est nécessaire de les organiser. Il s’agit de créer des modèles similaires à des cristaux indépendants connectés au réseau et dont les échanges et le fonctionnement interne demeurent sanctuarisés.
Ordonner la donnée
Pour mieux nourrir un algorithme, il est préférable que la trace conservée soit associée à des métadonnées contextuelles importantes, permettant d’organiser les n-spaces. Une cartographie devient alors nécessaire. La donnée doit être taguée, classée, triée, ordonnée puis combinée. Une smart-data qui renseigne, entre autres, qui parle ? À qui ? En réponse à quoi ? Quand ? Et où ?
Pouvoir connaître l’unité de mesure et non pas uniquement la mesure elle-même. Sa valeur est alors décuplée. Les données peuvent s’organiser autour de chaque individu (comme le font certains acteurs du web), mais aussi autour de lieux, de groupes d’individus et répondre à des informations statistiques valables pour tous les êtres humains. Elles participent au fonctionnement des n-spaces.
Pourtant, aujourd’hui, nous sommes submergés d’informations accessoires, de données inutiles ou inexploitables, à l’image des milliers voir des dizaines de milliers de photos qui s’entassent dans notre ordinateur ou dans le cloud. Notre passé s’épaissit.
Cette quantité croissante induit une nécessaire organisation et pose aussi de nouvelles questions : la préciosité ou la valeur, l’intérêt de ces données : quelles sont les photos les plus importantes ? Selon quels critères ?
Ecologie de la donnée
La conservation des données coûte cher et les musées de nos vies grandissent de manière exponentielle. La dépense d’énergie attribuée aux ordinateurs, réseaux, data center, etc. ne cesse de croître atteignant près de 10 % de la consommation d’électricité mondiale. L’accumulation du nombre de données et l’augmentation croissante de leur taille interroge. D’autant que dans la majorité des cas, un niveau de précision important encombre. Augmenter systématiquement le nombre de chiffres après une virgule ne sert à rien. L’or se pèse au milligramme près, le sable non. Ce problème est similaire dans les démarches BIM où le niveau de précision à intégrer doit prendre en compte l’objectif final pour éviter que les modèles créés ne deviennent trop complexes, confus et énergivores.
‘Fake news’ et post-vérité
Mais comment faire le tri ? D’autant que toutes ces données conservées par défaut peuvent parfois produire des contresens en ré-émergeant hors contexte. **** Face à ces potentielles erreurs, un moyen pour rétablir ou contredire «une vérité» est de produire volontairement des contre-données, c’est à dire d’autres informations. Faire disparaître ses traces par dissolution, en en faisant émerger de nouvelles qui apportent des informations contraires. Ces attitudes sont la conséquence (ou l’origine) des fausses nouvelles.
Ces accumulations d’informations contradictoires participent à la post-vérité où toute action, événement devient imaginable, reconstructible, interprétable : c’est la multiplication des jugements. Ce champ d’opinion produit une pâte informe où vérités, analyses, mensonges et avis se confondent.
Cette prolifération de pensées contradictoires laisserait espérer un accroissement de nuances, mais le flou généré est aussi net qu’une trace fraîche. Dans l’espace physique la trace se floute visiblement à l’image de la photo qui jaunit. Ici tout est précis, mais c’est une netteté lisse et très localisée : elle masque le contexte, à l’image d’un objectif de caméra qui, en choisissant le sujet sur lequel il fait sa mise au point, fait disparaître l’autour. Ce simulacre de précision hors contexte est souvent inutile. Combiné à une accumulation excessive, il participe à masquer les informations importantes d’un sujet.
Heureusement, vues d’un autre côté, les données conservées peuvent se retourner contre celui qui pensait les contrôler à la manière dont Wikileaks a mis à jour des informations que leurs auteurs ont cherché à cacher ! C’est l’arroseur arrosé. Le hacker est aussi celui qui est capable de déchiffrer les palimpsestes. Il est d’ailleurs surprenant qu’aucune république n’ait accepté de défendre et d’accueillir des lanceurs d’alerte tels que Julien Assange ou Edward Snowden.
Concevoir simultanément architectures physiques et numériques et expérimenter les algorithmes qui régiront les bâtiments de demain demande d’interroger les traces : comprendre leurs natures, bien sélectionner et bien ordonner la donnée, à travers un langage commun et une interopérabilité. Bien définir leur niveau de précision, les ordonner collectivement, par exemple à travers un réseau ‘blockchain’ de sachants ou de tiers de confiance dont il conviendrait de déterminer droits et devoirs.
Cette attitude pourrait éviter de tomber dans les travers des ‘fake news’ et de post-vérité qui participent à gangrener le web et les réseaux sociaux que nous pratiquons aujourd’hui. C’est ce que nous devons mettre en place, à différentes échelles, au sein de nos futurs ‘smart-territoires’.
A l’ère de la transparence, les traces sur les murs deviennent précieuses tout comme leur disparition, leur floutage et leur structuration sur les murs web. Pourtant c’est sans doute en mettant en relation, l’une et l’autre que l’on ouvrira des champs de réalité augmentée.
Eric Cassar
Retrouver toutes les chroniques des n-spaces
*Voir l’article : un Capitalisme de surveillance (Le Monde diplomatique, 01/19)
** «Il est grand temps de reprendre la main sur les algorithmes qui nous gouvernent» Le Monde (22/06/19)
*** Lire notre chronique Combinaison d’intelligences numériques et humaines
**** Lire «N-spaces» ou de la nature de la trace numérique