Catégorie : Géographie

  • Les géocommuns au service de la société

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Sébastien Soriano,  directeur général de l’Institut national de l’information géographique et forestière (IGN) depuis janvier 2021. Les cartes géographiques sont un élément essentiel des communs. C’est aussi l’occasion pour Sébastien Soriano de revenir sur certains thèmes de son livre récent [1], « Un avenir pour le service public »
    Sébastien Soriano en 2015. Wikipédia.

    Binaire : peux-tu raconter aux lecteurs de binaire ton parcours ?

    Sébastien Soriano : Je suis ingénieur des télécoms. J’ai travaillé dans des cabinets ministériels notamment sur la mise en place de la French Tech et du plan France Très Haut Débit. Et puis j’ai passé une partie de ma vie à travailler sur la concurrence, en particulier dans le domaine des télécoms comme Président de l’Arcep. Je me suis aussi investi sur l’Europe, comme président de l’agence européenne des télécoms, le BEREC. Enfin, j’ai écrit récemment un livre sur le service public[1], dont l’idée principale est assez simple : Il faut penser un « État augmenté ». Il faut sortir du débat dominant : faire comme avant mais avec plus de moyen pour l’État, ou de réduire le rôle de l’État en abandonnant certaines de ses responsabilités au privé. Je prône plutôt ce que j’ai appelé l’« État en réseau », un État qui construit des alliances avec des acteurs, collectivités locales, associations, collectifs citoyens, entreprises…, pour augmenter son impact et relever les nouveaux défis, en particulier écologiques.

    Cette réflexion m’a conduit à approfondir la notion de commun. A l’Arcep, j’avais poussé l’idée de voir les réseaux comme « biens communs », au service de tous. Cela m’a pris un peu de temps de comprendre qu’ils devaient être plus que cela, véritablement devenir des « communs » au sens où ils devaient être codéployés par une galaxie d’acteurs plus large que quelques grandes entreprises privées. C’est apparu clairement avec la 5G. Il est devenu évident qu’une large partie de la société devait être impliquée dans son déploiement, qu’elle devait être associée à l’action au-delà d’un simple rôle de spectateur.

    Interface d’édition d’OpenStreetMap

    b : Quelle est la place de l’Open data à l’IGN ?

    SSo : L’IGN, qui a une forte culture d’innovation, s’est bien informatisé avec l’arrivée des systèmes d’information géographiques. Si cette transformation avec l’informatique a été réussie, l’IGN a moins bien abordé sa transformation numérique. Quand vous avez vos données gratuites, vous augmentez vos capacités d’alliance. Le précédent modèle économique de l’IGN a fait de l’institut un « spectateur » de l’arrivée des modèles gratuits, de Google Maps, Google Earth, OpenStreetMap, etc.

    Pour la cartographie, un autre mouvement s’est combiné à cela en France. La Loi NOTRe, portant sur la nouvelle organisation territoriale de la République, reconnait depuis 2015 la place des régions pour coordonner l’information géographique au niveau local. Certaines collectivités ont maintenant de véritables « petits IGN » qui collectent des données, les analysent, les utilisent au service des politiques locales, souvent de manière très innovante.

    Pour ce qui est de l’IGN, l’institut a été pris dans un mouvement général du public dans les années 80-90 qui conduisait à monétiser ses données. La puissance publique demandait aux établissements de diversifier leurs sources de revenus, comme les musées l’ont fait, par exemple. Cela a freiné la capacité d’ouverture de l’IGN. Du coup, l’ouverture s’est faite très progressivement.

    A partir de 2010, les données sont devenues gratuites pour l’éducation et la recherche puis progressivement pour toutes les missions de services publics. En 2015, la loi Lemaire a généralisé cette gratuité à tous les organismes publics. Depuis le 1er janvier 2021, toutes les données de l’IGN sont ouvertes, en anticipant d’un an sur le calendrier prévu.  Seule la carte au 1 : 25 000, bien que gratuitement accessible en ligne, reste encadrée quant à sa réutilisation pour les usages grand public.

    Il faut voir que tout cela a conduit l’IGN à un profond changement de modèle économique, et aussi un changement de culture. L’institut n’est plus porté aujourd’hui que pour 10% de son budget par la vente de cartes ou de prestations commerciales. Ensuite, 45% correspondent à la SCSP – la subvention pour charge de service public. Il nous faut aller chercher les autres 45% sur des financements de projets publics de différents ministères. Nous sommes au service de la puissance publique. Mais on ne nous fait pas un chèque en blanc. Nous devons en permanence convaincre de l’utilité de ce que nous faisons.

    Carte de l’IGN, site web IGN, 2021.

    b : Peux-tu maintenant nous parler du futur ?

    SSo : Nous avons défini une nouvelle stratégie, « les géocommuns ». Et en fait, c’est  une démarche plus qu’une stratégie.

    L’IGN est un miroir tendu au territoire national pour se regarder et pour se comprendre. On doit bien-sûr poser la question : quelle est l’intention de ce miroir ?

    À une époque, les cartes étaient d’abord conçues dans des buts guerriers. Puis l’IGN, lancé dans les années 40, a accompagné l’aménagement du pays et sa reconstruction. Il nous faut aujourd’hui nous replacer dans deux grands bouleversements de nos sociétés : l’anthropocène, une transformation rapide, et la révolution numérique. Notre but est d’apporter à la nation des informations qui lui permettent de maitriser son destin dans ce double mouvement. Notre méthode, c’est de faire cela avec les autres services publics et en travaillant avec tous ceux qui veulent contribuer, par exemple avec des communautés comme OpenStreetMap.

    Réaliser une cartographie de l’anthropocène est un objectif ambitieux. Pour cela, il faut savoir mettre en évidence les transformations rapides voire brutales, et l’évolution de la planète. La carte au 1 : 25 000 décrit le territoire de manière statique. Nous devons décrire désormais des phénomènes comme la propagation hyper rapide de maladies forestières.  Si cela prend 25 ans, on risque de ne plus avoir de forêt à l’arrivée. Alors, on croise des sources, on s’appuie sur le monde académique, on utilise l’intelligence artificielle.

    L’expérimentation de contribution collective
    sur la « BD TOPO », Site Web IGN, 2021

    b : Pourrais-tu nous expliquer ce qu’est pour toi un commun ?

    SSo : La notion fondamentale est à mon sens la coproduction. Un commun, c’est une ressource, par exemple un ensemble de données, qui est coproduit. L’idée est de construire des communautés ad hoc suivant le sujet pour produire cette ressource ensemble. La gouvernance de la communauté est un aspect essentiel de la notion de commun.

    Pour certains, les communs doivent nécessairement être ouverts et gratuits, mais cela n’est pas forcément intrinsèque selon moi. De manière générale, il faut avoir une approche pragmatique. Si on est trop puriste sur l’idée de communs, il ne reste que les ZAD et Wikipédia. Bien sûr, dans l’autre direction, on voit le risque de commons washing. Selon moi, par exemple, une règle importante pour pouvoir parler de commun, c’est que la porte reste ouverte, que cela ne puisse pas être un club fermé. Tout le monde a droit d’entrer ou de sortir de la production. La gouvernance doit permettre d’éviter que le commun soit accaparé par quelques-uns.

    Je peux prendre un bel exemple qui illustre ces principes. Dans le cadre de la « Fabrique des géocommuns » que nous mettons en place, nous ouvrons un chapitre sur un service du style street view, une vue immersive, le petit bonhomme jaune de Google. Pour faire cela, Google fait circuler des véhicules dans toutes la France avec des capteurs. Nous n’avons pas les moyens de faire cela. Alors, nous allons chercher des partenaires, lancer un appel à tous ceux qui ont envie de faire cela avec nous et qui ont parfois déjà des données à mettre en commun. On va se mettre d’accord sur une gouvernance pour définir le régime d’accès aux données. En particulier, il faut choisir la licence : la licence Etalab 2.0 que l’IGN utilise pour le moment (une licence inconditionnelle) ou la licence ODbL utilisée par OpenStreetMap par exemple, qui spécifie que celui qui utilise les données doit accepter de partager ce qu’il en fait de la même façon.

    Qui va répondre ? On espère pouvoir compter sur OpenStreetMap. La communauté existe déjà, on n’a pas de raison d’en créer une nouvelle. Ils sont capables de se réunir à une dizaine de personnes pendant un weekend pour « faire » un arrondissement de Paris. Pas nous ! Mais nous espérons aussi attirer des entreprises qui travaillent pour des collectivités et ont déjà des mines de photos. Certains ont donné un accord de principe pour les mettre en commun.

    Il ne faut pas voir de concurrence entre ces mondes. Les données cartographiques en accès ouvert viennent massivement de données publiques. Les fonds de carte sur OpenStreetMap proviennent pour beaucoup de sources publiques. La foule est utile pour apporter des données complémentaires, qui ne sont pas dans ces données publiques.

    Après l’ouverture des données IGN au 1er janvier 2021, l’ambition est aujourd’hui de co-construire les référentiels de données, les services et les outils d’une information géographique au service de l’intérêt général. Avec les citoyens et pour les citoyens, avec les territoires et pour les territoires, c’est ça les géo-communs ! (Site web de l’IGN, 2021)

    b : Qu’est-ce qui se passe au niveau international pour les données cartographiques ?

    SSo : Cela bouge lentement. Les Suisses ont mis leurs données cartographiques en données ouvertes. Le cas des États-Unis est intéressant. La loi états-unienne ne permet pas de vendre des données publiques à des citoyens, parce que ceux-ci ont déjà payé en quelque sorte pour les construire, en payant leur impôt.

    b : Pourrais-tu nous parler maintenant du gouvernement ouvert ?

    SSo : Je milite dans mon livre pour une trilogie État-Marché-Commun parce que le duo État-Marché n’arrive plus à résoudre des problèmes qui sont devenus trop complexes. Il faut raisonner dans un jeu à trois. L’État participe avec sa légitimité, sa capacité de rassembler, sa violence légitime. Le marché apporte sa capacité à mobiliser des moyens financiers, sa capacité d’innovation. La société permet de faire participer les citoyens qui sont aujourd’hui plus éduqués, ont plus de temps libre, cherchent du sens à leurs actions.  Cette force sociale, on peut l’appeler les communs, même si l’utilisation de ce terme n’est qu’un raccourci.

    Le numérique apporte une puissance considérable pour accélérer les coopérations, les échanges. Mais c’est à mon avis restrictif que de se limiter au seul numérique. C’est pour cela que je n’aime pas trop le terme « open gov » parce qu’il est souvent compris comme se limitant au numérique.

    Prenez une initiative comme « Territoires zéro chômeurs longue durée ». Le constat de départ, c’est qu’il existe une frange de la population que, une fois écartée du marché du travail, on ne sait plus remettre sur ce marché. Il faut arriver à casser la spirale qui éloigne ces personnes du monde du travail. L’approche est de créer un tissu local qui leur trouve des emplois ; ce sont de vrais emplois pour ces personnes mais ces emplois ne sont le plus souvent pas rentables économiquement. Le rôle de l’État est de créer une tuyauterie financière, en s’appuyant sur une loi, pour réunir de l’argent qui est prévu pour cela et s’en servir pour financer en partie ces emplois. Après deux ans, ces ex-chômeurs retournent sur le marché du travail.

    Le rôle de l’État est de mettre tout le monde en réseau et de faire appel à des initiatives locales. Vous voyez, on n’est pas dans le numérique, même si le numérique est un outil qui peut être utile pour aider à mettre cela en place. Je crois qu’il faut plutôt le voir comme une coproduction permise par l’État en réseau.

    b : Deux questions. D’abord, on accorde selon toi trop d’importance au numérique dans la transformation de l’État.

    SSo : Oui. La transformation de l’État n’est pas juste une question numérique même si, bien sûr, le numérique a une place très importante à jouer.

    b : Ensuite, pour ce qui est de « Territoires zéro chômeurs longue durée », dans l’Économie Sociale et Solidaire, des initiatives semblables n’existaient-elles pas déjà avec des acteurs comme le Groupe SOS ou ATD Quart Monde ?

    SSo : Bien sûr. D’ailleurs, ATD Quart Monde est au cœur de ce dispositif. Mais l’associatif n’arrivait pas seul à régler ce problème. Il fallait l’idée de transformer les allocations chômages en revenus. Seul l’État pouvait faire cela. C’est selon moi le rôle de l’État. Mettre en place le mécanisme et, peut-être, coconstruire un réseau pour arriver ensemble à résoudre le problème.

    b : Un mot pour conclure ?

    SSo : Un sujet qui m’interpelle est la perte de légitimité des structures d’autorités, la puissance publique mais aussi les scientifiques. Les autorités naturelles ne sont plus reconnues. Je pense qu’il est important d’aller discuter avec les communautés sur les sujets qui fâchent. En particulier, l’administration doit accepter le dialogue. On change de paradigme. L’administration descend de son piédestal pour coconstruire avec d’autres même si ce n’est pas facile. C’est une nécessité pour l’administration qui peut ainsi retrouver une certaine légitimité.

    Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

    Pour aller plus loin

    [1] Sébastien Soriano, Un avenir pour le service public, Odile Jacob, 2020.
    [2] IGN, Changer d’échelle, site web de l’IGN, 2021

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • La Chine et les communs numériques


    Stéphane Grumbach est directeur de recherche à Inria et enseignant à Sciences Po. Il a été directeur de l’IXXI, l’institut des systèmes complexes de la Région Auvergne Rhône Alpes. Il a été directeur du Liama, le laboratoire sino-européen en informatique, automatique et mathématiques appliquées de Beijing.  L’essentiel de sa recherche concerne les questions globales, et notamment comment le numérique modifie les rapports entre les nations et oriente les sociétés dans l’adaptation aux changements écosystémiques. Nous l’avons interviewé notamment pour mieux comprendre ce qui se passe en Chine autour du numérique et des communs numériques.

    Peux-tu nous parler de ton activité professionnelle actuelle ?

    Depuis quelques temps, je fais moins de technique et plus de géopolitique. Je m’intéresse au numérique et pour moi le numérique est un système de pouvoir qui implique de nouveaux rapports de force entre les personnes et les pays. Je reste fasciné par le regard que les Européens portent sur la Chine. Ils ne voient dans la stratégie chinoise que l’aspect surveillance de sa population alors que cette stratégie est fondée sur la souveraineté numérique. Les États-Unis ont aussi un système de surveillance du même type et les Américains ont bien saisi la question de souveraineté numérique.

    A l’École Normale Supérieure de Lyon, je travaille avec des gens qui étudient les systèmes complexes, sur la prise de conscience de changements de société causés par la transition numérique, ses imbrications avec la transition écologique. Il y a des anthropologues et des juristes ce qui me permet d’élargir mon horizon.

    Où est-ce qu’on publie dans ce domaine ?

    Ce n’est pas facile. Sur cet aspect, je regrette le temps où ma recherche était plus technique ; je savais alors précisément où publier. Par exemple, sur les aspects plus politiques du développement durable, il n’est pas facile de trouver le bon support.

    Emblème national de la République populaire de Chine

    Parle nous d’un de tes sujets de prédilections, la Chine.

    Je voudrais en préambule proposer une analyse globale de la situation. Contrairement à la vision qui mettrait la Chine d’un côté et le monde occidental de l’autre, le monde numérique se sépare entre Chine et États-Unis d’un côté et de l’autre l’Europe.

    Entre la Chine et les États-Unis, une différence est la liberté d’expression. Aux États-Unis, cette liberté fait l’objet du premier amendement de la constitution, c’est dire son importance. En Chine, le sujet n’existe pas. Il y a une forme de possibilité de critiquer, mais la critique doit se faire de biais, jamais directement. L’expression critique reste typiquement métaphorique, mais les Chinois la comprennent bien. Depuis l’ère Trump, les Américains ont essayé de bloquer le développement numérique chinois. Deux idées sont importantes : la souveraineté et l’extension extraterritoriale. Ce sont les bases du conflit États-Unis et Chine.

    Actuellement la tension monte de manière inquiétante. Des deux côtés, un processus de désimbrication intellectuelle et technologique est enclenché. C’est une mauvaise nouvelle globalement car c’est le chemin vers des conflits.

    La pensée numérique s’est beaucoup développée en Chine, qui est devenue depuis un certain temps précurseur au niveau mondial. Aux États-Unis, les liens entre l’industrie numérique et l’État sont importants, mais se cantonnent principalement à la sécurité. En Chine en revanche, cela va plus loin : le rôle stratégique des plateformes numériques est mieux reconnu et plus large, dans l’économie, le social, au-delà de la simple surveillance. C’est ce qui donne au pays une avance sur le reste du monde.

    La Chine est aujourd’hui dans une phase de définition des rapports de force entre les plateformes et l’État. Les États-Unis feront la même chose, mais probablement plus tard. Le dogme dominant aujourd’hui est que la régulation nuirait à l’innovation et à la sécurité nationale. En Chine, la définition de ces rapports est dictée par l’État : c’est une décision politique de l’État.

    Par ailleurs, on assiste actuellement à un durcissement politique en Chine, une baisse de la liberté de critique et une moins grande ouverture. L’instabilité sociale potentielle pousse à une politique de redistribution des richesses. Une forte régulation des plateformes a été lancée depuis l’arrêt brutal de l’IPO d’Ant Financial l’année dernière. Ces régulations touchent aussi les plateformes de la EdTech, avec des arguments de justice sociale également.

    Comment arrives-tu à t’informer sur la Chine ?

    C’est devenu plus difficile parce que malheureusement on ne peut plus y aller à cause de la politique de protection face au Covid. Mais il se publie beaucoup de choses en Chine qui sont accessibles.

    Est-ce qu’il y a des sites de données ouvertes en Chine ?

    Oui il y a par exemple des équivalents de data.gouv en Chine, beaucoup au niveau des provinces et des villes. En matière de données ouvertes, la politique chinoise est différente de celle que nous connaissons en Europe. Plutôt que d’ouvrir les données et d’attendre que des acteurs s’en saisissent, on procède en ciblant des acteurs précis pour réaliser des services innovants à partir potentiellement d’un cahier des charges, sous contrôle de l’administration publique. L’ouverture se fait dans le cadre d’appels d’offres comme c’est le cas, par exemple, à Shanghai. Bien sûr, comme ailleurs, on assiste à des résistances, des villes qui hésitent à ouvrir leurs données.

    Il faut aussi parler des expérimentations mettant en œuvre le social scoring, une notation sociale. Il s’agit de mesurer la “responsabilité citoyenne” de chacun ou de chacune, suivant les bonnes ou les mauvaises actions qu’il ou elle commet. C’est aujourd’hui très expérimental, mais différentes villes l’ont déjà implémenté.

    Il faut bien réaliser que la frontière entre espace public et privé est plus floue en Chine que chez nous. Par exemple, la circulation des voitures est monitorée et les PV sont mis automatiquement, ils sont visibles sur un site en ligne. Il faut avoir une vignette qui atteste de sa capacité à conduire et avoir bien payé ses PV. Cette approche est similaire à ce qui se pratique aux États-Unis avec le financial scoring qui est largement utilisé. Les Chinois sont globalement bienveillants face aux développements numériques et ils font preuve d’un “pragmatisme décontracté” à son égard. Les données personnelles ne sont pas accessibles à tous, et une nouvelle législation est entrée en vigueur au mois de novembre 2021, inspirée du RGPD.

    Le quartier général de Baidu, Wikipédia

    Est-ce qu’il y a des plateformes basées sur les communs numériques comme Wikipedia ou OpenStreetMap ?

    Oui des analogues existent. Il y a un équivalent de Wikipédia réalisé par Baidu, et des équivalents locaux d’OpenStreetMap. Sur les pages Wikipédia en chinois les points de vue ne sont pas toujours ceux des autorités. C’est parfois censuré mais les gens savent souvent contourner la censure.

    Et pour ce qui est des logiciels libres ?

    L’open source est relativement présent. La tech peut parfois avoir des accents libertaires qui la mettent en opposition avec les autorités. Mais l’État chinois sait se servir de l’open source en particulier comme outil de souveraineté numérique. Le système d’exploitation Harmony de Huawei (basé sur Android) est bien un enjeu de la lutte entre la Chine et les États-Unis pour la dominance technologique et le découplage des économies numériques.

    Plus généralement, que peut-on dire sur les communs numériques en Chine ?

    Il n’y aurait aucun sens à ne pas profiter de tels communs en Chine comme en France. D’ailleurs, ces communs sont fortement développés en Chine, plus que dans d’autres pays. Les données accumulées par les plateformes en Occident ne sont utilisées que par celles-ci pour un intérêt mercantile, au-delà de la sécurité. Mais ces données peuvent être vues comme des communs, dont l’usage doit être encadré bien sûr par exemple par l’anonymisation.

    Si on regarde bien, Google dispose de données stratégiques pour un grand nombre de sujets au-delà de la sécurité comme la santé, l’économie ou l’éducation. Pourtant aux États-Unis et en Europe, les relations entre l’État et les plateformes sont focalisées sur la sécurité. Cela fait passer à côté de nombreuses opportunités. En Chine, tous les sujets sont abordés en s’appuyant sur les services numériques, y compris par exemple la grogne sociale. Avec ces services, on peut détecter un problème régional et procéder au remplacement d’un responsable.

    La Chine construit une société numérique nouvelle, et exploite les données pour la gouvernance. En ce sens, elle est en avance sur le reste du monde.

    Et quelle est la place de l’Europe dans tout ça ?

    Pour l’Europe, la situation est différente. Contrairement à la Chine ou aux États-Unis, elle n’a ni technologie ni plateforme. Elle est donc dépendante sur ces deux dimensions et essaie de compenser par la régulation. Mais sa régulation est focalisée sur la protection de l’individu, pas du tout sur les communs ou l’intérêt global de la société. L’Europe n’a aucune souveraineté numérique et ses outils et services n’ont pas de portée extraterritoriale, parce qu’elle n’a pas d’outils de taille mondiale.

    Pour les Chinois, l’Europe n’existe plus : les cadres chinois voient l’Europe comme nous voyons la Grèce, une région qui a compté dans l’histoire mais qui ne pèse plus au niveau politique et stratégique, sympa pour les vacances. Je ne suis pas sûr que la vision des américains soit très différente de celle des Chinois d’ailleurs.

    La stratégie chinoise des routes de la soie, une infrastructure absolument géniale du gouvernement Chinois, contribuera d’ailleurs à augmenter la dépendance de l’Europe vis à vis de la Chine, à long terme peut-être dans un équilibre avec les États-Unis, voire dans une séparation de l’Europe dans deux zones d’influence comme c’était le cas pendant la guerre froide.

    Serge Abiteboul, Inria et ENS, Paris, & François Bancilhon, serial entrepreneur

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • De la géographie à la science du social

    Un nouvel « Entretien autour de l’informatique ». Jacques Lévy, professeur à l’École polytechnique fédérale de Lausanne, est géographe, spécialiste de géographie politique. Il est lauréat du prix Vautrin-Lud en 2018, parfois considéré comme le Nobel de géographie. Jacques Lévy nous explique comment son métier a changé avec le numérique. Il raconte aussi que si sa discipline s’est transformée, les changements viennent d’ailleurs, de changements de paradigme, même s’il est difficile d’imaginer ce qu’elle serait devenue sans la révolution numérique.
    Jacques Lévy

    B – Pouvez-vous nous parler de votre domaine de recherche ?

    JL – Je suis géographe. La définition de la géographie ne nous satisfaisait pas du tout lorsque nous étions étudiants, aussi avons-nous travaillé à une autre approche. Nous avons opté pour la géographie comme science sociale. Ce n’est pas dans une logique de partition qu’on peut comprendre la relation entre les sciences sociales, mais par une perspective d’ensemble, chacune apportant son propre angle d’attaque d’une des dimensions du monde social.  Avec quelques amis, nous terminons un livre à paraître en 2020 qui s’intitule Science du social — au singulier – car il y a une seule science du social qui met en rapport toute une gamme de disciplines.

    En géographie, je suis un peu touche-à-tout. Quand on découpe un morceau du social, on produit un objet qui possède un niveau de complexité assez similaire à celui du tout. On ne va donc pas énormément gagner en confort de recherche en étudiant un petit objet, le morceau plutôt que l’ensemble. Tout fait social est total. Le risque de fragmentation des savoirs est particulièrement fort pour les sciences sociales. Je dis que je suis géographe mais je m’intéresse beaucoup à la sociologie, à la science politique, à l’économie, à l’anthropologie, etc.

    Je suis un chercheur du social qui privilégie la dimension spatiale. Dans ce contexte, je m’intéresse à la mondialisation, aux villes, à l’Europe… Au début du 20e siècle, la géographie se pensait comme une science des permanences quand l’histoire était une science du changement. On n’en est plus là. Les objets qui m’intéressent sont des objets en mouvement, qui apparaissaient comme marginaux dans la géographie de naguère.

    B – Vous avez étudié la mondialisation. Qu’est-ce qui a changé ?

    À mon avis, la mondialisation a commencé quand Homo sapiens a commencé à se disperser, à créer des lieux qui sont longtemps restés déconnectés les uns des autres, mais qui maintenant sont reliés, sans avoir perdu toutes leurs différences et constituent notre « stock d’altérité ». On peut dire que nos ancêtres du Paléolithique ont fabriqué cette matière première sans laquelle la mondialisation n’aurait pas de sens.

    J’observe aussi que la guerre géopolitique, c’est-à-dire la prise de territoires, est pratiquement en extinction. Il y a de moins en moins de guerres, et de moins en moins de morts dans les conflits armés, et ces conflits armés eux-mêmes ont changé de sens. Pourquoi faisait-on ces guerres ? Pourquoi n’y a-t-il plus de raison de faire de conquêtes territoriales ? Pour répondre à ces questions, il faut observer l’histoire longue de la guerre, sur laquelle les chercheurs ne sont pas tous d’accord. Certains voient la guerre sous un angle psychologico-métaphysique, disant que la violence est dans l’homme, alors que les grands chefs de guerre ne sont pas spécialement des gens violents. Je préfère voir qu’au Néolithique, au moment où on commence à produire et à accumuler des surplus, il y a une hésitation : faut-il investir ces ressources dans la production ou dans la captation des ressources des autres ? Cela correspond en partie, à l’époque, à l’opposition entre nomades et sédentaires. C’est à ce moment-là qu’apparaît l’État, comme dispositif pérenne de construction et de gestion des instruments de violence, qui peuvent servir tant pour défendre que pour attaquer.

    Un chef d’État qui a une armée à sa disposition est porté à l’utiliser, et on comprend ainsi comment se construit une composante rationnelle de la guerre : cela peut rapporter quelque chose. Catherine de Russie disait que le meilleur moyen de défendre l’empire, c’était de l’étendre. Cette démarche suppose une « économie de stock », qui repose sur des rentes liées à la surface des terres agricoles et aux ressources fossiles. Les pays les plus vastes tendent à être ceux qui peuvent jouer le plus sur cet atout, en gros proportionnel à la superficie. Si en outre, vous avez une population importante, vous pouvez avoir une armée consistante.

    Avec les systèmes productifs contemporains, nous passons dans une « économie de flux ». C’est la production de valeur ajoutée par unité de ressource, la productivité donc, qui comptent désormais. Pour cela, il est plus efficace d’être une petite économie prospère qu’une grande économie pauvre.  Aujourd’hui, les pays les plus riches ne sont pas les plus grands. Le modèle suisse ou singapourien est plus efficace que le modèle russe. Quand on est dans une économie de flux, ça ne sert plus à rien de conquérir des terres.

    B – La mondialisation ne contribue-t-elle pas à augmenter l’empreinte carbone ?

    JL – L’un des scénarios proposés par le GIEC est de dire que le climat se porterait mieux s’il n’y avait pas de mondialisation. Je pense que c’est un raisonnement à courte vue. Si chaque État pratiquait l’autarcie, cela enlèverait les 6 ou 7 % d’émission de gaz à effet de serre dû aux transports maritimes et aériens, mais d’une part, cela augmenterait les émissions des transports routiers qui pèsent bien plus lourd et surtout cela ralentirait la prise de conscience écologique d’une partie de l’humanité, par exemple, l’importance pour la Chine de diminuer la part du charbon dans leur production d’énergie. Les Chinois sont très désireux d’être dans le monde et c’est, sans surprise, une ressource utile pour traiter mondialement des enjeux mondiaux.

    En fait, la conscience écologique est un événement politique majeur d’échelle mondiale. Ainsi, Greta Thunberg est un leader politique mondial. Cet événement a des effets rapides et profonds sur les politiques publiques.  Beaucoup, dans cette accélération de la prise de responsabilité des humains sur la nature, tout autant que la relative stagnation qui a précédé, se passe dans nos têtes. Le Monde est aussi une réalité idéelle.

    B – Il y a l’échange de pensées, et il y a l’échange de produits avec leur coût écologique. Est-ce indissociable ?

    JL – En partie. En tant que chercheurs et comme citoyens, il faut rester vigilants face aux points de vue qui substituent la morale à l’histoire. Les discours qui laissent à penser que les hommes ont été méchants avec la nature et qu’ils devraient en avoir honte reposent sur une construction fragile de l’histoire de l’humanité. Nous cherchons actuellement à sortir du Néolithique en atténuant sa composante destructrice, mais sans le Néolithique, il n’y aurait pas de Greta Thunberg. Dégager autant de ressources pour penser le réel par la science, la technologie, la philosophie, la réflexivité en général, n’aurait pas été possible sans l’industrie avec sa sidérurgie, ses centrales au charbon ou ses moteurs thermiques, qui ont incontestablement fait des dégâts dans les environnements naturels. On ne peut pas faire son marché dans l’histoire, car tous les éléments du processus se tiennent. Ce n’est pas comme si on avait eu le choix, et qu’on ait fait les mauvais choix, cela ne s’est tout simplement pas passé ainsi. Nous devons assumer le fait que nous ne sommes pas les juges de nos ancêtres mais leurs héritiers, capables, espérons-le, d’opérer des bifurcations significatives.

    B – Quels sont les outils que vous utilisez dans votre travail de chercheur ?

    JL – Une grande variété. La chance de la géographie a été qu’après la crise de la discipline dans les années 1970, elle s’est ouverte à d’autres domaines de connaissance pour s’en sortir. Certaines techniques de collecte d’information ont longtemps été associées à des disciplines, et pour les géographes, c’était la carte. Aujourd’hui, nous utilisons un peu toutes les techniques des sciences du social, de l’observation participante à la modélisation informatique en passant par les entretiens semi-directifs, l’analyse statistique et bien sûr aussi la cartographie, qui s’est profondément renouvelée.

    Nous faisons en somme beaucoup appel aux mathématiques, d’une manière ou d’une autre. Pour beaucoup de chercheurs, il s’agit surtout de statistiques et de la recherche de corrélations entre des réalités empiriques. Le big data a aussi poussé certains dans ce travers. Quand un étudiant me dit : “Cette variable explique % du phénomène”, je lui réponds d’aller relire la Critique de la raison pure de Kant.

    Notre travail consiste à construire une autre couche de la semiosphère que celle de la perception, de l’empirie, de l’interprétation spontanée, sinon on est promis à beaucoup de déconvenues. Un chercheur ne peut se contenter d’être un ouvreur de rideau qui dévoile une vérité qui serait déjà présente derrière. Depuis (au moins) les Lumières, on sait que ce n’est pas comme ça que ça marche. Une théorie, c’est une construction, une fiction qui doit être vérifiée par ce qu’on appelle l’observation ou l’expérimentation, mais qui n’est jamais un simple classement d’informations.

    Cartogramme de la France, avec comme variable la population. Maastricht, 1992 : un nouvel espace électoral. Cartogramme et carte euclidienne (en cartouche). [non en vert et oui en bleu]. Source: Jacques Lévy (dir.), Atlas politique de la France, Paris : Autrement, 2017.
    B – La carte est pour vous un outil essentiel. Pouvez-vous nous en dire quelques mots ?

    J’ai fréquemment utilisé le cartogramme qui ne se fonde pas sur l’homologie entre surfaces sur le terrain et surfaces sur la carte. Avec des cartogrammes, on se met à voir autre chose, des choses qu’on ne pouvait voir auparavant qu’en dehors des cartes, sur des tableaux de données difficiles à synthétiser. C’est comme si on changeait de lunettes. J’avais été alerté en 1992 quand le référendum français sur le traité de Maastricht avait donné une configuration étrange : un oui très net dans les centres des grandes villes, un non souvent tout aussi net dans les banlieues et le périurbain. Avec la technique du cartogramme, j’ai pu observer que ce pattern s’imposait dans nombre de rendez-vous électoraux, jusqu’à devenir la matrice des élections généralistes, comme la dernière présidentielle française, mais aussi les présidentielles américaines ou le Brexit. La distribution du vote a désormais plus à voir avec les localisations des citoyens (leurs gradients d’urbanité) qu’avec les catégories socio-économiques habituelles. D’où les questions non triviales : que faire de cette observation ? que nous dit-elle au-delà d’elle-même ?

    B – Si le cartogramme revient à faire de l’anamorphose pour une idée qui correspond à l’idée du chercheur, n’y a-t-il pas un risque à mettre en exergue un peu n’importe quoi ? Comment puis-je avoir confiance dans un cartogramme, et pourquoi n’est-ce pas une forme de fake news ?

    JL – Oui, c’est un risque, car la cartographie est un langage, et le danger existe pour elle comme pour tout langage. Des géopoliticiens nazis faisaient des cartes très parlantes, sur lesquelles on voyait en 1938 l’Allemagne encerclée par la Tchécoslovaquie, avec des flèches dans tous les sens. On peut mentir avec une carte. Il faut toujours en être averti. Cela étant, je trouve plus intéressant de dire que toutes les cartes sont vraies, non dans le sens que tout est vrai, mais parce qu’il n’y a pas la « vraie » carte, qui serait unique. Une carte, c’est un point de vue. Avec la même base de données électorale, on peut faire une carte euclidienne ou un cartogramme, aucune n’est moins vraie que l’autre, mais les apports cognitifs des deux images sont différents.

    Source : Jacques Lévy, Patrick Poncet et Emmanuelle Tricoire, La carte, enjeu contemporain, Paris : La Documentation Photographique, 2004.

    Cela ne signifie pas que la notion de vérité perde de sa force. Avec quelques amis nous avons a créé un « rhizome » de recherche, Chôros (www.choros.place), qui se situe dans la perspective d’une science citoyenne. Dans notre manifeste, nous affirmons que les chercheurs signent un contrat éthique avec la société qui rend leur libre travail possible. Ce que la société attend de nous, ce n’est pas un paresseux « tout se vaut », c’est la vérité. Il faut garder un œil critique sur les cartes et aider les lecteurs à se prémunir contre d’éventuelles manipulations, tout simplement en rendant lisible le processus par lequel une carte se fabrique. Comme pour l’informatique, si vous ne comprenez pas, au moins un peu, ce qu’il y a dans l’algorithme, vous ne pouvez pas avoir un regard critique.

    B – Quel sont vos rapports avec des informaticiens dans votre métier ?

    JL – Ce qui spécifie les chercheurs à mon avis, c’est de privilégier les questions sur les réponses. Quand ils privilégient la démarche d’ingénieur, les informaticiens préfèrent parfois les solutions, ils « résolvent » les problèmes avec l’idée que nous, chercheurs en sciences sociales, compliquons inutilement les choses. Pour parler de développement durable, des informaticiens avec qui j’ai travaillé à l’EPFL utilisaient beaucoup les termes « comportement » et « acceptabilité », ils parlaient d’augmenter le seuil d’acceptabilité, de changement de comportement, comme si les gens étaient des rats de laboratoire. Nous objections que les humains sont des acteurs dotés d’intentionnalité : si on veut qu’ils changent, il faut d’abord comprendre leurs orientations, leurs attentes, leurs désirs, et, si on en est capable, tenter de les convaincre. C’est une difficulté courante, qui ne concerne pas, loin s’en faut, les seuls informaticiens. Les architectes croient souvent savoir ce qui est bon pour les gens dans leur habitat sans avoir besoin de les consulter.

    Cela précisé, l’informatique ouvre aux sciences sociales des possibilités considérables, des questions passionnantes. Ainsi, en étudiant l’algorithme du site de rencontres Tinder, une chercheuse s’est rendu compte qu’il y avait une hiérarchie parmi les utilisateurs, et que ceux qui ont beaucoup de succès dans un groupe (par exemple les hommes hétérosexuels) ne sont présentés qu’à ceux qui ont beaucoup de succès dans l’autre groupe (par exemple les femmes hétérosexuelles), de façon à éviter qu’ils aient une surabondance de contacts — ce n’est pas dit explicitement dans le marketing de Tinder.  En revanche, les promoteurs de la plateforme insistent beaucoup plus sur l’idée de « proximité », de jeu aléatoire par la position spatiale : plus on est dans un espace dense, plus la probabilité de rencontrer des gens dans un petit périmètre est grande. Ce qu’on découvre, c’est que cet aspect est en partie gommé par la hiérarchisation des profils. Il fallait ouvrir la boîte noire, mettre les mains dans le cambouis.

    Pour ne pas se contenter des métadiscours, il faut en savoir suffisamment pour pouvoir comprendre comment les mécanismes techniques opèrent. Il est donc indispensable de parler au moins un peu les langues des informaticiens pour pouvoir dialoguer avec les eux. C’est ainsi qu’on peut concevoir les pratiques inter- ou transdisciplinaires comme des dispositifs de traduction multiples entre des chercheurs qui maîtrisent inégalement les différents langages utiles pour le projet.

    B – Est-ce que vous ne pouvez pas vous contenter des logiciels existants ? Il existe par exemple des applis cartographiques très sophistiquées. Vous faut-il développer les vôtres ?

    JL – Les applications disponibles aident bien sûr. Mais souvent, elles ne font pas exactement ce que vous voulez.

    À l’EPFL, nous avons engagé un docteur en informatique qui s’intéressait aux sciences sociales. Nous avons constaté que c’était plus rapide pour lui d’écrire quelques lignes de code que d’utiliser des applications existantes mais pas tout à fait adaptées. Avec lui, on pouvait discuter du fond, mais pour faire cela, chacun a dû faire des efforts d’explicitation pour se rendre compréhensible.

    Nous travaillons à améliorer la démocratie interactive (« participative ») grâce à des outils permettant aux citoyens ordinaires de prendre position sur les problèmes complexes. Nous avons ainsi constitué un échantillon de personnes sans expertise particulière que nous avons interrogées sur la carte hospitalière. Nous leur avons demandé : « Où voulez-vous placer les hôpitaux sur votre territoire ? »  Ils devaient avoir à leur disposition les différents types de services, les variations des coûts, les distances effectives, etc. Ils se sont aisément approprié les questions et nous ont fourni des réponses solidement argumentées. Mais, pour leur donner un outil qu’ils puissent maîtriser en cinq minutes, nous avons travaillé deux ans dans une équipe qui comprenait informaticiens, spécialistes de la santé, géographes, cartographes et urbanistes. J’ai pu le constater dans de multiples circonstances : dans la recherche, une dream team implique des capacités diverses inévitablement portées par des individus différents, mais partiellement partagées par les membres du groupe.

    B – Comment l’informatique a-t-elle transformé votre métier ?

    JL – Je suis perplexe quand je me demande comment je réussissais à travailler avant l’arrivée des ordinateurs. Maintenant, nous disposons des communications à distance, des courriels, des visioconférences, du web… Il y a aussi les data qui donnent accès à des informations de masse dans des conditions de facilité extraordinaires. Mais si le monde numérique est un univers intéressant, la ville reste pour moi beaucoup plus riche en sérendipité — pour nous faire voir d’autres réalités, pour nous déranger, pour nous proposer des pistes inattendues. Le numérique me permet de mener de front dans de bonnes conditions des problèmes de recherches plus nombreux, mais, je le dis avec prudence, il ne me semble pas qu’il ait touché au cœur de ma recherche et de ma manière fondamentale de chercher.

    B – Le cœur de votre recherche reste le même. Mais est-ce qu’il a eu des changements de votre domaine qui n’auraient pu intervenir sans le numérique ?

    Notre façon de travailler a vu sa productivité augmenter de manière considérable avec l’informatique. Mais si les sciences sociales elles-mêmes se sont profondément transformées, ce n’est pas seulement à cause d’informatique mais en raison de leur dynamique intellectuelle, elle-même encastrée dans l’histoire des sociétés. Ainsi, on accorde beaucoup plus d’importance aux individus ordinaires, qu’on reconnaît désormais comme acteurs et plus seulement comme agents. Par exemple, on a pensé longtemps que les gens changeaient mécaniquement leurs pratiques de procréation quand ils s’enrichissaient. On sait aujourd’hui que le changement arrive quand les filles vont à l’école, c’est-à-dire quand leur accès à la connaissance permet à leur intentionnalité réflexive de franchir des seuils décisifs.

    Cela dit, on a du mal à imaginer les transformations des sciences sociales sans le numérique. La « révolution numérique » est à la fois une cause et une conséquence de dynamiques sociales de fond, notamment en ce qu’elle donne énormément de pouvoir aux individus ordinaires. Reconnaissons qu’il est difficile d’imaginer comment les sciences sociales auraient évolué sans elle.

    Serge Abiteboul, Inria & ENS-Paris, Claire Mathieu, CNRS & Université de Paris

    (*) Un cartogramme est une carte pour laquelle une variable thématique, comme la population ou le PIB, remplace la surface des territoires représentés comme fond de carte. La géométrie de l’espace de la carte est modifiée afin de se conformer aux informations relatives à la variable représentée.

  • Tout est question de point de vue

    Sidonie Christophe est chercheuse au sein du Laboratoire en sciences et technologies de l’information géographique (LaSTIG). Dans ce troisième et dernier billet de la série, elle nous explique les enjeux autour de la superposition de cartes, de l’utilisation de la transparence ou d’autres dispositifs numériques permettant d’y voir plus clair dans la visualisation de données complexes.
    Antoine Rousseau

    Ce texte fait suite aux billets « La géovisualisation, kézako ? » et « Les cartes, c’est trop stylé ! »

    Naviguer dans les données, explorer les données, cela sous-entend que l’utilisateur va vouloir passer d’une donnée spatiale à une autre, d’un ensemble de données à un autre, d’une représentation graphique à une autre, d’une dimension à une autre, sans perdre ses repères visuels. La complexité des données et des phénomènes spatio-temporels demande de proposer des outils de géovisualisation permettant à l’utilisateur de changer de point de vue, « pour y voir plus clair » !

    Il y a le point de vue d’où on observe l’espace représenté, notre position géographique réelle et celle de notre point de vue dans la représentation, à travers un dispositif numérique (écran, appareil-photo, caméra 3D, lunettes de réalité augmentée, etc.) ou non… et les nombreux angles sous lesquels on peut observer cette représentation (vue du dessus, vue oblique, en immersion, à hauteur de piéton, des toits, etc.) et chercher à voir, ce qui peut être invisible, caché, ou trop compliqué à distinguer. Il est aussi possible de naviguer plus ou moins haut en altitude, plus ou moins en profondeur dans une scène, plus ou moins loin dans le passé, ou dans le futur…

    Au-delà de la transparence…

    L’empilement de données, comme on le fait dans les systèmes d’information géographique (SIG), permet grâce au jeu de couleurs et de transparences de co-visualiser des données. Néanmoins, la transparence seule a des limites et elle peut aussi rendre tout illisible. Pour améliorer cela, il a fallu concevoir un outil pour mixer progressivement les couleurs et les textures de la carte et de l’image satellite, à l’aide d’un curseur qui permet d’introduire plus ou moins de photo-réalisme dans la carte, ou plus ou moins d’abstraction dans l’image, et choisir soi-même le « bon mélange des couleurs et des textures ». Cela permet par exemple de créer des continuums entre IGN Top25 classique, carte Pop Art et image satellite (1), ou un continuum IGN & OpenStreetMap, ou tout type de continuum.

    Continuum de styles topographiques (Hoarau & Christophe 2017)(1)

    Le projet MapMuxing avec Inria/ILDA, UMR GRED a permis d’expérimenter des outils de multiplexing cartographique, comme ceux utilisés sur Remonter le Temps (2), pour améliorer la navigation multi-échelle, la co-visualisation de données thématiques, dans l’espace et dans le temps.

    Multiplexer des données (Remonter le Temps) (2)

    Basculer de la 2D en 3D, en nD…

    Selon le contexte d’usage final, l’utilisateur doit pouvoir bénéficier de ces changements de points de vue et explorer ses données, selon des styles différents, ou en 2D ou en 3D. Par exemple, la question de la gestion des inondations et des submersions marines peut se visualiser pour différents types d’usages : animer dans le temps une marée montante (3-1 : marée basse, 3-2 : marée haute), la visualiser en 2D ou en 3D, visualiser des impacts d’une montée des eaux sur des bâtiments (4).

     

    Différents points de vue d’une montée des eaux, selon les usages (iTownsResearch) (3).

    La géovisualisation doit permettre d’aller plus loin dans l’aide à l’analyse visuelle de données scientifiques, en particulier environnementales, issues de simulations d’aléas hydrauliques (avec l’IFSTTAR), ou de données climatiques urbaines (avec des instituts météorologiques européens et Météo France) : nous cherchons à aider à identifier des artefacts et des changements à travers les échelles spatiales et temporelles, à aider à l’interprétabilité des données, à comparer des sorties de modèles (4-1), en facilitant les premières étapes du raisonnement visuel… jusqu’à la (fameuse) prise de décision.

     

    Comparaison de scénarios de montée des eaux à l’horizon 2100 iTownsResearch (4-1) ; Identification d’artefacts dans les écoulements dans les données de simulation d’aléas hydrauliques (Octave Perrin, QGIS) (4-2).

    Ces questions de recherche restent ouvertes au LaSTIG, comme celles concernant la visualisation sur le temps long, pour aider à la compréhension des dynamiques d’évolution historique des villes, en particulier dans le projet européen Time Machine, ou l’exploitation et la navigation immersive dans des fonds iconographiques massifs ou l’aide au design urbain, à partir de la réalité augmentée.

    Au-delà de la vision, et plus précisément quand la vision est déficiente, le « donner à percevoir et à comprendre » reste un enjeu pour nous, géo-« visualisateurs »… pour aider à la mobilité en ville, à partir d’une perception tactile voire haptique à l’aide d’interfaces spécifiques et de cartes 3D (avec le LIMOS et l’IRIT). On dépasse la perception visuelle, pour aller plus loin et explorer toutes les perceptions possibles pour une meilleure compréhension de l’espace géographique.

    Sidonie Christophe (Laboratoire en sciences et technologies de l’information géographique)

    En savoir plus

    Brasebin M., Christophe S., Jacquinod F., Vinesse A., Mahon H. 3D Geovisualization & stylization to manage comprehensive and participative local urban plans , ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci., IV-2-W1, 83-91, 2016.

    Christophe S., Brédif M. (2019). Rendu et représentation graphiques d’informations spatio-temporelles. JF.IG.RV.2019 : Journées Françaises de l’Informatique Graphique et de la Réalité Virtuelle , 12-15 Nov. 2019, Marseille.

    Christophe S., Duménieu B., Turbet J., Hoarau C., Mellado N., Ory J., Loi H., Masse A., Arbelot B., Vergne R., Brédif M., Hurtut T., Thollot J., Vanderhaeghe D. (2016) Map Style Formalization: Rendering Techniques Extension for Cartography. Pierre Bénard; Holger Winnemöller. Expressive 2016 The Joint Symposium on Computational Aesthetics and Sketch-Based Interfaces and Modeling and Non-Photorealistic Animation and Rendering, May 2016, Lisbonne, Portugal. The Eurographics Association.

    ChristopheS., Perret J., Hoarau C. (2013). Extraction de palettes de couleurs pour l’aide à la conception cartographiqueRevue des Sciences et Technologies de l’Information (RSTI) série Technique et science informatiques (TSI), Art et Informatique, volume 32 n° 3-4, pp401-430, 2013.

    Devaux A., Hoarau C., Brédif M., Christophe S. (2018). 3D urban geovisualization: in situ augmented and mixed reality experiments, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences.

    Hoarau C., ChristopheS. (2017). Cartographic continuum rendering based on color and texture interpolation to enhance photo-realism perception ISPRS Journal of Photogrammetry and Remote Sensing, vol. 127, May 2017, pp. 27-38.

    Touya, G., ChristopheS., Ben Rhaiem A., Favreau J.-M. (2018). Automatic Derivation of On Demand Tactile Maps for Visually Impaired People: First Experiments and Research AgendaInternational Journal of Cartography (TICA).

  • Les cartes, c’est trop stylé !

    Sidonie Christophe est chercheuse au sein du Laboratoire en sciences et technologies de l’information géographique (LaSTIG). Dans ce deuxième billet (d’une série de trois), elle nous explique comment elle traite la notion de style – assez simple à concevoir d’un point de vue artistique mais difficile à décrire du point de vue informatique.  Un mélange de rigueur et d’inspirations artistiques qui a plu à binaire ! Antoine Rousseau

    Ce texte fait suite au billet « La géovisualisation, kézako ? »

    Afin d’aider les utilisateurs à concevoir des cartes personnalisées, j’ai exploré des couleurs et des styles possibles de représentation, dans l’objectif de développer un système qui accompagne l’utilisateur dans sa démarche créative.

    Comment définir le style ?

    Selon le dictionnaire, le style est un « ensemble de caractères formels esthétiques de quelque chose » ou « une manière de pratiquer, définie par un ensemble de caractères, […] pour un auteur, ou une période de temps ». On peut dire que le style est une manière de faire, reconnaissable par un ensemble de caractéristiques visuelles, mais qu’on n’en connaît pas toujours toutes les recettes pour y parvenir : ce sont souvent des règles graphiques implicites qu’il faut réussir à expliciter. Afin d’explorer des styles pour les cartes topographiques, décrivant « un lieu », son relief, ses éléments naturels et ses aménagements humains, et à une échelle réduite, nous avons travaillé principalement sur les couleurs et les textures.

    Carte de Saint-Jean-de-Luz, dans un style Cassini et un style aquarelle, échelle : 1:100 000 (Christophe et al. 2016)

    Conception cartographique : du processus créatif à l’assistance numérique

    La conception cartographique est un processus créatif fait d’une série de choix d’abstractions conceptuelles, sémantiques, géométriques et graphiques sur l’espace géographique : de nombreuses recherches ont eu lieu à l’IGN et au LaSTIG pour automatiser les processus de généralisation et de symbolisation. Si des conventions, des règles d’usages et des pratiques existent en cartographie, il n’y a pas une recette unique pour faire une bonne carte. Les cartographes utilisent la sémiologie graphique de Jacques Bertin (1967) pour manipuler des variables visuelles – taille, valeur, grain, couleur, orientation, forme – étendues par d’autres cartographes – arrangement, transparence, flou, etc. – et leurs propriétés perceptives qui permettent à l’œil humain de séparer, associer et ordonner des informations.

    L’aide à la conception cartographique (conception assistée par ordinateur), en particulier pour le choix des couleurs, reste un problème complexe : l’ensemble de tout ce qu’il faut faire pour faire une bonne carte n’est pas si facile à décrire, ni à traduire efficacement pour l’ordinateur. De plus, la résolution de ce problème dépend principalement de la satisfaction de l’utilisateur, qui est particulièrement difficile à analyser et à prévoir, parce qu’elle dépend de ses besoins, de son usage final, de son contexte d’usage, de ses goûts, de ses préférences, du temps à disposition, etc. Et même si l’utilisateur dit : « je préfère utiliser ce vert pour la végétation, ce bleu pour la mer, cet autre bleu pour les rivières, ce rouge pour les routes », cela ne résout pas tout. Après application de ces couleurs à la végétation, à la mer, aux rivières et aux routes dans la carte, que devient la combinaison visuelle des couleurs, par l’effet des contrastes colorés selon les tailles, les formes, les distributions et voisinages de ces objets colorés  ? Est-ce que cela permet de percevoir correctement l’espace géographique représenté ? Est-ce que cette combinaison de couleurs rend lisible l’espace géographique représenté ; est-elle harmonieuse ? Et que va devenir ce choix de couleurs, en changeant d’échelle, vu que la distribution géométrique et visuelle des couleurs sera modifiée, et risque d’impacter la qualité du rendu final ?

    D’une peinture de Derain à des cartes aux couleurs de Derain

    S’inspirer de cartes existantes autant que de peintures célèbres…

    Afin de faciliter cette étape du choix de combinaison des couleurs, on a utilisé des sources d’inspiration pour fonctionner par analogie ou par transfert de style. Des cartes topographiques européennes et des peintures célèbres ont été utilisées, afin d’en extraire des palettes de couleurs et des façons d’associer une couleur à des objets dans la carte, typiques : quand il s’agit d’une carte, à partir des légendes, et quand il s’agit d’une peinture, à partir de règles de composition. J’ai développé un outil qui gérait l’ensemble de ces contraintes (règles de cartographie, règles de composition du peintre, préférences de l’utilisateur), via un dialogue avec l’utilisateur, pour co-construire ses palettes adaptées à son jeu de données, en sélectionnant ses couleurs dans des cartes et/ou des peintures, selon ses préférences. Ces travaux sur la couleur, ses contrastes et ses harmonies, ont permis d’explorer des palettes de couleurs, différentes de ce qu’on a l’habitude de voir, à un endroit, à un moment donné, pouvant être utilisées pour passer un message particulier, parfois étonnantes, voire déroutantes, au regard de la cartographie topographique traditionnelle, jusqu’à la spécification d’un style Pop Art permettant de revisiter la sémiologie graphique.

    Et les textures dans tout ça ?

    En plus de la couleur, notre idée du style avait besoin d’être enrichie de textures, pour redonner plus de « relief » à la carte et « animer » ces aplats de couleurs et ces tracés linéaires, utilisés dans les chaînes de production institutionnelles et dans les outils SIG (Systèmes d’Information Géographique). Pour sortir de ces représentations cartographiques « standardisées » ou uniformisées, et surtout pour être capable de reproduire les motifs d’occupation du sol ou le dessin au trait, réalisés manuellement, nous (IGN/LaSTIG) avons collaboré avec des chercheurs en Informatique Graphique (Inria/Maverick, IRIT/STORM), où entre cartographie et rendu expressif, nous partageons des problématiques communes d’abstraction. Nous avons travaillé sur la stylisation en cartographie, et plus précisément sur l’expressivité des textures, plutôt que l’utilisation d’aplats de couleurs ou de tracés de lignes classiques. Des outils de génération automatique de textures ont été développés et des techniques de rendu expressif ont été adaptées pour pouvoir reproduire les styles suivants :

      1. des zones rocheuses dans les cartes de montagne, des années 50 : les textures utilisées mettaient en évidence la structure du relief, les crêtes, les cols, les vallées, mais aussi la pente, la rugosité, la dangerosité, et les zones de passage.
      2. des cartes des Cassini (18è siècle) : les cartes des Cassini visaient la précision géométrique en utilisant la triangulation géodésique et mettaient en avant la précision des voies de circulation et des points de passage. En revanche, le remplissage de l’occupation du sol, réalisé par différents corps de métier, via différentes étapes de dessin et d’aquarellisation, est venu enrichir visuellement ces cartes par l’utilisation de motifs divers et variés, aux délimitations souvent imprécises : végétation, reliefs, fleuves et mers.
      3. l’aquarelle, la peinture ou l’estampe, reproduisant les effets de techniques de mélanges de couleurs, de transparence et de grain de papier, comme de coups de pinceaux.

    En conclusion

    Ce travail interdisciplinaire, collaboratif et collectif, a demandé l’extension de standards existants sur la symbologie en cartographie, pour spécifier un style expressif et intégrer les techniques de rendu expressif, dans les SIG. Cette collaboration nous a également amené·e·s à reboucler sur les questions de choix de couleurs, et de proposer des méthodes d’optimisation pour l’exploration automatique de l’espace des palettes de couleurs.

    Sidonie Christophe (Laboratoire en sciences et technologies de l’information géographique)

    *Plus d’infos sur  « du bon usage de la couleur en cartographie…et de l’originalité ? ». Outil COLor LEGend : décrit dans un article du Comité Français de Cartographie (2012) et IGN Magazine N°52 (2009)

     

     

  • La géovisualisation, kézako ?

    Sidonie Christophe est chercheuse au sein du Laboratoire en sciences et technologies de l’information géographique (LaSTIG). Dans ce premier billet (d’une série de trois), elle nous explique ce qu’est la géovisualisation, une discipline véritablement interdisciplinaire qui mêle entre autres données géographiques, algorithmes, perception, cognition… autant de notions que nous utilisons quotidiennement… sans toujours le savoir !
    Antoine Rousseau

    La géovisualisation est l’ensemble des connaissances et des techniques permettant de visualiser un territoire (ou un phénomène spatialisé) en interagissant avec des données géographiques ou géolocalisées, utilisant les capacités de perception et de cognition de l’utilisateur. L’objectif de la géovisualisation est de « donner à voir, percevoir, comprendre et interpréter », en préservant ce qui a du sens, pour l’utilisateur, dans l’espace géographique et dans le phénomène spatio-temporel représentés (par exemple, simulation d’inondation, prédiction météorologique, scénarios climatiques, dynamiques urbaines passées, planification urbaine, etc.). L’enjeu de la géovisualisation, en tant que champ de recherche interdisciplinaire, est de concevoir des représentations graphiques et des moyens d’interaction avec les données géographiques, pour aider effectivement un utilisateur, à voir, percevoir, comprendre, interpréter, analyser voire prendre des décisions sur un phénomène spatialisé.

    Les données multi-capteurs, multi-sources, multi-échelles, plus ou moins précises, plus ou moins massives, ne manquent pas. Devant l’abondance des données et des outils, nous avons besoin de visualiser des données géographiques variées (imagerie satellite, cartes, bases de données, données GPS, données collaboratives, etc.), et d’y ajouter des archives textuelles, des photos anciennes ou des bases d’images historiques, de naviguer dans ces données, et de rajouter soi-même de l’information. Ensuite, l’attente est grande d’avoir des outils pour manipuler, comparer, interpréter ces données… et faire ses cartes soi-même, adaptées à un problème lié à l’espace géographique. En revanche, la conception d’un système de visualisation de données géographiques, permettant d’aider un utilisateur, qu’il soit citoyen, scientifique, décideur, etc., à réaliser ces tâches complexes, en lui laissant sa part de créativité et d’analyse, reste un problème complexe.

    Visualisation littorale : de marée haute à marée basse (Masse & Christophe 2016)

    Pour l’IGN (Institut national de l’information géographique et forestière), producteur de données géographiques et de géoservices, les enjeux en visualisation d’informations spatio-temporelles sont multiples, au regard des données 2D/3D/nD acquises, sémantisées, simulées, produites ou cartographiées, ainsi que des données collaboratives, géographiques, géolocalisées ou non, créées par les utilisateurs. Il s’agit principalement de pouvoir fournir des géoservices de co-visualisation, d’interaction et de diffusion des référentiels et des données métier, à travers les échelles spatiales et temporelles, adaptés aux utilisateurs et aux usages.

    La géovisualisation est un domaine scientifique à part entière, nécessitant la formalisation et la représentation de connaissances, la conception de modèles, de méthodes et d’outils. Elle permet de revisiter les problèmes de la conception cartographique, en tant que succession d’abstractions de la réalité spatiale, dans un objectif d’exploration des représentations graphiques, des moyens d’interaction et des points de vue possibles.

    En tant que champ interdisciplinaire, la géovisualisation recouvre en partie des objectifs de la visualisation d’informations, en particulier scientifiques, et de la « dataviz ». En revanche, il ne s’agit pas seulement de trouver des moyens de visualiser un jeu de données, ou une donnée particulière que serait une donnée spatiale, ou de faire une belle carte, même si c’est évidemment déjà un défi en soi !

    Il s’agit également de spécifier et d’intégrer de nouveaux modèles d’abstraction, de représentation (conceptuelle, mentale, graphique), de perception et de cognition liés à l’espace géographique. La complexité visuelle et cognitive provient :

    • d’une part de la complexité des phénomènes spatio-temporels à représenter, en interaction dynamique avec un espace géographique caractérisé par son terrain, ses entités, formes, structures et agencements caractéristiques, selon ce que l’on souhaite observer et analyser,
    • d’autre part de la capacité d’intégration visuelle et d’exploration interactive de données hétérogènes, selon différents points de vue et différentes intentions, déclenchant des mécanismes de perception et de cognition permettant le raisonnement spatio-temporel.


    Il n’y a pas une seule (bonne) réponse à la question « Qu’est-ce qu’une bonne carte ? ». Concernant la géovisualisation, on pourrait reformuler la question comme : « Quelle est la bonne visualisation pour observer et analyser visuellement un phénomène, ou une dimension de ce phénomène, dans l’espace et dans le temps ? ».

    Le Laboratoire en sciences et technologies de l’information géographique (LaSTIG), sous les tutelles de l’IGN, de l’Université Paris-Est Marne-la-Vallée et de l’EIVP (École des ingénieurs de la ville de Paris), a inscrit ses recherches en sciences de l’information géographique, pour la ville durable et les territoires numériques, dans le cadre des enjeux liés au changement climatique et ses impacts environnementaux et sociétaux. Les équipes du LaSTIG participent à fournir des données, des connaissances, des méthodes et des outils pour la modélisation, l’analyse, la simulation et la visualisation du territoire et de phénomènes spatio-temporels sur ce territoire, pour différents usages. En particulier, cela concerne les modifications environnementales engendrées par les usages anthropiques (déforestation, occupation et usages des sols, pollutions, climatologie urbaine, inondations et submersions marines, etc.) et les évolutions historiques et sociales (dynamiques urbaines passées, densification urbaine, planification urbaine, etc.). La géovisualisation et l’analyse visuelle de données, de modèles et de scénarios d’évolution, en activant nos capacités visuo-spatiales, permettraient de mieux comprendre ces phénomènes spatio-temporels sur le territoire. 

    Sidonie Christophe (Laboratoire en sciences et technologies de l’information géographique)