La plupart des projets impliquant des dispositifs portables de mesure de qualité de l’air commencent ainsi : « le dispositif va être comparé à un instrument de référence afin d’évaluer la qualité des données et de voir s’il peut être utilisé ». Bien que ce processus soit indéniablement nécessaire pour évaluer la fiabilité du dispositif (et du capteur intégré), il est loin d’être le seul problème à prendre en considération pour évaluer la valeur des données collectées par ce types de dispositif. Et certaines des premières questions pourraient probablement être « que voulons-nous mesurer ? », « que cherchons-nous à découvrir ? ». Bien que cela puisse sembler évident, ces aspects sont souvent négligés car les protocoles actuels suivent principalement le même processus : intercomparaison, collecte de données, traitement des données, exploitation des données, conclusions. Considérant le changement de paradigme entraîné par ces technologies disruptives, cette approche est trop limitée pour comprendre pleinement leur potentiel.

Souvent dénomés « capteurs low-cost », ces dispositifs sont souvent considérés comme des gadgets ou des solutions bon marché (à peine fiables ?) pour mesurer la qualité de l’air. Dans le meilleur des cas, ils sont utilisés pour créer des cartes de qualité de l’air basées en mode « crowdsourcing », mais souvent avec une méthodologie discutable. Nous ne faisons qu’effleurer la surface de ce que cette nouvelle technologie a à offrir et même si comparer une solution aux solutions existantes est une réaction logique et naturelle, le passé regorge d’exemples dont nous pouvons tirer des leçons lorsqu’il s’agit d’évaluer les impacts de l’innovation dans les écosystèmes technologiques existants.

Leçons du passé

Lorsque Google a acquis Keyhole pour sa technologie de cartographie du globe en 2004, cela a créé une perturbation majeure dans l’industrie de la cartographie, principalement parce que les données et les outils utilisés pour naviguer dans le monde étaient soudainement mis à la disposition de quiconque avec un simple ordinateur, sans expertise préalable en cartographie. La communauté des SIG (Systèmes d’Information Géographique) qui travaillait sur la cartographie numérique du monde depuis le début de l’informatique moderne s’est sentie quelque peu désorientée (/irritée) car ce précieux savoir échappait à son contrôle. Bien sûr, Google Earth est très limité par rapport à tout logiciel de SIG, mais de plus en plus, lorsque les gens voulaient présenter des informations géographiques, ils utilisaient Google Earth et pas seulement à la télévision, mais aussi dans des environnements professionnels tels que l’armée, l’éducation… La frustration a grandi encore plus car pour beaucoup, Google était devenu une référence pour les cartes, laissant les acteurs traditionnels des SIG dans l’ombre. Même si Google Earth est devenu moins populaire au fil du temps, Google reste un acteur majeur de l’industrie de la cartographie et une source majeure d’innovation dans ce domaine. Les SIG restent une industrie forte avec une expertise unique, mais en regardant l’impact des technologies de cartographie sur les gens et sur l’économie, Google, Microsoft ou Apple viennent en premier… et de loin.

Mais qu’avaient-ils que les pros n’avaient pas ?

En utilisant la technologie grand public (smartphones/apps avec web/gps) l’audience potentielle est soudainement devenue mondiale. Pas de frontière technologique car les cartes pouvaient arriver dans nos mains sans coût et avec une expérience utilisateur conviviale.

Cependant, rendre la technologie et les données accessibles est une chose, mais créer un tel impact ne peut pas être expliqué seulement par la curiosité basique « puis-je voir ma voiture devant la maison ? ». Si Google (maintenant Alphabet), une entreprise qui réalise environ 85 % de ses revenus dans la publicité, a tant investi dans les cartes, c’est parce que cela servait un but dédié, car en 2004 « Google constatait que plus de 25 % de ses recherches avaient un caractère géospatial, y compris des recherches de cartes et d’itinéraires (1) ». Les gens n’étaient pas intéressés par les cartes en tant que représentations descriptives de la terre, mais en tant qu’outil pour localiser des points d’intérêt et, fondamentalement, pour s’y rendre. Dans un cas, les cartes étaient le produit final, mais pour Google, les cartes étaient « juste » un média. Pourtant, Google a changé la façon dont nous naviguons dans le monde en raison de ces deux facteurs principaux : rendre l’information accessible et satisfaire un besoin/une attente ciblée — et non parce qu’ils étaient « meilleurs en cartes ».

Ces dernières années, un autre exemple a également illustré l’impact des technologies disruptives : l’essor des drônes souvent appelés UAV (Unmanned Aerial Vehicle) pour l’observation de la Terre. En tant que spécialiste de la cartographie par satellite/aérienne et adopteur précoce de plateformes de détection « non conventionnelles », j’ai également eu la chance de constater l’impact de cette nouvelle technologie dans une communauté plutôt élitiste/orientée scientifique. Capteurs de faible qualité, avec une faible sélectivité, sans calibration appropriée, sans correction de l’altération du signal causée par les conditions atmosphériques, avec peu de contrôle ou d’informations sur l’attitude de la plateforme d’acquisition (position XYZ, tangage/lacet/roulis)… c’était plus que suffisant pour que la communauté de la télédétection ait une mauvaise opinion de ce que cette technologie pouvait offrir.

Pourtant, les UAV sont devenus pour beaucoup une référence et une source populaire de vues aériennes, même si cela peut apparaître comme un niveau de technologie bien inférieur par rapport aux satellites coutant des centaines de millions. Les UAV sont maintenant utilisés pour de nombreux types de missions, parmi lesquelles la cartographie de catastrophes, la supervision en temps réel de zones de guerre… Si vous surveillez une inondation et devez prendre une décision sur l’évacuation ou non des habitants, la télédétection traditionnelle est une source précieuse d’informations, mais vous devrez peut-être faire face à des nuages (sauf en utilisant le radar, dans certains cas), vous devrez peut-être attendre des heures ou des jours avant un nouveau passage au-dessus de la zone d’intérêt et ajouter le temps pour le téléchargement et le traitement des données. Cela peut prendre des heures ou des jours et au moment où vous obtenez les données, la crise peut être terminée et ces données très précises peuvent être obsolètes par rapport à votre problème actuel. D’un autre côté, l’utilisation d’un UAV vous donnera (dans certaines circonstances) la possibilité de surveiller les événements en temps réel, même si les images ne sont pas parfaitement calibrées ou géoréférencées.

Même si les deux technologies impliquent l’observation de la Terre, elles ne servent pas nécessairement le même objectif : tandis que la télédétection traditionnelle est la meilleure pour obtenir une vue d’ensemble, les UAV sont de loin meilleurs pour rendre compte de situations critiques/spécifiques en temps réel.

Cela signifie-t-il que les instruments traditionnels et l’expertise deviennent progressivement obsolètes ? Absolument pas, ils ne servent tout simplement pas le même but.


CARTOGRAPHIE DE LA QUALITÉ DE L’AIR VS EXPOSITION PERSONNELLE

Aujourd’hui, avec votre smartphone, vous pouvez facilement découvrir la qualité de l’air environnant en utilisant une application, connectée via une API à une carte de la qualité de l’air créée par un modèle basé sur des données in situ (de stations au sol), des données de télédétection (Copernicus par exemple) et des informations statistiques (trafic, inventaires d’émissions…). En utilisant une technologie grand public, l’information sur la qualité de l’air a été rendue facilement accessible à tous et s’améliore avec des modèles 3D de haute précision qui peuvent décrire avec une grande fidélité la dynamique des polluants sur de grandes zones. Cependant, que se passe-t-il si je passe à côté d’un véhicule très polluant ? Que se passe-t-il si je fume dans ma voiture ? Bien sûr, cela n’a rien à voir avec les cartes de la qualité de l’air, cependant, cela a beaucoup à voir avec ce que la plupart des gens attendent : l’air que je respire est-il nocif ou non ? Les capteurs personnels par rapport aux techniques traditionnelles peuvent également créer des problèmes plus profonds : imaginez une personne passant à côté d’une fumée dense. Son capteur « low cost » (et probablement son nez et ses yeux) lui indiquent qu’il y a un problème, mais la carte provenant de sources officielles dit que tout est normal. La plupart des gens comprendront pourquoi la carte n’est pas « correcte », mais certains pourraient conclure que les cartes officielles ne sont pas fiables ou même dans certains cas que les sources officielles tentent de cacher la vérité.

L’ensemble du problème est que nous n’essayons pas de mesurer la même chose, même si les deux concernent la qualité de l’air : dans un cas, nous essayons de créer des cartes de la qualité de l’air sur de grandes zones, tandis que dans l’autre cas, nous voulons mesurer notre exposition personnelle. Bien sûr, avec les cartes traditionnelles de la qualité de l’air, vous pouvez donner une indication de la pollution de l’air pour un utilisateur/lieu spécifique, mais dans la plupart des cas, les données sont mises à jour une ou deux fois par jour et avec une faible résolution spatiale. Et bien sûr, que se passe-t-il une fois que nous sommes à l’intérieur, où nous passons environ 80 % de notre temps ?

Cela signifie-t-il que ces données ne sont pas pertinentes ? Absolument pas, elles servent simplement un but spécifique… tout comme les capteurs personnels.

La place des capteurs personnels dans la « chaîne de valeur » de la qualité de l’air est donc bien plus qu’une question de comment ils peuvent s’intégrer dans les processus de données existants. Il s’agit davantage de quelle est la valeur ajoutée, des perspectives, de la compréhension qu’ils peuvent fournir à leur utilisateur.

Alors, à quoi servent les capteurs personnels et comment s’intègrent-ils dans la chaîne de valeur de la qualité de l’air ? Si nous prenons du recul et nous référons aux exemples précédents, cela pourrait se résumer ainsi : les cartes de qualité de l’air donnent une vue d’ensemble, les capteurs personnels rapportent une situation spécifique. Cette situation très spécifique qui importe pour l’utilisateur, mais qui pourrait être vue comme un artefact pour une personne effectuant une modélisation de la qualité de l’air. Alors, comment cela se combine-t-il ? Comparons les avantages et les inconvénients, au-delà du simple critère de précision (qui reste bien sûr une question centrale) :

  • Les dispositifs personnels ont un nombre limité de capteurs (dans le sens « sensor ») par rapport aux stations traditionnelles.
  • Les capteurs des stations de référence sont plus précis.
  • Les capteurs personnels sont sensibles aux conditions locales. Ils ne renseignent pas sur la qualité de l’air de la rue, mais sur l’endroit où je me trouve.
  • Les stations traditionnelles ont souvent une résolution temporelle d’acquisition plus faible et il faut du temps entre le moment où les données sont collectées et le moment où elles sont disponibles.
  • Les capteurs personnels sont moins chers, mobiles, autonomes et peuvent être utilisés par des non-professionnels.

Il y a beaucoup d’autres aspects, mais du point de vue de l’utilisateur final, nous pourrions dire que les données provenant d’un capteur personnel semblent plus pertinentes pour rendre compte d’une situation instantanée (ici et maintenant) tandis que le processus/modélisation/cartographie de station de référence traditionnelle est plus pertinent pour des projections dans un espace ou un temps éloigné (là-bas et à tel moment). Alors qu’un capteur personnel est perçu comme un détecteur de risque à courte échelle, l’autre est plus pertinent pour répondre à la question « quelle sera la qualité de l’air quand j’arriverai là-bas », comme un conseiller de voyage pour la qualité de l’air.

Cela signifie-t-il que les données collectées à partir de capteurs portables ne peuvent pas être utilisées pour la cartographie de la qualité de l’air et ne sont bonnes que pour l’exposition personnelle ? Comme décrit ci-dessus, même si nous considérons que ce n’est pas leur valeur principale, dans certaines conditions, les données collectées à partir de ces dispositifs peuvent avoir une valeur ajoutée importante si elles sont intégrées dans le processus de modélisation de la qualité de l’air, mais sous certaines conditions, la plus importante étant la documentation du « contexte ». Le contexte est le facteur le plus important pour transformer des données de base en informations précieuses, car il permettra de réduire les variables et donc de donner la possibilité de fournir des informations pertinentes. Les stations de référence ont des capteurs de haute qualité, mais elles ont également des variables limitées : les polluants atmosphériques. L’emplacement, l’environnement proche, la météo… tout cela est fixe ou surveillé, donc les scientifiques peuvent traiter les données en conséquence, en regroupant les données liées entre elles.

Les capteurs personnels ont en eux-mêmes trop de variables. Dans le flux de données, il est impossible de dire si les données brutes sont pertinentes ou non. Si je fume dans ma voiture à côté de mon capteur, bien sûr que ces données n’ont aucun sens pour la cartographie de la qualité de l’air et doivent être éliminées à cette fin, même si c’est une information intéressante sur mon exposition personnelle. Ces données doivent passer par un flux différent et cela ne peut être fait que si le contexte est fourni.

Et d’ailleurs, cela vaut pour les capteurs personnels « bas de gamme » mais s’applique également à la cartographie mobile de la qualité de l’air effectuée avec des capteurs haut de gamme (coûteux). Si dans un cas les données sont capturées à 2 heures du matin le dimanche, puis à 8h30 le lundi, 8h30 le mardi après la pluie, à 8h30 un jour de grève (cela arrive souvent dernièrement en France…), ou si je suis coincé pendant des kilomètres derrière un vieux bus diesel ? A-t-il un sens de mélanger ces données pour créer des cartes ? Même si elles sont prises avec des instruments haut de gamme ?

D’un autre côté, ne serait-il pas acceptable d’utiliser les données collectées à partir de capteurs personnels si toutes sont utilisées dans un environnement connu/standardisé ou au moins documenté (rebord de fenêtre, éloigné de la pollution intérieure de l’air…) ? Dans de telles conditions, cela pourrait même fournir des informations difficiles à obtenir avec des instruments traditionnels, comme par exemple le comportement des polluants en fonction du niveau du sol, de l’orientation du bâtiment…

Documenter le contexte est donc presque aussi important que de collecter les données, car c’est un ingrédient capital pour les transformer en informations précieuses.

RÉSUMÉ

Comme nous l’avons appris des exemples passés sur les technologies de rupture, les dispositifs personnels de mesure de qulaité de l’air représentent une réelle opportunité pour la communauté de surveillance de la qualité de l’air. Ils font partie du maillon manquant qui pourrait nous aider à changer notre comportement en tant qu’individus, car ils traitent directement de notre exposition personnelle et peuvent fournir un retour concret alors que nous prenons des mesures correctives par exemple. Si suffisamment d’informations sont fournies sur le contexte, les données crowdsourcées à partir de dispositifs individuels pourraient également offrir une fantastique opportunité de densifier les réseaux de surveillance existants de la qualité de l’air. Mais au-delà de la simple collecte de plus de données, cela peut également fournir une nouvelle perspective pour mieux comprendre la dynamique de la qualité de l’air.

Les capteurs personnels ne sont pas meilleurs ou moins bons, ils représentent une technologie différente qui sert un but différent

Les défis futurs concernent bien sûr la fiabilité des capteurs afin d’obtenir de meilleures données, mais aussi la combinaison de la valeur ajoutée fournie par chaque technologie, en tenant compte de leur spécificité. Un facteur clé sera le développement de processus automatiques pour rapporter et documenter le contexte de la mesure afin d’intégrer les données dans des processus de données dédiés à la qualité de l’air.

Les capteurs personnels ne sont pas meilleurs ou moins bons, ils représentent une technologie différente qui sert un but différent. Par conséquent, au-delà de la simple tentative de « mélanger les données », le véritable progrès viendra de notre capacité à combiner les perspectives dérivées de ces technologies de nature différente mais complémentaire.

REFERENCES

1. Bill Kilday; Never Lost Again: The Google Mapping Revolution That Sparked New Industries and Augmented Our Reality; HarperBusiness, 2018

2. AirLab 2019 International Microsensor Challenge results http://www.airlab.solutions/sites/default/files/presse/brochure_2019_gb-version%2010.02_0.pdf (accessed May 2020) pp35

3. PMSCAN specification sheet https://drive.google.com/file/d/13Sok_nIge5oY7GfPV5GMrZbj0HT5BRJZ/view?usp=sharing (accessed May 2020).

4. NextPM specification sheet https://drive.google.com/file/d/1HIf5JuWeEnh-6aYG1P2d80EJNDw1b64k/view?usp=sharing (accessed May 2020).

5. DIAMS presentation https://www.uia-initiative.eu/fr/uia-cities/aixmarseille-provence-metropole

Votre contact
David Riallant
Directeur

Téléphone
+33(0)6 43 11 36 52

E-mail
david.riallant@airsentinels.com

Un projet ? Parlons-en !