ven 16.10 0

Rétrospective sur le salon Smartcity+Smartgrid

C’est à Paris Porte de Versailles que s’est tenue la deuxième édition du salon Smart CITY + Smart GRID, les 7 et 8 octobre 2015.

IMG_4882

 

Regroupant les dernières innovations en haut et très haut débit des réseaux intelligents, le salon tente de mettre en exergue les villes connectées du futur qui alimentent le concept de Smart City en vogue dans le  vocabulaire de nombreux acteurs, allant des élus aux énergéticiens, en passant par les leaders de  l’informatique, des télécoms et du bâtiment.

C’est dans ce contexte que DigitalCorner a souhaité assister à plusieurs conférences, centrées sur la Smart  City  avec des approches aussi bien techniques, pragmatiques que sociologiques. Nous allons tenter de  retranscrire  les deux conférences les plus marquantes de cette édition.

 

Big Data et Cloud Computing pour la valorisation des données d’une ville

Cette première conférence regroupait des acteurs de l’informatique et de la data à plusieurs niveaux. Isabelle Flory représente Intel en tant que directrice des ventes Entreprises et Institutions Europe de l’Ouest alors que les trois autres participants représentent des start-ups proposant des solutions énergétiques intelligentes, innovantes et propres.

Radiateur Q.Rad (Qarnot Computing)
Radiateur Q.Rad (Qarnot Computing)

 

Paul Benoît, PDG de Qarnot Computing, propose par exemple un concept révolutionnaire en implantant les data centers des entreprises chez le particulier. Comme il l’explique, « le data center dépense beaucoup d’argent et d’énergie pour refroidir ses machines. Chez eux, les gens dépensent beaucoup d’argent et d’énergie pour avoir du chauffage. ». Tout est dit : la puissance des 4 gros ordinateurs logés dans le radiateur digital délivre la chaleur nécessaire au particulier, qui se fera rembourser ses frais de chauffage par l’entreprise. L’entreprise de son côté verra ses coûts de data center considérablement réduits.

Start-ups et grande entreprise se sont entretenues pendant une heure pour discuter de la valeur de la donnée et de ce qu’elle peut apporter dans la gestion d’une ville. Paul Benoît (Qarnot Computing) nous explique en introduction que le volume de données accumulées depuis les années 2000 est colossal. Pour l’illustrer, il prend l’exemple d’une pile de CD sur lesquels sont enregistrées ces données. De 2000 à 2010, cette pile correspondrait à la distance Terre-Lune, ou encore à l’équivalent de trois cent vingt fois la masse d’information de la collection de la bibliothèque d’Alexandrie pour chaque habitant de la Terre (mille deux cents milliards de milliards d’octets). Entre 2014 et 2020 cette pile comblerait la distance jusqu’au soleil… Tout l’enjeu est donc de donner de la valeur à ce volume considérable.

Isabelle Flory (Intel) exprime la data grâce aux « 3V » :

  • Le Volume : on observe une tendance haussière exponentielle depuis quelques années.
  • La Variété de données : auparavant stockée dans de très grandes bases de données ; la data est désormais déstructurée ; il convient donc de rapprocher les données utiles entre elles.
  • La Vélocité : il est utile de rapprocher les données, mais dans un secteur comme l’Électricité, où l’équilibre offre-demande se fait en temps réel, la rapidité des algorithmes d’analyse est un facteur clé.

Enfin, elle ajoute la Valeur avec une question essentielle qui résume le thème de cette conférence : « Quelle valeur pour quelle donnée ? ». En effet grâce à des coûts de sauvegardes diminuant considérablement, le stock de data augmente de la même manière, d’où la  volonté de rendre « intelligentes » ces données.

Créer de la valeur grâce à la relation entre les données

Arnaud de Moissac, fondateur de DC Brain – qui propose une solution de visualisation de l’activité électrique des data centers pour une meilleure efficacité énergétique – met en avant le fait que la valeur réside dans le lien que l’on fait entre toutes ces données. Celui-ci appuie cette assertion sur l’avènement de Facebook, qui a permis de se rendre compte que « le réseau est plus important que la liste de contact ». Dans le Big Data, la relation se fait entre les objets, capteurs, logiciels, c’est finalement un « réseau social de données » qui en découle, et c’est cela sur lequel il faut miser pour espérer créer de la valeur.

En découle alors la question de la responsabilité face à l’intelligence distribuée, ce concept qui décrit le résultat collectif issu d’actions individuelles : avec l’absence de contrôle centralisé, on remarque que les comportements individuels concourent à la construction et à des solutions collectives sans qu’il n’y ait de coordination pré établie, en somme une réinterprétation de la fameuse Main Invisible d’Adam Smith, fondateur de l’Économie moderne.

Face à ce concept abstrait se soumettent des problématiques bien réelles comme la normalisation, sujet clé dans le déploiement des Smart Grids : comment aboutir à un consensus mondial dans la construction des réseaux intelligents sans que les normes, protocoles et références ne fassent l’objet d’une standardisation à grande échelle ?

Les responsables des start-ups présentes rapportent les mêmes constats : pour avancer, il faudra commencer à moindre échelle, en commençant les expérimentations par des campus ou quartiers, afin de prouver la valeur à créer via la data.

Des expérimentations de proximité pour une meilleure adéquation à l’écosystème

Les radiateurs intelligents de Qarnot Computing ont été déployés dans des logements sociaux en Ile de France. L’échelle régionale est, selon son leader, la maille maximale par laquelle il peut y avoir une capacité de compréhension. Les premiers résultats sont d’ailleurs évocateurs : depuis 2 ans, 500 personnes sont chauffées gratuitement grâce à sa nouvelle solution de data centers chez l’habitant.

Cependant, Il existe encore trop d’intermédiaires entre ces fournisseurs de données et les entités capables de les gérer, comme le rapporte Arnaud de Moissac (DC Brain). En routant ces flux, on pourrait économiser énormément d’énergie. Paul Benoît quant à lui insiste sur le fait que la normalisation sera un thème important de la COP21 qui aura lieu à Paris en décembre prochain. Selon une étude de Greenpeace, 1 ,5 à 2% de l’électricité mondiale est dédiée aux data centers (3% aux États-Unis), et cela pourrait doubler dans les 5 ans à venir. Il pose alors la question suivante :

« Doit-on attendre que les technologies soient plus propres ou faut-il intervenir politiquement ? »

Le Machine learning : mythe ou réelle menace pour l’Homme ?

Le débat se tourne ensuite  sur la gestion de la data par les machines, notamment grâce au « Machine learning » ; un terme qui peut faire peur dans le sens où la machine pourrait remplacer l’humain. Mais il n’en est rien selon Arnaud de Moissac, qui appuie sa thèse en montrant que les machines sont là pour faciliter la vie de l’être humain. Certains métiers sont en effet contraints de passer 60% de leur temps à récolter des données, tâches pouvant être effectuées par des machines. Le Machine learning permettrait donc aux professionnels de se recentrer sur leur cœur de métier. Maxime Avedikian, président de Mc MA Solutions, nous explique alors que dans la Haute Vienne, le traitement en deux jours de 40 000 factures a permis de réduire de 20% la facture d’énergie des habitants en s’adaptant à leurs besoins. Ainsi, la solution proposée par son entreprise a permis d’économiser un temps précieux pour les collaborateurs afin de passer directement à la phase d’analyse.

En résumé, il s’agira de faire l’interface entre le champ humain et le champ technologique. Comme l’a très bien exprimé Maxime Avedikian (Mc MA Solutions), la donnée est destinée à l’humain. Or nous ne traitons pas de la donnée mais de l’information, c’est donc tout l’enjeu de donner de la valeur à la Data : transformer la masse des données en informations. Il existe donc selon lui trois points de vigilance :

Le premier point porte sur la dépendance de l’humain face à la donnée. Le second concerne les besoins en énergie : les technologies nécessitent des ressources qui sont aussi utiles à l’humain : faut-il privilégier les ressources au service de l’humain ou des technologies qui aident l’humain ?

Enfin, le but d’une Smart City est d’utiliser les données pour mieux vivre ensemble dans un contexte d’urbanisation massive, mais jusqu’à quel point doit-on déléguer le « mieux vivre ensemble» à des machines ?

La lumière connectée dans les Smart Cities

La lumière connectée, portée par la technologie Li-Fi (Light Fidelity), était le centre des discussions de l’autre conférence marquante de ce salon. Communiquer sans fil grâce aux ondes lumineuses comprises entre le bleu (670 THz) et le rouge (480 THz), risque de transformer les villes du futur. Grâce à la LED, dotée d’une durée de vie largement supérieure aux ampoules classiques, l’information pourra être transportée dans des endroits encore inatteignables. Avec des débits pouvant aller jusqu’à plusieurs Gigabits par seconde, le Li-Fi- promet d’être la technologie « du dernier mètre » avec une précision de détection à 10 centimètres.

De gauche à droite : Bernard Delhomme – Pascal Fradet – Rodolphe Michel – Marc Rozenblat
De gauche à droite : Bernard Delhomme – Pascal Fradet – Rodolphe Michel – Marc Rozenblat

Plusieurs membres de la Smart Lighting Alliance (SLA, créée en 2014 pour partager les connaissances sur  le Li-Fi) sont venus s’exprimer sur le sujet.

Pascal Fradet (Véolia), Rodolphe Michel (secrétaire général de la SLA), Marc Rozenblat (Constructions et  Développements Urbains – CDU) ont ainsi discuté de cette technologie avec l’appui de l’animateur Éric  Gourmel (BEE LIFI et administration de la SLA) et de Bernard Delhomme (Citylone).

Éric Gourmel rappelle que les collectivités locales ne peuvent pas être opérateur de communication. Or le  Li-Fi est un nouveau réseau qui ne supplante pas le Wi-Fi, et permet donc de créer des réseaux de  proximité indépendants, une sorte d’intranet à l’échelle d’une ville.

La transmission des données par la lumière : une solution à la saturation des réseaux

Comme le rapporte Pascal Fradet (Véolia), l’Homme vit depuis très longtemps avec la lumière. L’idée est donc créer un réseau par son biais, avec une technologie dénuée d’une potentielle électro sensibilité (intolérance due aux ondes électromagnétiques). Selon lui, il y aura 29 milliards d’objets connectés en 2020 (voire beaucoup plus selon d’autres sources), ce qui pourrait aboutir à des réseaux saturés. Le Wi-Fi est une onde cohérente, c’est-à-dire qu’elle peine dans les conditions extérieures, notamment avec la pluie, le métal etc. On accumule les bornes et relais, ce qui détruit le signal à fortiori, comme on peut le remarquer dans les stades lorsque l’on n’arrive plus à communiquer avec l’extérieur. Cette contrainte est absente du Li-Fi.

Un autre avantage de cette technologie est qu’elle est proposée et non imposée à l’utilisateur : des filtres seront applicables et les informations transmises ne le seront que si le terminal l’autorise. De plus le BLE (Bluetooth Low Energy), protocole utilisé dans le Li-Fi, permet de se connecter sans appairage contrairement au Bluetooth que l’on connait, même si les débits sont moins importants.

De l’information personnalisée sans forcer la main de l’utilisateur

On comprend alors tout l’intérêt pour une entreprise comme Véolia : « Le Li-Fi a le mérite de lier l’indoor et l’outdoor », comme le dit Pascal Fradet. Il y a une réelle mobilité du service, qui devient disponible partout. Plusieurs exemples sont alors évoqués :

  • La géolocalisation de l’information en cas d’alerte enlèvement ou d’alerte météo
  • La consultation du dossier médical par le médecin en arrivant dans la chambre du patient
  • Les parcours touristiques grâce à l’éclairage public
  • La diffusion d’informations liées à un œuvre artistique dans un musée et la géolocalisation précise des autres œuvres du même artiste dans le même bâtiment.

Rodolphe Michel (SLA) expose ensuite le projet d’éclairage intelligent de Meyrargues, commune de 3700 habitants située dans les Bouches-du-Rhône. Ainsi 20 luminaires du centre-ville vont être équipés de la couche technique la plus élevée en Li-Fi : le Li-Fi alphanumérique. Comme exprimé précédemment, l’information sera géo contextualisée selon l’endroit où se trouve l’utilisateur. On pourra recevoir des informations sur les horaires ou les offres de La Poste en passant devant, ou sur les activités du quartier. Cela va permettre d’animer le centre-ville mais aussi de mieux gérer le parking en ville, les ordures, etc. Les services seront alors mutualisés : les informations de la gare SNCF seront par exemple liées à celles du réseau de bus.

Le projet sera inauguré le 13 novembre prochain. Il jouit apparemment d’un bel engouement de la part des habitants qui y voient une vraie occasion de dynamiser la vie de quartier en rétablissant ces liens sociaux qui semblent se perdre dans un monde urbain qui se densifie.

Marc Rozenblat (CDU) fait alors remarquer que les services publics tendent à disparaitre physiquement. Le Li-Fi leur donne l’occasion de revenir de manière dématérialisée, pour atteindre l’utilisateur jusqu’à son foyer : exit les campagnes municipales et les distributions de tracts sur les marchés. La sécurisation et la personnalisation des données vont permettre de créer des réseaux indépendants. On donne alors l’exemple d’un réseau de quartier auquel seuls ses habitants auront accès, qui met à disposition des services à la personne (babysitting, covoiturage, etc.). Grâce au Li-Fi, plus besoin d’internet : le réseau devient local et exempt de cyber attaques.

Actuellement, Le Li-Fi de Meyrargues se transmet via un « dongle » (boîtier) branché sur la prise jack du Smart Phone couplé à une application mobile. Mais comme le signifie Marc Rozenblat, demain, cet outil sera intégré au téléphone si l’adhésion est vérifiée sur le terrain.

Cette conférence s’inscrit dans l’actualité puisque l’UNESCO a fait de 2015 l’année internationale de la lumière.  Le Li-Fi n’en est qu’à ses balbutiements, et c’est sans nul doute que les projets pilote vont naître au vu du potentiel de cette innovation que Marc Rozenblat qualifie même de révolution. Plus qu’un flux de données porté par la lumière, Le Li-Fi va permettre de nombreuses économies d’énergie en n’éclairant que quand cela est nécessaire ; un atout qui pourra être utilisé pour gérer des flux de personnes : lors de la sortie d’un grand évènement dans un stade, n’allumer que les lampadaires d’une allée pourra certainement orienter les piétons et ainsi la gestion des flux sera optimisée.

La Smart City : une ville nouvelle construite pour et par l’humain

S’il semble presque aberrant de parler de Smart City seulement aujourd’hui alors que depuis toujours les villes ont été construites pour être « intelligentes » (réseaux d’égouts, d’eau courante, ou plus récemment d’électricité…), les nombreuses innovations sur le point d’émerger semblent montrer toute l’actualité de ce phénomène.

Dans le même temps, l’intelligence d’une ville ne peut et ne doit pas se résumer à une agrégation d’innovations techniques ou technologiques ; « la ville intelligente réside aussi dans l’intelligence des habitants, élus, groupes économiques etc… le numérique n’est qu’un outil » comme concluait Pierre Bordeaux, enseignant chercheur à l’Université Paris-Est Créteil Val-de-Marne dans une des conférences de cet événement.

L’intelligence n’est pas dans la donnée, mais dans l’information que l’humain sait lui soutirer.

 

 

Commenter cet article

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *