La nouvelle économie des Technical Data

13 Mars 2019
technical data
Les Technical Data ont fait une entrée en force dans l’économie mondiale. Pourtant il y a trente ans de cela, ce type de données était totalement non considéré et n’intéressait que les informaticiens. Qu’est-ce qui a changé depuis ? C’est ce que nous allons découvrir, par Pierre-Sylvain Roos
C’est le nouveau mantra, vous l‘avez tous en tête : les data sont partout, nous sommes entrés dans l’ère des data … mais est-ce vraiment aussi nouveau qu’on le dit ?
 
Technical Data qu’est-ce que c’est ? 
 
Dans les années 90, nous avions déjà vécu le passage à l’ère de l’information, et nombre de publications à l’époque insistaient fortement sur le fait qu’une donnée ce n’est pas de l’information !
 
Le monde des data était alors fort différent de celui que nous connaissons, scindé en deux univers bien cloisonnés : 
  • d’une part des informations constituées en réseaux sémantiques, qui étaient implémentées dans des systèmes d’information structurés, au service d’utilisateurs métier (fonctionnels). C’était la partie visible, des données exposées et qui ont du sens, permettant de créer de l’information.
  • d’autre part, on trouvait des données produites par les systèmes ou les équipements, des données enfouies, souvent codées ou illisibles pour le néophyte, des données qui n’intéressaient que les ingénieurs ou les techniciens de maintenance et d’exploitation.  
Ce sont ces dernières données que nous qualifierons de données techniques ou de Technical Data (pour être plus au goût du jour). Au départ elles ne servaient qu’à faire fonctionner ou à réparer les systèmes et les dispositifs comportant du logiciel. Elles sont produites spécifiquement pour tracer, analyser, identifier,  synchroniser, contrôler ou ordonnancer … on y trouve : 
  • les données d’exploitation (fichiers log, volumétrie, consommation CPU, etc.),   
  • les données de configuration,
  • les données de connexion et de localisation,
  • les données de monitoring (bit d’ordonnancement ou de contrôle, donnée issue de point de mesure, de caméra, de capteur, de pointeur, etc.)
  • les données de navigation (web),
  • les métadonnées d’échange et de transfert (de fichiers, d’objets binaires, de paquets de données, de messages, etc.). 
Leur caractéristique principale était  d’être éphémère. Une fois qu’un composant avait accompli sa tâche correctement, les données techniques  correspondantes n’avaient pas vocation à être conservées, elles ne l’étaient qu’en cas de panne ou de dysfonctionnement, à des fins d’analyse et de débogage. D’ailleurs en cas d’incident une des premières consignes pour les informaticiens était de prendre des mesures conservatoires, justement pour que ces données-là ne soient pas détruites (s’entend automatiquement détruites). 
Et une des préoccupations majeures des centres d’exploitation informatique, en un temps ou l’espace disque coûtait très cher, c’était de bien purger toutes ces données le plus régulièrement possible pour ne pas voir leurs volumes s’accroître de façon inconsidérée.        
       
Depuis cette époque, que l’on pourrait presque qualifier d’obscure, trois grands phénomènes ont complètement changé la donne : 
  • le logiciel s’est répandu dans tous les systèmes et les équipements, il est désormais omniprésent aussi bien dans les industries que dans les plus petits objets du quotidien,
  • les capacités de stockage de données n’ont cessé de se développer, exponentiellement, en même temps que les coûts induits ont littéralement chuté,
  • la puissance de calcul des processeurs s’est considérablement  amplifiée, avec la mise au point de systèmes parallèles et décentralisés qui confèrent une capacité de traitement et de manipulation des données quasi-illimitée, qui plus est en temps réel.    
Les conséquences nous les connaissons tous : un déluge de données produites en masse, que l’on peut conserver et exploiter sans limite apparente. 
 
Data Business ou Data Value ? 
 
Lorsque l’on possède, ou mieux que l’on produit des données en masse, la première tentation c’est bien sûr d’en faire commerce et de les vendre directement, sous condition de trouver des acheteurs intéressés. Et alors bienvenue dans le Data Business.
 
En ce qui concerne nos Technical Data, nous allons nous intéresser à un cas tout à fait représentatif des ruptures technologiques en cours : les véhicules connectés et autonomes, et en particulier Tesla qui est leader dans le domaine.
 
Les Teslas sont probablement le nec plus ultra à ce jour de la voiture connectée, en termes de nombre et de types de capteurs embarqués, incluant des caméras, radars et LIDAR, détection ultrasons, etc.
 
C’est en 2013, à l’occasion d’un test de conduite mené par un journaliste et publié dans le New York Times que le grand  public a pu mesurer l’étendue des données manipulées par le constructeur. Ce n’est pas tant le test en lui-même qui a attiré l’attention, il s’est avéré catastrophique, mais la contre-attaque d’Elon Musk, graphiques à l’appui, pour prouver la mauvaise foi du journaliste. Il s’est alors avéré que Tesla possédait l’intégralité des données concernant ce test, et que celles-ci ont été collectées en temps réel : parcours, vitesse, taux de charge et d’utilisation des batteries, etc. Au final le journaliste n’avait pas respecté les contraintes du test : avoir rechargé totalement les batteries, rouler en dessous des limitations de vitesse, et parcourir 200 miles au maximum.     
 
Et effectivement, chaque Tesla est un monstre de production de données techniques, il y en a partout :
  • données du calculateur moteur et du calculateur habitacle,
  • données d’interaction avec les usagers (infotainment, park assist, éco-conduite, etc.),
  • données d’usage du véhicule (style de conduite, distances parcourues, trajets, consommation, etc.),
  • données de fonctionnement et d’usure des pièces (usure plaquette de frein, température d’un roulement, etc.).
Le plus souvent Tesla sait qu’il y a un problème avant même que le conducteur ne s’en rende compte.
 
Pour l’instant Tesla ne vend pas ces données à des tiers, mais il y a déjà des candidats très intéressés par l’utilisation future de ce  type de données, à leur profit : 
  • les services de sécurité routière et de voirie, pour réaliser des études d’accidentologie afin d’améliorer leurs infrastructures et leurs équipements,
  • la police et la gendarmerie pour bien évidemment mieux détecter et punir les infractions,
  • les compagnies d’assurance pour développer des offres plus personnalisées. 
Ces dernières visent notamment une nouvelle approche de contrats dits « Pay how you drive » (payez comme vous conduisez) où le niveau de couverture et les tarifs seraient ajustés au comportement routier du conducteur assuré, à la baisse ou à la hausse. Et Tesla n’est pas seul dans ce mouvement, tous les constructeurs mondiaux sont sur les rangs.

Mercedes Benz par exemple propose d’ores et déjà cinq packages de données générées par les véhicules. Ceux-ci sont destinés à tout partenaire qui souhaite développer des nouveaux services basés justement sur ces données, les voici :  

  • Pay-as-you-drive Insurance : données de l’odomètre des voitures connectées, relevés en temps réel de la distance parcourue et de la vitesse, 
  • Fuel status : niveau du réservoir de carburant et autonomie restante,
  • Vehicle status : état (ouvert/fermé) des portières, des vitres et du toit ouvrant, 
  • Vehicle lock status : état de verrouillage du véhicule (verrouillé/déverrouillé) et direction courante (fonction boussole),   
  • Electric vehicle : uniquement pour les véhicules électriques, état de charge de la batterie et autonomie restante. 
Aujourd’hui une voiture connectée génère en moyenne 25 gigaoctets de données par heure. D’après Mc Kinsey, toutes ces data collectées par les véhicules auront une valeur de 750 Milliards de dollars d’ici 2030.  
 
Et si on ne vend pas les données, l’autre possibilité c’est bien sûr de les utiliser soi-même pour enrichir sa proposition de valeur. C’est ce qu’a fait Michelin en proposant pour les chauffeurs routiers :
  • Dès 2013, Effi-Fuel une offre de services pour réaliser des économies de carburant,
  • En 2015, Effi-Tires une offre complète de gestion externalisée des pneus pour un parc de camions, où tous les pneus sont loués avec une facturation au kilomètre. 
Les deux offres reposent sur l’installation d’un boîtier dans chaque camion pour collecter les données de consommation, de conduite du chauffeur (accélérations, décélérations, régime moteur, freinages), et de pression des pneus. Elles incluent un accompagnement à l’éco-conduite.
 
En 2019, Michelin va encore plus loin avec 4 nouveaux services disponibles sous forme d’applications mobiles : 
  • MyBestRoute : Optimisation d’itinéraires Poids Lourd en fonction de la configuration et de la charge du véhicule,
  • MyInspection : Aide et guidage pour les inspections techniques des véhicules,
  • MyTraining : Aide à l’amélioration de la conduite,
  • MyRoadchallenge : Serious Game pour récompenser la qualité de conduite. 
Là encore, ce sont des données techniques qui fournissent les éléments essentiels pour l’efficacité du service, soit qu’elles proviennent de capteurs spécifiques, soit en utilisant directement des dispositifs existant comme le GPS des smartphones des conducteurs par exemple.
 
Un monde quadrillé !
 
Un autre exemple, un peu différent de ce qui vient d’être évoqué, c’est celui de Bouygues Telecom.
 
Ici il s’agit toujours d’utiliser des données techniques, mais cette fois dans le cadre de services d’études et de consulting. La nouveauté, c’est que Bouygues Telecom ne proposait pas du tout ce type de services auparavant, et que pour cela il s’est mis à exploiter des données qui servaient à tout autre chose. 
 
En l’occurrence, on parle des données techniques mises en œuvre au niveau des antennes-relais mobiles. En principe elles servent au routage et à la prise en charge des signaux des terminaux mobiles, ainsi que pour  gérer la Qualité de Service (QoS) du réseau et calculer les facturations. 
 
Cependant avec ces données et un système de triangulation simple, on peut aussi assez facilement déterminer la localisation d’un signal, et par extension les déplacements et les trajets des usagers, et donc leur comportement.
Dans ce cas, ces données sont bien sûr anonymisées, mais en les associant par exemple à des profils de clients, des tranches d’âge, ou des zones de résidence, il est possible de produire toute sorte d’analyses. L’avantage est qu’au lieu de s’appuyer sur un échantillon représentatif, on se base sur des données de masse réelles, et on obtient un niveau de finesse et de pertinence bien plus grand que celui atteint  avec les techniques statistiques classiques.  
 
Grâce à cette nouvelle approche, Bouygues Telecom conseille aujourd’hui les collectivités territoriales pour l’optimisation des transports, et la gestion des engorgements routiers notamment sur les rocades. L’analyse précise des données de déplacements permet de mieux comprendre les causes des problèmes et les comportements associés.    
 
Un autre cas d’usage a été mis au point à partir du découpage virtuel d’une zone géographique en carreaux de 200 m X 200 m. Le service consiste alors à analyser finement les flux et la présence des usagers sur chaque carreau. Ceci concerne principalement des activités de retail et permet :  
  • de faire des recommandations d’implantation de commerce 
  • d’optimiser le maillage des agences pour un réseau commercial (pour la banque/assurance par exemple)
  • d’orienter la logistique de distribution de catalogues,
  • de gérer des implantations d’affichages, 
  • d’analyser la performance d’un magasin (ratio fréquentation carreau / CA magasin) 
La liste des utilisations n’est évidemment pas limitative, elle ne devrait que s’enrichir au fil du temps.
 
Des capteurs … encore des capteurs ! 
 
Qu’on se le dise, le capteur est le fer de lance des Technical Data. A un tel point que ce qu’on observe de plus en plus, c’est la multiplication du nombre de capteurs implémentés sur un même produit au fil des ans.
 
Pour une illustration concrète de cette tendance, nous allons diriger notre attention, du côté des moteurs d’avion (des réacteurs) chez  Rolls Royce.
 
Depuis le début des années 2010’s, Rolls Royce a déployé une offre unique d’ «Engine Health Management », littéralement la gestion de la bonne santé des moteurs, avec laquelle il assure maintenant le suivi et la maintenance de 9000 moteurs d’avion utilisés aux quatre coins de la planète. Et pour chacun de ces moteurs, ce n’est plus le produit qui est vendu, mais l’heure de vol garantie.
 
Pour passer d’une offre orientée produit à une offre de service de bout en bout, tous les réacteurs ont été équipés avec des capteurs. Chacun collecte entre 50 et jusqu’à 200 paramètres par moteur, en temps réel, c’est-à-dire 40 fois par seconde.
 
Aujourd’hui, les mesures concernent principalement la pression et la température des fluides, et la vitesse et la vibration des éléments mécaniques. Quelques paquets de données issus de ces mesures sont transmis durant le vol, via une liaison satellite, et l’intégralité des données est envoyée aux ingénieurs de Rolls Royce après chaque atterrissage. Ils peuvent ainsi examiner et détecter des fines marges de gains en performance, et identifier les facteurs et les conditions pour lesquelles les réacteurs ont besoin de maintenance. In fine cela permet de prévoir et de planifier des actions de maintenance des jours ou des semaines à l’avance, avant que des pannes ou des dysfonctionnements ne surviennent. Au jour le jour tout l’effort est fourni pour maintenir chaque moteur dans son meilleur régime de fonctionnement possible. Les gains sont énormes pour tous, à commencer par les compagnies aériennes qui réalisent ainsi des économies de carburant substantielles. De plus, le temps d’immobilisation des avions est réduit et maîtrisé, les vols ne sont plus perturbés et sont assurés avec les horaires prévus.      
Les prochaines étapes : encore plus de capteurs et de mesures, jusqu’à un millier par moteur, avec ajout notamment des signaux électriques et des systèmes de contrôle. Et l’amélioration des communications en vol pour transmettre plus de data en temps réel. 
 
Rolls Royce est un exemple impressionnant parce qu’à l’échelle industrielle, mais même avec une ampleur moindre, on peut vérifier absolument partout cette profusion des capteurs qui ne fait que s’accroître.
 
Ainsi, dans notre environnement immédiat ou dans la gestion de notre quotidien, la ville-état de Singapour préfigure probablement ce que nous réserve l’avenir. Championne toutes catégories des smart cities, la ville « la plus intelligente du monde » a déjà mis en place des systèmes massifs de collecte de data pour gérer les péages, les places de parking, son parc de véhicules électriques partagés et ses voitures autonomes. Les consommations d’eau, de gaz et d’électricité sont étroitement surveillées, chaque facture est comparée avec la moyenne du quartier pour influencer les comportements des usagers. Et ce n’est pas tout,  la ville-Etat déploie un nombre faramineux de capteurs et de caméras sur tout son territoire pour gérer aussi bien le nettoyage des espaces publics, que la densité des foules, ou le déplacement précis de chaque véhicule enregistré dans l’Etat. Il est également prévu d’ouvrir toutes ces data à des opérateurs privés pour fournir des services à valeur ajoutée comme la surveillance des personnes âgées ou la sécurité des bâtiments. 
 
Vous l’aurez compris, nous n’en sommes qu’au début d’un développement sans précédent des technologies liées aux data et aux données techniques, et peut-être sûrement aussi au début de nouveaux problèmes… mais c’est un autre sujet !        
 
La revanche des Technical Data …   
 
En 2019 c’est un fait, la moindre donnée brute peut avoir un intérêt et une valeur. Ces « petites » données techniques, codées, incompréhensibles, rejetées et déconsidérées ont désormais pris le pouvoir sur l’économie tout entière. La transformation du vilain petit canard en cygne majestueux a bien eu lieu … Et maintenant plus personne ne se risquerait à faire la distinction entre donnée et information. Au demeurant il n’y a plus vraiment d’intérêt non plus à considérer les données techniques comme un type de données à part. D’ailleurs ce qui focalise l’attention actuellement ce sont les raw data.  
 
Les raw data sont ces données atomiques brutes, collectées le plus souvent automatiquement, et qui sont organisées en flux continus. Elles constituent la plus grande part des big data produites dans le monde, et elles ont par ailleurs donné lieu à des développements technologiques récents pour le moins inattendus.    
 
A l’image de la supply chain qui permet d’acheminer un produit ou un service de son lieu de production vers son lieu de consommation, les raw data ont besoin d’une infrastructure dédiée pour être transportées depuis leur collecte jusqu’aux systèmes où elles seront analysées et exploitées.
 
Les technologies réseaux s’étaient jusqu’alors beaucoup concentrées sur l’augmentation des débits et des bandes passantes, mais avec des raw data issues de capteurs les enjeux sont différents. 
 
Il n’y pas de problème de volume, chaque donnée n’occupe que quelques bits au maximum, en revanche il faut une capacité de fonctionnement en autonomie dans la durée, et une connectivité sans faille en continu pour transmettre la donnée au bon moment lorsqu’elle est requise, et parfois sur des très longues distances.
 
Ces préoccupations ont conduit au développement d’une nouvelle génération de technologies de réseaux à très bas débits, et nécessitant très peu d’énergie, en particulier les LPWAN (pour Low Power Wide Area Network). 
 
Ce champ d’application a ouvert un nouveau domaine d’activité économique où personne ne s’était positionné jusqu’alors. Des acteurs précurseurs et un peu visionnaires comme SIGFOX ou LoRa sont aujourd’hui en bonne place pour se tailler la part du lion dans ce tout nouveau marché en plein essor.  
 
Une autre grande promesse pour le futur, c’est l’avènement dans tous les domaines de l’économie des data-rich markets : des places de marché où les transactions seront entièrement guidées par les data, et non plus seulement soumises au critère unique du prix. 
 
Là aussi nos anciennes données techniques auront un rôle particulier et prépondérant : 
  • d’une part ce seront des data privilégiées pour qualifier les produits ou les services proposés,
  • d’autre part elles seront massivement utilisées par les algorithmes de recherche et de comparaison.  
L’objectif des data-rich markets est de fournir une vision d’un produit ou d’un service enrichie et complétée avec des données d’usage, de performance, de témoignages ou  de commentaires de clients, des documents visuels et photographiques, etc. tout ce qui peut contribuer à évaluer ce qui est proposé autrement que par son prix.
 
En ce qui concerne la partie immergée des data, non directement visible par le grand public, les data collectées permettront de constituer des méta-descriptions très fournies, ayant pour effet direct d’amplifier la puissance et la pertinence des moteurs de recherche ou de recommandation.   
 
Vous ne le saviez peut-être pas, mais une des raisons pour laquelle Jeff Bezos s’est positionné dans la vente de livres, c’est qu’en 1994 tous les éditeurs américains ont numérisé et rendu publics leurs catalogues saisonniers, avec toutes les données techniques de référencement et de classification des ouvrages, ainsi que les notices de lectures et les descriptifs résumés. C’est cette base de data qui a permis la mise au point des algorithmes qui ont fait le succès d’Amazon en permettant aux clients de trouver efficacement ce qu’ils recherchaient avec une pertinence sans équivalent à l’époque. 
        
Ce que l’histoire de ces Technical Data nous apprend, c’est l’ampleur et la radicalité des transformations récentes que le monde connait avec cette entrée dans l’ère des data.
 
Au-delà de la possibilité de monétiser directement ses data, ou du passage d’une offre orientée produit en une offre de valeur plus large incluant des services, c’est tout un nouveau marché qui se met en branle et se déploie inexorablement. La data culture est en marche. 
 
En conclusion …   
 
Pour faire simple, la conclusion concernant les données techniques pourrait tenir en trois mots : Ne jetez rien ! 
Et si vous avez bien pris conscience que toutes vos données ont une valeur, alors le moment est probablement venu d’agir.
Tout d’abord, êtes-vous sûr de bien connaître toutes vos data ? Il est fort probable que votre entreprise ou votre organisation produise des données dont vous ne soupçonnez absolument pas l’existence. Donc en premier lieu, un recensement exhaustif s’impose. Pour cela vous devriez idéalement vous appuyer sur des Data Stewards, et plus globalement mettre en place une gouvernance des data. Et bien sûr, allez impérativement interroger vos ingénieurs et vos Tech Leaders, ce sont eux qui le plus sûrement pourront vous montrer et vous expliquer ce qu’ils ont mis en  place en matière de données techniques.
 
Une fois le recensement effectué, il y aura probablement un effort supplémentaire à fournir pour pérenniser, organiser et stocker des données qui n’avaient d’autres vocations que d’être détruites à court terme, parfois et souvent dans la journée même de leur production. Une solution passant par le Cloud est toute indiquée si vous voulez maîtriser vos investissements au départ, tout en bénéficiant d’une infrastructure scalable et sécurisée. 
 
Enfin dernière étape avant de se lancer, il vous faut une idée, et construire un premier cas d’usage. Fort heureusement, nous ne sommes plus à l’ère des pionniers en matière de valorisation de data, et le marché fourmille de solutions sur étagère, y compris des verticaux prêts à l’emploi dans de nombreux domaines fonctionnels. Au départ, il n’est pas non plus besoin d’être dans l’innovation absolue, vous pouvez avec profit vous inspirer d’applications ou de solutions qui ont déjà été mises en œuvre par d’autres entreprises ou d’autres organisations. A ce niveau bien évidemment il est plus que conseillé d’avoir recours à une expertise externe, cela vous fera gagner beaucoup de temps et d’argent !
 
Et maintenant, vous avez des données intéressantes et pertinentes, vous savez-comment les gérer et les exploiter, et vous avez un cas d’usage pour une première expérimentation de valorisation : à vous de jouer ! 
 

Aussi n’hésitez pas à visiter notre offre Digital.

Parlons ensemble de vos projets. 

 bouton contact