🌊👔 Pour sa 1ère visite comme Premier ministre, Gabriel Attal a visité le Pas-de-Calais à la suite des #inondations. Quels enseignements l'État, les collectivités, les particuliers et les entreprises peuvent tirer de cette catastrophe naturelle ?
🌀 “Perfect Storm” - Le Pas-de-Calais a été confronté à une combinaison de facteurs qui se répéteront dans le futur
➡️ de très fortes précipitations s'accentuant avec le #réchauffementclimatique car +1°C = +7% teneur en vapeur d'eau max de l'atmosphère qui se transforme en pluie torrentielle quand les masses d'air chaud humides rencontrent des masses d'air froid
➡️ un territoire très plat (max 212 m d'altitude)
➡️ des sols déjà gorgés d'eau et des nappes phréatiques pleines et peu profondes (réactives)
➡️ des marées poussant l’eau vers l’intérieur des côtes
❄ Le gel récent puis son dégel fragiliseront aussi des logements et des infrastructures (principe similaire aux éboulements dans les montagnes)
🏞️ Solutions à long terme pour réduire les risques d'inondation et leurs impacts :
➡️ laisser de larges espaces pour que le trop-plein d'eau des crues puisse s'y déverser (stratégie "room for river" des Pays-Bas) ce qui signifie empêcher la construction d'habitations voire déplacer des habitants. Ces espaces peuvent être des espaces verts, utilisables hors des périodes d'inondation
➡️ désimperméabiliser les sols (ne pas artificialiser et même débétonner : places, cours d'école, parties de trottoir...), éviter le labour qui compacte les sols et donc le rend plus imperméable, planter des haies bocagères (qui accroît la perméabilité des sols et réduit le ruissellement des eaux) avec la participation des agriculteurs
➡️ Le curage des digues des Wateringues aurait sans doute atténué l'impact de ces inondations sans pour autant les empêcher
🏘️ Solutions pour les habitants:
➡️ Pour celles et ceux qui veulent absolument rester et si c'est possible, aménager (ex: rdc) afin que les dégâts d'inondations restent minimes
➡️ Pour celles et ceux qui décident de partir : le rachat des logements par l'Etat (financé avec le fonds Barnier) mais avec des décotes importantes. Quid du relogement ?
🔭 Afin d'anticiper
➡️ Le site georisques.gouv.fr permet d’identifier précisément les risques naturels et industriels à son adresse précise
➡️ Les assurances pourraient informer beaucoup plus clairement les habitants des risques futurs (par ex sur leur avis d'échéance, par mail...) en proposant aussi des solutions pour anticiper le risque
➡️ Réaliser des exercices grandeur nature (par temps de pluie ;)) pour anticiper les inondations et sensibiliser chacun sur ses implications
🤝 L’État et les régions jouent un rôle crucial pour impulser, structurer, mutualiser les initiatives et faciliter la coopération entre acteurs, l’accès aux ressources financières et humaines afin d’éviter ce sentiment terrible d’abandon et d'inaction.
➡️ Interview par Céline Pitelet sur BFMTV avec Marc Lomazzi
🥳 Bonne Année 2024… 😜 Est-ce une si bonne idée de se souhaiter bonne année malgré les guerres en Ukraine, Israël-Hamas, le manque d’actions face au #dérèglementclimatique, la chute de la #biodiversité, la multiplication des sécheresses, inondations, sans parler du risque de récession et des potentiels résultats des élections européennes et américaines…
🍾 OUI ! Au-delà de mon éternel réalisme optimiste (qui a un petit goût de méthode Coué, mais avec des vertus auto-réalisatrices, si, si…), souhaitons-nous BONNE ANNÉE !
🤔 Mais, à une petite condition…
🛠️ Nous ne résoudrons pas tous les problèmes du Monde, toutefois, nous pouvons changer la donne au moins sur notre entourage et notre environnement de manière constructive.
❓ Comment ?
🌍 ➤ 🏘️ Prenons l’exemple de notre chère Planète, mais à une échelle plus locale (plus facile !). On peut se poser plusieurs questions :
1️⃣ Niveau 1 : Qu’est-ce que je peux faire dans mon quartier, ma ville pour qu’elle soit plus verte, facilite nos déplacements peu carbonés, nous fasse profiter de produits plus locaux, dépenser moins en gaz, fioul, électricité sans en souffrir au quotidien
2️⃣ Niveau 2 : Quelles initiatives existent déjà autour de moi, dans ma ville, entreprise, associations… qui contribuent à cela ? En quoi je peux donner un coup de main qui, by the way, aurait aussi un impact sur moi et mon entourage ?
3️⃣ Niveau 3 : Des initiatives, il y en a partout. Alors, comment aider à mutualiser les ressources, idées, outils avec d’autres collectivités, entreprises pour faciliter leur mise en oeuvre, réduire le gaspillage en temps et argent ? Y a-t-il des initiatives ailleurs qui peuvent nous inspirer ? Est-ce que nous pouvons diffuser / partager nos initiatives ailleurs pour aider d’autres ?
4️⃣ Niveau 4 (Etat, Régions, Entreprises) : Comment faciliter l’usage de la multitude de plateformes publiques et privées recensant plein d’initiatives locales (ex: Optigede, Solutions d’élus, Territoires en Commun…) ?
Voici une démarche possible :
🔭 2024 et les années suivantes vont être compliquées … En s’appropriant nos propres enjeux localement, en allant un cran plus loin et en démultipliant l’impact de nos initiatives avec le soutien de l’Etat et des régions (cf. la société « boule de gui » ;)), on aura toujours de bonnes raisons de se souhaiter Bonne Année 2025 ! 🥳
👶 🧭 En novembre 2023, j'embarquai dans l’aventure d’une entreprise à mission avec Babilou Family au sein de son Comité de mission.
🌍Début 2022, j’ai accompagné Babilou (gère des crèches d'entreprises et de collectivités) dans la construction de leur stratégie RSE (construction de la matrice de matérialité pour comprendre l’importance des différents ODD / SDG pour chaque pays et ses parties prenantes, les freins et moyens d’action plus l’élaboration d’indicateurs ESG).
🕴️ C’était aussi l’occasion de voir à quel point sa raison d’être (“Construire un monde meilleur par l'éducation et l'attention portée à chaque enfant”) était incarnée par son président Xavier Ouvrard, son comité de direction et l’ensemble des collaborateurs de Babilou :)
🧍🧍♀️🧍🏿♀️🧍♀️Fin 2022, Babilou devenait une entreprise à mission. Xavier Ouvrard, Sridevi Raghavan et Vanessa Zerbib me proposaient de faire partie du Comité de Mission avec Emmanuelle Lievremont (L'Oréal), Kévin André (kawaa) autour de 4 piliers (people, planet, pedagogy, positive growth), ce qui m’a beaucoup touché.
🗺️ Fin novembre 2023, nous nous sommes réunis entre membres et avec le COMEX de Babilou, avons réalisé une Fresque de la Mission, partagé les objectifs et rencontré Sarah GUEREAU (Organisme Tiers Independant - OTI)
🤝 Nous avons trouvé une vraie complémentarité entre les membres du comité. Déjà engagé sur les enjeux “sustainability” (implication Les Shifters, missions RSE, Livre 2050, Crash ou Renaissance ? Vers une société « boule de gui », je souhaite m’impliquer aussi sur les autres sujets.
🔢 Nous avons déjà commencé à traduire les engagements en indicateurs (KPI) afin de pouvoir les suivre et les transformer en actions.
🔎 Ces indicateurs servent à l’OTI afin de s’assurer que les engagements sont bien respectés. Cela peut sembler facile, car c’est l’entreprise qui les fixe. C’est sans compter la volonté de Babilou d’être ambitieux sur chaque axe. En outre, s’engager à être une entreprise à mission, juste pour faire du greenwashing est beaucoup de paperasse pour du flanc ! A l’inverse, il y a une complémentarité entre la mission (qui est le cap et la direction de l’entreprise ) et les obligations de la CSRD (tableau de bord).
🌎 🌍 🌏 L’exercice est loin d’être anodin pour Babilou sachant qu’elle est implantée dans une douzaine de pays avec des cultures très différentes : France, Etats-Unis, Singapour, Inde, Colombie… avec des modèles différents, certains subventionnés (comme en France) d’autres non (comme aux Etats-Unis). Comme les enfants ont entre 0 et 3 ans, il y a une plus grande liberté dans les apprentissages. On peut introduire plus facilement des méthodes comme Montessori (pour l’anecdote, quand j’ai vécu à Londres de 5 à 8 ans, mes deux 1ères années en école primaire anglaise étaient à l’école Montessori ;) )
🎨 Et malgré cette diversité, la mission s’applique à toutes les filiales de Babilou Family.
📖 C’est un joli chapitre qui s’ouvre avec Babilou et je suis heureux d’en faire partie :)
🤔🌎1178, ce chiffre ne vous dit rien, je ne parle ni de l’article 1178 du code civil frappant de nullité les contrats, ni de l’année où le roi Sverre de Norvège, fut victorieux sur le lac gelé de Storsjön, non, c’est le nombre de datapoints ESRS à remplir potentiellement pour digitaliser son reporting CSRD et établis par l’EFRAG
😛Vous l’aviez sur le bout de la langue ? ;)
🧠 Pour les habitants de la Béotie, sachez que nul ne vous en voudra si ce chiffre fait un aller-retour dans votre cortex préfrontal.
😱En revanche, il pourrait hanter les nuits des DAF et des responsables RSE, se voyant grimper une pyramide de 1178 marches, avec un sac à dos plein de lourdeurs administratives.
💡Pourtant, il y a une lueur d’espoir !
🔢Il faut s’y prendre tôt et savoir qu’il existe des raccourcis. En effet, si le reporting CSRD contient 1178 datapoints sur les sujets ESG (Environnement, Social et Gouvernance), vous n’êtes pas obligés de tous les remplir… si vous avez un peu de méthode.
📊La 1ère étape est de réaliser une analyse de double matérialité.
(cf. post : http://tiny.cc/pst_csrd_3010 )
🔍Kesako ? identifier les informations (ESRS pour les initiés ;) ) devant être divulguées (dites matérielles) et qualifiant ou quantifiant les impacts ESG sur l’entreprise (ex: climat) ou les impacts de l’entreprise sur les sujets ESG (ex: pollution, climat)
📉Cela permet de réduire significativement le nombre de données (au moins 50%) à collecter…
📊La 1ère étape est de réaliser une analyse de double matérialité.
(cf. post : http://tiny.cc/pst_csrd_3010 )
🔍Kesako ? identifier les informations (ESRS pour les initiés ;) ) devant être divulguées (dites matérielles) et qualifiant ou quantifiant les impacts ESG sur l’entreprise (ex: climat) ou les impacts de l’entreprise sur les sujets ESG (ex: pollution, climat)
📉Cela permet de réduire significativement le nombre de données (au moins 50%) à collecter…
🤞D’où la 2ème étape, le Gap analysis consistant à identifier les mesures que l’on a déjà totalement (lucky), partiellement (less lucky), pas du tout (not lucky!). Cela ressemble aux 12 travaux d’Hercule et en général, on commence par nettoyer les écuries d’Augias !
🚣Pour collecter les données, les agréger, les traiter puis les mettre en forme au format xHTML - ESEF (je passe les détails…), il y a un peu de boulot d’autant que 2/3 des données sont qualitatives (donc des entretiens, des questionnaires…) et 1/3 quantitatives (donc des moyens de les collecter, de vérifier leur fiabilité.)
🧗Et évidemment, il ne suffit pas de mesurer, il faut aussi s’améliorer avec un plan d’action.
🏭Cela ressemble à une usine à gaz, c’est clair que les premières années ça va être rude (l’IA générative peut devenir très utile pour gérer cette complexité, trouver les sources d’informations, synthétiser… même si elle est nettement insuffisante pour faire tout le job et qu’elle n’est guère exempt de reproches en termes environnementaux),
🔮Pourtant, la CSRD a un réel intérêt, c’est un bon moyen de mettre en avant les entreprises mieux-disantes sur le plan environnemental et social, mais aussi que de réduire fortement la taille des placards pour les potentiels cadavres environnementaux et sociaux.
🎤 Si vous souhaitez réaliser une conférence, sensibilisation ou plus si affinités ! sur le sujet, n'hésitez pas à me contacter via MP.
Si vous avez un projet de mise en place de la CSRD ou vous souhaitez une sensibilisation / formation auprès de vos équipes à ce sujet, n'hésitez pas à me contacter ici.
🥁 🌍 La Marne mène sa transition environnementale, tambour battant ! Après un discours volontariste et pragmatique sur les enjeux climatiques et environnementaux de Franck Leroy, président de la Région Grand Est, je suis intervenu sur la stratégie de résilience des territoires comme Les Shifters / The Shift Project. Anne Clerc (SGPE) intervenait pour présenter les COP territoriales et le préfet Henri Prévost clôturait ce 71ème congrès de l'association des Maires de la Marne, organisé avec talent par Karine Rolland.
🌍 🔭 🛠️ Franck Leroy a donné une vision claire et concrète des enjeux, les efforts futurs à réaliser et le chemin déjà parcouru. Il s'appuie aussi sur l'association des maires qui aide et forme les élus sur ce sujet (ex sur l'eau). Fortement aligné avec la ligne directrice du Shift Project et des Shifters, il tord aussi le cou à cette idée reçue qu'avoir une politique environnementale n'est l'apanage que de partis de gauche ou écologiste ;)
🎤 / 🧗♀️ Intervenir devant cette assemblée était un challenge ;) En effet, beaucoup de maires avaient parfaitement conscience des problématiques de résilience que je présentais, en termes de mobilité, alimentation, logement... et agissaient déjà. Du haut de mon estrade, il m'était facile de dire qu’il serait bien de faire ceci ou cela pour réduire son impact environnemental alors que je n'avais pas les pieds dans la glaise et les mains dans le cambouis.
🤝 Alors, comment faire pour être utile ? Nous pouvons comme citoyens (via les Shifters, les associations locales, entre voisins...) changer notre rapport avec les maires et élus. Plutôt que d'être en position de demander, nous pouvons être en situation de proposer. Les maires et élus peuvent aussi rebondir sur des demandes de leurs concitoyens en leur proposant de collaborer ensemble pour identifier des solutions avec leur soutien. Vu que ce sera plus compliqué demain qu'aujourd'hui, autant commencer à tisser des liens et s'entraider dès à présent.
🚣 / 🏄 Petite remontée des maires pour les acteurs publics : les appels à projets sont assez fastidieux à remplir en particulier pour les petites communes qui n’ont pas toujours les ressources suffisantes pour répondre à temps. Pourquoi ne pas créer des appels à projets plus faciles d'accès, plus rapides à réaliser, réservés aux petites communes car cela rééquilibrerait les forces face aux des grandes collectivités. On pourrait aussi favoriser des "coalitions" de petites communes pour y répondre et mutualiser leurs ressources.
🏆 Les COP Territoriales présentées par Anne Clerc peuvent aussi être un moyen de réunir des communes mais aussi d'autres acteurs : entreprises, agriculteurs, habitants ... autour de projets communs qui peuvent à la fois réduire les émissions carbone, accroître leur résilience mais aussi (et surtout) apporter des co-bénéfices comme une réduction des coûts, une meilleure qualité de vie, une meilleure santé, un accès plus facile à certains services...
Si vous êtes intéressé par une intervention sur la stratégie d'atténuation ou d'adaptation au changement climatique pour un territoire ou une entreprise, n'hésitez pas à me contacter ici.
La CSRD, non ce n’est pas l’acronyme de C’est Super Rébarbatif et Douloureux mais un reporting environnemental et social européen qui peut donner des boutons et sueurs froides !
The question is : faut-il le traiter comme ces examens pénibles qu’on révise entre minuit et 6h du mat, juste avant le gong de départ ou qu'on anticipe un peu ? (Levée des copies 1/2025, début de l’examen dans 1 mois)
🈯 Se lancer dans la Corporate Sustainability Reporting Directive, est comme apprendre le javanais quand on ne connaît que quelques mots de français ! De toutes les manières, il va falloir y passer... donc autant s'y préparer.
📝 L’esprit de la CSRD est d’inciter les entreprises à basculer vers un modèle plus durable sur le plan environnemental et social. Comme tout le monde a traîné la patte, le professeur UE a dit “Ca suffit mes gaillards et gaillardes ! Va falloir que vous vous bougiez les miches, examen dans un mois et je vous jure, ça va être carabiné.”
😱 Ca n’a pas raté ! Tout le monde a poussé des cris d’orfraie mais pas le choix, je vous dis. Les bons élèves avaient préparé leur coup, ils se sont dits tant qu’à faire, je bosse mes enjeux environnementaux et sociaux bien en amont, ce sera plus facile de passer l’exam par la suite et au moins ça servira à quelque chose.
🔁 Après, il y a une petite subtilité dans la CSRD, la double matérialité.
👊 / 🤕 Kesako ? Analyser la double matérialité, c’est un peu comme si vous étiez pris dans une bagarre et que vous pesiez le pour et le contre avant d’envoyer un pain, selon la torgnole que vous risquez de prendre en retour.
⇋ ⇌ Pour être plus prosaïque, vous évaluez non seulement ce que l’entreprise a comme impacts environnementaux et sociaux (“Inside-Out” dite matérialité d’impact), mais aussi l’inverse, quels risques font peser les enjeux environnementaux et sociaux sur l’ entreprise ("Outside-in" dite matérialité financière).
😇 / 👺 Emmanuel Faber, notre bon samaritain des "large corporations" (à la tête de l' ISSB donnant des directives comptables internationales), aurait-il sombré du mauvais côté de la force ? En effet, il est contre la double matérialité et préconise donc de ne prendre en compte que les risques qu’encoure l’entreprise. (cf. http://tiny.cc/efab_dbm )
🤪 C’est un peu comme si une société prélevant beaucoup d’eau dans des nappes phréatiques ferait part de son risque d’être victime de pénuries d’eau en oubliant qu’elle en est aussi responsable… 😜
↢↣ C’est pas tout, il faut se mettre au boulot là, d’abord réaliser un “gap analysis” entre les données déjà collectées et celles à récupérer pour la CSRD, puis travailler dans la mine … pour collecter de nouvelles données, les agréger, les traiter et les mettre dans les bonnes cases !
🏭 Tant qu’à faire, vaut mieux que les données récupérées pour la CSRD servent aussi à l’activité. L’usine à gaz dans un monde décarboné n’est pas la meilleure option !
✉️ Je réalise des sensibilisations et mène des projets CSRD (formé à ce sujet) ainsi que des bilans carbone (certifié IFC). Vous pouvez me contacter ici pour en savoir plus.
♻️ / ↘️🛢️Économie circulaire, ami ou ennemi de la décarbonation ? Hier, j'ai participé à un événement sur l'économiecirculaire de l'Institut Choiseul, l'occasion d'en parler alors qu'un post de Jean-Marc Jancovici commentait la veille un article : Recyclage : Sortir de l'enfumage : https://cutt.ly/jmj_recyc . La matinée était animé par Pierre-Emmanuel Saint-Esprit.
♻️ ⁉️ Qu'en est-il ? Effectivement, la promesse de recyclage est souvent la feuille de vigne qui cache des taux de recyclage réels très faibles à quelques exceptions près (ex: aluminium, PET). Recycler des smartphones juste pour décarboner l'extraction de nanogrammes de terres rares est un non-sens sachant que les concentrations sont inférieures à celles déjà très faibles retrouvées naturellement (vidéo : https://cutt.ly/smartp_terr )
Toutefois, c'est une vision partielle du sujet
📊 Grâce à un bilan carbone intégrant le Scope 3, on remarque de fortes différences selon le système de collecte, traitement, transport et l'énergie nécessaire pour transformer un déchet en ressources
🐟 Il n'y a pas que le carbone dans la vie. D'autres impacts (ex: dus aux déchets miniers comme pollution, ↘️ biodiversité...) montrent que le recyclage est préférable à la fabrication linéaire (via des analyses de cycle de vie comparatives)
↘️🛑 Le recyclage atténue les pénuries de matières premières et hausses de leur coût, fort levier pour s'y lancer.
5️⃣R Last but not least, le recyclage est la dernière opération à réaliser après 3 autres des 5R, Refuser, Réduire et Réemployer. Les 2 derniers étant Recycler et Remettre en terre (pour les produits à usage unique compostables à l'air libre). Les 3 1ers principes sont bien plus bénéfiques que la fabrication linéaire et le recyclage. (cf. extrait livre 2050 Crash ou Renaissance ? https://bit.ly/2050_5R)
🎢 Le souci est que c'est compliqué pour une entreprise de passer d'un modèle linéaire à un modèle circulaire car il faut gérer la boucle retour avec des produits hétérogènes, non standardisés parfois obsolètes avec une faible traçabilité dans un processus de fabrication et commercialisation qui exigent des intrants et extrants standardisés.
⌚ Il y a des changements de culture massifs comme passer de la vente de boîtes (puis on oublie) à la vente de services (avec les problèmes de retours clients, de facturation...). Tout cela prend du temps car tous les processus de l'entreprise sont concernés.
⚗️ Il existe des solutions, la première est d'essuyer les plâtres, expérimenter sur des petits périmètres (géographiques, produits secondaires, pièces détachées...), la 2ème est de tester en externalisant sur un périmètre restreint les processus auprès d'entreprises (ex: startups) vendant ce type de solutions en marque blanche et de réinternaliser les briques pertinentes dans un second temps.
🔮 Au final, il faut avoir une vision complète et diverse pour ne pas réduire l'économie circulaire au recyclage et les impacts environnementaux aux émissions GES ;)
N'hésitez pas à me contacter ici si vous souhaitez une intervention (conférence, projet) sur les enejux de l'économie circulaire et comment cela peut se traduire dans votre entreprise.
🎤 🔥 🥵 Incendies, canicules, dérèglement climatique L'été 2023 a été particulièrement dévastateur… Que dire de plus... quelques idées ;)
🪃 Le Canada, la Chine et les Etats-Unis subissent un effet boomerang, ils pâtissent fortement des effets du dérèglement climatique et y contribue aussi massivement mais les populations font peu le lien entre les 2. Il y a aussi un cercle vicieux entre incendies et réchauffement climatique.
🌋 Ses effets sont exponentiels à l’image de l’échelle Richter pour un tremblement de terre. Passer de 1,5°C à 2°C est comme passer de 6 à 7 (magnitude du séisme au Maroc). Il y a des effets de seuils que nous dépassons. Les petits incendies se transforment en méga-feux.
📝 Le rapport Paris à 50°C initié et coordonné par Alexandre Florentin est un excellent outil pour toutes les communes afin d’identifier les vulnérabilités sur leur territoire et trouver des solutions pour s’y adapter. (lien : http://tiny.cc/paris_50 )
🏚️➤🏘️ Les pouvoirs publics négligent souvent le temps de la reconstruction après le temps de l’urgence et des flashs médias, il faut que l’Etat et les régions facilitent une stratégie de résilience des territoires et que les territoires développent leur coopération/entraide (cf. société « boule de gui » https://bit.ly/2050_lnk )
🌪️ Sur les effets du dérèglement climatique : https://bit.ly/dc_bfm_0823_dereg
➡️ La ville est plus touchée que ses alentours plus verts (+8°C entre Paris intra-muros et RP).
➡️ De nombreuses activités, touristes et zones pourraient être délaissées par la population car invivables une partie de l'année, avec des problématiques de migrations y compris intra-européennes.
➡️ Les atteintes aux infrastructures (avec des effets cascade sur les territoires) aux logements prennent énormément de ressources financières et de temps pour revenir à la normale (parfois jamais). Il faut prévoir comment loger des milliers de personnes qui perdent leur toit sur le temps long.
🥵 Canicule :
➡️ 31% des Franciliens vivent dans des îlots de chaleur potentiels (Etude Institut Paris Région https://cutt.ly/ipr_cani ). Il faut particulièrement prêter attention aux travailleurs à l’extérieur (ex: indemnités chômage intempéries appliquées aux canicules)
➡️ Les collectivités peuvent cartographier les îlots de chaleur, réduire la densité des villes permet de les diminuer mais il faut aussi éviter l’étalement urbain qui augmente les déplacements et donc les émissions de GES !
➡️ Il y a de nombreuses solutions pour adapter les logements (rénovation thermique d’été, blanc de meudon sur les fenêtres, végétalisation des murs avec du lierre…). La climatisation est une mal-adaptation car elle rejette notamment de l’air chaud toutefois elle peut être la seule solution en particulier pour les personnes fragiles.
➡️ Il en existe aussi pour les villes (débétonniser et végétaliser, toitures peints en blanc …)
Pénuries, hausses brutales de prix de matières premières, d'énergie, inondations, canicules... touchent de plus en plus d'entreprises et de collectivités. Beaucoup d'entre elles se demandent comment s'adapter à ces conséquences provoquées ou exacerbées par le changement climatique mais ne voient pas trop comment s’y prendre.
L'atelier d'adaptation au changement climatique permet justement à celles-ci d'identifier les principaux risques auxquels elles sont confrontées, de trouver des solutions pour réduire leur exposition et leur vulnérabilité et d'évaluer leur faisabilité ainsi que leurs impacts environnementaux (climat et biodiversité) et sur la justice sociale.
Conçu par Juliette Nouel et Marguerite Deperrois, cet atelier vous permet d'enclencher une démarche de changement au sein de votre entreprise avec la participation de vos équipes internes mais aussi les parties prenantes (fournisseurs , clients, territoires ....) si vous le souhaitez
Compréhension sur les moyens de s'adapter à un aléa
1️⃣ La 1ère partie de l'atelier consiste à comprendre ce qu'est l'adaptation :
Si une personne se balade sur un chantier de construction sans casque et qu'une brique lui tombe dessus, on peut décomposer cela en trois éléments :
➡️ L'aléa est la brique qui tombe sur la tête du pauvre mais imprudent garçon
➡️ l'exposition est le lieu où cet incident survient, en l'occurrence le chantier
➡️ la vulnérabilité est le crâne
Il y a deux voies possibles pour éviter cela, la 1ère consiste à réduire l'aléa (équivaut à l'atténuation sur le plan #climatique). Ce n'est pas le sujet ici car d'autres le font déjà.
La 2ème voie est l'adaptation se divisant en 2 parties, réduire l'exposition (ex: ne pas se balader dans un chantier) et réduire la vulnérabilité (mettre un casque).
Exemples concrets sur l'adaptation
Puis, on prend des exemples concrets ex: une habitation en zone inondable, une personne travaillant en extérieur et on identifie ensemble les expositions et les vulnérabilités, puis les moyens pour réduire ces deux dernières.
On filtre ensuite si
📌 la solution a un impact négatif sur le climat ou la biodiversité,
📌 si elle accroit les inégalités sociales et
📌 si elle est faisable.
2️⃣ Cas d'usage venant de l'entreprise ou de la collectivité
Durant la 2ème partie, on part d'une entreprise/collectivité avec un aléa et on déroule toute la pelote...
🍫 On a choisi dans cette session le chocolatier suisse Ragusa (connu pour ses chocolats aux noisettes ) qui ferait face à l'arrêt de l'approvisionnement en fèves de cacao (risque véritable d'ici 30 ans !)
📝 Nous avons identifié les expositions, vulnérabilités, moyens pour les réduire ...
💡 Nous avons été créatifs et avons choisi de basculer vers des recettes aux caroubes ! Torréfié, il a un goût proche du cacao. Le caroubier est cultivé sur le pourtour méditerranéen, se contente d'un sol pauvre et aride... et en plus, peut faire ombrage !
⚗️ Évidemment, on ne va pas basculer vers la caroube du jour au lendemain, mais on va expérimenter cette voie en réalisant des recettes de desserts contenant de la caroube avec des chefs pâtissiers, les tester auprès de consommateurs, discuter avec des cultivateurs pour déterminer la possibilité de planter des caroubiers en remplacement de cultures inadaptées au réchauffement climatique ...
Conclusion
Tout cela prend beaucoup de temps, c'est pourquoi on s'y prend tôt !
On a identifié aussi des solutions à beaucoup plus court terme mais l'objectif de cet atelier est d'ouvrir les chakras pour trouver et tester de nouvelles voies pour s'adapter.
Si vous êtes intéressé de réaliser cet atelier adapté à votre entreprise ou collectivité, n'hésitez pas à nous contacter sur ce formulaire :)
Si vous souhaitez précommander des livres ou avoir une conférence sur le sujet (y compris avant sa sortie car celui-ci a été écrit), vous pouvez le faire directement sur ce lien ou l'indiquer sur cette page
Résumé :
Imaginez 2050 … Plutôt que de se laisser inonder par des images d'effondrement et de catastrophes en série, pourquoi ne pas imaginer un futur tel que nous le voulons et agir en conséquence.
Vivrons-nous un crash ou une renaissance ? Ce sont les choix d'aujourd'hui qui détermineront le monde de demain.
Dans ce livre, Dimitri Carbonnelle donne des clés pour comprendre nos fragilités sociales, économiques, géopolitiques, les origines et les conséquences du réchauffement climatique, de la chute de la biodiversité et des inégalités sociales. Il explique en quoi les technologies peuvent nous aider à les atténuer mais éclaire aussi sur leurs limites et les illusions qu’elles véhiculent. Ce livre détaille des solutions aux consommateurs et citoyens, entreprises, pouvoirs publics pour réduire notre impact environnemental et améliorer notre impact social. Enfin, il propose des voies pour s’adapter et des pistes pour fonder une société résiliente et renaissante, qu’il nomme « société boule de gui ».
Quatre parties :
Dimitri Carbonnelle peut réaliser déjà une conférence dans votre entreprise en présentant les solutions pour atténuer son impact et adapter son entreprise aux enjeux et bouleversements du dérèglement climatique avec le principe de société « boule de gui ». Il adaptera sa conférence en fonction de votre secteur et votre entreprise.
Il réalise régulièrement des conférences dans les entreprises (notamment du Shift Project sur le climat), à Viva Tech (Zéro Carbone),ChangeNow (Packaging durable)... Il est régulièrement interviewé dans les médias notamment sur B Smart TV (industrie verte, économie circulaire, autonomie énergétique, sobriété numérique )
Dimitri Carbonnelle, fondateur de Livosphere, société de conseil en développement durable et nouvelles technologies a la passion de créer des ponts entre les innovations d’aujourd’hui et la société de demain. Expert auprès de la BPI, Banque Publique d'investissement dans ces domaines, il est également membre du Shift Project (« think tank » sur la stratégie bas carbone).
Auteur de nombreux articles prospectifs sur ces sujets, il intervient aussi comme conférencier et dans les médias sur des thèmes comme la RSE, l'économie circulaire, la transition écologique, l’usage des technologies.
Quelle stratégie adopter pour le numérique dans son entreprise (English version) ? (voir aussi article sur les innovations à ce sujet)
Le numérique est souvent décrié comme un contributeur de plus en plus prépondérant d'émissions de CO2, dégradant l'environnement lorsqu'il faut extraire des métaux rares pour ses batteries, ses processeurs, biberonné à l'obsolescence programmée grâce aux mises à jour « d'OS » qui accélère le renouvellement d'équipement. Pour revenir à plus de sobriété, toute entreprise doit adopter une stratégie pour réduire son impact environnemental lié au numérique.
Toutefois, il ne faut pas non plus oublier que le numérique peut devenir un formidable levier pour réduire les émissions de CO2 et son impact environnemental. Mesurer les gaspillages, télétravailler plutôt que prendre son véhicule, réduire les déplacements à ce qui est nécessaire en cas de panne, pour remplir un distributeur automatique ou vider les points de collecte de vêtements , éteindre les lumières et lampadaires lorsqu' il n'y a personne … sont quelques exemples parmi tant d'autres montrant que l'Internet des Objets, l'intelligence artificielle, les plateformes numériques peuvent aussi faciliter la diminution de nos impacts environnementaux de manière globale. Des entreprises comme Phenix ou Too Good to Go ne pourraient distribuer des repas en réduisant le gaspillage alimentaire sans plateforme digitale.
Pour adopter une stratégie cohérente, il marcher sur ces 2 jambes : sobriété numérique ou « digital sustainability « et numérique, levier environnemental ou « digital for sustainability ».
(Pour avoir des sensibilisations, formations même à distance générales ou liées à votre secteur, vous pouvez me contacter ici : contact@livosphere.com ou ici ) Nous menons aussi des projets RSE, sur la sobriété numérique notamment.)
Sommaire (Lien direct vers les parties d'articles - Autre article sur les leviers d'action sur le numérique)
Préambule sur l'impact environnemental du numérique
Stratégie de sobriété numérique
Mesurer
Réduire son impact
Numérique, levier environnemental
L'impact du numérique serait de 4% des émissions de CO2 en 2020 (3,8% pour GreenIT et 3,7% pour The Shift Project en 2019 !). Il est en forte augmentation, environ 9% par an aujourd'hui (à 2,5% en 2013).
Toutefois, le numérique a bien d'autres impacts, la consommation d'eau (0,2%), l'impact sur les ressources minérales (cobalt, lithium, métaux rares…) et l'environnement (biodiversité, pollution des terres, de l'eau et de l'air, destruction des habitats … en raison des mines qui nécessitent l'extraction de quantités faramineuses de matières pour en extraire de petites quantités de terres rares, les procédés chimiques pour séparer les terres rares des autres éléments notamment l'acide chlorydrique) .
Enfin, l'impact du numérique est à répartir entre la fabrication des équipements (TV, smartphone, ordinateurs), leur usage et la consommation électrique des équipements, ainsi que la fabrication et la consommation énergétique du réseau télécom, des data centers.
Pour réduire son empreinte environnementale numérique, la première mesure consiste à allonger la durée de vie de ses matériels puis de réduire l'usage de ses data centers. La partie réseau est principalement du ressort des opérateurs télécoms. Pour une analyse plus détaillée sur l'impact de la 5G, suivez ce lien.
Afin d'avoir toutes les chances de réussir, la sobriété numérique doit s'intégrer dans une stratégie globale RSE soutenue par la direction au risque sinon de perdre la plupart des arbitrages entre sobriété numérique et maintien des habitudes.
A l'image d'un entraînement sportif destiné à faire perdre du poids et prendre de la musculature, il est essentiel aussi de travailler en partenariat avec les salariés, les autres entités du groupe en dehors du SI ainsi qu'avec les fournisseurs, clients …
Le point de départ est de mesurer son impact actuel. Cela signifie être capable de connaître précisément l'ensemble de son parc informatique, télécoms, imprimantes, TV…
Pour chaque équipement, on peut associer un impact à la fabrication et à l'usage. Il n'est pas nécessaire d'avoir l'impact exact pour chaque équipement qui est souvent quasi impossible à déterminer. Pour commencer, un impact moyen par type d'équipement est nettement suffisant car ce qui était essentiel n'est pas tant la valeur absolue mais la réduction de votre impact .
Pour calculer les émissions liées l'usage, vous pouvez partir des consommations des données constructeurs multipliées par une durée d'utilisation par jour et réaliser un contrôle de cohérence avec les données transmises par votre GTB si elle vous le permet. Il est préférable d'avoir un compteur spécifique pour vos data centers.
Il serait aussi absurde de mettre des systèmes de mesures connectés partout dans votre bâtiment si le gain attendu en augmentant la fiabilité est proche ou plus faible que l'impact négatif dû à la fabrication et l'utilisation de ces objets.
Ensuite, vous pouvez vous fixer un objectif de réduction. Il est préférable de fixer cet objectif en concertation avec la direction RSE afin qu'elle soit cohérente avec la stratégie globale de l'entreprise en matière de RSE.
Des outils comme Zei permettent de suivre ses objectifs en se limitant pas à la mesure de la sobriété numérique mais englobant la totalité de la stratégie RSE.
Pour compléter cette mesure, il est aussi utile de mesurer le coût économique et son évolution ainsi que l'impact sur l'efficacité de l'entreprise et son impact social. Refuser le remplacement d'un l'ordinateur sous Windows XP trop vieux pour basculer en Windows 10 au nom de l'environnement peut-être très contre-productif aussi bien en termes de productivité, de motivation du salarié, de risque de cyberhacking.
En revanche, remplacer un smartphone tous les 18 mois pour faire plaisir à un collaborateur est moins essentiel et pourrait être remplacé par des « incentives » ayant moins d'impact environnemental.
Les entreprises mesurent leur impact environnemental selon le « Scope 1 » (les émissions de gaz à effet de serre directement liées à la fabrication du produit) et le « Scope 2 » (les émissions indirectes liées aux consommations énergétiques). La loi laisse une marge de manoeuvre pour mesurer le « Scope 3 » (les autres émissions indirectes) en les demandant si elles sont significatives.
Le Scope 3 représente souvent 3 à 4 plus d'émissions de Gaz à Effet de Serre que le Scope 1 et 2 réunis et c'est la partie la plus difficile à évaluer car vous devez savoir quel est le scope 1 et 2 de vos fournisseurs qui doivent connaître ceux de leurs fournisseurs … D'autre part, vous devez aussi évaluer l'impact de vos déchets. Si on ne tient pas compte du « Scope 3 », il serait facile de sortir ses émissions de carbone et de les imputer en amont ou en aval par exemple en externalisant ses serveurs.
Pour éviter de vous perdre dans des calculs impossibles, vous pouvez partir sur des canevas d'émissions.
Néanmoins, il faut systématiquement demander à ses fournisseurs et les entreprises collectant vos produits usagés ces informations et s'assurer qu'elles sont cohérentes et détaillées.
(ci-contre le "Scope 3" évalué par L'Oréal)
Les collaborateurs devraient avoir la possibilité de facilement connaître leur impact environnemental dans l'utilisation de solutions numériques et avoir à disposition des solutions pour les réduire.
Les applications utilisant la vidéo consomment en général plus que les autres. Le pire étant Tik Tok et d'autres applications comme Twitter, Google Chrome sont aussi très gourmandes (cf. EcoCO2).
Des applications comme Mobile Carbonalyser (IPhone – Android, réalisée avec le Shift Project ) peuvent aider à en prendre conscience.
Un amendement du projet de Loi pour l'Economie Circulaire va aussi contraindre les opérateurs à renseigner leurs clients sur la quantité de gaz à effet de serre émise par leur consommation de data mobile via leur facture à partir de 2022. Cela conduirait à les sensibiliser.
L'ARCEP collecte aussi depuis avril 2020, les émissions de gaz à effet de serre produits par les principaux opérateurs de télécommunications sur leurs réseaux et sur la consommation électrique des box utilisés par leurs clients.
Les mesures semblent assez simples pour réduire son impact, limiter le renouvellement de son parc télécom, ordinateurs, éviter les accessoires inutiles … Il existe des solutions pour faciliter cette réduction.
La plus commune est la mutualisation, qui est usuelle pour les imprimantes mais difficile à mettre en place pour des smartphones ou des ordinateurs. Toutefois, on peut inciter les collaborateurs à utiliser leur propre smartphone pour un usage professionnel à condition qu'on parvienne à séparer suffisamment les deux environnements (des outils comme Samsung Knox le permettent et des solutions comme OnOff Télécom gèrent les numéros pro et perso sur une seule carte sim ), à réduire les risques de hacking et que le collaborateur y consent. Des avantages salariaux peuvent aussi l'y inciter.
Les accessoires comme les écouteurs Bluetooth dont les AIrpods, les chargeurs sans fils, beaucoup moins efficace qu'une recharge directe (de 40 à 80% de perte d'énergie selon GreenIT)
Les produits achetés peuvent être facilement réparables et évolutifs. Le support SI peut déterminer quelles sont les pannes les plus courantes qui nécessitent le changement d'équipement et choisir les appareils permettant la réparation plutôt que le remplacement. Ils sont moins « hype » que les derniers iPhone ou Samsung, mais les entreprises pourraient proposer des FairPhone à leurs salariés. Leurs produits sont très faciles à réparer y compris l'écran (90€) ou la prise jack par soi-même, sont fabriqués à partir de matières premières « éthiques » ou recyclés en fonctionnement sous Android.
Il existe aussi des labels environnementaux pour vous guider (comme EPEAT, Ecolabel Nordique, L'Ange Bleu. TCO)
A ce titre, l'Union européenne veut instaurer un droit à la réparation des smartphones et tablettes à l'horizon 2021. Elle obligera à rendre les smartphones et tablettes plus durables et faciles à réparer grâce à un meilleur choix des matériaux, une conception adaptée à la réparation, une plus longue prise en charge pour les mises à jour système, et l'instauration d'un nouvel étiquetage avec une note de réparabilité.
Les appareils vendus en Europe devront également favoriser les matériaux recyclés plutôt que des matières premières primaires. La destruction des marchandises durables invendues sera interdite.
La location paraît a priori la solution préférable à l'achat toutefois il peut créer un effet rebond. Si le montant de la location état indépendant de l'appareil aussi une clause prévoit le renouvellement automatique pour avoir l'équipement le plus à jour, cela incite beaucoup plus l'entreprise à renouveler ses équipements que s'il avait acheté.
D'autre part, il faut s'assurer qu'elle est la seconde vie donnée aux appareils une fois que vous les redonnez à votre prestataire. Pour contrer ce phénomène, on peut imaginer des loyers dégressifs en fonction de l'ancienneté du parc. Cela inciterait beaucoup plus les gestionnaires de flottes à réduire le renouvellement.
L'usage des serveurs représente une part importante des émissions de CO2 . Une première mesure est l'indicateur d'efficacité énergétique (en anglais PUE ou Power Usage Effectiveness).
Il qualifie l'efficacité énergétique d'un centre d'exploitation informatique. Il quantifie le ratio entre l'énergie totale consommée par l'ensemble du centre d'exploitation (avec entre autres, le refroidissement, le traitement d'air, les UPS (onduleurs)...) et la partie qui est effectivement consommée par les systèmes informatiques que ce centre exploite (serveurs, stockage, réseau).
En été, avec des solutions de trigénération, il est possible de transformer de la chaleur en froid grâce à la réfrigération par absorption
w
Les Européens proposent un autre indicateur appelé DCEM (pour Data Centre Energy Management) qui corrige les défauts du PUE en prenant en compte non seulement la consommation d'énergie et le coefficient d'efficacité énergétique, mais aussi les énergies réutilisées et renouvelables.
Le rapport public « Réduire la consommation énergétique du numérique » le cite comme indicateur à utiliser et propose aussi de nombreuses autres pistes pour réduire l'impact environnemental du numérique.
Dans les appels d'offres, il est essentiel de demander ces deux indicateurs, PUE et DCEM pour l'intégrer dans ses critères de choix.
L'entreprise peut aussi proposer des points de collecte qui servent aussi bien récupérer des équipements professionnels que personnels en panne mais aussi fonctionnels soit pour être donnés ou pour être échangés au sein de l'entreprise. Idéalement, une entreprise peut s'associer avec des entreprises qui vendent de la seconde main (Back Market, Zack…) mais aussi gèrent les réparations, dons aux associations…
Vous pouvez demander conseil à l'éco-organisme Ecologic, ou donner vos produits usagés à des ESS comme Emmaüs Connect. L'objectif est de créer un cycle complet le plus vertueux possible. Il existe aussi plusieurs entreprises en France capables de transformer des déchets électroniques en matières premières réutilisables.
Les règles à suivre pour réduire son impact environnemental concernant le stockage sont de ne conserver que ce qui est utile et par exemple par défaut de supprimer les mails antérieurs à une certaine date en particulier si ce sont des newsletters, spams …
On peut empêcher l'envoi de mails et la réception de pièces jointes au-dessus d'une certaine taille ou d'expéditeurs non sollicités (MailinBlack) . Avec des outils comme SmallPdf qui comprime les PDF trop lourds, Smash (équivalent français de Wetransfer) évitant de transférer de gros documents …, on réduit la gêne pour les utilisateurs. On peut aussi activer la compression automatique de ses documents (via NTFS ou en utilisant des outils comme 7-Zip)
Hormis les documents importants qui doivent être gardés, il est préférable de stocker localement ses données et de faire le ménage régulièrement. Des outils intégrant de l'IA facilitent le tri et permettent la déduplication de documents
On peut aller au-delà pour les entreprises qui ont l'habitude de coder et développer des outils et applications. La programmation peut être écoresponsable selon qu'on utilise des algorithmes simples, qu'on réutilise des codes déjà optimisés, qu' on utilise peu de données, qu'on recourt rarement des données extérieures. Des entreprises comme Greenspector ou NegaOctet accompagnent les entreprises dans ce domaine.
Greenspector fournit aussi des outils pour mesurer l'efficacité énergétique de son site web.
IA, blockchain, objets connectés sont généralement associés sur le plan environnemental avec forte consultation d'énergie. La question à se poser à chaque fois est en quoi l'utilisation de cette technologie sont utiles, quel est leur impact environnemental, quelles sont les alternatives.
Pour l'IA, la principale cause de consommation d'énergie est l'apprentissage nécessaire pour créer des modèles de réseaux neuronaux. Des techniques comme le transfer learning (cf. article), évite d'entraîner complètement des modèles lorsqu'il existe déjà des modèles génériques pertinents.
Pour la blockchain, ce sont surtout les blockchains publiques utilisant le « proof-of-work » (comme le Bitcoin et Ethereum ) qui gaspillent énormément d'énergie (cf. article), pour des « blockchain » de consortium ou privées, énergie dépensée est comparable à celles d'autres plateformes digitales.
Enfin, si vous hashez des données tous les jours et mettez le hash sur Ethereum, cela consommera beaucoup moins d'énergie que si vous mettez en place une infrastructure spécifique pour le même usage.
Pour les objets connectés, il faut éviter d'utiliser des objets qui intègrent de la connectivité qui habituellement ne sont pas électriques. Plutôt que d'avoir des chaises connectées, des vêtements connectés, des serrures connectées … il est préférable d'avoir des « add-ons » qui peuvent être utilisés et retirés de ce type d'objets. Cela facilite leur maintenance, leur recyclage et réduit leur impact environnemental. Il faut au préalable s'assurer de la nécessité de les connecter.
Concernant la 5G, un déploiement raisonné et adéquat en fonction de réels besoins a du sens, en revanche la tendance actuelle de remplacer les box Internet par des forfaits illimités est une gabegie (cf. article détaillé )
Il serait utile que les entreprises puissent facilement évaluer l'ensemble de leur impact carbone et plus globalement environnemental sur base de ses éléments financiers.
Créer une comptabilité carbone ou Bilan Carbone est un exercice encore compliqué à réaliser car il n'y a pas de lien direct avec la comptabilité traditionnelle. Il faudrait mettre en place un référentiel (base de données requêtables par des connecteurs API) permettant de facilement créer une correspondance entre des comptes comptables et leur équivalent émissions de CO2 en apportant les précisions nécessaires via l'utilisation par exemple de sous-comptes normés. Il peut en être de même pour les relevés bancaires, chaque vendeur pourrait communiquer l'impact carbone de chaque achat.
Cela faciliterait la comptabilisation du scope 3 (émissions liées aux activités en amont et aval) de l'entreprise en plus du scope 1 et 2 (scope 1 : émissions directes liées à l'activité, scope 2 : Émissions indirectes associées à la consommation d'électricité, de chaleur dans les locaux... ). Je parle plus largement des indicateurs RSE ici.
Avant même une normalisation des données, les entreprises ou fédérations professionnelles pourraient collecter ces informations et créer un « traducteur » en open data entre types de produits et impact CO2 et environnemental .
Dans un certain nombre de cas, cette équivalence sera sans doute insuffisante. Nous pourrions alors à l'image de la comptabilité analytique, développer une comptabilité environnementale et sociale alignée sur la comptabilité générale.
Cela permettrait aussi à chaque entreprise de facilement mesurer et communiquer sur ses émissions GES et leur évolution.
Des applications et des outils simples permettent de suivre ses émissions de CO2 et de la réduire comme Greenly sur base de ses relevés bancaires.
La néo-banque Qonto propose des outils permettant d'automatiser des rapports, relévés grâce à des API, mais pas encore de relevé CO2 Espérons qu'ils intégreront prochainement cette fonction !
Dans un certain nombre de cas, cette équivalence sera sans doute insuffisante. Nous pourrions alors à l'image de la comptabilité analytique, développer une comptabilité environnementale et sociale alignée sur la comptabilité générale.
Cela permettrait aussi à chaque entreprise de facilement mesurer et communiquer sur ses émissions GES et leur évolution.
La taxonomie verte, publiée par la Commission Européenne donne un cadre pour distinguer les activités durables des autres sur 70 activités économiques (93% des émissions de GES).
Elle donne des critères qualitatifs et quantitatifs pour déterminer si une activité économique répond à l'un des six objectifs environnementaux et ne pas porte pas atteinte aux autres objectifs (atténuation du changement climatique, adaptation au changement climatique, utilisation durable et protection de l'eau et des ressources marines, transition vers une économie circulaire, prévention et recyclage des déchets, prévention et réduction de la pollution, protection des écosystèmes sains)
Il existe de nombreux moyens de favoriser les comportements écoresponsables de ses salariés. Il est toujours préférable de proposer des alternatives adéquates et écoresponsables à des solutions plus polluantes que d'interdire ou dissuader ces comportements sans solutions de repli.
Pour les déplacements, les outils de télétravail, covoiturage courte distance (Karos inclus dans le pass Navigo), écoconduite sont autant de solutions à développer à titre individuel.
Concernant les véhicules électriques, il est préférable d'attendre la fin de l'usage normal du véhicule ( 3 à 5 ans pour une entreprise) que de remplacer l'ensemble de sa flotte par des véhicules électriques.
La fabrication de véhicules électriques est 2 fois plus émettrice de CO2 que la fabrication d'un véhicule à essence (mais cela diminue si on utilise des batteries produites en France et mieux recyclées...). En Europe, il faut environ 23 000 km pour que les émissions de CO2 d'un véhicule électrique neuf soient inférieures à celles d'un véhicule à essence neuf selon Transport & Environment .
En France , ce serait 13 000 km (batterie produite en France) / 29 000 km (batterie produite en Chine). En Allemagne, ce serait 27 000 km (batterie produite en Europe Mix moyen) / 42 000 km (batterie produite en Chine).
En France, si on décide de remplacer un véhicule diesel récent (durée de vie : 225 000 km pour une voiture « medium » selon Transport&Environment) par un véhicule électrique neuf, il faut environ 50 000 km (si la batterie est produite en France) / 65 000 km (pour une batterie produite en Chine) avant que le véhicule électrique émette moins de CO2 qu’un véhicule diesel. En Allemagne, en raison du mix énergétique, il faudrait 75 000 km (pour une batterie produite en Europe mix énergétique moyen) et 92 000 km (pour une batterie produite en Chine).
Cela changera si un jour l’énergie électrique est massivement décarbonée et que les batteries Li-ion sont massivement recyclées mais ce n’est pas le cas aujourd’hui.
En revanche, si votre entreprise produit suffisamment d'énergie via des panneaux solaires par exemple ou la trigénération pour alimenter les véhicules électriques et que les véhicules électriques sont partagés entre plusieurs salariés, ça a tout son sens d'investir rapidement dans des véhicules électriques. Il y a d'autres impacts négatifs des deux côtés, pollution de l'air (oxyde d'azote..) pour les véhicules à essence, et impacts environnementaux (extraction pour les batteries…). Le principal est de faire ses choix en connaissance de cause et de communiquer dessus.
Enfin, n'étant pas à l'abri de pannes d'électricité, il est préférable de diversifier sa flotte si l'entreprise ne peut produire sa propre énergie électrique.
De nombreux outils numériques permettent de réaliser de la maintenance préventive et prédictive (ex : Fieldbox.Ai) de réduire les tournées à vide et les déplacements inutiles en sachant là où une intervention sur place est nécessaire et là où elle peut être réalisée à distance. De multiples pannes peuvent être résolues par le client à condition d'avoir des équipements connectés ou des solutions pour connaître le type de panne et les réparer à distance (mise à jour à distance …)
Le « Pricing », la fixation des prix de la maintenance peut aussi être adaptée pour inciter à mutualiser les déplacements ou favoriser les réparations à distance.
Concernant les fournisseurs, vous pouvez leur demander de vous fournir les informations environnementales liées à vos achats et même pour les plus avancés vous donner accès à une plateforme qui liste l'ensemble de vos achats et les traduit sous forme d'impact environnemental sur les étapes : fabrication, transport, usage et fin de vie avec les hypothèses prises. Les fournisseurs pourraient aussi fournir des conseils d'utilisation et sur les différents moyens de gérer la fin de vie de leurs produits (entreprises qui valorise ses produits usagés, plateforme de réparation...) D'ici quelques années, ces informations devraient même être accessibles via des APIs et modulé en fonction de votre comportement (sur la partie usage et fin de vie).
Les outils de monitoring avec des alertes de consommation excessive, de fuites… et intégrant des conseils personnalisés sont autant de moyens de réduire son impact énergétique globalement.
Dans l'industrie, je parle dans l'article suivant de solutions pour écoconcevoir, utiliser l'impression 3D pour éviter d'investir dans des prototypes, des moules , des pièces détachées produits en pure perte.
Iteca permet de concevoir une usine en réalité virtuelle avec les machines en fonctionnement. En s'y baladant grâce à un casque VR, on peut beaucoup plus facilement voir les erreurs de conception, les améliorations à apporter pour réduire les déplacements, les gaspillages …
La relocalisation de certaines usines dès lors qu’elles ont un niveau de rentabilité proche des usines délocalisées sont aussi une belle opportunité pour réduire l'impact environnemental.
L’utilisation de l'intelligence artificielle et de robots collaboratifs peut aider (cf. article - ex: vidéo d'un projet que j'ai réalisé pour une entreprise dans la mode).
Évidemment l'objectif n'est pas de faire une usine sans êtres humains. Ces usines souvent plus petites ont vocation à être beaucoup plus flexibles capables s'adapter au marché plus facilement que des usines situées à des milliers de kilomètres de là.
Dans le domaine du textile et de l'habillement (cf.. article), cela va même jusqu'à bouleverser le modèle économique actuel fondé sur des coûts unitaires très bas grâce à une production dans des pays à bas coûts, des stocks pléthoriques, des invendus en quantité, soldés voire détruits.
Avec la loi AGEC sur les invendus, les industries textiles et habillement devront relocaliser des usines pour que leur production soit ajustée à la demande générant moins de stocks et d'invendus. Certes, les coûts unitaires sont plus élevés en revanche la marge totale par collection est tout à fait comparable avec l'ancien modèle car il y a beaucoup moins de stocks à gérer et d'articles à solder qui dégradent fortement la marge globale.
Dans le domaine agricole, l'utilisation de drones associée à la spectrographie et la géolocalisation permet de savoir de manière beaucoup plus précise quelles sont les parcelles à traiter et de réduire fortement l'utilisation de pesticides, de suivre la production d'aliments, de détecter des maladies foliaires et des adventices.
Il existe bien d'autres usages, le principe est d'identifier les gaspillages, les pertes de ressources, de temps, les déchets … de pouvoir les mesurer suffisamment tôt, d'identifier et de mettre en place des solutions pour les réduire ou à défaut réduire leur impact négatif.
D'autre part, ces solutions ont souvent un impact économique positif et peuvent nécessiter des modifications dans le modèle économique. Le plus courant est le passage d'un modèle de vente de produits à un modèle de vente de services. Michelin vend ainsi l'usage et la gestion des pneus pour les transporteurs plutôt que les pneus.
Ils intègrent des services (gestion de parc, rechapage, remplacement…) qu'un transporteur n'a pas la possibilité de développer seul. Michelin a agrégé et mutualisé le retour d'expérience de ses clients pour proposer un service adapté à leurs besoins.
On voit qu'il est assez facile de lancer une stratégie de sobriété numérique tout en l'associant avec des outils utilisant le numérique comme levier environnemental. Pour réussir les projets il est nécessaire d'avoir le soutien de la direction, d'associer les collaborateurs, clients et fournisseurs.
Il existe de très nombreuses solutions pour aider une entreprise dans cette stratégie, toutefois au lancement, il est utile d'être accompagné pour structurer la démarche, prioriser et évaluer les différentes solutions, éviter la dispersion des énergies et un retour au business as usual. Les ressources internes sont souvent enthousiastes au début mais peuvent être découragées au bout de quelques mois. C'est la raison pour laquelle une ressource externe peut grandement aider à transformer une initiative en axe directeur pour l'entreprise décliné en actions à court terme et projets à long terme.
Si vous êtes intéressé par mettre en place cette stratégie dans votre entreprise, vous pouvez me contacter directement ici ou par mail contact@livosphere.com.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation durable (RSE / Économie circulaire), Numérique (IA, IoT...) - Contact contact@livosphere.com
Conférences, Formation, Project Lead de projets innovants - Vidéos
De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets
La technologie est de plus en opposée à l'environnement. Les débats se polarisent pour ou contre l'IA, la 5G, les énergies renouvelables ... (English version) (voir aussi article sur la stratégie RSE à adopter sur le plan numérique)
Sans doute, nous nous trompons dans l'ordre des questions. La première question n'est pas "faut-il ou pas développer telle ou telle technologie ?" Elle est "Où voulons aller ?" puis nous avons les bases pour savoir quelles sont les technologies sont adéquates ou non pour y parvenir. Or, il manque encore cette vision de la direction que nous souhaitons prendre, il manque cet imaginaire que nous souhaitons que les futures générations vivent. La réponse n'est pas dans les technologies mais dans les relations entre les hommes, les femmes, la Nature qui nous entoure.
Concernant les technologies et le numérique, nous pouvons sortir des idéologies stériles qui vacillent entre les "techno-béats" et les "techno-bashers" vers une position médiane empreinte d'un peu de bon sens. Le numérique et l'environnement peuvent être des leviers l'un pour l'autre et ne sont pas nécessairement en contradiction comme le donnerait à croire des raisonnements simplistes.
Il y a deux axes sur lesquels nous pouvons agir : encourager la sobriété numérique c'est-à -dire réduire l'impact environnemental du numérique et transformer le numérique en vrai levier pour l'environnement
Je commencerai par le dernier qui selon moi aura le plus gros impact car il touche tous les domaines de notre société.
(Pour avoir des sensibilisations, formations même à distance générales ou liées à votre secteur, vous pouvez me contacter ici : contact@livosphere.com ou ici ) Nous menons aussi des projets RSE, sur la sobriété numérique notamment.)
Sommaire (Lien direct vers les parties d'articles)
Numérique, levier pour l'environnement
Sobriété numérique - Réduire l'impact du numérique
Nous pourrions créer un Circular data hub où l'ensemble des ressources d'économie circulaire géolocalisées seraient accessibles en open data (lieu de réutilisation, réparation, ressourcerie, magasin en vrac...).
L'intérêt de permettre aux particuliers et aux entreprises de savoir où facilement réparer, réutiliser, recycler leurs déchets en fonction de leur localisation. Une startup Hoali cartographie déjà un certain nombre de ces informations pour les particuliers. En réduisant au maximum les frictions à la réutilisation, recyclage des produits, nous accroîtrons la part de l'économie circulaire par rapport à l'économie linéaire.
Cela n'est pas d'ailleurs réservé aux informations d'économie circulaire mais aussi aux données RSE (impact en termes d'émissions CO2 , biodiversité, ACV, inclusion)
Pour éviter de nombreuses études, des informations pourraient être structurées et mises à disposition d'entreprises en plus des organisations publiques comme l'ADEME pour être utilisable facilement (via des API ...)
Lors de la fabrication de nombreux produits, des déchets sont rejetés (produits défectueux, chutes de textile, de cuir, matières premières en excès) avant même la commercialisation des produits finis.
Nous pourrions fortement inciter les entreprises à mettre à disposition les données sur leurs déchets industriels disponibles (géolocalisées, caractérisés). Comme ces informations sont sensibles car elles permettent potentiellement de retrouver les secrets de fabrication, d'avoir des données sur l'activité des entreprises (source potentielle de délits d'initiés), elles devraient être « anonymisées » ou disponibles seulement pour des acteurs spécialisés dans la réutilisation et le traitement des déchets tout en assurant auprès des industriels, la sécurisation de leurs données.
Nous travaillons sur ce sujet avec une designer d'économie circulaire, et une fondatrice d'une startup qui termine son mémoire sur la symbiose industrielle. Notre objectif est de créer des filières circulaires avec tous les partenaires qui souhaitent se joindre à nous dans cette démarche.
On parle régulièrement de comptabilité carbone ou Bilan Carbone, néanmoins cet exercice est encore compliqué à réaliser car il n'y a pas de lien direct avec la comptabilité traditionnelle. Il faudrait mettre en place un référentiel (base de données requêtables par des connecteurs API) permettant de facilement créer une correspondance entre des comptes comptables et leur équivalent émissions de CO2 en apportant les précisions nécessaires via l'utilisation par exemple de sous-comptes normés.
Cela faciliterait la comptabilisation du scope 3 (émissions liées aux activités en amont et aval) de l'entreprise en plus du scope 1 et 2 (scope 1 : émissions directes liées à l'activité, scope 2 : Émissions indirectes associées à la consommation d'électricité, de chaleur dans les locaux... ). Carbone 4, dirigée par Jean-Marc Jancovici réalise ce type de diagnostic. Je parle plus largement des indicateurs RSE ici.
Dans un certain nombre de cas, cette équivalence sera sans doute insuffisante. Nous pourrions alors à l'image de la comptabilité analytique, développer une comptabilité environnementale et sociale alignée sur la comptabilité générale.
Cela permettrait aussi à chaque entreprise de facilement mesurer et communiquer sur ses émissions GES et leur évolution.
A l'image du Nutriscore, qui permet d'évaluer la qualité d'un aliment, nous pourrions ajouter un « CirculScore » pour noter la facilité de réutilisation, recyclabilité de l'emballage d'un produit consommable.
Il existe déjà un indice de réparabilité qui sera mis en place pour les appareils électroménagers grâce à Loi pour une Economie Circulaire. L'objectif est que la notion de réutilisation à défaut de recyclage puisse devenir un critère d'achat systématique pour les consommateurs.
Il existe plusieurs portails nationaux qui permettent de savoir exactement pour votre domicile quels sont les risques d'inondations et autres risques (glissements de terrain, installations industrielles, pollution des sols ... ) : Georisques et Infoterre.
Chaque collectivité pourrait communiquer sur les risques auprès de ses habitants et entreprises ainsi que sur les mesures de prévention collectives et individuelles qu'ils peuvent prendre. Ils pourraient aussi solliciter d'autres territoires et entreprises pour les aider à y faire face.
Le plan de relance nommé "France Relance" couvre spécifiquement la relocalisation et l'innovation. et consacre 15 Mds€ à cet effet. Sur ces 15 milliards, 1 milliard d’euros serviront à des “aides directes construites avec les industriels pour permettre sur des projets très précis d’apporter une aide de l’État".
L'enjeu pour l'Etat sera d'éviter des projets de relocalisation "à l'ancienne" en implantant des usines traditionnelles. Au contraire, celles-ci doivent d’une part intégrées des technologies innovantes comme l’IA, les cobots mais aussi savoir être polyvalentes. La pandémie Covid-19 a montré à quel point la reconversion rapide de certaines unités de production a été essentielle pour produire du gel hydroalcoolique et des masques. La non-spécialisation des machines permet beaucoup plus facilement de reconvertir une usine à de nouvelles tâches de production et éviter les impasses dans lesquelles se trouvent beaucoup de petites villes industrielles qui ont des usines tributaires de marchés spécifiques. Enfin, il est nécessaire d'inclure l'emploi local, le territoire dans ces investissements et éviter les implantations "hors-sol" à la manière d'es entrepôts Amazon. Il doit y avoir un engagement des industriels à s'engager dans le territoire où ils s'implantent (associations, environnement, aménagement), intégrer une démarche RSE territoriale.
Cette relocalisation aurait un impact positif et les cobots et l'impression 3D sont quelques exemples de machines polyvalentes.
Le transport de marchandises ou fret maritime représente 2,5 % des gaz à effet de serre sur le plan mondial. Le transport aérien de fret est proportionnellement beaucoup plus réduit mais important pour des secteurs comme le luxe.
Un des moyens de réduire fortement les émissions de CO2 est de rapprocher la fabrication de biens du consommateur et donc de relocaliser des usines aujourd'hui souvent très éloignées comme l'a révélé la pandémie du Covid-19. Par exemple, 60 à 80% des principes actifs des traitements comme les antibiotiques, les anticancéreux et les vaccins proviennent de Chine.
Cet éloignement met aussi en lumière notre dépendance vis-à -vis de pays qui peuvent avoir des intérêts divergents des nôtres et s'en servir comme moyen de pression diplomatique. Notre double dépendance vis-à -vis des Etats-Unis et de la Chine représente un vrai risque d'écartèlement pour l'Europe.
D'autre part, il y a selon The Shift Project mené par Jean-Marc Jancovici, un vrai risque que d'ici 2030, l'Europe soit confrontée à une chute de ses ressources en pétrole. (cf. video)
54 % de ressources en pétrole proviennent de pays qui vont voir leurs ressources pétrolières diminuer (pays en rouge dans le graphique) alors que les besoins en pétrole sur le plan mondial devraient s'accroître avec le risque de tensions géopolitiques qui en résulteraient.
L'impact devrait se faire sentir à partir de 2026.
Pour réduire cette dépendance et nos émissions de CO2, nous pouvons relocaliser un certain nombre d'usines. Le problème est évidemment le coût de la main d'oeuvre en France qui est bien supérieur à celui des pays asiatiques.
Pour y remédier, nous pouvons favoriser l'adoption des robots collaboratifs (cobots) capables de produire de manière polyvalente des biens adaptés aux clients finaux (à la différence des robots industriels).
Le suramortissement possible pour les PME à hauteur de 40% de leurs investissements dans la robotique, les logiciels et les machines de production effectués est un premier pas mais cela ne couvre pas le coût de l'intégration qui double généralement le prix total de l'investissement.
Idéalement, il faudrait aussi que les industriels fabricant ces cobots soient européens, voire français. De nombreuses startups comme IsyBot et Mip Robotics se développent sur ce créneau ainsi que des intégrateurs spécialisés.
Ces derniers sont indispensables pour adapter la solution cobotique avec les besoins spécifiques de l'usine. Si vous souhaitez creuser ce sujet, j'ai réalisé un projet de déploiement de cobots, et j'ai décrit de manière détaillée la démarche que j'ai adoptée.
En plus des cobots, l'impression 3D permet aussi de réaliser de la personnalisation de masse à la demande tout en minimisant les ressources utilisées.
Cette personnalisation associée à l'exigence d'instantanéité des clients peut profondément transformer les circuits de fabrication des produits. Cela oblige à réduire fortement les délais et les distances entre le consommateur final et la production du produit (cf. article).
Si un industriel commande des centaines de milliers de pièces en Asie (notamment pour réduire le coût des transports et les coûts unitaires de fabrication) et qu'il n'est pas en capacité de les écouler, il se retrouve face à un énorme stock qu'il ne pourra plus, à juste titre jeter à partir du 31/12/2021 pour les produits couverts par un régime REP (responsabilité élargie du producteur) et au plus tard le 31 décembre 2023 pour les autres produits. (mesure sur les invendus non alimentaires de la loi anti-gaspillage pour une économie circulaire).
L'impression 3D évite de créer des moules chers pour de grandes séries et permet de créer des petites séries beaucoup plus proches du consommateur ( fog manufacturing ).
Seb l'utilise aussi pour réduire la quantité de pièces détachées stockées pour une partie inutilement afin de respecter la garantie du constructeur.
L'impression 3D en revanche n'est pas utilisable pour tout car il est nécessaire d'utiliser une matière extrudable (qui permet à un liquide / matière visqueuse de s'écouler par une buse et qui se solidifiera à l'air libre) ou d'une matière (résine ou poudre) qui se solidifie par laser.
Enfin, même si de plus en plus de produits issus de l'impression 3D sont recyclables et utilisent des matériaux biosourcés (startup FrancoFil) et même des déchets plastiques (startup 3Devo), il ne sont généralement recyclables que quelques fois et les produits multi-matériaux sont difficiles à recycler.
Sur le plan économique, le coût unitaire de fabrication est significativement plus élevé qu'une fabrication traditionnelle, d'où la nécessité d'avoir une vision totale des coûts en amont et en aval.
Il existe de nombreuses solutions pour réaliser les diagnostics sur le plan environnemental et aider ainsi les collectivités à bien cibler leurs investissements ainsi que des solutions pour les aider à réduire l'impact environnemental des individus et des entreprises. Malheureusement, il n'y a pas encore suffisamment de partage entre elles.
Un des axes du secrétariat d'Etat chargé du Numérique en concertation avec le ministère de la Transition écologique et le ministère de la Cohésion des territoires et des Relations avec les collectivités territoriales pourrait être de mettre à disposition des boîtes à outils digitales intégrant des portails d'informations locales et des solutions d'entreprises à destination des collectivités et accessibles aux particuliers, entreprises, organisations.
A l'image du portail Cybermalveillance qui permet de réaliser un diagnostic en cas d'attaques numériques et vous propose des solutions et professionnels capables d'y répondre, ce portail aurait un rôle très opérationnel, faciliterait le partage d'initiatives et la recherche de solutions.
Des acteurs privés réunis sous la bannière PlayFrance.Digital ont aussi mis en place une cartographie des acteurs français apportant des solutions digitales.
Aujourd'hui, illustré par une carte de logos, il serait utile que celle-ci soit accessible à l'image des Pepites Tech via des filtres, des descriptions des solutions ... et qu'on puisse identifier celles qui permettent de réduire notre empreinte environnementale.
Une entreprise comme Studiofly Technologie réalise de la thermographie aérienne par drone permettant de détecter sur des grandes étendues les passoires thermiques afin de se concentrer sur les bâtiments nécessitant une rénovation énergétique urgemment.
Le drone agricole « RDM AG » développé par Reflet du Mondes permet de réduire drastiquement l'utilisation de produits phytosanitaires grâce à un largage ciblé et géolocalisé de graines permettant d'implanter du couvert végétal sur les cultures de maïs encore sur pied ou autres, dont les bénéfices sont nombreux : apport naturel en azote, maintien des sols, etc...
Elle peut également permettre le largage de micro-guêpes (trichogrammes) capables de détruire les parasites des cultures sur les parcelles agricoles (Pyrale du maïs.)
Le Sénat a fait part de bonnes propositions (à deux exceptions près) du Sénat pour limiter l'impact environnemental du numérique ( 2% des émissions de CO2, multiplié par 3 en 2040). 70% sont dues à la fabrication et distribution de mobiles, 11% dues à leur usage, 14% à l'utilisation de data centers, 7%, l'utilisation des réseaux télécoms.
Quelques exemples : informer les utilisateurs de l'empreinte carbone de leurs terminaux et usages numériques, créer une taxe carbone sur les terminaux importés hors UE, avoir un taux de TVA réduit sur la réparation et reconditionnement objets électroniques, renforcer complémentarité entre data centers et énergies renouvelables.
Je suis beaucoup plus réservé sur l'interdiction des forfaits mobiles illimités (ils n'existent pas mais sont limités à 20, 80 Go...) et sur la tarification selon le volume de données consommées tant qu'il reste raisonnable (<= 20 Go/mois).
La vraie question est l'usage plus que la quantité. Selon qu'on regarde Netflix sur son mobile ou qu'on réalise une téléconsultation ou du télétravail en 4G par manque de réseau fibre, l'intérêt du haut débit est complètement différent.
Selon Carbon Brief, visionner une vidéo 4K en 4G pendant 1h consomme autant que rouler avec une voiture conventionnelle durant 2,4 km. Si vous travaillez à 10 km de votre domicile (A/R), il faudrait que vous fassiez des réunions d'une durée totale de 8h/j en 4G avec une vidéo 4K pour polluer plus...
En revanche, pour les forfaits mobiles de plus de 20 Go, il y a un risque important que de nombreux consommateurs abandonnent leur box Internet pour n'avoir qu'un forfait mobile et regardent leurs vidéos chez eux (s'ils ont une couverture ce qui n'est pas le cas de tous ). Ce serait un vrai pousse-au-crime écologique.
La consommation énergétique et donc l'empreinte environnementale est nettement supérieure en passant par des réseaux mobiles que par la fibre / WiFi. D'après une étude de l'UIT (Union internationale des télécommunications), la 3G consommerait 15 fois plus qu'en WiFi et la 4G, 23 fois plus. D'après une autre étude de l'ARCEP (autorité de régulation des télécoms en France) plus récente, la 4G consommerait dix fois plus que la fibre et recommande l'utilisation du WiFi chez soi plutôt que la 4G.
Dans un article, l'auteur teste le fait de se passer de box avec son forfait mobile. Avec un forfait 40 Go/mois, c'est un peu limite pour regarder la vidéo, mais avec 80 GO, c'est largement suffisant.
Pour éviter cela, une régulation par les prix semble très difficile. On pourrait imaginer une taxe carbone sur les forfaits mobiles au-delà de 20 Go mais il n'y a quasiment aucune chance que cela n'arrive ! L'ARCEP propose toutefois "la régulation par la donnée, pour étendre la prise de conscience amorcée, en fournissant à l’utilisateur final les informations pertinentes sur les impacts énergétiques associés aux usages du numérique, sur des bases objectives et sans a priori. " et a commencé à collecter des données des opérateurs à ce sujet.
A première vue, il n'est pas sûr qu'économiquement, cela soit rentable à court terme pour les opérateurs d'inciter leurs clients à se passer de leur box Internet à moins d'augmenter fortement le prix de leur forfaits ( ce qui est tout-à-fait possible, certaines offres ne sont valables qu'un an et toutes sont des "séries limitées").
Toutefois, il est possible qu’il y une stratégie des opérateurs de remplacer à terme les box Internet par la 5G. Les box coûtent chères à concevoir et fabriquer et les marges sont plus faibles qu'avec les réseaux mobiles. Les forfaits 5G à tarifs plus élevés seraient acceptés par les clients car ils remplaceraient leur box et cela rentabiliserait les investissements dans la 5G.
Selon moi, c'est la seule justification pour un particulier d'acheter un forfait 5G plus cher. Comme le coût marginal d'utilisation de la 5G est quasi nul, (ce sont les investissements dans les infrastructures qui coûtent chers), les opérateurs ont tout intérêt économiquement à inciter leurs clients à utiliser au maximum les capacités de la 5G.
Il pourrait y avoir un intérêt économique à la fois pour les opérateurs télécoms (qui rentabiliseraient plus facilement leurs infrastructures 5G), l'Etat (via la vente des licences de fréquences à partir de la fin de cette année) et les consommateurs (qui réduiraient leurs factures télécoms). La 5G consommerait nettement moins que la 4G sur le plan énergétique. Il serait utile d'avoir des mesures fiables à ce sujet d'une autorité comme l'ARCEP (sur le cycle complet via des ACV mais aussi en marginal, le nombre de KWh / Go transféré via la 5G versus WiFi + fibre optique).
Le seul perdant dans l'histoire risque d'être notre planète si l'utilisation de la 5G consomme bien plus d'énergie que le WiFi via la fibre ...
Ne nous voilons pas la face, pour des usages à très haut-débit (nommé eMBB) et à très faible latence (nommé « critical IoT » - URLLC), la 5G consomme plus d'énergie que la 4G ou la 3G.
Dans le premier cas, la raison est purement physique. Plus vous augmentez le débit, puis vous consommez d'énergie. En revanche, il semble qu'à débit identique, la 5G consommerait moins marginalement (par Go supplémentaire) que la 4G ou 3G. Toutefois, il faut ajouter la fabrication de matériels spécifiques à la 5G et l'augmentation du nombre d'antennes-relais par rapport à la 4G afin de réduire les délais de latence (cf. ci-dessous) .
Pour augmenter le débit, la 5G utilise notamment de nouvelles fréquences nommées ondes millimétriques (aux alentours de 26 GHz), les équipements utilisant cette fréquence consomment beaucoup plus d'énergie que les équipements utilisant des fréquences beaucoup plus basses (2,4 GHz et 5 GHz pour le WiFi, 868 MHz / 900 MHz pour les réseaux bas débits comme Lora et Sigfox).
Cette fréquence a un inconvénient additionnel, elle peut brouiller par effet de bord les mesures des météorologues sur la concentration en vapeur d'eau (qui a une fréquence de vibration entre 23,6 et 24 GHz ) ce qui pourrait réduire fortement notre capacité à modéliser l'évolution du réchauffement climatique !
Si la 5G 26 GHz est très majoritairement utilisée dans des espaces clos (ex : usines, portions d'autoroutes...), le problème est beaucoup moins grave que si les fréquences millimétriques sont largement utilisées.
Concernant les impacts sur la santé, l'Agence nationale de sécurité sanitaire remarque un manque de données scientifiques sur les effets sanitaires de l'exposition à la 5G pour les fréquences autour de 3,5 GHz et doit réaliser des expertises sur les fréquences plus élevées dites « millimétriques ».
Elle avait eu l'occasion de faire des études sur des dispositifs de type 'scanners corporels' à ondes millimétriques, fonctionnant autour de 24 GHz (proche des 26 GHz ).
Dans le deuxième cas, pour réduire les délais de latence de la 5G, on réduit la distance entre l'objet connecté en 5G et l'antenne 5G. Cela signifie que vous devez augmenter le nombre d'antennes 5G par rapport à la 4G (utile notamment pour les usages comme le véhicule connecté, l'usine, 4.0, l'e-santé et la téléconsultation).
Si vous augmentez le nombre d'antennes 5G, malgré les économies d'énergie de cette nouvelle technologie, vous augmenterez aussi globalement l'énergie consommée et donc les GES.
Faut-il pour autant rejeter la 5G ? Non, dès lors que son impact positif est supérieur à ses impacts négatifs. Il est donc nécessaire d'avoir un déploiement raisonné correspondant à des besoins de territoires, d'axes routiers, de pôles d'entreprises industrielles ... Réaliser un moratoire comme cela a été demandé par une soixantaine d'élus me semble une erreur car pour apprécier l'intérêt et les risques de la 5G, il faut l'expérimenter puis augmenter la taille et le nombre des expérimentations en fonction des résultats terrains de celles-ci. Un moratoire nous empêche d'avoir des données fiables pour prendre de bonnes décisions.
La 5G a d'autre part tout son sens pour couvrir des communes qui n'ont pas accès à la fibre et qui peuvent ainsi bénéficier de services tels que les télé-consultations médicales. Elle est aussi utile dans des usines pour faciliter le pilotage de machines à distance et sur des portions d'autoroutes pour faciliter le trafic de véhicules connectés.
Pour le consommateur final, un déploiement plus important de la 4G suffirait amplement pour la plupart des usages. La 5G serait utile pour réaliser de la vidéo 360° et de la VR et réalité augmentée mais elle consomme beaucoup d'énergie. Il n'y a pas d'urgence à ce sujet et présente même un risque d'effet rebond. Le développement de l'usage accroîtrait fortement les consommations énergétiques et GES. Comme évoqué précédemment, le risque est que les box Internet fibres soient massivement remplacées par des forfaits mobiles 5G.
Pour les objets connectés à bas débit et faible énergie, la 5G (massive IoT - mMTC ) spécifique à l'IoT apporte très peu car LTE, NB-IoT, Lora et Sigfox répondent à la plupart des besoins. En revanche, cela aura du sens, le jour où il y aura une migration complète de la 3G et 4G vers la 5G si cela permet de réduire fortement les infrastructures télécoms et donc leur consommation. La 5G permettrait aussi de délester des zones desservies en 3G/4G saturées mais encore, il faut faire attention à l'effet rebond.
Une couverture 5G nationale à l'image des objectifs de couverture de la 4G me semble donc disproportionnée. Une couverture issue d'un croisement entre un tigre (pour les autoroutes et routes principales) et un léopard (centres denses) serait plus appropriée selon moi qu'une couverture en peau de panthère noire !
La 3G/4G et les réseaux bas débits (Lora, Sigfox, NB-IoT , LTE-M) suffisent très majoritairement sinon. (cf. aussi article sur la 5G). Des expérimentations dans des territoires volontaires me semblent indispensables pour mesurer l'intérêt, les usages et les inconvénients de la 5G.
Vous trouverez aussi une très bonne analyse du Shift Project sur la 5G ici (ainsi que globalement sur la sobriété numérique)
La 5G commence à soulever des réactions fortement hostiles comme l'illustre le combat entre la ville de Grenoble et les opérateurs télécoms et même des Fake News (reconnus par leurs auteurs !) .
Pour éviter que le débat devienne purement politique et polémique indépendamment des usages, il serait judicieux de jouer cartes sur table. Le risque sinon est un refus massif de la 5G par la population, alors qu'il y a de vrais intérêts à l'utiliser de manière raisonnée.
Souvenons-nous des débats houleux autour de l'implantation des antennes-relais près des écoles et lieux publics... des oppositions frontales entre les opérateurs télécoms et les associations comme le Robin des toits.
Pour conclure sur la 5G, comme le dit très bien Sébastien Soriano, président de l'Arcep, elle doit se développer comme un bien commun pour l'ensemble des citoyens.
Les consommateurs devraient avoir la possibilité de facilement connaître leur impact environnemental dans l'utilisation de solutions numériques et avoir à disposition des solutions pour les réduire.
C'est le combat d' Inès Leonarduzzi qui a créé Digital For The Planet, une ONG mondiale qui lutte contre la pollution digitale qui déploie aussi une approche LDCC (Low Digital Carbone Company), qui vise à réduire drastiquement leur impact carbone lié aux usages numériques et à développer des modèles circulaires numériques.
Un amendement du projet de Loi pour l'Economie Circulaire va aussi contraindre les opérateurs à renseigner leurs clients sur la quantité de gaz à effet de serre émise par leur consommation de data mobile via leur facture à partir de 2022. Cela conduirait à les sensibiliser. L'ARCEP collecte aussi depuis avril 2020, les émissions de gaz à effet de serre produits par les principaux opérateurs de télécommunications sur leurs réseaux et sur la consommation électrique des box utilisés par leurs clients.
A ce titre, l'Union européenne veut instaurer un droit à la réparation des smartphones et tablettes à l'horizon 2021.
Elle obligera à rendre les smartphones et tablettes plus durables et faciles à réparer grâce à un meilleur choix des matériaux, une conception adaptée à la réparation, une plus longue prise en charge pour les mises à jour système, et l'instauration d'un nouvel étiquetage avec une note de réparabilité.
Les appareils vendus en Europe devront également favoriser les matériaux recyclés plutôt que des matières premières primaires. La destruction des marchandises durables invendues sera interdite.
L'indicateur d'efficacité énergétique (en anglais PUE ou Power Usage Effectiveness) est utilisé pour qualifier l'efficacité énergétique d'un centre d'exploitation informatique. Il quantifie le ratio entre l'énergie totale consommée par l'ensemble du centre d'exploitation (avec entre autres, le refroidissement, le traitement d'air, les UPS (onduleurs)...) et la partie qui est effectivement consommée par les systèmes informatiques que ce centre exploite (serveurs, stockage, réseau).
En revanche, il ne prend pas en compte la réutilisation éventuelle de la chaleur produite par les serveurs ni l'utilisation d'énergies réutilisées et renouvelables pour alimenter les serveurs.
Les Européens proposent un autre indicateur appelé DCEM (pour Data Centre Energy Management) qui corrige les défauts du PUE en prenant en compte non seulement la consommation d'énergie et le coefficient d'efficacité énergétique, mais aussi les énergies réutilisées et renouvelables.
Le rapport public « Réduire la consommation énergétique du numérique » le cite comme indicateur à utiliser et propose aussi de nombreuses autres pistes pour réduire l'impact environnemental du numérique.
L'entraînement de réseaux neuronaux peut consommer de très fortes quantités d'énergie s'il faut commencer à partir de rien. En revanche, il faut nettement moins d'énergie pour créer des réseaux neuronaux à partir de réseaux neuronaux existants en utilisant des techniques comme le Transfer learning et le Federated Learning (cf. article).
Le développement de modèles de réseaux neuronaux open-source permettrait de réduire encore la consommation énergétique et les émissions de GES en réduisant les entraînements inutiles.
Enfin, l'ordinateur quantique a la capacité d'évaluer une combinaison exponentielle de possibilités en un temps polynomial pour une consommation énergétique beaucoup plus faible que les ordinateurs classiques. Or c'est la démarche réalisée pour entraîner un réseau neuronal.
Aujourd'hui la consommation énergétique des ordinateurs quantiques est encore élevée en raison notamment du refroidissement par laser ou avec de l'hélium des ions nécessaires au calcul quantique (d'une dizaine de kelvins soit -260°C).
Néanmoins, il faut s'attendre à une forte réduction de cette consommation. Investir dans l'ordinateur quantique est un moyen qui se révélera indispensable pour entraîner des réseaux neuronaux de plus en plus complexes pour un coût énergétique et des émissions de CO2 faibles
Sur le plan global, nous pourrions imaginer un "digital shadow government" qui aurait pour objectif de travailler ensemble pour coordonner les initiatives interministérielles.
Les membres de ce groupe seraient rattachés directement au ministre de tutelle. Un de ces membres serait directement rattaché au Premier ministre.
Chaque membre du groupe aurait pour tâche d'identifier les problématiques majeures de son ministère en concertation avec les acteurs concernés. Accompagné par une équipe projet « volante », interministérielle, il devrait évaluer les problèmes sur lesquels les projets numériques auront le plus d'impact et le moins de difficultés et frictions à être mis en place puis déployer les projets au sein du Ministère.
Les membres du « digital shadow government » coopéreraient, mutualiserait leurs efforts et rendraient compte de l'évolution des résultats.
Nous pourrions aussi imaginer un "Environnemental and Social Shadow government", car la transition écologique et social ne touche pas un seul ministère mais comme le digital touche tous les ministères.
Il existe bien d'autres moyens d'utiliser le numérique pour réduire l'empreinte environnementale globalement et en particulier sur son propre périmètre.
Pour éviter les inévitables affrontements entre les techno-enthousiastes et techno-sceptiques, il est indispensable de jouer cartes sur table, d'évaluer les avantages et les inconvénients des technologies sur le plan environnemental et sociétal, de les exposer au grand public en évitant au maximum les partis pris.
C'est la démarche que je défends notamment dans l'interview sur l'innovation utile sur B Smart TV et sur l'IA responsable.
Missions Livosphere
Si vous souhaitez avancer sur ces sujets, sensibiliser vos collaborateurs, les former ou réaliser des projets sur l'innovation technologique ou durable (RSE/économie circulaire), nous vous proposons de
N'hésitez pas à me contacter . Contact
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation durable (RSE / Économie circulaire), Numérique (IA, IoT...) - Contact contact@livosphere.com
Conférences, Formation, Project Lead de projets innovants - Vidéos
De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets
Le lancement d'une mission pour le développement d'une filière textile française durable par Brune Poirson, Secrétaire d'État auprès de la ministre de la Transition écologique et solidaire et Agnès Pannier-Runacher, Secrétaire d'Etat auprès du ministre de l'Economie et des Finances, sous l'égide Guillaume de Seynes, président du CSF « Mode / Luxe » (cf. vidéo) est une excellente initiative pour la filière Mode / Textile. (English version)
L'enjeu est triple : permettre la relocalisation d'industries et d'emplois, la réduction de dépendance à l'étranger et le développement d'une filière d'économie circulaire dans le textile et la mode.
La norme d'économie circulaire nommée XP X30-90 (aussi cryptique que le prénom du fils d'Elon Musk X AE A-12 ! ) apporte une démarche et des objectifs clairs.
Il y a de nombreuses innovations et startups dans l'éco-conception, l'économie de la fonctionnalité, consommation responsable ... dont peuvent s'inspirer cette initiative. La vente d'options de réparation et d'upcycling à l'achat de vêtements ou des mesures fiscales comme une TVA d'économie circulaire par exemple pourraient accélérer la transition vers une économie circulaire.
Néanmoins, il reste quelques paradoxes à résoudre comme le surcoût d'une matière recyclée par rapport à une matière vierge en raison de la main d'oeuvre et une exigence accrue de la réglementation rend plus difficile le recyclage de produits passés.
Pour y parvenir l'approche filière est indispensable afin de coordonner les acteurs et mutualiser les coûts. Pour réussir, l'implication des territoires est indispensable pour déterminer les ressources et les besoins locaux.
Quelques clés pour réussir cette initiative :
La traçabilité des déchets et sous-produits est aussi importante dans la mode et le luxe pour éviter le détournement des matières et leur réutilisation pour des produits de contrefaçon.
(Pour avoir des sensibilisations, formations même à distance générales ou liées à votre secteur, vous pouvez me contacter ici : contact@livosphere.com ou ici ) Nous menons aussi des projets RSE, sur l'économie circulaire notamment.)
Sommaire (Lien direct vers les parties d'articles)
Paradoxes de l'Économie circulaire
Cette initiative pourra aussi s'appuyer sur la norme économie circulaire - XP X30-901, développée sous la direction de l'AFNOR. Elle est aujourd'hui expérimentale et volontaire et intègre à la fois une démarche et des documents normatifs pour qu'une entreprise adopte sa transition vers une économie circulaire.
La norme cartographie sous forme de matrice trois aspects du développement durable : environnemental (diminuer l'impact environnemental), économique (Augmenter l'efficacité dans l'utilisation des ressources), sociétale (améliorer le bien-être des parties intéressées internes et externes) et sept étapes différentes : Approvisionnement durable, éco-conception, symbiose industrielle (écologie industrielle et territoriale), Économie de la fonctionnalité, consommation responsable, Allongement de la durée d'usage, gestion efficace des matériaux ou produits en fin de vie.
Elle s'intègre dans la norme RSE ISO 26000 plus générale même si l'une ne nécessite pas l'autre et inversement.
La France est pionnière sur le plan mondial dans l'économie circulaire et l'écoconception grâce à elle. Elle est en cours d'extension pour devenir une norme internationale ISO/TC 323 dans 61 pays.
Comme toute norme, il ne s'agit pas d'appliquer dès le début la totalité de celle-ci mais plutôt de l'utiliser comme guide progressivement pour adopter une démarche circulaire. Enfin, à chaque fois, il faut tenir compte des réalités terrain afin qu'elle suscite l'adhésion et qu'elle ne soit pas perçue comme une contrainte administrative.
L'approvisionnement durable (extraction et achats durables) concerne le mode d'exploitation/extraction des matières premières visant une exploitation efficace des ressources en limitant les rebuts d'exploitation et l'impact sur l'environnement (Définition AFNOR).
Fortum et Spinnova présentent les premiers vêtements au monde fabriqués à partir de déchets agricoles, notamment de la paille de blé. L'intérêt de la paille est son impact extrêmement faible sur l'environnement résultant de l'extraction, du traitement et de la fabrication de la matière première, vérifié par une analyse du cycle de vie (ACV).
Spintex fabrique des fibres de soie pure et résistante. Les fibres sont filées à partir d'une solution de soie à base d'eau, provenant en partie de flux de déchets pré-consommation.
Pili crée des colorants biodégradables mais résistants aux lavages grâce à des micro-organismes analogues aux levures utilisées pour fabriquer la bière, le pain. Ils consomment 5 fois moins d'eau, produisent 10 fois moins de CO2...
L'éco-conception vise à intégrer, de manière systématique, les aspects environnementaux dans la conception et le développement des produits avec pour objectif la réduction des impacts environnementaux négatifs tout au long de leur cycle de vie (Définition AFNOR).
Exemple d'innovation
Resortecs fabrique des fils qui se dissolvent sous la chaleur et qui permettent de désassembler des vêtements en leurs différents composants tout en étant lavable, repassable.
Cela permet très facilement de décomposer un jean par exemple en ses différents éléments (textile, boutons, tirettes...) et d'en créer ou réparer un nouveau beaucoup plus facilement.
L'écologie industrielle et territoriale (EIT), aussi appelée symbiose industrielle, constitue un mode d'organisation interentreprises par des échanges de flux (les rejets des uns viennent des ressources pour les autres) ou une mutualisation de besoins (approvisionnement en commun, partage d'équipements et de service, collecte de déchets mutualisée, achat groupé d'énergie, etc.)
L'EIT vise à optimiser les ressources sur un territoire, qu'il s'agisse d'énergies, d'eau, de matières, de déchets mais aussi d'équipements et d'expertises (Définition AFNOR).
Au juste est une marque de pulls mixtes 100% recyclés et entièrement fabriqués en France. Elle a choisi de réduire la distance entre les personnes qui achètent et le site de fabrication. Les pulls sont ainsi tricotés dans la Loire, par un expert de la maille depuis 30 ans.
Hopaal a aussi fait le choix des matières recyclées et de l'approvisionnement local. Située à Anglet sur la côte Basque, elle ne s'approvisionne que dans un rayon inférieur à 1500 kilomètres : France, Espagne, Portugal et Italie.
L’allongement de la durée d’usage se traduit par la mise à disposition d’un produit ou d’un service dans des conditions permettant de prolonger sa durée d’usage au regard d’un produit ou d’un service équivalent.
La réparation, le réemploi (toute opération par laquelle des substances, matières ou produits qui ne sont pas des déchets sont utilisés de nouveau pour un usage identique) et la réutilisation (toute opération par laquelle des substances, matières ou produits qui sont devenus des déchets sont utilisés de nouveau) sont les leviers de l’allongement de la durée de vie du produit.
En plus des startups connues comme Vestiaire Collective (articles de mode et luxe d'occasion authentifiés), Vinted ou tout simplement Le Bon Coin qui facilite l'achat, revente de vêtements, il y a des startups comme Frankie Collective qui vont encore plus loin.
Elle collecte des vêtements et produits de marque et les transforme (upcycling) en nouveaux produits comme des sacs, de nouveaux vêtements ...
Des entreprises comme HandBag Clinic réparent déjà des sacs, mais aujourd'hui de grandes marques comme Chanel (nommé bichonnage, aujourd'hui réservé aux sacs 2.55 noirs pour un coût inférieur à 10% de la valeur du sac selon les réparations à réaliser) et Louis Vuitton réalisent ces opérations et sont capables de merveilles ...
Afin de favoriser la réutilisation des produits, une taxe de 5,5% (à défaut 10%) pourrait être appliquée pour tous les travaux de réparation / « upcycling » de produits en incluant les pièces de réparation, à condition que le montant total ne dépasse pas 20% (par exemple) de la valeur du produit neuf.
Pour accroître l'impact de cette mesure, nous pourrions favoriser une TVA différenciée de 5,5% (à défaut 10%) pour les produits issus de l'économie circulaire.
Afin de bénéficier de cette TVA Économie circulaire, le fabricant et distributeur devrait être capable de montrer que ces produits ont le Label origine France Garantie (entre 50% et 100% du prix de revient unitaire est français, produit prend ses caractéristiques essentielles en France).
On pourrait être même plus exigeant et demander que la majorité du prix de revient unitaire soit réalisé à moins de 100 km (par exemple) du lieu de distribution du produit et issu de la réutilisation à défaut du recyclage d'autres produits. Afin de s'en assurer, la traçabilité unitaire de ces produits pourrait être nécessaire (cf. article) et auditable dans une base de données centrale ou décentralisée (comme une blockchain).
Comme ces outils ne sont pas nécessairement à la portée des TPE, PME qui respecteraient ces règles mais n'auraient pas les moyens de les prouver, nous pourrions promouvoir des offres de startups (ou autres) à prix raisonnables, facilitant cette traçabilité et évalués par les pouvoirs publics.
Inversement, nous pourrions accroître l'écocontribution si les produits proviennent de pays lointains en raison de leur impact environnemental en matière de transports. Ces mesures devraient bien sûr être compatibles avec les règles européennes, néanmoins la France pourrait favoriser l'assouplissement des règles afin d'encourager l'économie circulaire et dissuader l'économie linéaire.
L'économie de la fonctionnalité privilégie l'usage à la possession et tend à vendre des services liés aux produits plutôt que les produits eux-mêmes. L'économie de la fonctionnalité challenge l'ensemble du modèle économique d'une entreprise qui vend des produits à l'unité.
Quelques exemples d'innovation :
Dresswing propose de gérer votre garde-robe en louant vos vêtements et accessoires, elle propose même un service complet incluant le shooting photo, l'upload des articles et toute la logistique. Il y a même la possibilité de vendre ses vêtements. L'intérêt est de monétiser des « actifs immobilisés » chez soi 😉
La consommation responsable se traduit pour l'acheteur, qu'il soit acteur économique ou citoyen consommateur, par la prise en compte des impacts environnementaux, sociaux et économiques dans l'acte d'achat et d'usage d'un bien ou d'un service.
La startup Recnorec permet de recycler les gants et masques jetables qui ne sont ni recyclables ni biodégradables en matière première recyclée. Celle-ci peut être utilisée pour créer des objets recyclables utilisant sinon du plastique vierge.
Les masques jetables sont pour la plupart conçus à base d’un polymère dérivé du pétrole, le polypropylène (PP). Ils mettent entre 400 et 500 ans à se dégrader.
La difficulté de leur recyclage réside dans la variété de leur composition (élastique ou lanière, barrière d'étanchéité, pince nez ...) qui rend les solutions traditionnelles inopérantes.
Recnorec a testé ces masques dans son process de Recherche et Développement (masques jetables, réutilisables, lavables, tissu...). Ils recherchent un budget de 30 000 € pour mettre au point en détail les paramètres de recyclage et les utilisations du matériau.
Actuellement, les industriels de la mode et du luxe n'ont pas en général d'action proactive envers leurs clients pour qu'ils adoptent une consommation responsable. Nous pourrions imaginer une innovation de rupture qui à ma connaissance n'existe pas pour les vêtements et accessoires de mode, une option de réparation, « upcycle » associée à d'autres services comme la location ou la revente.
Pour réaliser un parallèle, la plupart des opticiens proposent une assurance réparation pour les lunettes lors de leur achat. Le risque n'est pas géré par l'opticien lui-même mais par un assureur. En fonction du risque, l'assureur vend cette assurance à l'opticien qui la revend avec une marge (généralement élevée) au client final.
Dans le même esprit, les vêtements et accessoires pourraient être vendus avec une option additionnelle qui donnerait la possibilité de le réparer gratuitement. Les fabricants pourraient calculer le prix moyen d'une réparation et le nombre moyen de réparations souhaitées par vêtement. En fonction, ils peuvent travailler avec un assureur qui porterait le risque.
Pour compléter, cette option pourrait accorder des conditions avantageuses pour upcycler, louer et revendre les vêtements.
Ce type d'option systématiquement proposé à la vente et à la condition qu'elle ne dépasse pas les 15% du prix de vente pourrait stimuler un comportement circulaire de la part des consommateurs.
Il faudrait aussi s'assurer que cette mesure ne provoque pas d'effet rebond massif (achat de beaucoup plus de vêtements neufs en raison de cette disposition).
La gestion efficace des matières en fin de vie se traduit par l'opération de valorisation des résidus post-consommation. Ce domaine concerne l'ensemble des techniques de transformation des déchets après collecte, visant à en réintroduire tout ou partie dans un cycle de production, y compris les déchets organiques.
Quelques exemples d'innovation :
De plus en plus d'entreprises proposent de retourner leurs vêtements pour en obtenir de nouveaux (un avoir sur le prochain). Mud Jeans par exemple utilise à 40% des jeans recyclés pour fabriquer leurs jeans. Angarde utilise des bouteilles en plastique recyclées et d'autres matières éco-conçues pour remplacer le coton et le cuir et recyclent les anciennes paires Angarde en proposant une réduction de 20% sur le prochain achat.
Pour avoir une approche et un modèle économique pérenne dans le temps, le coût de revient des produits réemployés, réutilisés ou issus de matières recyclées (économie circulaire) devrait être au moins équivalent, idéalement inférieur au coût des produits issus de matières vierges (économie linéaire).
Lorsque les déchets sont donnés gratuitement, cela peut paraître évident. En réalité, les coûts de collecte, de tri, de transformation sont souvent bien supérieurs aux coûts de fabrication linéaire.
Ces étapes nécessitent une main d'oeuvre humaine ce qui est positif pour l'emploi local. Néanmoins si le surcoût est trop élevé, cela empêche de proposer des produits à des prix acceptables pour les consommateurs et donc est un frein majeur au développement d'une économie circulaire.
Pour le recyclage de produits mono-matières ou simples, le processus pour passer d'une matière hétérogène à une matière adoptant des critères nécessaires pour la production (nommées Matières Premières de Recyclage ou MPR) est très mécanisé et de plus en plus automatisé. Les surcoûts sont donc plus faibles que pour des produits complexes comme les produits électroniques qui nécessitent une déconstruction souvent manuelle.
Pour cette raison, ils sont malheureusement souvent envoyés dans des pays émergents avec des impacts écologiques dramatiques. Le renvoi vers l'Europe de bateaux remplis de containers de déchets électroniques à partir d'Asie montrent qu'heureusement ce temps devient révolu.
Le réemploi (produit réemployé sans être devenu un déchet) ou la réutilisation (produit devenu un déchet et transformé en produit) d'un produit génère aussi des coûts élevés de main d'oeuvre mais moins si les transformations sont peu nombreuses et surtout si le produit a été éco-conçu et donc facilement réparable et « upgradable ».
Pour réduire l'impact écologique, il faudrait que le diamètre du cercle contenant l'ensemble des étapes d'une économie circulaire soit réduit. A l'inverse, pour réduire les coûts en mutualisant les infrastructures, il peut être nécessaire d'augmenter ce diamètre. Il faut donc trouver un juste milieu !
Pour réduire ces paradoxes, la technologie peut être utile. L'IA permet de trier beaucoup plus précisément les déchets intégré au tri optique, l'IoT / Internet des Objets facilite le partage des produits (ex : bornes de partage, vélos électriques) et une économie de fonctionnalité et la blockchain permet d'assurer une meilleure traçabilité des produits.
Chaque technologie a aussi ses inconvénients, en consommation d'énergie, en complexité accrue de recyclage. Il faut donc les utiliser si elles apportent une valeur ajoutée importante sur le plan écologique.
La réglementation permet de s'assurer de la qualité et de la sécurité des produits pour les consommateurs, néanmoins Sécurité elles peuvent complexifier la réutilisation et le recyclage des produits en particulier si les normes évoluent rapidement.
L'impossibilité de décomposer un produit pour des raisons de sécurité (parties inaccessibles ou gangue de plastique ceinturant des parties électroniques), empêche une réparation à bas coût car la panne de petites pièces nécessite le remplacement de pièces beaucoup plus grosses et onéreuses. Certains fabricants utilisent aussi cet argument pour inciter les consommateurs à racheter de nouveaux produits.
La Loi pour une Economie Circulaire s'attaque à ce problème en demandant que certaines catégories de produits électriques et électroniques affichent dès 2021, un indice de réparabilité fondé sur 4 critères : la disponibilité d'une documentation technique précise, la facilité de démontage et de remontage, la disponibilité des pièces détachées, ainsi que leur prix.
L'augmentation de nos critères d'exigence est aussi un frein au recyclage des anciens appareils.
Les fabricants de matériel électrique intègrent ainsi du brome (nommé aussi RFB POP, retardateurs de flamme bromés, polluants organiques persistants) pour ignifuger leur matériel. Le plastique bromé au-delà d'un certain seuil est un perturbateur endocrinien. On les trouve dans 85% des jouets, outils électriques, systèmes d'éclairage et, surtout, dans les gros équipements électroménagers (réfrigérateurs, etc.). selon une étude de l' Ineris (Institut national de l'environnement industriel et des risques)
Depuis 2006, une directive européenne impose de séparer les plastiques bromés des autres, avec un seuil de 2 g de brome par kilo, soit 2 000 parties par million (ppm) défini en ... 2015.
Ces plastiques ne peuvent pas être recyclés, ni mis en décharge, ni brûlés dans les incinérateurs classiques. Ils doivent être traités en incinérateurs de produits dangereux.
Cette limite au recyclage tout-à-fait justifiée pour des produits au contact d'utilisateurs et consommateurs pourrait potentiellement être assouplie pour des produits avec lesquels le public (ex: gaines électriques intégrées dans le bâti) n'a aucun contact et s'il ne présente aucun risque pour le personnel qui le fabrique et l'installe.
Une startup Earth Wake réalise aussi un pyroliseur autorisé à brûler ces déchets et les transformer en essence utilisable dans son véhicule ( mais en payant très probablement la TIPP 😉).
La coke ou le char, partie restante après la pyrolyse représente moins de 5% du volume initial et conscient les métaux tels que le brome, l'antimoine ... et peuvent être utilisés dans la composition des routes notamment.
L'inconvénient est qu'ilne faudrait pas que cela nous dissuade de ne plus réduire notre consommation de pétrole et de plastique !
Les normes de fabrication s'appliquent à tous y compris aux importations néanmoins il est très difficile à la DGCCRF de vérifier la quantité de plastique recyclé intégrant du brome dans des produits étrangers car à la différence des industriels français, ils ne peuvent auditer leurs usines. Comme les coûts et les ressources nécessaires au contrôle sont très élevés, beaucoup de produits importés peuvent échapper à la vigilance des autorités ce qui est une forme de concurrence déloyale à l'encontre des industriels français.
Une méthode serait de permettre aux industriels français de pouvoir réaliser un premier contrôle sur des produits importés avec un audit des techniques utilisées. Les produits ne respectant pas la norme française ou européenne pourraient être transmis à la DGCCRF et aux Douanes afin de réaliser un 2e contrôle et d'agir en conséquence.
En ces temps, on veut encourager la réindustrialisation, toutes les initiatives permettant que les règles soient appliquées par les produits fabriqués en France et à l'extérieur de manière identique sont bienvenues.
L'industrie de la mode et du textile a vu une grande part de ces industries partir à l'étranger pour des raisons de coût de main d'oeuvre, elle a aussi montré ses capacités de rebond lors de la pandémie avec la fabrication massive de masques (mais malheureusement fortement délaissés au profit des masques jetables provenant de Chine).
La mission de textile durable et l'économie circulaire sont une vraie opportunité pour cette filière qui peut ainsi favoriser le développement d'une nouvelle industrie, source d'emplois locaux mais aussi respectueuse de l'environnement.
Missions Livosphere
Si vous souhaitez avancer sur ces sujets, sensibiliser vos collaborateurs, les former ou réaliser des projets sur l'économie circulaire ou la RSE.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, RSE / Économie circulaire ) - Contact - contact@livosphere.com
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Innovations
Économie circulaire
Innovations
Énergie,Eau, Biodiversité
Innovations Mobilité, Santé, Inclusion, Finance Durable et Indicateurs RSE/ESG
Ce 4ème article sur les innovations à ChangeNow est consacré à 4 thèmes différents : Mobilité, Inclusion, Finance Durable et les indicateurs RSE. (English version)
Dans la mobilité, les innovations présentes permettent de pouvoir choisir les transports les plus écologiques en tenant de nos contraintes (The Treep), d'investir et d'utiliser des véhicules partagées (Pony) mais aussi de partager l'énergie des véhicules avec les les infrastructure (ex: Gare avec Solarcamp).
Dans la santé, la réalité virtuelle aide à apprendre les premiers gestes de secours (D'un seul geste) et réduisent les prix des diagnostics à très bas coût (Unima).
Dans l'inclusion, Isahit aide les femmes à avoir des activités rémunérées tandis que Lulu dans ma rue participe à l'inclusion sociale en développent une conciergerie solidaire de quartier (bricolage, ménage...) sous forme d'EITI. Stirrup aide les sans-abris à trouver un logement grâce à des logements vacants prêtés en échange d'un déduction fiscale similaire aux dons alimentaires (Phénix). Lifiled et SolarPak aident les habitants des pays en voie de développement à avoir accès à Internet ou à être éclairés.
Dans la Finance Durable, il faut s'y retrouver parmi les nombreux labels : ISR, GreenFin ... Bayseddo aide à financer des projets durables. Les critères RSE, ESG, ODD de l'ONU deviennent des indicateurs majeurs pour les investisseurs. Le choix de BlackRock par la Commission européenne pour définir les critères RSE / CSR pour ses investissements est contreversé. Est-ce à dire que cette dernière met en pratique les préceptes de Michael Corleone ? Qui sait .... Les indicateurs RSE peuvent être aussi opérationnels et être intégrés dans des tableaux de bord comme ceux de Zei.
Les 3 autres articles sont sur les innovations dans la production écoresponsable, l'économie circulaire, l'énergie, l'eau et la biodiversité.
Sommaire
La SNCF présentait la quantité de CO2 émise selon le mode de transport ... Évidemment, le train est le plus économe avec 7,2 g par voyageur par km, mais le moins économe ne serait pas l'avion (172 g) mais la voiture avec 213 g par voyageur par km...
Les chiffres de la SNCF sont un peu biaisés mais sont globalement corrects en ordre de grandeur. Un véhicule neuf en France émet environ 112g CO2 / km quel que soit le nombre de passagers (c'était 176 en 1995, la moyenne du parc est de 223 g/ CO2 / km ) pour un taux d'occupation de 1,1 pour de courtes distances et 2,2 pour de longues.
L'avion émettrait 285 g de CO2/passager/km pour l'avion selon l'UE avec un taux d'occupation 88 personnes (ce qui est sous-estimé). Avec une occupation de 111 personnes plus proches de la réalité, on serait à 225 g CO2 /km/passager en avion. D'autre part, les Français (de plus de 15 ans) réalisent environ 4 700 km en avion alors que les voitures particulières parcourent environ 13 000 km par an.
Pour ces raisons, de manière globale, les transports sur route (en incluant aussi les camions) représentent 74 % des émissions de CO2 de transport en France, versus 12 % pour l'avion (malgré notre perception bien plus négative pour l'avion). Le TGV aurait une émission de CO2 de 3,2g / km / passager et les trains grandes lignes 10,8 enfin les autocars seraient à 58,5.
Les quatre clés pour réduire l’impact des transports par ordre d’importance sont
A ce titre, je vous recommande l'excellente conférence de Carbone 4 sur les restrictions nécessaires sur l'aviation si nous souhaitons atteindre une réduction de 5% par an des émissions de CO2 condition nécessaire pour limiter le réchauffement climatique.
Il part aussi du constat que 15% des voyageurs effectuent 2/3 des trajets et donc les restrictions côté consommateurs toucheront une partie de la population assez réduite comparativement à leur impact.
Des mesures comme fermer les lignes aériennes là où le train met moins de 4h30, interdire l'aviation d'affaires (consommation > 20 fois à la classe éco), restreindre les programmes de fidélité (5% des vols dont 50% n'auraient pas été effectués sinon) sont certaines de leurs préconisations réalisées avec des ingénieurs aéronautiques et des anciens pilotes.
D'autre part, les agro-carburants auraient un impact minime (sans compter les risques de déforestation) et les compensations carbones sont dans très majoritairement du green-washing (cf. article ).
En fonction des secteurs et des marges unitaires par produit, le transport aérien peut pour des raisons de coûts être pertinent ou non.
Dans le domaine du luxe, le transport aérien représente en aval de la production l'un des principaux contributeurs aux Gaz à Effet de Serre.
Pour LVMH, le transport aérien en aval (Scope 3 - 546 teq CO2) représente environ 50% des émissions totales de CO2 directes du groupe (Scope 1 et 2 : 1089 teq CO2 dont 40% liées à la production de cuir, 16% la viticulture, 15% la production d'emballages en verre).
On voit que la très grande majorité des émissions de CO2 sont liées aux livraisons de parfums et cosmétiques et à la mode et maroquinerie (83%). La Fast Fashion et notre impatience à vouloir en même temps livrer partout le même produit dans un temps très réduit a un impact direct sur les émissions de CO2 alors qu'à la différence des produits alimentaires, ils sont durables. D'autre part, 89% des émissions de CO2 liées au transport en aval sont dues au transport aérien ce qui est énorme.
L'exemple le plus caricatural sont les montres qui sont par définition des biens extrêmement durables et dont les émissions de CO2 représentent 99% des émissions de CO2 de l'activité Montres et Joaillerie.
J'ai eu l'occasion de croiser Antoine Arnault à ChangeNow et il est très intéressé par le transport maritime à faible émission de carbone (cf. article à ce sujet). C'est certainement parce que LVMH a bien conscience de l'urgence de traiter ce sujet.
The Treep permet de réserver en ligne en combinant plusieurs modes de transports et calcule votre empreinte carbone. C'est pertinent lorsque les différences entre des modes de transport sont proches en termes de prix ou de durée. La recommandation de trajets alternatifs pour des prix et/ou des durées analogues avec une forte réduction d'émissions de CO2 dans les sites de réservation devraient se propager sur les sites majeurs de réservation en ligne.
Pour que cela devienne une tendance de fond, il faudrait faciliter le transport multimodal de porte-à-porte (en intégrant le paiement unique en intégrant les transports à vélo, trottinette, le covoiturage). Une solution additionnelle serait d'avoir une fiscalité incitative / dissuasive en fonction du CO2 émis par les différents modes de transport.
Pony propose de développer une solution de partage de trottinettes et de vélos fondé sur l'investissement participatif. Vous achetez un vélo (220 €) ou une trottinette électrique (720€) et bénéficiez de 50 % de revenus sur tout trajet réalisé par votre équipement. Le vandalisme serait aussi nettement inférieur par rapport aux opérateurs qui mettent leur matériel à disposition.
Ce modèle économique de co-investissement pourrait être une vraie tendance de fond car il permet à des particuliers d'investir des sommes raisonnables pour un service de proximité qui bénéficiera à la communauté et leur bénéficiera aussi financièrement. Living Packs a un modèle économique similaire. Les entreprises comme Pony ou Living Packets doivent néanmoins s'assurer de la gestion des sinistres, volumes, réparations.
Pour réduire les émissions de CO2, Tousfacteurs propose une solution de livraison par vélo (pour les livraisons du dernier km).
Zéphyre offre une solution pour installer votre borne de recharges électriques.
Solarcamp projet incubé à The Camp en association avec SNCF Gares & Connexions expérimente une solution beaucoup plus innovante utilisant les batteries de véhicules comme unité de stockage pour la gare.
Les voyageurs qui laissent leur véhicule sur le parking indiquent leur date de retour ainsi que le niveau de charge souhaité à leur retour. Pendant leur absence, leur véhicule sera utilisé pour stocker et distribuer de l'énergie provenant de panneaux photovoltaïques. En échange, l'utilisateur recevra un paiement en monnaie virtuelle qui pourra servir à payer le parking, louer un véhicule à Paris, ou acheter d'autres services. Ces modèles mixtes peuvent avoir un réel effet vertueux sur le plan environnemental.
Une maquette de Zeleros Hyperloop était aussi présentée.
Néanmoins, comme il est nécessaire de créer des infrastructures spécifiques qui actuellement ressemblent à de gros pipelines opaques,, je suis sceptique sur le développement massif de cette technologie.
Dans la santé, D'un seul geste utilise à très bon escient la réalité virtuelle, vous apprenez les gestes qui sauvent en cas de crise cardiaque avec un casque VR en les combinant avec un vrai mannequin.
J'ai compris l'intérêt de la solution en étant plongé dans une situation où une personne fictive se trouve victime d'un arrêt cardiaque. Même en sachant que c'est juste virtuel, on a une montée d'adrénaline qui permet de se rapprocher d'une situation réelle et donc de nous y préparer.
Avec la « distanciation sociale », la réalité virtuelle devrait avoir de plus en plus de succès car elle se rapproche le plus de la réalité tout en permettant d'éviter le contact.
Ce dispositif ne remplace pas le formateur qui reste présent car il valide les gestes pratiqués et assure un débrief permettant d'être prêt à agir en cas d'urgence. La réalité virtuelle permet ici d'accélérer et développer plus largement la formation avant cette étape. Enfin, l'expérience terrain restera toujours essentielle,
Unima développe lui des diagnostics à très bas coût de tuberculose avec un résultat en 15 mn. La solution combine des solutions simples de diagnostic, un papier réactif et le smartphone pour analyser via la caméra les résultats du diagnostic. Avec la pandémie COVID-19, on a commencé à voir ce type de diagnostic se développer avec des tests utilisant une autre technologie Crispr-Cas 12 (cf. article).
Le test SARS-CoV-2 DETECTR permet de détecter en 40 minutes le virus contre 4h avec la technique PCR. Ces réactifs pourraient être utilisés pour toutes sortes de maladies afin de circonscrire rapidement les personnes touchées.
4 axes pourraient être choisis :
Une des techniques est potentiellement d'utiliser une combinaison de réactifs plutôt qu'une seule.
Pour réduire les coûts de fabrication, il serait judicieux que les licences pour produire ces tests soient gratuites (voire en open source) ou à très bas prix.
Il y avait de nombreuses startups sur le thème de l'inclusion. Des entreprises comme Kiitos Technologies a vocation à développer la Tech dans la bande de Gaza.
Isahit est une plateforme dite « socialement responsable » d'outsourcing de tâches digitales (labellisation de données pour l'IA notamment). A la différence d'Amazon Turk, les tâches sont exclusivement réservées aux femmes avec une répartition plus équilibrée des revenus, 60% reviennent à la personne, 35% à la plateforme et 5% à une fondation qui a vocation à financer des projets d'accès à Internet, des espaces de coworking.
Le risque à éviter est de tomber dans l'exploitation de personnes en les sous-payant ou en leur faisant réaliser des tâches répétitives sans leur donner l'opportunité d'évoluer vers des métiers plus enrichissants humainement et financièrement. D'autre part, de plus en plus de ces tâches seront réalisés par des IA ce qui laissera un créneau de plus en plus réduit aux microtâches.
Lulu dans ma rue a une approche plus humaine et novatrice en proposant de la conciergerie solidaire de quartier (bricolage, ménage...) sous forme d'EITI, entreprise d'insertion par le travail indépendant. Cela permet à des « personnes éloignées de l'emploi » de reprendre une activité professionnelle « à la carte » sans devoir s'engager sur des CDD, CDI qui peuvent être plus contraignants pour certaines personnes.
C'est une première marche vers le retour à un emploi plus stable pour celles et ceux qui ne veulent pas directement intégrer une entreprise. Une convention a été signée entre l'Etat et Lulu dans ma rue afin d'expérimenter durant 3 ans ce dispositif et l'évaluer avant de l'étendre plus largement.
Smiile propose de partager, louer, donner du matériel, des locaux ..., de réaliser du covoiturage entre voisins avec un réseau social local.
Cocottarium propose d'utiliser l'élevage de poules pour éduquer les enfants à la coopération et la responsabilisation.
Le concept le plus innovant dans l'insertion est celui de Stirrup qui permet aux sans-abris d'être logés grâce au prêt de logements vacants sur une période déterminée. Comme le logement est prêté et non loué, il est considéré comme un don et donc est déductible des impôts à hauteur de 66% du loyer médian pratiqué.
Le principe est identique au don alimentaire réalisé par des points de vente à des associations d'aide aux plus démunis et qui constitue le modèle économique de startups comme Phénix et incite les distributeurs à distribuer leurs invendus plutôt qu'à les détruire (perte pour eux de 40% seulement de la valeur de la marchandise si le don alimentaire a été réalisé au plus tard 3 jours avant la DLC ).
Concernant Stirrup, l'autre intérêt est pour le propriétaire car cela lui évite d'avoir des périodes de vacances longues sans contrepartie financière.
Concernant Stirrup, l'autre intérêt est pour le propriétaire car cela lui évite d'avoir des périodes de vacances longues sans contrepartie financière.
Il y a plusieurs raisons pour lesquels des logements vacants ne sont pas loués alors qu'ils sont habitables, un début de travaux de rénovation tardif, une succession, le souhait pour des agences immobilières de ne pas mettre trop de logements sur le marché pour éviter une diminution des loyers et donc de leur commission, pour ne pas réduire la valeur d'un bien à la vente (car un bien loué est vendu moins cher car il faut attendre que les occupants partent du logement ...) ...
L'intérêt de Stirrup est de proposer pour une période fixée à l'avance de prêter un logement à des sans-abris ainsi qu'à de jeunes adultes (anciens mineurs isolés, jeunes ayant bénéficié d'aide sociale à l'enfance). Comme les occupants ne sont pas locataires mais occupent à titre gratuit, la loi sur les locataires (comme le maintien dans le logement durant la période d'hiver même en cas d'impayés) ne s'applique pas. Stirrup prend des assurances spécifiques en cas de dégradation. D'autre part, Stirrup demande aux occupants de verser une somme minimum sur un compte afin qu'ils puissent épargner pour faciliter l'obtention d'un logement après la période de gratuité dans le 1er logement.
Sur le plan juridique, cette location à titre gratuit constitue un contrat de prêt à usage (nommé commodat).
Actuellement Stirrup s'adresse plus à des promoteurs ou des propriétaires institutionnels, car ils ont un volant de logements en vacances qu'ils peuvent mettre à disposition de Stirrup pour des durées de 6 à 9 mois. Les particuliers sont plus hésitants en raison de la crainte des dégradations et du risque d'avoir besoin du logement avant le terme du contrat.
Lifiled met en place des lampadaires électriques en Afrique qui donne accès à Internet via le LIFI (LED qui transmettent des données via leur clignotement à très haute fréquence imperceptible à l'oeil)
SolarPak propose un cartable solaire qui se recharge durant la journée et donne accès à de la lumière aux enfants pour qu'ils puissent travailler le soir (3 h environ).
Echale, startup mexicaine, construit des maisons pour les mal-logés sur base d'eco-blocks produits sur place avec 90% de matériaux locaux.
Microdon, à l'image de la fondation à but non lucratif Epic créé par Alexandre Mars propose à ses clients de réaliser des microdons (type arrondi à l'€ supérieur) lors d'achats à des associations caritatives.
The Skateroom a une dimension plus artistique en associant des artistes qui créent des éditions spéciales de skateboard (responsable 😉 )
Pour parvenir à réaliser ces projets, il est nécessaire d'avoir du financement. La plupart sont des plateformes reliant investisseurs et projets.
Bayseddo propose une plateforme d'investissement permettant à des agriculteurs au Sénégal d'être financés par des investisseurs à travers le monde.
Positive Energy met en relation investisseurs et porteurs de projets d'énergie renouvelable.
KIssKissBankBank, plateforme collaborative de financement présentait aussi ses financements dans des projets durables.
De manière plus générale, petit à petit, le gouvernement, via la loi PACTE, encourage les souscripteurs à financer des investissements socialement responsables (ISR) respectant les critères ESG (environnementaux et sociaux de gouvernance).
Tous les assureurs ont l'obligation de proposer au moins une UC (unité de compte) investie en fonds solidaires (contenant de 5 à 10 % de titres d'entreprises solidaires) et/ou labellisés ISR ou Greenfin (ex- label Teec, transition énergétique et écologique pour le climat).
Il existe d'autres labels tels que Finansol et CIES, il serait judicieux d'harmoniser ces labels pour les rendre plus accessibles aux investisseurs en particulier individuels. Comme première étape, le gouvernement pourrait proposer une liste de critères détaillés et harmonisés entre les labels, chaque label pourrait alors prendre en compte ceux qui le concernent afin qu'on puisse comprendre les différences entre chacun.
D'autre part, il serait pertinent de créer différents niveaux de labellisation à l'image des Nutriscore, Crit'Air, Diagnostic de Performance Energétique utilisés pour le grand public. Cela faciliterait l'entrée des entreprises dans le premier niveau du label et inciterait celles qui ont obtenu le premier niveau de label à progresser dans les niveaux.
Avec la multiplication des fonds se disant responsables, l'AMF (Autorité des Marchés Financiers) a commencé à y mettre de l'ordre en publiant une première doctrine en matière d'information des investisseurs. Il sera ainsi nécessaire de faire figurer dans les documents réglementaires des objectifs mesurables de prise en compte de critères extra-financiers (RSE)
Pour s'améliorer, il est nécessaire de se mesurer avec des critères identiques tout le long de la vie de l'entreprise. Pour se comparer avec d'autres entreprises, il faut que ces critères soient aussi identiques, au pire similaires entre entreprises.
Pour y parvenir, il faut définir des indicateurs objectifs, les recueillir régulièrement avec une granularité et précision suffisante grâce à un processus de collecte normalisé et auditable par des organisations externes et indépendantes (dès lors qu'on souhaite réaliser des comparaisons entre entreprises).
Il est aussi essentiel de bien distinguer les indicateurs destinés à devenir public (qui lèvent le voile sur les pratiques de l'entreprise mais ne peuvent être trop détaillés afin d'éviter la divulgation d'informations confidentielles) et les indicateurs opérationnels qui doivent être beaucoup plus précis afin de finement quantifier et analyser les points d'amélioration, les progrès et reculs. Ces indicateurs opérationnels sont en général des sous-indicateurs d'indicateurs RSE (ou CSR en anglais pour Corporate Social Responsibility ) destinés à devenir publics.
L'ONU a dressé 17 objectifs de développement durable (ODD ou Sustainable Development Goals, SDG) définis par l'ONU et a lancé son SDG Action Manager, un tableau de bord permettant à chaque entreprise de piloter et améliorer ses 17 objectifs.
Ces objectifs permettent de voir les externalités positives de chaque entreprise, néanmoins ils ne représentent pas nécessairement le coeur de l'activité de l'entreprise.
D'autre part, ces ODD peuvent être contradictoires , par exemple l'objectif 8. Decent work and Economic Growth est en contradiction avec le 13. Climate Action, car l'activité économique est étroitement corrélée à la consommation d'énergie ( la deuxième permet la première car nous sommes dépendants de machines utilisant de l'énergie) qui est-elle même responsable d'émissions de CO2 (car la majorité des sources d'énergie dans les pays en voie de développement sont très peu de carbonées).
Même si un peu enfoui dans le rapport RSE, les entreprises communiquent sur les actions qu'elles mènent sur chacun de ces indicateurs.
Ici, LVMH montre qu'à la fois en raison de ses activités et priorités, elle mettra plus l'accent sur la consommation et production responsable et l'action sur le climat que sur la réduction de la pauvreté ou des inégalités.
Vigeo Eiris, à l'origine française est devenu l'agence de notation experte en critères ESG, environnementaux et sociaux de gouvernance. Elle a créé les indices Euronext-Vigeo qui regroupe les 120 entreprises mondiales ayant les plus fortes notations ESG, et l'indice CAC gouvernance qui classe les entreprises du CAC 40 selon leur notation (cf. 2017 et 2019)
Le rachat (à plus de 50%) par Moody's de cette agence française dirigée par Nicole Notat ne doit rien au hasard, car ces indicateurs deviennent obligatoires dans l'évaluation d'une entreprise.
Les investisseurs deviennent de plus en plus attentifs à ces critères. renforcer le poids des critères ESG dans ses choix d'investissement. Il exige des entreprises qu'elles divulguent publiquement des informations détaillées sur les résultats, les engagements de développement durable (Sustainability Accounting Standards Board (SASB) et les risques liés au changement climatique (TCFD Guidelines).
Il vient aussi d'adhérer au Climate Action 100+, qui réunit plus de 200 investisseurs à travers le monde (dont Axa, BNP Paribas, CDC ...) et qui cible les industriels étant les plus gros émetteurs de Gaz à Effet de Serre dans le monde directement (nommé Scope 1) et indirectement ( nommé Scope 2 et 3 définis par GreenHouse Gas protocol) afin qu'ils réduisent fortement les émissions de GES.
Parmi les entreprises françaises visées, il y a Airbus Group, EDF, ENGIE, LafargeHolcim (franco-suisse), Total et parmi les entreprises connues : ArcelorMittal, BASF, Bayer, Boeing, BP, Caterpillar, Exxon, Fiat Chrysler, Ford, GE, General Motors, Honda, Nestlé, Nissan, Panasonic, PepsiCo, Procter & Gamble, Shell, Siemens, Volkswagen, Volkswagen.
Néanmoins, BlackRock n'a pas une politique très cohérente à ce sujet et fait aussi du greenwashing. Compte tenu des impacts financiers qui sont aujourd'hui tangibles, il n'a pas trop le choix que de basculer vers le GreenActing ...
C'est sans doute la raison pour laquelle, il a vertement fustigé lors de l'AG, Siemens qui a contribué à construire les infrastructures destinées à la création de la nouvelle mine de charbon Carmichael en Australie. D'autre part, la Commission européenne vient de confier une étude sur la finance durable au gestionnaire d'actifs BlackRock.
L'eurodéputée EELV Marie Toussaint s'insurge contre le choix en indiquant que « C'est comme confier à Al Capone la lutte contre le grand banditisme ». Si c'était l'unique étude que ferait la Commission européenne sur le sujet, Marie Toussaint ne serait pas loin de la vérité. La Commission européenne n'a néanmoins aucune obligation vis-à-vis de suivre les préconisations de cette étude.
En revanche, ce serait très étonnant que cela soit la seule. La Commission européenne souhaite peut-être avoir une multitude de perspectives et appliquerait peut-être à la lettre une parole de Michael Corleone dans le Parrain 2 « Sois proche de tes amis, et encore plus proche de tes ennemis. »
Si BlackRock préconise des actions en termes de finance durable, il lui sera plus difficile par la suite de refuser à lui-même d'appliquer ce qu'il a conseillé, d'autre part si BlackRock veut garder un peu de crédibilité dans ce domaine, il ne peut se contenter de proposer des solutions édulcorées...
Le rapport étant public et la pression d’eurodéputés, nous éclairera sur la validité ou non de ce choix dans les prochaines semaines.
Afin d'avoir une vision plus opérationnelle de ses engagements RSE, Zei présentait un tableau de bord intégrant de nombreux indicateurs différenciés en fonction du secteur.
Vous pouvez vous créer un profil (voici le mien 😉), vous soumettez votre pourcentage de progression (en fonction de critères définis par Zei), votre objectif de progression, les fournisseurs avec lesquels vous travaillez et les justificatifs démontrant votre situation actuelle.
Zei peut vous aider dans cette démarche et pourra valider vos éléments déclaratifs. D'autre part, il propose des solutions de partenaires pour vous aider dans votre démarche. Le principe est judicieux, même si certains indicateurs devraient être améliorés.
Par exemple, plus vous avez un fort pourcentage de location du parc de matériel informatique, meilleur est votre score. Or, la location de matériel incite à le renouveler plus souvent et donc a un impact négatif sur l'environnement à la différence d'un achat avec un faible taux de renouvellement.
Un meilleur indicateur serait l'ancienneté du parc potentiellement pondérée par la performance énergétique du matériel, plus il est ancien meilleur serait votre score. Cela remet en cause l'envie des salariés d'avoir toujours le matériel dernier cri mais il faut savoir faire quelques sacrifices pour la planète ... 😉
Le modèle économique de Zei est fondé sur la création d'indicateurs et de tableaux de bord personnalisés pour les entreprises. Zei ne perçoit pas de commission sur les solutions potentiellement proposées par leur plateforme ce qui est préférable pour éviter d'être juge et partie.
Ce modèle économique est assez difficile à rendre rentable selon moi, car vous devez avoir une masse critique d'entreprises qui s'inscrivent sur la plateforme. C'est possible si c'est gratuit. Il faut que la part d'entreprises payant pour des services personnalisés et le montant d'abonnement soient suffisamment élevés pour maintenir une plateforme dont la majorité des utilisateurs ne paieront pas.
Pour que le service soit personnalisé, il faut des individus pour le faire (à moins d'utiliser de l'IA mais c'est encore un peu tôt vu l'hétérogénéité des informations) ce qui coûte cher et peut être difficile à faire payer. Enfin, il est difficile de gagner de l'argent avec ses partenaires sans perdre sa neutralité.
La SGEvT met à disposition Tereval, une plateforme destinée à aider les collectivités à mieux décider sur base d'informations géolocalisées. Aujourd'hui, fondé sur la digitalisation du PLU, plan local d'urbanisme, il permet de facilement visualiser les travaux, infrastructures ... sur un territoire.
Kermap utilise les images satellitaires pour visualiser les zones végétales des villes et les quantifier, ces cartes sont d'ailleurs accessibles en ligne.
MoralScore (pas présent à ChangeNow) veut guider les consommateurs dans leurs achats et a pour ambition lui de devenir le Yuka de l'engagement en notant les entreprises (sans leur demander leur avis).
Un points essentiel pour que les entreprises, organisations soient plus respectueuses de l'environnement et des femmes et hommes qui les composent est qu'elles se mesurent de manière objective. Cela leur permet de se fixer des objectifs, de se comparer aux autres, de voir ce qui peut être amélioré, les initiatives qui fonctionnement et celles qui échouent.
Plutôt que de cacher leurs défauts, elles doivent apprendre à communiquer dessus en expliquant à la démarche qu'elles adoptent pour y remédier mais aussi être ouvertes aux idées qui peuvent les aider.
On voit aussi que les innovations dans la mobilité et l'inclusion ne sont pas seulement technologiques mais aussi d'usages, de modèles économiques.
Si vous souhaitez avancer sur ces sujets, sensibiliser vos collaborateurs, les former ou réaliser des projets sur l'économie circulaire ou la RSE.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, RSE / Économie circulaire ) - Contact - contact@livosphere.com
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Innovations
Économie circulaire
Innovations
Énergie,Eau, Biodiversité
[Eco-Fiction] Si une économie circulaire et locale émergeait après une hyper-récession
Imaginons que la crise économique due à la pandémie Covid-19 soit le 1er domino qui tombe, que la crise économique due à la pandémie Covid-19, n'aurait ni la forme d’une V, d'un U, d'un W ou même d'un L mais d'une cascade de
L
L
L ...
et aboutisse à une récession cataclysmique mondiale.
Même si cela paraît improbable ... mais bien sûr d’autres dominos pourraient tomber. : la chute de l'offre liée à la baisse de productivité, une demande restant forte sur les biens essentiels, le déversement des centaines de milliards créés d’un coup de crayon par les banques centrales sur l’économie réelle parce qu’ils ne pourraient plus se reporter sur la bourse en raison des nombreuses faillites …
Qui pourraient créer une inflation massive pourquoi pas une hyperinflation associée à une stagnation économique, c'est-à-dire une hyper-récession ou hyperstagflation mondiale…
Avec la hausse brutale des prix, nous n'aurions d'autre choix que de produire localement une partie importante de notre alimentation et énergie ou au moins à la troquer avec nos voisins vu que la monnaie quel qu'elle soit n'aurait plus de valeur. Nous n'aurions d'autre choix que de réutiliser, réparer nos appareils, vêtements et autres biens devenus hors de prix, neufs. Nous n'aurions d'autre choix que d''avoir une économie massivement circulaire, locale et solidaire au lieu de notre économie actuelle, massivement linéaire, globale et inégalitaire.
Ce scénario catastrophe est très hypothétique car il serait fortement contrecarré par tous les Etats et toutes les institutions mondiales. Il est vrai que cela leur permettrait de faire fondre les dettes incommensurables accumulées par ceux-ci à des taux aujourd'hui négatifs ... Mais on ne remet pas en question la religion de la faible inflation d'un coup de coronavirus... 😉
Pourtant à l'image du Pari de Pascal, il serait judicieux d'anticiper et de se préparer à ce scénario car nous risquons peu à le faire et beaucoup sinon...
Cet article a pour objet de voir l'ensemble des hypothèses pouvant mener à cette hyper-récession / hyperstagflation et comment s'y préparer avec des infrastructures résilientes et une économie circulaire et inclusive.
Sommaire
Facteurs d'inflation et de récession économique
Et si nous allions vers une Hyper-Récession mondiale ?
La production de biens risque de fortement de chuter en raison de la faillite de nombreuses entreprises, du manque de main d'oeuvre sur la production de biens essentiels (notamment alimentaire) et la forte diminution de la productivité due aux mesures sanitaires et au télé-travail.
Cette baisse de productivité pourrait rendre beaucoup d'entreprises victimes de l'effet ciseaux. Elles seront tiraillées par la nécessité d'une part d'augmenter leurs prix pour répercuter leurs hausses de coûts et de baisser leurs prix pour écouler leurs stocks.
D'autre part, sous une certaine quantité de produits ou services vendus, l'entreprise ne peut être rentable, c'est le cas en particulier du secteur de la culture, du divertissement, des hôtels et restaurants qui se trouvent face à un problème quasi insoluble sans aide externe.
Comment être rentable en étant contraints de diviser par plus de deux le nombre de ses clients alors que leur point mort dépasse des taux d'occupation de 50% !
Dans le domaine des services, comme le transport aérien, les impacts économiques de la réduction des vols associées à la règle de distanciation sont tellement catastrophiques que cela a obligé le gouvernement à supprimer cette règle dans les avions. « La rentabilité économique débute à environ 75% de remplissage de l'appareil.
Pour l'heure, il est de l'ordre de 45 à 50%. ». Le risque est un effet domino, car si les compagnies aériennes chutent, il n'y a plus de maintenance des avions ou de commandes, et plus de commandes auprès de tous les sous-traitants, PME... En Occitanie, plus de 10 Md€ sont générés par l'industrie aéronautique (très implantée dans la région toulousaine), sa chute entraînerait toute une région.
De manière générale, les entreprises les plus fragiles seront les premières victimes, Renault qui depuis 2 ans a vécu les pires années depuis longtemps annonce vouloir fermer 4 de ses 12 usines en France malgré la garantie de l'Etat sur un prochain prêt bancaire d'environ 5 milliards d'euros.
Ces faillites, baisses de salaire (liées au chômage partiel en France et au chômage tout court pour les Etats-Unis par exemple) vont provoquer un chômage massif qui réduira fortement le pouvoir d'achat.
Sur les biens essentiels (comme l'alimentation...) la demande ne devrait pas beaucoup baisser car même en temps de crise nous avons toujours besoin de manger et de boire. En revanche, nous pourrions nous reporter sur des produits basiques et préférer cuisiner ou prendre des alternatives moins chères. En revanche, pour les autres biens et services, la chute de la demande pourrait être drastique.
Par effet de rétroaction, l'écroulement de la demande sur les besoins non essentiels risque encore plus de plonger de nombreuses entreprises vers la faillite, ce qui créerait un cercle vicieux.
Afin d'éviter l'effondrement, les Etats se sont largement endettés pour soutenir leurs entreprises et leurs concitoyens.
En septembre 2019, le gouvernement avait déjà prévu de lever 205 milliards d'euros sur les marchés financiers en 2020, un record historique. Pour compenser les pertes durant ces deux mois de confinement, le gouvernement français chiffre en plus à 110 milliards d'euros l'ensemble des mesures annoncées. Un engagement énorme qui représente près d'un tiers des dépenses de l'Etat pendant un an. Le déficit public s'élèvera au minimum en 2020 au minimum à 9,1% du produit intérieur brut (PIB), alors que la prévision d'avant-crise s'établissait à 2,2%.
Emmanuel Macron et Angela Merkel viennent de proposer le 19 mai la constitution d'un «fonds de relance» de 500 milliards d'euros pour aider les régions et secteurs les plus frappés par le coronavirus.
Pour détendre la hausse des taux, la BCE a dévoilé un plan de rachat d'actifs de 750 milliards d'euros qui lui permet de racheter les dettes des Etats (nommé quantitative easing). Comme c'est elle qui crée la monnaie, cela ne lui coûte rien directement Pour être précis, la BCE ne peut pas aujourd'hui racheter directement les dettes d'Etat mais peut les racheter dès lors qu'elles sont passées par les mains par des intermédiaires financiers même pour un temps très court.
Plusieurs économistes vont plus loin en proposant la « monnaie hélicoptère», imaginée sur le ton de la boutade par Milton Friedman. Elle consiste à ce que les banques centrales comme la BCE ou la FED versent directement de l'argent aux entreprises et au foyer sans passer par les Etats. L'intérêt est d'éviter une augmentation de la dette qui deviendrait insoutenable pour les Etats.
Aux Etats-Unis, Trump a signé son premier « helicopter money », le Cares Act, un plan de relance d'un montant supérieur à 2.000 milliards de dollars (1.842 milliards d'euros soit 10% PIB américain) dont 15% reviendront aux foyers américains soit eu plus 3000 € par foyer.
Sur le principe, cela semble idyllique car cela donne l'impression que l'argent pousse dans les forêts du monde entier qu'il suffirait de cueillir et en faire bénéficier tout le monde sans créer d'inflation ! Pour les Etats, cela réduirait fortement et opportunément la charge de la dette alors qu'ils ont emprunté sur des périodes longues à des taux très bas voire négatifs.
En 2008, les titres détenus et prêts consentis par la Banque centrale européenne (BCE) avoisinaient les 1 000 milliards d'euros, soit à peine 10 % du produit intérieur brut (PIB), en 2019, ils atteignent 4 700 milliards d'euros, soit 40 % du PIB de la zone. Entre temps, l'inflation a progressivement diminué avec quelques hoquets pour atteindre 1,3% en 2019.
La création monétaire massive n'a eu donc aucun impact sur la hausse des prix à la consommation. Où part l'argent ? Il est parti dans les actions et l'immobilier. Elle justifierait 70% de la hausse de la bourse américaine. La capitalisation boursière des entreprises intérieures cotées aux Etats-Unis représente près de 150 % du PIB aux Etats-Unis en 2018, et 85% en France.
Quand cela dépasse 100% aux Etats-Unis, cela préfigure un risque fort de chute (ex : pics de 153% en 1999 et 137% en 2007).
Si les sociétés allaient au mieux de leur forme, cela pourrait continuer comme ça. Malheureusement, c'est loin d'être le cas donc tout l'argent créé massivement pourrait se détourner des actions et se reporter sur l'immobilier et la consommation, ce qui augmenterait pour le coup l'inflation.
La crise a aussi incité de nombreux français à épargner. L'encours du Livret A a augmenté de près de 14 Md € en 4 mois, l'équivalent de la collecte réalisée généralement en un an. C'est une épargne à la fois forcée liée au confinement mais aussi de précaution compte tenu des incertitudes futures.
Cette reprise de l'inflation pourrait décourager les épargnants individuels mais aussi institutionnel et d'entreprise, les inciter soit à consommer ou à les investir dans l'immobilier ce qui augmenterait encore l'inflation. En revanche, la consommation pourrait se concentrer sur des produits durables et sur des biens essentiels et sera diminuée par l'effet de l'inflation.
Il y a un risque que les biens essentiels tels que l'alimentation, l'énergie connaissent une très forte inflation en raison de la chute de leur production, de la hausse des prix, et d'une demande maintenue même en cas de forte réduction de pouvoir d'achat.
Le plus emblématique est le prix du masque chirurgical qui a été multiplié par 5 ou 6, de 10 centimes d'euros à 60 centimes en quelques mois en raison de sa pénurie et forte demande, même s'il ne constitue heureusement qu'une part faible du budget d'un ménage.
Dans les autres domaines, quelques signes avant-coureurs illustrent l'augmentation des prix.. Entre la semaine du 2 au 9 mars 2020 et celle du 6 au 11 avril, la hausse moyenne des tarifs des fruits et légumes a atteint environ 9 % selon l'UFC Que Choisir.
La hausse annuelle des produits frais serait de 18% selon l'INSEE entre avril 2020 et avril 2019 versus 2,5% l'année précédente, sur la même période, le prix de l'électricité a bondi de près de 10% versus une inflation générale de 0,3%.
Si jamais le réchauffement climatique provoque des catastrophes naturelles, la situation pourrait être encore bien pire. L'épuisement progressif des ressources naturelles pourrait encore accentuer la hausse de prix car répercuté généralement dans les prix de vente. Espérons que la maxime de Jacques Chirac ne s'appliquera pas ici, car si elles commencent à voler par escadrille, l'effet sera dévastateur.
Pour les biens non essentiels, la plupart des prix risquent de diminuer si des stocks ont été constitués ces derniers mois comme pour les meubles, habillement... Ce sera encore pire pour les biens perdant leur valeur avec le temps comme les véhicules, appareils électriques et électroniques et les services où les coûts fixes peuvent être élevés. La limite de la baisse est de vendre à perte, de faire disparaître toute sa trésorerie...
L'inflation pourrait aussi croître en raison de l'augmentation de la part des produits français dans le panier moyen. La majeure partie des produits importés sont moins chers que leurs équivalents français. Avec les restrictions à l'import/export, le surenchérissement du prix de transport, les risques que des Etats préfèrent réserver leurs produits pour leur population plutôt que de les exporter, le prix des produits importés devrait s'accroître et leur nombre diminuer.
Cet accroissement monétaire spectaculaire n'est néanmoins pas sans conséquence et pourrait entraîner une inflation voire une hyperinflation sur les produits essentiels qui pourrait conduire à une hyperstagflation, une hyperinflation combinée à une stagnation voire une décroissance .
Le retour d'une forte inflation pourrait néanmoins avoir un impact positif pour les Etats ... qui verraient ainsi la charge de la dette fortement diminuer alors qu'ils ont emprunté sur de longues périodes à des taux très bas voire négatifs.
Tous les pays du monde feront simultanément face aux problèmes économiques générés par la pandémie, car celle-ci est globale. La différence avec les crises financières de 2007/2008 ou 2001/2002 est que nous ne pouvons pas reprendre nos activités exactement comme avant en raison des risques de résurgence de la pandémie et que la multiplication des catastrophes naturelles en ces temps de forte fragilité ne peut qu'aggraver notre situation.
L'économie mondiale pourrait plonger dans une récession de longue durée associée à une inflation voire une hyperinflation mondiale, Hyper-Récession ou HyperStagflation.
Le Venezuela qui vit cette situation depuis 2012 a une inflation de plus de 9000% en 2019 (!) avec un PIB qui décroître de 12% en 2017 et 18% en 2016. Les pénuries alimentaires et manifestations populaires ont conduit à la migration de 4,6 Millions de Vénézuéliens à quitter leur pays depuis 2015, selon l'ONU.
Une hyperstagflation sur le plan mondial aurait un impact énorme sur toutes les personnes et entreprises car nous sommes tous dépendants les uns des autres. Aucun pays ne serait à même d'aider un autre ce qui provoquerait des réactions nationalistes comme on l'a vu même au sein de l'Europe lors de la crise du coronavirus Covid-19. La migration massive d'une population vers un autre entraînerait aussi inévitablement des conflits.
Ce scénario est extrêmement noir et pour rappel n’est qu’une hypothèse qui est très peu probable car les Etats et les instances mondiales éviteraient certainement d’en arriver à cette issue.
Ce type de récession réduirait certes drastiquement nos émissions de CO2 et nous contraindrait à rentrer dans les clous d’un réchauffement climatique à 2°C à l’image de ce que nous vivons avec la pandémie mais démultipliée mais le coût humain et économique est gigantesque !
Il s’agit d’un pari analogue à celui de Pascal. Que risque-t-on si on met en place des mesures pour faire face à ce risque d’hyperstagflation ? Très peu, à l’image d’une assurance, nous pouvons créer un filet de sécurité fondée sur la résilience locale mais facilité sur le plan national voire international.
Que risque-t-on si on ne le fait pas ?
Une réaction en chaîne avec des conséquences dramatiques pour les populations et l’environnement.
Face à une crise mondiale qui ébranle l’économie, les populations, l’environnement, a priori il ne semble pas y avoir de solution et pourtant …
Quand le chaos est partout, la seule échappatoire est de créer du sens à petite échelle.
Nous pouvons nous inspirer de l'histoire. La Russie a vécu cette situation en 1992 sous la présidence de Boris Eltsine avec la libéralisation des prix ... (inflation de 2600% en 1992, cf. article à ce sujet), la valeur refuge était le dollar.
7 ans après cette hyperstagflation, Vladimir Poutine, Premier ministre remplaçait Boris Eltsine avec une politique beaucoup plus musclée ...
Néanmoins, il y a d'autres enseignements à tire de cet événement. 80% du budget des ménages étaient alors consacré à l'alimentation et les collectifs de jardins russes ont atténué l'impact de cette crise sans précédent.
"Ces collectifs (source Arthur Grimonpont - Les Greniers d'abondance) forment une agriculture péri-urbaine collective à grande échelle. En plus de contribuer significativement à la production agricole du pays, ce « circuit parallèle » confère au système alimentaire russe plusieurs attributs importants de résilience. Même dans les plus grandes villes, dont Moscou et St Pétersbourg, plus de la moitié de la population dispose d'une parcelle cultivable : on les appelle habitants-jardiniers, ou datchniki.
Ils sont apparus à partir de 1917, en réponse aux pénuries alimentaires dont la fréquence et la gravité s'accentuaient alors que le communisme de guerre instaurait un monopole d'État sur tous les moyens de production. d'agriculture. »
Au départ désapprouvés par l'Etat, il les a rapidement encadrés en raison de leur indéniable efficacité pour contrer les pénuries. Ils étaient contrôlés et gérés par les entreprises d'État, qui divisaient le foncier en parcelles égales et les distribuaient aux employés.
Chaque type de collectif encourage la plantation d'arbres fruitiers et les cultures potagères avec une fonction productive. La loi imposait même un certain nombre de pommiers, poiriers, cerisiers, pruniers, framboisiers, groseilliers, ainsi qu'une surface minimum en fraisiers, et en potager .
La majeure partie des parcelles ont une superficie de 600 m ² et comportent généralement une « maison de jardin », ou datcha, qui a vocation à servir d'habitat temporaire ainsi qu'à entreposer le matériel de jardinage et le fruit des récoltes. Les jardins ouvriers français ne leur sont pas comparables car ils ont des dimensions bien plus réduites (de l'ordre de 30 m ²), ne permettent pas d'y séjourner, et sont historiquement réservés aux populations démunies.
Propriété de l'État jusqu'en 2006, ils ont été rapidement privatisés par la suite, perdant souvent leur fonction agricole pour devenir un simple lieu de villégiature évoluant donc sensiblement vers le modèle de quartier pavillonnaire européen. Début 2019, le régime juridique encadrant les collectifs a été uniformisé pour tenter d'enrayer ces dérives. Le droit de construire, en particulier, y est désormais uniformément encadré par les règlements d'urbanisme locaux.
En plus d'aider les personnes à s'alimenter, elles permettent aux populations de diversifier leur nourriture, elles ne font pas concurrence aux circuits agricoles habituels car seuls le troc et autoconsommation sont les seules pratiques légales.
Lors de la crise des années 1991/1992, 65 % des familles de la ville de Moscou étaient engagées dans le jardinage urbain fournissait la majorité des pommes de terre, des fruits et légumes consommés par les citadins. Les jardins collectifs fournissent entre 20 et 30 % de la valeur totale de la production alimentaire de Russie.
Les jardins adoptent un principe de circularité, produisent des produits « naturels », et ont peu recours aux intrants chimiques et aux pesticides. L'interdiction de commercialisation des récoltes garantie une consommation exclusivement locale et encourage à une solidarité territoriale
En France, 57% des ménages ont pour résidence principale une maison, dont l'espace attenant a une surface médiane de 600m ², on pourrait donc imaginer répliquer à notre manière ces jardins collectifs."
On ne transformera pas toute l'agriculture avec des jardins collectifs à la française mais nous pouvons appliquer progressivement une économie circulaire à la production agricole actuelle.
La démarche la plus simple est de raccourcir les circuits ce qui permet de réduire le nombre d'intermédiaires donc l'empilement de marges.
Lors de la crise, de nombreux agriculteurs ont vendu directement leurs produits aux consommateurs grâce à des plateformes nommées aussi « drive fermier », l'étape suivante est la transformation locale. En direct des éleveurs produit et conditionne le lait d'éleveurs locaux et distribue son lait chez des distributeurs proches.
La transformation locale peut aller un cran plus loin, c'est l'un des projets des Greniers d'Abondance qui vont proposer au Grand Angoulême de transformer leur filière maïs servant surtout à l'alimentation du bétail ou à l'exportation en filière blé-minoterie (transformation en farine)-pain local. (cf. talk video)
Si un jour nous vivons une hyperstagflation mondiale, par nécessité, les habitants seront obligés pour survivre de compter sur eux, leurs proches et leurs voisins (ex : l'auto-consommation et le troc ) et ne devront pas compter à ce moment-là sur l'Etat pour les aider, car il sera complètement dépassé.
En revanche, cela coûte très peu à l’Etat et les collectivités de favoriser les infrastructures locales qui serviront de filet de résilience, le jour où potentiellement il ne pourra plus les aider directement. Il pourrait accorder plus de confiance à ses agents et administrés et les juger a posteriori. Cela ferait gagner beaucoup de temps et éviterait d'attendre les accords d'une entité centralisée submergée par les demandes, comme l'a montré la crise due à la pandémie Covid-19.
La France est un pays colbertiste, jacobin.Une stratégie favorisant la centralisation à tout crin est la pire des solutions car elle nous fragilise bien plus. Il suffit de prendre exemple sur la Nature qui survit extinction après extinction depuis des centaines de millions d'années grâce à sa diversité. A l'inverse, les grandes monocultures sont beaucoup plus sensibles aux maladies et risquent bien plus la disparition.
L’Etat doit par anticipation favoriser la diversité des solutions plutôt qu’imposer un modèle unique.
Il peut diriger son action autour de trois principes :
J’ai détaillé ce type de société dans cet article (société en boule de gui).
Pour donner quelques exemples, il faut accélérer le développement de l'auto-consommation d'énergie sur le plan local. La loi s'est assouplie à ce sujet mais il faut aller beaucoup plus loin. Idéalement, il faudrait inciter à ce que les acteurs dans l'agroalimentaire soutiennent beaucoup plus fortement les filières locales.
Il existe déjà de très nombreuses initiatives locales, d'associations régionales et nationales. L'Etat pourrait faciliter la mise en place d'une coordination et de la mutualisation des moyens entre ces acteurs car il y a une très forte dispersion des énergies de chacun.
Concernant l'économie circulaire, il faut sur le plan légal accélérer les mesures prises dans la Loi pour l'Economie Circulaire (14 propositions que j'avais faites à ce titre et Qualité j'avais remises à Brune Poirson. Elle repose notamment sur la règle des 5R (Refuser, Réduire, Réutiliser, recycler et remettre à la terre, à appliquer dans l'ordre ... ). L'objectif est d'éviter au maximum d'acheter des produits externes et de pouvoir utiliser au maximum ceux que nous avons déjà.
Toutes ces mesures peuvent prises rapidement sans nécessiter des plans de relance de milliards et plus d’euros. Elles n’empêchent pas de poursuivre notre économie linéaire même si son impact néfaste sur l’environnement devient de plus en plus visible. Elle se développe en parallèle en revanche le jour venu, plus d’une et d’un d’entre nous leur devrons notre salut si la situation se dégrade rapidement.
Aujourd'hui, il est impossible de prédire ce qui arrivera exactement demain et surtout quand. En revanche, nous sommes sûrs que les êtres humains ont un impact négatif majeur sur leur environnement, que nous ne saurons pas empêcher le réchauffement climatique et que celui-ci aura des conséquences dramatiques sur nos conditions de vie.
Plutôt que d'attendre que les catastrophes naturelles s'accumulent associées aux catastrophes économiques, nous avons la possibilité d'attenuer l'impact de celles-ci sur nous. C'est un pari sur l'avenir de l'Humanité, autant placer ses billes sur les bonnes cases.
Dimitri Carbonnelle - Fondateur de Livosphere - Contact - contact@livosphere.com
Conseil en Innovation technologique (IA, IoT...) et durable (RSE / Économie circulaire )
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Chers Bernard Arnault, Delphine, Antoine, Alexandre, Frédéric et Jean Arnault
Ces dernières années, vous avez montré qu'au-delà des résultats financiers, l'entreprise a un rôle crucial à jouer pour aider son pays et ses habitants à faire face aux crises auxquelles ils sont confrontés.
Vous avez réalisé un don non défiscalisé de 200 millions euros pour reconstruire Notre-Dame et sous la bannière #LVMHJoinsForces, produit en grande quantité du gel hydroalcoolique à l'usage des hôpitaux dans les usines de Parfums Christian Dior, Guerlain et Parfums Givenchy, acheté et fait livrer plus de 40 millions de masques chirurgicaux et FFP2 pour les autorités sanitaires françaises ; des ateliers de Louis Vuitton et de Dior fabriquent des masques non chirurgicaux à destination des populations exposées ...
Votre nom n'est pas seulement attaché à la création et au développement d'un prodigieux empire du luxe. Vous le reliez de plus en plus à quelque chose qui le dépasse.
Nous sommes confrontés à une crise mondiale due à la pandémie du Covid-19. En ce jour d’après #EarthDay, nous savons que ce ne sera pas la dernière : le réchauffement climatique et la dégradation en général de l'environnement, la chute de la biodiversité et la forte aggravation des inégalités sociales sont trois enjeux qui risquent d'être encore plus difficiles à surmonter.
Pour transformer nos modes de consommation, nos modes de vie afin qu'ils soient en ligne avec notre désir d'un monde vivable pour nos enfants et nos petits-enfants, nous devons mettre ces préoccupations au centre de la stratégie de l'entreprise et plus seulement à sa périphérie.
Aujourd'hui, les technologies comme l'Intelligence Artificielle, l'Internet des Objets et les robots permettent d'automatiser une part croissante des activités et cela s'accélère à vitesse grand V car de nombreuses sociétés vont fortement accélérer leurs investissements dans ces technologies.
Cela accroîtra aussi fortement les profits et bouleversera une multitude de métiers. De nombreuses tâches répétitives disparaîtront laissant de plus en plus de temps aux salariés pour réaliser d'autres activités.
Mais pour faire quoi ? Dans quel objectif ?
Pour produire et générer plus d'externalités négatives comme les émissions de CO2, la pollution de l'air et de l'eau et réduire la biodiversité ?
Le temps et l'argent gagnés grâce à ces technologies pourraient être majoritairement réorientés vers une économie circulaire et inclusive.
L'économie circulaire tourne autour de 5 principes, les 5 R à mettre en place dans l'ordre : Refuser, réduire, réutiliser, recycler, rendre à la terre (cf. un webinaire sur le sujet )
L'économie circulaire nécessite beaucoup de personnes à la différence de l'économie linéaire (où l'on extrait, produit, utilise et jette). Pour vous donner un ordre de grandeur, si une personne suffit pour mettre en décharge 10 000 t de déchets, il en faudrait 10 pour les recycler et 100 pour les réutiliser. Ces emplois sont très peu délocalisables notamment pour des raisons économiques et de bon sens. Réutiliser des biens en les réparant, les « upcycler » pour les envoyer à l'autre bout de la Terre est en contradiction avec l'objectif de l'économie circulaire !
En revanche, ne nous voilons pas la face, une économie circulaire est très difficile à rendre rentable dans la plupart des cas, car le coût de la main d’œuvre pour réemployer, réutiliser, excède généralement le coût de la matière première et de la fabrication pour un produit de qualité similaire répondant aux normes actuelles.
Il y a des exceptions, le rechapage de pneus pour les camions, rentable pour les entreprises et leurs clients. En revanche, très peu de pneus de particuliers en France sont rechapés, vous devinerez pourquoi …
LVMH s’engage déjà beaucoup dans le développement durable et l’inclusion (Life - CP, CEDRE , « Living soils, sols vivants », Académie, EllesVMH…).
Pourquoi ne pas accélérer ?
Voici plusieurs idées pour alimenter votre réflexion :
Pour vos maisons :
Pour vos salariés :
A l’extérieur de votre groupe
Vous et vos équipes avez fait des pieds et des mains pour sécuriser l’approvisionnement de millions de masques provenant de Chine.
Ces compétences que vous avez mises au service de la collectivité lors de cette crise, vous pourriez encore plus largement les utiliser comme leviers pour rendre des activités externes à LVMH circulaires et positives pour l’environnement : celles de vos clients, fournisseurs, partenaires et autres entreprises et organisations intéressées.
Il y a évidemment beaucoup d'initiatives dont je n'ai pas connaissance dont un certain nombre correspondent aux propositions ci-dessus. L'objectif est qu'elles s'étendent bien au-delà de leur périmètre actuel avec plus d'acteurs, pour créer un effet massif.
Monsieur Arnault, toute l’énergie que vous, votre famille, vos équipes avez mise en œuvre pour aider à faire face à la pandémie du coronavirus Covid-19 ainsi que dans le développement durable et l’inclusion, vous pouvez la démultiplier afin d’avoir un impact prépondérant sur notre Planète dépassant largement le cadre du groupe LVMH.
Nous avons besoin d’un mouvement de fonds massif et vous pouvez avoir un rôle moteur dans vos secteurs d'activité mais aussi pour de nombreuses entreprises et organisations, européennes et mondiales. La participation d'autres entreprises aussi en pointe sur le sujet ou désireuses de faire partie de ce mouvement créera un effet mondial.
Nombreuses et nombreux sont celles et ceux qui ont des étoiles dans les yeux quand ils pensent à toutes les maisons de LVMH. Malheureusement, les années 2050 ne font plus rêver grand monde en particulier parmi les jeunes générations avec son flot de catastrophes, effondrements annoncés et un quotidien désenchanté.
Donner vie à de nouveaux rêves est sans doute le plus bel accomplissement d’une vie, vous êtes parmi ceux qui peuvent donner corps à un très grand nombre d’entre eux.
Merci pour votre écoute
Fondateur de Livosphere,
Innovation technologique (IA, IoT...) et durable (RSE, économie circulaire)
Antoine Arnault a écrit un article dans WWD (22/4/20) qui a une vision très claire et pertinente du futur pour LVMH fondée sur l'adaptation créative et durable / sustainable dans un monde "Post-Coronavirus". Il est abondamment illustré par des exemples concrets qu'a mis en place très rapidement le groupe face au Covid-19 et dans l'économie circulaire.
C'est un discours engagé et très encourageant, car fondé sur une forte compréhension des enjeux planétaires, une vision en ligne avec ceux-ci déclinée en actions concrètes, en prenant en compte les attentes des clients et de la société.
Un extrait de l'article :
"The thing we need most is to quickly acquire tremendous resilience. [...] Today, adaptation is something that has become imperative for all of us.[...] But what exactly does “adapt” mean?[...] Adapting means being sufficiently bold, despite everything, to pursue changes, to invent a model that better respects natural resources, and to reaffirm one of LVMH’s most cherished values: creativity."
Un article que j'avais écrit à ce sujet : Face aux futures crises mondiales (comme la pandémie coronavirus Covid-19) que faire ? Construisons une société résiliente !
[FIN MAJ]
NDLR J’ai travaillé avec les équipes Moët Hennessy durant 2 ans à la conception et au pilotage pour MH Lab Innovation.
J’ai eu aussi la chance de croiser Bernard Arnault à Viva Tech et Antoine Arnault à ChangeNow qui a visité l’ensemble du salon, montrant son vif intérêt sur le sujet.
Voici trois articles que j’ai écrits sur les innovations à ChangeNow au Grand Palais sur ce thème :
Est-ce que le traçage des individus est indispensable au déconfinement lié à la pandémie coronavirus Covid-19 ?
Sinon quelle démarche pourrions nous avoir pour déconfiner progressivement ?
Concernant l'utilisation du traçage individuel pour déconfiner, cela me semble beaucoup trop simpliste de répondre Oui car le traçage n'est qu'un dispositif potentiel parmi d'autres, qui peuvent être bien plus simples à mettre en oeuvre avec une efficacité prouvée.
La solution StopCovid annoncée par Cédric O en cours de développement pourrait aider mais est loin d'être la panacée car il y a beaucoup de trous dans la raquette, il faut s'assurer que le Bluetooth est toujours allumé, que la détection entre terminaux Bluetooth (grâce à leur identifiant unique : adresse Mac ) soit fiable (d'autant que cet identifiant change régulièrement pour éviter le traçage 😉 ) et que le nombre de personnes ayant cette solution soit suffisant (au moins 60 % de la population l'installe ce qui exclut des populations). Cela fait beaucoup de « Si » et donc il est très dangereux de se fonder dessus au risque sinon de nombreuses déconvenues. [MAJ 17/4/20] La solution apportée par Apple / Google résoudrait en partie certains problèmes car ils peuvent accéder aux couches basses de l'OS et peuvent garder actif le Bluetooth ce qui n'est pas possible par des autres éditeurs (cf. ci-dessous) [Fin MAJ]
A ce titre, la tribune de 15 députés contre le traçage même volontaire peut aussi éclairer à ce sujet.
Revenons aux basiques :
La 1ère question est pourquoi veut-on tracer ? Pour prévenir les potentielles victimes avant qu'ils ne contaminent à leur tour (backtracking) ? Pour s'assurer du respect du confinement a posteriori voire en temps réel ?
La bonne question à répondre ne serait-elle pas plutôt : Comment déconfiner par paliers en réduisant les risques de propagation ?
Après, nous pourrons déterminer si le traçage est pertinent ou non !
Il vaut mieux partir du problème pour trouver la solution que de partir d'une solution pour résoudre un problème.
Avant de présenter des solutions potentielles au déconfinement, je pense qu'il y a une formidable occasion pour le gouvernement de rassembler les citoyens pour trouver la meilleure manière de déconfiner.
On pourrait demander constituer des groupes de travail à distance pour répondre à des questions simples (même s'il les solutions sont compliquées) :
L'objectif serait de déterminer les problèmes à résoudre, les ressources existantes et futures, les solutions potentielles avec leurs risques, la démarche et le timing.
Ces groupes pourraient être divisés en trois cercles :
Cela donnerait à la fois un élan national à tous avec une vraie collaboration dans l'esprit actuel de solidarité, cela apporterait des idées concrètes issus du terrain et provoquerait un engagement beaucoup plus fort dans le déconfinement car les règles seraient celles qui seraient issus des citoyens et non appliqués de manière "Top-Down'.
Les idées seraient bien sûr revues par des épidémiologistes, médecins, autorités publiques... pour assurer leur cohérence, validité légale et leur applicabilité sur le terrain.
Au préalable, il faut déterminer ce que signifie déconfiner. A mon sens, cela signifie desserrer progressivement la ceinture, donner plus de liberté de déplacement (accès à des parcs, retrouver des proches, accéder à des commerçants non essentiels...).
Il faut donc commencer à lister les cas de déconfinement autorisables à faible risque (ex : retrouvailles familiales en petit comité, accès à des espaces ouverts contrôlés comme des parcs ...) en interdisant les cas à haut risque au prime abord ( concerts, sport au Stade de France, manifestations ...)
Les règles de déconfinement ne se substituent pas aux règles de confinement. Pour être plus précis, on peut parler de règle de confinement assouplies dans certaines conditions, dans certaines zones et pour certains individus en plus des autorisations actuelles de déplacement. Ce serait une liberté en plus de la situation actuelle.
Par exemple, une personne pourrait en plus d'aller à son travail dans les conditions autorisées par le confinement, aller dans un parc voisin s'il est dans un territoire déconfiné et fait partie des déconfinés ce qui serait autrement interdit. Cela n'empêche pas d'autres de venir dans la commune dans le respect des règles de confinement.
En revanche, un parc en zone déconfinée ne serait accessible qu'à ses habitants déconfinés car aujourd'hui il est interdit d'aller dans un parc. Évidemment, cela nécessite des contrôles dans ces parcs et donc des forces de l'ordre.
Déconfiner en réduisant les risques de propagation implique trois conditions à respecter :
On pourrait classifier les populations selon deux dimensions : sont-elles en contact avec des personnes qui sont très probablement contaminées et sont-elles en contact en général avec beaucoup de personnes durant une journée.
Cette matrice illustre que le personnel de santé étant le plus exposé doit évidemment être protégé pour éviter de contaminer et d'être contaminé avec des masques protecteurs pour eux et évitant qu'elles contaminent d'autres.
Les personnes qui sont en contact avec de nombreuses personnes (par ex : plus de 20 par jour, forces de l'ordre, commerces de nécessité, livreurs, éboueurs...) ou qui sont en contact avec des personnes certainement contaminées (infirmiers/infirmières se déplaçant à domicile...) devraient bénéficier d'une protection renforcée des masques pour protéger les autres et si possible qui les protège eux (en fonction de la disponibilité des masques correspondants)
Enfin pour la majorité des personnes, chaque personne sortant de son espace de confinement devrait porter au minimum des masques protégeant les autres au cas où elles seraient contaminées.
Compte tenu de la quantité de masques disponibles, des masques alternatifs sont indispensables dans un premier temps.
Comme nous sommes dans une situation complètement inédite. Il faut apprendre en marchant d'où l'idée de réaliser des tests sur certains territoires. Ces idées doivent être évidemment challengées, améliorées sur le terrain.
Certaines se révéleront impraticables d'autres pertinentes... mais ce n'est pas gênant car l'objectif au final est qu'aussi en tant que citoyen nous apportions de l'eau au moulin :)
Pour s'en assurer, il faudrait que chaque foyer qui serait déconfiné, soit testé et équipé en masques (réduisant la contamination), gel hydroalcoolique et potentiellement équipée d'une solution de traçage qui ne serait pas consultable à distance mais seulement par les forces de l'ordre ou judiciaires.
Comme il n'y a pas assez de masques et de tests de dépistage, on pourrait décider de choisir des communes ou territoires « tests », proches d'hôpitaux, assez peu denses avec peu de cas de contamination relativement aux autres territoires, puis tirer au sort parmi une base de volontaires habitant ces communes (en déclaratif et/ou contactés par les communes à l'image de la Convention citoyenne pour le climat).
Sur ces territoires, toute personne en dehors de chez elle qui ferait partie de ce test de déconfinement, devrait respecter sous peine d'une amende en cas de non-respect, les règles de confinement / déconfinement, être équipée d'un masque (empêchant de contaminer autrui mais pas nécessairement protecteur pour elle en raison de la pénurie des masques) , de gel hydroalcoolique et potentiellement d'une solution de traçage active locale sans accès à distance.
On augmenterait progressivement le nombre de déconfinés et le nombre de communes avec un suivi fin des cas additionnels. On garderait la possibilité d'arrêter le déconfinement en cas d'augmentation des cas significative.
Il est beaucoup plus difficile de déconfiner ou d'assouplir les règles de confination pour les grandes agglomérations que dans les communes isolées car on peut beaucoup plus difficilement contrôler ces territoires.
On peut imaginer déconfiner des quartiers proches de parcs urbains, de squares (pour un nombre limité de personnes), on peut aussi imaginer un déconfinement tournant (par jour sur base d'un tirage au sort avec des préférences initiales proposées par chacun. ). A priori, le déconfinement devrait permettre en priorité aux personnes de reprendre leur travail et d'élargir le champs des activités autorisées.
Nous pouvons commencer par déconfiner des lieux et des activités simples à contrôler avant d'entamer ce qui est compliqué.
[MAJ 17/4/2020] Concernant le traçage, si on le met en place, il doit être fiable. C'est la raison pour laquelle la solution StopCovid initiale telle qu'exposée au 9/4/20 me semblait une fausse bonne idée qui nous détournerait de vraies solutions (cf. problèmes cités ci-dessus).
La solution apportée par Google / Apple résout de nombreux problèmes même si elle n'est pas parfaite (cf. article Medium ). Le projet européen Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT) sur lequel pourrait être fondé l'application StopCovid est fondée sur l'ancienne version du Bluetooth et donc sera beaucoup moins fiable (ex: si Bluetooth n'est pas activé ou l'application ne fonctionne pas en arrière-plan).
L'architecture proposée par Apple et Google leur permet d'intervenir sur la couche basse de l'OS et l'utilisation du Bluetooth Low Energy. Ils peuvent activer le Bluetooth automatiquement pour les usages de contact tracing en réduisant l'impact sur les batteries tout en préservant la confidentialité des données (tant que les utilisateurs ne transmettent pas les infos de leur appli).
D'autre part, la technique utilisée consiste à ce que chaque téléphone transmette des codes aléatoires aux téléphones proches via Bluetooth et les stockent. Si la personne a le Covid-19, elle accepte de transmettre la liste des codes aléatoires à une plateforme centrale (par exemple gérée en France par un organisme central de santé). Il n'est pas très clair comment chaque personne en contact avec la personne contaminée est alerté.
Il y a 2 possibilités soit on peut imaginer que les téléphones reçoivent les codes aléatoires transmises par une personne contaminée et s'il y a un match avec un de leurs codes ils sont alertés, mais cela signifie envoyer tous les codes de personnes contaminées à tout le monde ce qui semble très peu probable. Soit toutes les applis transmettent les codes qu'ils en ont dans leur historique et vérifient si parmi eux il y a des codes de personnes contaminées. Le souci alors est que la plateforme centrale a accès aux contacts de chacun !
Une possibilité pour augmenter la confidentialité des données que j'évoque ci-dessous est la possibilité de faire un cluster position / temps assez large, de réaliser un matching puis de zoomer pour les personnes où il y a un match... et éviter d'envoyer à tout le monde l'ensemble des codes des personnes contaminées. Dans le cas de l'application StopCovid fondée sur le Bluetooth, n'ayant pas la position, on peut toutefois réalisé un clustering sur base du temps et les premiers caractères du code (si le code a 256 bits par exemple). Une personne malade ne transmettrait que les "time log" des différents contacts, de manière générale, toutes les appli ne transmettraient que leurs "time logs" des différents contacts. S'il y a un match (on suppose que les codes transmis entre 2 téléphones en contact intègrent les time logs synchronisés), alors les premiers caractères du code aléatoire de la personne transmis ne sont qu'aux personnes qui ont un time log identique. On peut répéter l'opération plusieurs fois avec les premiers caractères du code de la personne contaminée pour qu'au final, seules personnes les personnes ayant un code identique, ne reçoivent le code intégral de celle-ci.
Autre souci de la solution d'Apple/Google est qu’il faut mettre à jour tous les smartphones. Quand on voit la fragmentation des OS sur Android, ce n'est pas gagné mais espérons ... D'autre part, cette solution peut être très utile pour des espaces denses urbains où la plupart des personnes seraient équipés de smartphones mis à jour, en revanche pour les espaces ruraux où l'équipement de smartphones récents est moindre, cette solution sera moins pertinente. [Fin MAJ]
Une solution alternative serait d'avoir un traçage avec géolocalisation qui soit fiable mais qui ne soit pas accessible à distance ou transmise à une plateforme. Elle pourrait être potentiellement couplée avec le Bluetooth pour faciliter le back-tracking des contacts et inciter chacun à respecter les limites du déconfinement.
La solution singapourienne TraceTogether va dans ce sens en conservant les données de l'utilisateur sur le téléphone et non sur un serveur. L'utilisation du Bluetooth pour tracer les contacts passés n'est possible qu'à condition que le déconfinement soit limité à un territoire restreint car il est plus facile d'avoir une proportion de personnes équipées (potentiellement en attribuant gratuitement un dispositif à celles et ceux qui n'en ont pas) dans ce cas.
Seuls la Police, les gendarmes et autorités judiciaires auraient la capacité à accéder partiellement (sorties / entrée de zones sans géolocalisation précise et personnes rencontrées si c'est accepté par l'utilisateur) à ces données via un transfert local (WiFi local, Bluetooth, câble USB...). L'intérêt est de respecter la confidentialité des données privées. La solution devrait être auditée par des organisations indépendantes et légitimes ainsi que par la CNIL pour s'assurer qu'aucune donnée ne soit transmise à distance et de la sécurité de la solution.
Les données pourraient être automatiquement supprimées au bout d'une vingtaine de jours (durée où l'on peut contaminer).
[Ajout du 13/4/2020] Pour permettre le retro-tracking ou "Contact Tracing" des personnes rencontrées, Yann Le Cun postait un exemple de traçage de contact respectant la vie privée accessible en open-source sur GitHub. Le principe est intéressant car il consiste à ce que lors d'un contact entre deux équipements Bluetooth, ceux-ci se transmettent un message aléatoire (clé). Si une personne a le Covid-19, cette clé est diffusée à l'ensemble des téléphones et si cette clé est trouvée sur une autre téléphone, cela signifie que la personne a été en contact avec elle et peut être prévenue.
Comme indiqué, plus haut, le souci est que l'information Bluetooth est beaucoup trop parcellaire pour être utilisable. D'autre part, elle implique de transmettre à un très grand nombre d'individus une information précise de contact.
On peut néanmoins associer une géolocalisation précise tout en préservant la confidentialité des données. Comme dit, précédemment, l'application de géolocalisation ne transmettrait aucune donnée dans le cloud. Les informations de géolocalisation seraient enregistrées dans le téléphone sous forme de poupées russes, des clusters avec des mailles de temps et d'espace larges au début et de plus en plus fins. Seuls les déplacements en dehors de l'espace confiné serait enregistrés. Ces informations seraient hashées puis cryptées avec deux niveaux de clés, des clés publiques et des clés appartenant à l'utilisateur qui pourraient être associées à la taille de la maille. Par exemple, une personne située aux à 2 m de la station de métro Invalides le 13/4 à 12h32, serait codé par exemple par 5 niveaux de précisions (peut-être beaucoup plus si nécessaire).
Le premier pourrait être Paris, le 13/4 qui serait hashé avec une clé publique puis une clé appartenant à l'utilisateur. avec un hash SHA-256.
Les données hashées seraient par exemple : 48.866667,2.333333,1,13/4/2020 : ce qui correspond aux coordonnées du centre de Paris (Parvis de Notre Dame), niveau 1 de la maille, et la date et un . L'heure par défaut utilisée seraient l'heure locale de la position. Avec un 1er hashage en base 64 cela ferait 1488mYuSfpNxmfHat/qwX3FuVdCMSJRCTFtlUBXfQQs= . Il est possible de réaliser une opération de salage en plus pour augmenter la sécurité mais il faut utiliser un code unique quelque soit les applis afin de réaliser le matching.
Ensuite on appliquerait deux cryptages, un premier avec une clé commune donnée par un organisme central . On peut utiliser la clé secrète : Coronavirus Covid-19 DC08!er(uxa (32 caractères) ce qui donne crypté : 2Fkcuq7WQazBkw6pH20/rf61PeAXiHDJ2P7+wjaQUp22lrMNQpxU0u+b3rVCrbP8 puis on la cryperait avec la clé privée du patient par exemple Mourir peut attendre 2020JMB!mpo (Il est préférable que ces clés soient générées aléatoirement !) ce qui donnerait
pZYkkHOJLWH5dxIi5WszLNhaQrGozHqOuo0ossbSLEr9o+RUZxJziOH6OZ2gGX7YYOrIvcM1mVRQfurYpTtWgbE8fF2YRJYHJj4YZpc5zzo=
On réaliserait la même opération avec des mailles plus petites, par exemple 10 km autour du point / par 6h - 2 km / par 2h - 100 m / 30mn - 5 m / 1 mn.
Si une personne est touchée par la Covid-19, elle aurait la possibilité de transmettre un fichier avec l'ensemble de ces clusters de position/temps hashées et cryptées (en poupées russes) (WiFi, Bluetooth, clé usb) en décryptant avec sa clé secrète. Les données de position transmises seraient toujours hashées et cryptées avec la clé commun et ensuite transmise à une plateforme. Aucune donnée personnelle ne serait transmise, le hash des données de geolocalisation empêche d'identifier les points où la personne est localisée. seuls des hashs de position cryptéées deux fosi
On peut aussi imaginer des bornes dans des hôpitaux. Pour éviter de lever l'anonymat, cela peut s'effectuer à distance sans toucher la borne, juste par une manipulation sur l'appli du téléphone.
Avec l'ensemble des remontées, On aurait ainsi une base de données qui agrégeraient les clusters cryptées et hashés des différents patients ayant le Covid-19. En revanche, sans la clé de l'utilisateur
Ensuite, on enverrait à tous les smartphones ayant l'application les hashs cryptés avec la clé commune de 1er niveau. Si le hash crypté du smartphone de la personne a le même code, on lui envoie le 2ème niveau ... Si le dernier niveau est atteint, on peut signaler à la personne qu'elle a été en contact récemment avec une personne ayant le Covid-19 sans lui préciser où et quand et de contacter un hôpital. Aucune personne ne serait à même de savoir où les personnes ont été en contact en raison du hashage des données de géolocalisation.
L'intérêt de cette solution est de permettre de retracer les contacts de manière précise sans jamais exposer les données de géolocalisation (grâce au hashage, cryptage et aussi en limitant la transmission des clusters position / temps hashés et cryptés aux malades volontaires).
Néanmoins, cette solution est loin d'être parfaite.Si on se fonde uniquement sur la géolocalisation GPS, elle ne permet pas de tracer les contacts en "indoor" , les lieux couverts, les magasins, les métros, les immeubles ... à moins d'y associer d'autres techniques de géolocalisation fondées sur la captation de réseaux WiFi ou sur les antennes 3G/4G (mais moins précis). Il faut accepter d'être géolocalisé par GPS (et l'activer) ce qui peut être un frein à l'adoption pour beaucoup de personnes même si les informations ne sont pas transmises à une plateforme. Comme pour StopCovid, il faut être équipé d'un smartphone allumé avec une application installée pour que ça fonctionne, ce qui limite la couverture.
La meilleure façon de savoir si l'appli StopCovid fonctionne ou une autre est de la tester rapidement, certaines idées décrites ci-dessus notamment sur la sauvegarde des données dans le smartphone et la transmission que pour les personnes infectées pourraient être appliquées pour l'appli StopCovid avec Bluetooth.
Des technologies comme des tags NFC ( < 0,2 cent par tag) pourraient être aussi utilisées pour confirmer qu'une personne est bien allée à un endroit précis en revanche (à l'image du paiement sans contact), en revanche cela ne donne aucune indication sur le chemin qui été suivi ...
D'autre part, les mesures qui permettront le déconfinement progressif sont en premier lieu, les tests, les masques et gel hydroalcooliques et la quarantine rapide des personnes contaminées.
Le traçage d'un contact entre deux personnes quel que soit la technique n'a de sens que si la probabilité que ce ce contact entraîne une contamination soit significatif sur le plan statistique.
Si on établit qu'il y a un contact entre deux personnes et que la probabilité qu'il y a ait une transmission entre les deux est de 0,1%. Cela fera beaucoup de faux positifs. C'est la raison pour laquelle a priori seuls les contacts de durée longue ( par exemple 5 mn) et proches moins de 2mn pourraient être pris en compte.
Inversement, si le traçage ne détecte que 0,1% des contaminations réelles, cela fait beaucoup de faux négatifs. Aujourd'hui (17/4/2020), on ne sait pas quelle est la proportion de personnes contaminées directement par des postillons ... et celle contaminées par un contact avec un objet (ex: une barre dans un métro). Si une grande proportion de personnes sont contaminées par des objets, idéalement il faudrait non seulement tracer les contacts directs mais aussi les contacts indirects (lieux visités dans les heures de manière postérieure à une personne contaminée). Cela fait des combinaisons de cas extrêmement élevés avec un nombre de faux négatifs massifs.
Il est donc essentiel d'avoir une idée grosso modo si le traçage permet d'établir au moins un minimum de vrais positifs. Si le taux de faux positifs ET le taux de faux négatifs est extrêmement élevé, les efforts d'un déploiement total sur la France, l'Europe semble peu utiles.
Le traçage de contacts sera le plus pertinent pour les personnes rencontrant peu de personnes. Le traçage de personnes allant dans des transports en communs à Paris par exemple me semble extrêmement compliqué à réaliser vu la combinatoire de personnes rencontrées lors d'un trajet par exemple en métro ou bus.
Pour le savoir, il faut tester l'application à petite échelle... tout en évitant de propager le virus ... (ce qui complique l'évaluation de ces taux). L'approche actuelle est en phase avec cela car les responsables politiques précisent que c'est une solution qu'ils explorent tout en ayant conscience des limites potentielles de cette solution.
Pour terminer, il est tout-à-fait possible de concilier des solutions pour déconfiner progressivement sans attenter aux libertés de chacun, il faut partir du problème plutôt que de la solution, faire preuve d'un peu de créativité, de faire appel au terrain et au bon sens et de ne pas croire que le miracle de la technologie est la solution à tous les maux sur Terre ! En revanche, la technologie servira dans de nombreux cas, il faut juste bien évaluer là où elle est pertinente et là où elle ne l'est pas. Une démarche test and learn avec des mesures avant/après en utilisant et sans utiliser la solution permet de se faire une bonne idée avant de la déployer massivement est une bonne approche.
Enfin, il est essentiel qu'en tant que citoyen, nous apportions de l'eau au moulin, des idées, des contre-arguments, des débats pour faire avancer ce sujet qui nous concerne tous.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain et Économie circulaire / RSE) - Contact
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Ce 3ème article sur les innovations à ChangeNow est consacré à l'énergie après un 1er article sur quelques paradoxes écologiques et sur comment produire de manière écoresponsable et un 2ème sur l'économie circulaire (la logistique, l'usage, la gestion des déchets (tri,déchets sauvages, recyclage, upcycling, compostage).
Notre consommation d'énergie est directement corrélée au PIB, production. Plus le PIB augmente, plus notre consommation d'énergie augmente. Comme aujourd'hui notre consommation d'énergie est le principal vecteur d'émissions de CO2, on peut dire que la croissance de notre PIB entraîne la croissance des émissions de Gaz à Effets de Serre ce qui accroît le réchauffement climatique...
Donc pour réduire notre impact, il faudrait ... Réduire notre croissance, non ? C'est un sujet tabou car notre société industrielle est fondée sur la croissance alors on essaie de trouver des solutions pour découpler croissance du PIB et croissance des émissions de GES mais actuellement personne n'a réussi ! Nous verrons ce qui l'en est ici ...
Les 3 autres articles sur les innovations durables sont : la Production écoresponsable, l'Economie circulaire et la Mobilité, santé, inclusion, finance durable et indicateurs RSE/ESG.
Sommaire (Lien direct vers les parties d'articles)
Eau, innovations pour réduire son gaspillage
Biodiversité, souvent oubliée mais indispensable
Les innovations sont principalement incrémentales dans l'énergie en permettant d'augmenter l'efficacité énergétique. De nouvelles technologies ont aussi pour ambition de mieux tirer parti de l'énergie hydraulique en particulier du mouvement des vagues.
Il y a 5 sources d'énergies renouvelables : l'énergie solaire, l'énergie éolienne, l'énergie hydraulique, la géothermie et la biomasse.
Les trois premières génèrent principalement de l'électricité et les deux dernières du chauffage (en particulier le bois pour la biomasse).
L'AIE (Agence internationale de l'énergie) estime qu'avec les installations existantes fin 2018, l'énergie solaire représente 2,6 % de l'électricité produite dans le Monde (soit 585 TWh).
Pour se donner une idée du chemin à faire pour basculer totalement vers les énergies renouvelables, elle estime qu'elle pourra atteindre au plus 16 % en 2050. L'énergie éolienne représente elle 4,7 % en 2018.
Lambda Energy travaille sur un filtre réalisé en nanoparticules qui transforme les longueurs d'onde bleu et vert en rouge, ce qui augmenterait de 5 points le rendement photovoltaïque (rapport entre la production produite et la puissance du rayonnement (aujourd'hui limitée à 25 %) captée par les panneaux solaires.
Ils sont déjà parvenus à augmenter de 2 à 4 % avec leur prototype et utiliseraient des principes analogues aux quantum dots utilisés pour les TV...
Innoventum développe des solutions hybrides solaires et éoliennes avec un design qui s'intègre facilement dans un paysage ou une zone urbaine. Il commence à y avoir une levée de boucliers parfois justifiée contre les éoliennes, pour leur bruit, leur impact sur les oiseaux et chauves-souris et parce qu'elles peuvent défigurer le paysage.
La récente position d'Elisabeth Borne, ministre de la transition écologique et solidaire a d'ailleurs dénoncé leur développement anarchique.
Le design et l'intégration des moyens de production d'énergies renouvelables sont donc un enjeu essentiel si on souhaite une adhésion des riverains à leur implantation. Cela rappelle notamment l'éco-design qui a été utilisé par les sociétés télécoms pour cacher leurs antennes BTS (2G,3G,4G).
Enfin, Offgrid propose une solution deux-en une destinée aux pays en voie de développement. Elle utilise l'énergie solaire pour distribuer de l'électricité et rendre l'eau potable (par filtration) dans des lieux éloignés.
Cette solution est aussi particulièrement utile en cas de catastrophe naturelle.
Les barrages hydrauliques représentent la très grande majorité de l'énergie hydraulique produite (10 % de l'électricité produite en France, près de 17 % dans le Monde). L'utilisation des vagues et des marées est un autre moyen de produire de l'énergie, mais plus difficile à transformer en électricité.
Leur énergie cinétique peut être captée en exploitant les courants de marée, qui peuvent être captés par des turbines, ou hydroliennes ainsi que leur énergie potentielle en exploitant les variations du niveau de la mer.
Cette dernière technique est utilisée dans les usines marémotrices comme la fameuse usine de la Rance mise en service en 1966, restée 45 ans, la plus grande usine marémotrice au monde avec une capacité de 240 MW.
Par comparaison, la majorité des centrales nucléaires françaises ont une capacité de production de 900 MW (les 4 plus puissantes ont une capacité de 1400 MW), les parcs éoliens de Fruges, le plus grand parc éolien en France avec ses 70 éoliennes a une capacité totale de 140 MW, le 1er parc solaire français Helio Boulouparis en Nouvelle-Calédonie a récemment mis en service une seconde tranche portant sa capacité à 30 MW avec 101 200 panneaux solaires sur environ 40 hectares )
Les sites adaptés au captage de l'énergie marémotrice sont peu nombreux et nécessitent des aménagements importants qui modifient notablement les équilibres écologiques dans des zones généralement fragiles. La Grande-Bretagne a aussi créé une centrale marémotrice utilisant les courants sous-marins.
SinnPower utilise le mouvement des vagues pour produire son électricité avec un système de flotteur.
EEL Energy offre une solution permettant de produire de l'électricité grâce à une hydrolienne biomimétique ondulant comme un poisson dans l'eau. L'intérêt de cette dernière solution est d'augmenter les zones accessibles à leur solution par rapport aux turbines.
Même si c'est enthousiasmant de voir de nouvelles solutions qui permettraient de produire de l'énergie renouvelable, ces dispositifs restent encore à l'état de prototype, leur déploiement de manière industrielle semble encore lointain et l'énergie produite et encore trop faible il a un coût trop élevé pour faire concurrence aux autres énergies renouvelables.
Néanmoins, il est toujours judicieux de poursuivre ces travaux, car ces solutions peuvent être tout à fait complémentaires à d'autres solutions dans certaines zones locales en particulier pour les îles.
La biomasse est source d'énergie renouvelable si la production de biomasse est supérieure ou égale à sa consommation. En France, elle représente plus de 40 % des énergies renouvelables. Via des techniques de combustion, la gazéification, la pyrolyse ou encore la méthanisation, elle peut produire de la chaleur et plus globalement de l'énergie. Le problème est que sa consommation produit du CO2.
Certes l'impact global pourra être nul ou négatif si les forêts captant le CO2 sont utilisées pour produire de l'énergie. Néanmoins, ce serait une supercherie que de transformer des forêts compensant les émissions de carbone en biomasse en disant que nous produisons de l'énergie renouvelable ! Soit on compense le carbone émis, soit on produit de l'énergie à partir de biomasse pas les 2 !
Accroître fortement l'utilisation des énergies renouvelables est loin d'être une solution simple et sans impact écologique.
Etant des énergies intermittentes, les panneaux photovoltaïques et les éoliennes nécessitent des batteries (Li-Ion généralement) pour conserver l'énergie lorsque la production instantanée dépasse la consommation instantanée.
Or ces batteries nécessitent certaines « terres rares », dont le lithium et le cobalt extraits de mines qui peuvent être extrêmement polluantes.
S'ajoute un autre problème pour les éoliennes. Elles réduisent la biodiversité en tuant un certain nombre d'oiseaux et chauves-souris (entre 0,3 et 18,3 selon la Ligue de Protection des Oiseaux principalement des passereaux cf. son étude).
Sur les 97 espèces retrouvées, 75 % sont officiellement protégées en France. L'implantation des éoliennes dans ou à proximité des ZPS (Natura 2000) génère la plus grande mortalité.
La mortalité directe due aux éoliennes est au moins deux fois plus importante dans les parcs situés à moins de 1 km des Zones de Protection Spéciale (zones Natura 2000 au titre de la Directive Oiseaux) et elle y affecte bien plus qu'ailleurs les espèces patrimoniales.
La biomasse venant de forêts renouvelées produit de l'énergie renouvelable mais aussi réduit la qualité de l'air car elle émet plus d'oxydes d'azote que les combustibles comme le gaz naturel et le fioul. (cf. les conseils de l'ADEME pour réduire les NOx émis par les chaudières à biomasse)
D'autre part, il faut s'assurer que les terres utilisées pour la biomasse ne réduisent pas aussi la biodiversité
L'énergie hydraulique via ses barrages et ses turbines marémotrices mettent en péril la faune et la flore des rivières et des océans.
Selon la WWF, sur 21.387 centrales hydrauliques, près de 30% de ces centrales se trouvent dans des zones protégées, principalement dans des parcs nationaux et des sites naturels.
8.785 infrastructures supplémentaires sont prévues ou en construction qui menacent la biodiversité alors qu'elles produisent peu d'énergie (modifie le débit naturel d'un fleuve, bloquent les voies de migration des poissons, affectent la survie des espèces vulnérables et piègent les sédiments qui protègent les rives face aux inondations.).
L'activité bactériologique dans l'eau des barrages, surtout en régions tropicales, relâcherait aussi d'importantes quantités de méthane (gaz ayant un effet de serre 20 fois plus puissant que le CO2 ).
L'énergie nucléaire émet très peu de gaz à effet de serre (lié à la construction et exploitation de centrales et émet autant que les éoliennes). Elle n'est pas une énergie renouvelable car elle utilise l'uranium enrichi, ressource naturelle, même si les réserves actuelles suffisent pour au minimum une centaine d'année. Il rejette surtout des déchets radioactifs qu'on ne peut éliminer.
Leur retraitement à la Hague nécessite leur vitrification pour un entreposage en surface et ou leur stockage en couche géologique profonde. Les déchets radioactifs (comme Technétium 99 - article) ont des demi-vies de 200 à 300 000 ans, d'autres comme le Césium 235 a une demi-vie de quelques millions d'années. Leur radiotoxicité diminue avec le temps.
L'EPR (3e génération) recycle partiellement les déchets radioactifs et fournirait 22 % de plus d'électricité qu'un réacteur traditionnel à partir de la même quantité de combustible nucléaire et réduirait d'environ 15 à 30 % le volume de déchets radioactifs générés grâce à une fission plus complète de l'uranium, néanmoins leur construction est d'une bien plus grande complexité que les centrales de 2ème génération.
L'EPR de Flamanville qui a accumulé les déboires coûterait 12,4 Md € contre un coût initial estimé en 2006 à 3,3 Md € avec un retard de 10 ans (mise en service en 2022 au lieu de 2012). La construction de deux EPR jumeaux permettrait selon EDF de réduire le coût unitaire à 7,5 Md € pour les prochains EPR. En Chine, la construction de deux EPR s'est faite pour environ 12 milliards d'euros. Cela ne tient pas compte du coût de déconstruction...
Le réacteur à neutrons rapides (dont SuperPhénix était un prototype qui est en cours de démantèlement) permet de recycler aussi les déchets radioactifs néanmoins ils posent d'autres problèmes techniques et ne serait pas rentable par rapport à l'utilisation d'uranium enrichi.
Reste la fusion nucléaire qui pour le coup ne produit aucun déchet radioactif et ne commencera peut-être à être opérationnel d'ici 20/30 ans.
Le projet ITER qui permet de tester cette technologie n'a pas vocation à produire de l'énergie et émettrait son premier plasma en deutérium-tritium en 2035. Comme ce projet est financé par l’Union Européenne, la Chine, l’Inde, le Japon, la Corée, la Russie et les États-Unis notamment, il n’est pas sûr que compte tenu des tensions géopolitiques, le projet ne manque pas de financement d’ici les 20 prochaines années...
Pour l'électricité, Il est aussi nécessaire son coût de production reste compétitif avec les autres sources d'énergie. Selon la Cour des comptes, pour le nucléaire, il serait de 6 cents € /KWH (en 2013) qui augmente en raison des coûts de maintenance.
Les coûts seraient aussi supérieurs pour les centrales nouvelle génération (> 6 centimes € juste pour le coût de construction pour la centrale nucléaire EPR (GEN. 3) de Flamanville p26 ).
Pour l'éolien, il serait au minimum d'environ de 5,7 cent / kWh et 7,4 cent/kWh pour le solaire professionnel au sol à plus de 17 centimes pour le solaire résidentiel (ADEME).
Il faut certes développer les énergies renouvelables mais croire qu'elles seront capables de répondre à nos besoins énergétiques actuels est une gageure car elles n'en souvent pas la capacité et auraient à grande échelle aussi des conséquences dramatiques sur notre planète (en particulier réduction de la biodiversité).
Le nucléaire pose des cas de conscience terribles entre une énergie produisant des déchets radioactifs, présentent des risques pour les populations à court terme et à long terme mais c'est une énergie que les énergies renouvelables ne peuvent aujourd'hui remplacer totalement en l'état.
Si l'arrêt de centrales nucléaires semble donc hasardeux comme nous le voyons en Allemagne dont l'électricité émet beaucoup plus de GES (312 g eq CO2/kWh et la part des énergies renouvelables peut passer de 75% à 15% de sa production énergétique en fonction de la météo compensée par des centrales thermiques) que la France (versus environ 50 g pour la France), la construction de nouvelles centrales semble aussi très hasardeux. Il faudrait immobiliser des capitaux très importants sur des projets à 20 ans minimum alors que ces mêmes sommes pourraient être utilisées de manière beaucoup plus agiles.
La principale solution qui tient la route est la très forte réduction de consommation d'énergie. J'en parle plus loin dans cet article.
Aujourd'hui, seule la terrible pandémie de coronavirus Covid-19 a eu un impact significatif et mondial sur la consommation d'énergie mais au prix de décès de milliers de personnes, d'un arrêt massif de l'activité et de déplacements. Cette baisse de consommation réduit la pollution de manière significative en particulier en Chine très consommatrice de charbon.
D'autre part, il faut espérer que cette pandémie ne dure pas et que sa fin ne provoque une forte reprise de la consommation d'énergie et l'émission de nouveau massif de GES ...
La 2ème solution est d'augmenter notre capacité à piloter le mix énergétique localement en utilisant le moins d'énergie émettrices de CO2.
Concrètement, cela signifie être capable en cas de pic de consommation dans un secteur géographique de puiser dans des batteries à proximité, potentiellement de faire de l'effacement énergétique (réduire la consommation par exemple d'industries ou de chauffage pour l'effacement diffus) pour utiliser au minimum des centrales thermiques ou d'importer de l'électricité.
Très restrictive au début, ses règles s'assouplissent depuis un arrêté de novembre 2019 qui permet à deux sites d'y participer à condition de ne pas être situé à une distance de plus de deux kilomètres et que la puissance totale de ce type d'installation ne dépasse pas les 3 mégawatts. Ils utilisent le réseau électrique usuel donc il est inutile de construire une infrastructure parallèle.
La 3ème solution est de développer les énergies renouvelables à condition qu'elles permettent de remplacer l'utilisation de centrales thermiques. Ce n'est pas évident compte tenu de leur intermittence et que le stockage par batterie n'a de sens que localement.
L'auto-consommation collective (partager l'énergie produite avec ses voisins non producteurs) devrait aussi être développée d'autant que cela permet de rendre des quartiers et des communes résilientes en cas de panne électrique.
Comme le prix de l'électricité est très bas (13 c/kWh comparativement à l'Allemagne à 30 c/kWh), elle se développe très peu (50.000 autoconsommateurs dans l'Hexagone, contre un million et demi en Allemagne).
Le surplus de consommation peut être revendu au prix du marché (en France environ 1 cent € jusqu'à 5 cent € en cas de pic en hiver) ou donné à titre gratuit à Enedis (utile quand il arrive que l'électricité ait un prix négatif ;) ex: ci-contre sur base des prix Spot RTE )
En revanche, il n'y a pas de prix de rachat comme pour l'autoconsommation individuelle (pour <= 3 kWc 10 cent en auto-consommation, 18 cent si revente totale) . Il serait sans doute judicieux de donner aussi un coup de pouce au prix de revente pour l'auto-consommation collective.
Dans le monde, la production mondiale d'énergie primaire est d'environ 13 790 millions de TEP (2015). La part des énergies renouvelables dans la consommation finale mondiale d'énergie est estimée en 2017 à 18,1 %, dont 7,5 % de biomasse traditionnelle (bois, déchets agricoles, etc.) et 10,6 % d'énergies renouvelables « modernes » : 4,2 % de chaleur produite par les énergies renouvelables thermiques (biomasse, géothermie, solaire), 3,6 % d'hydroélectricité, 2 % pour les autres renouvelables électriques (éolien, solaire, géothermie, biomasse, biogaz) et 1 % pour les biocarburants; leur part dans la production d'électricité était estimée en 2018 à 26,2 %.
La consommation d'énergie finale en France de pétrole en 2017 est de 140,1 MTEP (tonnes équivalent pétrole), dont 24 % de l'électricité.
Les énergies renouvelables représentent environ 14 %. La biomasse-déchets représente 9,7 % principalement liée à la combustion de bois (environ 9 Mtep dont plus de 70 % en bois « domestique »). Le nucléaire représente 17 % de la production d'énergie, hydraulique 2,4 %, éolien 1,1 %, solaire 0,4 %.
Il y a de plus en plus de distributeurs qui proposent d'acheter de l'énergie verte (qui comprend aussi le biogaz, la co-génération) auprès de distributeurs énergétiques. Il est impossible de savoir si l'électricité que vous consommez provient d'une source renouvelable ou pas (ce sont des électrons !)
Néanmoins dans de nombreux cas, des distributeurs ne vendent pas de l'énergie dite verte (cf. liste de Greenpeace qui note les fournisseurs français).
D'une part, ils achètent de l'énergie carbonée ou d'origine nucléaire et d'autre part ils achètent des garanties d'origine à des producteurs d'énergie verte.
A chaque MW d'énergie verte produite est associée une garantie d'origine pour un MW. Le producteur d'énergie verte peut revendre son énergie verte à un distributeur (mais sans la garantie) et d'autre part, il peut vendre sa garantie d'origine à un autre distributeur qui en réalité n'achète pas d'énergie verte. Un client final qui achèterait de l'énergie de ce distributeur, n'utilise pas d'énergie verte mais sait que quelque part une quantité d'énergie verte a été produite !
Comme le précise le rapport de Carbone 4, en France seul 1 % des garanties d'origine émises en 2017 correspondent à des installations postérieures à 2015 (principalement hydrauliques). C'est dû notamment au fait que la législation française empêche de cumuler des aides publiques (comme les tarifs de rachat) et des garanties d'origine.
Elecocité offre aussi de l'électricité verte (l'évaluation n'a pas encore été faite par GreenPeace) et propose qu'une partie de vos consommations financent un projet d'énergies renouvelables (comme EEL Energy)
Pour faciliter l'accès des populations dans les pays en voie de développement à l'énergie, de plus en plus de distributeurs proposent un accès à l'énergie « pay-as-use », Oorja propose ainsi d'y déployer l'usage de panneaux photovoltaïques et de vendre à l'usage l'énergie produite.
Une problématique majeure des énergies renouvelables est leur intermittence de production qui nécessite un stockage spécifique. Il existe de nombreuses manières de stocker l'énergie : mécanique comme les barrages hydroélectriques, électrochimique (piles, batteries, vecteur hydrogène), électromagnétique (bobines supraconductrices), thermique (chaleur latente ou sensible).
L'enjeu est de parvenir à réduire au maximum les pertes entre production et consommation de l'énergie notamment en réduisant les intermédiaires. Le solaire thermique qui chauffe l'eau est beaucoup plus efficace qu'un panneau photovoltaïque qui transforme les rayons du soleil en électricité qui elle-même chaufferait l'eau.
Cette solution nommé aussi pompage-turbinage utilise l'électricité pour remonter l'eau lorsqu'elle est peu chère (et donc la demande est faible) et la relâcher en actionnant les turbines de la centrale hydraulique lorsqu'elle est beaucoup plus chère. Elle est source de fortes rentrées financières pour la Suisse mais aussi pour EDF qui a sept STEP en service soit 10 % de la capacité hydroélectrique française (5e pays en puissance installée après la Chine, le Japon, les Etats-Unis et l'Italie).
En effet, lorsque la production d'électricité est excédentaire son prix peut devenir négatif, on gagne de l'argent à tous les coups en pompant l'eau vers le réservoir du haut et quand on ouvre les vannes ...
Cela pose néanmoins des problèmes sur la biodiversité car il y a des fortes variations du niveau de l'eau en aval.
En raison de l'omniprésence de l'électricité, le stockage électrochimique est la solution la plus pratique comme l'a montré le développement des batteries rechargeables lithium-ion.
Elles posent néanmoins des problèmes car il faut exploiter des mines de lithium et de cobalt qui peuvent être très polluantes. D'autre part le recyclage des batteries Li-Ion reste encore trop faible. La réglementation européenne (Directive 2006/66/CE ) n'oblige qu'à recycler ces batteries à 50 % de leur poids contre 90 % pour les batteries au plomb.
L'autre solution sont les batteries à hydrogène (fuel cells ou piles à combustibles). Elles ne rejettent que de la vapeur d'eau et sont produites à partir d'une ressource quasi-inépuisable l'eau.
La transformation de dihydrogène en énergie cinétique (du réservoir à la roue) est supérieure à l'essence (45 % versus 20 %).
Sa production pose des problèmes de rendement et écologique. Elles peuvent être produites par électrolyse de l'eau qui a un rendement faible comparé à l'essence (20 % versus 80 à 90 % pour l'essence du puits au réservoir), par thermolyse mais aussi à partir d'hydrocarbures ce qui émet fortement du CO2 (séparation du carbone et de l'hydrogène et production de CO et de CO2 en parallèle du dihydrogène). Cette dernière solution bien qu'absurde sur le plan écologique est la plus couramment utilisée...
Aujourd'hui, les piles combustibles utilisent principalement du platine, très cher et rare qui aurait vocation à être remplacé par la palladium moins rare.
EH Group Engineering présentait ainsi sa pile à combustible.
Au-delà des problèmes d'efficacité énergétique, l'une des raisons qui empêche l'utilisation massive d'hydrogène est la nécessité de créer des infrastructures spécifiques en parallèle des infrastructures existantes (stations-services et recharge électrique) sans compter les bisbilles entre opérateurs (ex : fermeture du réseau Corri-Door de 189 bornes en France en raison de des dissensions entre Izivia et EVBox).
La France a mis en oeuvre une stratégie Bas Carbone (cf. article) en investissant 6,7 Md€ en 2016 et 9Md€ en 2017 (dont 3,7 Md€ pour aider à l'implantation d'éoliennes et de panneaux photovoltaïques en 2016 et 5,7 Md€ en 2017), l'impact a été ... d'augmenter les émissions de gaz à effets de serre (GES) ... et l'objectif d'ici 2028 est de stabiliser les émissions de CO2 !
C'est assez logique car 75 % de l'électricité provient du nucléaire. Bien que loin d'être parfait avec ses déchets et risques (cf. plus haut), il produit autant d'émissions de CO2 que les éoliennes. Comme les éoliennes et l'énergie solaire sont des énergies intermittentes, elles nécessitent des moyens de productions complémentaires en particulier le gaz qui augmentent les émissions de CO2 !
C'est ballot, ils se sont trompés sur le nom de la stratégie ! L'objectif de cette stratégie bas carbone n'est pas de réduire les émissions de carbone de la France mais d'investir dans les énergies renouvelables. Il aurait été préférable que le nom de la stratégie corresponde à la réalité. On évite de faire prendre des vessies pour des lanternes !
D'autre part, on aurait lancé en parallèle une vraie stratégie bas carbone. Quand on lit la stratégie proposée par le gouvernement, elle semble limpide et pertinente, malheureusement le Conseil général de l'environnement et du développement durable (CGEDD) a constaté que nous ne sommes pas du tout en ligne avec les objectifs.
Nous voulions réduire les émissions de CO2 des secteurs les plus émissifs et nous les avons augmentés (cf. article) : dans les transports (plus 6 % par rapport à l'objectif avec 136 MTeCO2); le bâtiment : la construction, l'entretien et le chauffage (plus 11 % avec 88 MTeCO2), l'agriculture (plus 3 % avec 90 MTeCO2 dus pour l'essentiel aux oxydes d'azote des engrais et au méthane émis par le bétail)...
L'industrie en revanche est presque en ligne avec les objectifs, à 1 % près après avoir diminué de 45 % ses émissions depuis 1990. Nous devons poursuivre nos efforts pour réduire notre consommation énergétique tout en dissuadant les surconsommations.
Il faut néanmoins se méfier des fausses bonnes idées. Remplacer un véhicule diesel de moins de 5 ans par un véhicule électrique neuf consomme émet beaucoup plus de CO2. C'est encore pire si vous achetez votre électricité en Allemagne. C'était la raison pour laquelle j'avais proposé que la prime de conversion devienne une prime de covoiturage où le nouveau véhicule bénéficiant de la prime doive obligatoirement réaliser du covoiturage. (cf. article).
La production d'énergie ne représente que 11 % des émissions de gaz à effet de serre en France, en raison d'un mix de production électrique dominé par le nucléaire et l'hydraulique.
Pour être honnête, la loi énergie et le plan de rénovation énergétique des bâtiments devrait permettre de réduire la consommation énergétique et les émissions de CO2..
Ils ont pour objectif d'inciter les propriétaires de logements classés F ou G (7,5 millions de logements) au sens du diagnostic de performance énergétique (DPE) à réaliser les travaux d'isolation avec des aides pour les ménagers le plus modestes.
14 milliards d'euros de soutien public en investissement et en primes sur le quinquennat seront alloués à ce plan, complétés par plus de 5 milliards d'euros de certificats d'économie d'énergie directement utilisés pour financer des travaux de rénovation énergétique.
En 2018, la majorité des logements construits sont performant en terme de consommation d'énergie (avec une chute néanmoins très forte du nombre de constructions). Cela s'explique en grande partie par les réglementations successives (RT 2005 puis RT 2012) qui ont imposé des normes pour les nouvelles constructions. Quand on compare à 1996, le changement est assez important pour une période de plus de 20 ans.
Des dispositifs innovants de financement pourraient compléter ce plan, par exemple favoriser les investissements d'acteurs privés dans la rénovation énergétique en se finançant sur une part de la réduction de la facture de la consommation d'énergie.
Un logement de 75 m2 de classe F dépense environ 300€ par mois en électricité, Si nous souhaitons qu'il passe en classe C (90€ / mois). il faudrait isoler deux murs extérieurs (soit environ 42 m2 = 2*8,7 m * 2,4 m de hauteur sans tenir compte des fenêtres pour un appartement carré) pour un coût moyen de 160 € / m2 et deux murs intérieurs (42 m2) pour un coût moyen de 60 € / m2 . Le coût total de l'isolation serait de 9240€.
Sans même tenir compte des primes de l'Etat (ex : 20€/M2 pour l'isolation des murs par l'intérieur pour les ménages aux revenus modestes), l'investisseur pourrait gagner un taux d'intérêt de 3,1 % par an sur 6 ans (net d'inflation de 1,5%) en réduisant la facture énergétique de l'occupant de 20% (soit 504 € par an = 20%*210*12 mois, l'investisseur gagnerait 12096 € au total soit un taux annuel brut de 4,6%). Au bout des 6 ans, l'occupant bénéficierait de la totalité de la baisse de facture.
Ecojoko
Pour réduire la consommation énergétique, la première étape consiste à se mesurer, il existe de nombreuses solutions dans le domaine du Smart Home. Ecojoko présente sa solution connectée pour connaître à tout moment sa consommation et les équipements qui consomment.
Il utilise l'IA pour distinguer les signatures électriques des différents équipements grâce à un capteur placé sur le disjoncteur.
Pour être capable de décomposer un signal global (par exemple le courant électrique mesuré à partir du capteur placé sur le disjoncteur) en multiples signaux distincts ( courant du réfrigérateur, de la télé, des appareils en veille), on utilise généralement des transformées de Fourier (on décompose une fonction en une multitude de fonctions sinusoïdales, ce qui la rend plus simple à manipuler). On fait l'opération inverse de l'animation ci-jointe en testant de nombreuses hypothèses ;)
L'IA est sans doute utilisé en combinaison avec les transformées afin d'évaluer ses coefficients et doit être associé avec une période d'apprentissage rapide et personnalisé au consommateur.
Le problème de ce type d'équipement est qu'on y fait attention les premiers mois puis on l'oublie. S'il n'est pas connecté avec le chauffage, les différents équipements de la maison pour gérer leur alimentation, son bénéfice s'amenuise rapidement. Les 25 % de réduction annoncé est dans la très grande majorité des cas très surestimée.
Un autre problème majeur du réchauffement climatique est la climatisation, qui consomme beaucoup d'énergie et émet du CO2 ce qui augmente le réchauffement climatique ...
Selon une étude de la revue Nature , le changement climatique devrait accroître la demande énergétique de 11 à 27 % en cas de réchauffement modéré et de 25 à 58 % en cas de réchauffement "fort", principalement due à la climatisation. Le taux d'équipement en climatiseurs devrait passer de 1,6 milliard d'unités aujourd'hui à 5,6 milliards en 2050 ce qui représente la consommation actuelle de la Chine en électricité !
Le schéma ci-contre présente le scenario RCP 8.5 du GIEC qui est souvent considéré comme le scénario "Business-as--usual", on ne fait pas de changement radicaux à nos modes de consommation (ce qui est actuellement malheureusement la tendance. La température augmenterait de 4.3°C d'ici 2100 versus le scénario RCP 2.6, qui semble inaccessible d'une augmentation de 1.8°C d'ici 2100.
Ubiblue
Ubiblue utilise une solution fondée sur l'effet magnétocalorique (changement de température d'un matériau magnétique soumis à un champ magnétique externe) alors que la plupart des solutions de climatisations sont fondées sur la compression de gaz réfrigérant. Sa solution permettrait de réduire de 50 % la consommation énergétique et élimine les émissions de hydrofluorocarbone, généralement utilisé.
Autre technique, Equium a créé un équipement qui transforme la chaleur (100 kW à 200°c) en froid (50kW à 5°c) grâce à une technologie fondée sur la thermoacoustique sans consommation électrique.
Il y a une technique plus simple pour réduire la température des bâtiments et moins utiliser les climatiseurs ... peindre les toits en blanc ce qui augmente leur albedo et donc leur pouvoir réfléchissant.
C'est qu'à fait notamment Los Angeles (cf. article). Cool Roof réalise une étude du toit pour vérifier la possibilité de peindre en blanc (les toits en PVC ne peuvent être peints) et crée une peinture spécifique (biosourcée, anti UV, anti-encrassement, anti-champignons).
Joulia propose lui une douche qui utilise la chaleur de l'eau évacuée pour réchauffer l'eau froide propre et réduit donc la consommation d'eau chaude.
De manière générale, les industriels vont petit à petit intégrer la dimension d'éco-conception afin de réduire la consommation énergétique. Le problème est que cela prend énormément de temps pour avoir un impact massif.
Aeroshield a trouvé une solution pour isoler les fenêtres avec une efficacité 50 % supérieure aux fenêtres à double vitrage en remplaçant l'air par un aérogel. Il serait aussi plus léger et moins épais qu'un triple vitrage.
Saurea innove en créant un moteur photovoltaïque qui est capable de faire tourner une roue sans utiliser de balais (qui s'usent), sans électronique et sans aimants. La puissance est encore faible (s'il est associé avec d'autres panneaux, moteur allant jusqu'à 250 watts) mais il permet de servir de pompe à eau, turbine de ventilation ou brumisateur.
En cachant par un obturateur les cellules photovoltaïques au fur et à mesure, on crée un phénomène similaire à l'électro-aimant. Les cellules servent d'alimentation et pour la commutation des phases du moteur afin de créer l'énergie mécanique.
Greenspector est une solution permettant de mesurer et améliorer la consommation énergétique des applications et sites web services à l'attention des développeurs.
Plusieurs startups comme Climateseed ou Reforest'action montrent comment compenser Les émissions de CO2.
En général ce sont des plateformes qui financent des projets de développement d'énergies renouvelables, de reforestation avec une dimension souvent inclusive pour les populations locales.
Cela pose néanmoins un double problème, Tout d'abord, ça déresponsabilise les émetteurs de CO2, en transformant une externalité négative en responsabilité externe.
Cela permet de s'acheter une bonne conscience à moindre frais sans réaliser de changements internes pour réduire véritablement ses émissions.
Bien sûr, les projets peuvent avoir un impact positif notamment sur la diversité et être inclusif mais la compensation carbone, c'est comme une cerise sur le gâteau sans le gâteau !
En revanche, s'il y a une vraie stratégie de réduction des émissions avec des objectifs ambitieux, c'est la compensation carbone est un plus. Sans cette stratégie principale, la compensation carbone est du greenwashing.
Deuxième problème lié aux projets de reforestation, que j'aborde plus longuement ici est que les émissions de CO2 sont déjà réalisées et sont compensées qu'après la croissance complète des arbres.
Une fois qu'ils ont dépassé leur phase de croissance, ils ne consomment que marginalement du CO2. Pour absorber de nouveau du CO2, soit il faut couper les arbres et les utiliser pour des usages durables (construction de maisons par exemple), soit il faut trouver de nouvelles terres à replanter (ce qui peut aussi créer une concurrence de terres).
On peut même arriver à des situations absurdes où on ira planter du peuplier partout au détriment d'autres espèces car ce sera l'un des arbres qui captent le plus de CO2. Pourquoi ne pas imaginer des arbres génétiquement modifiés aussi comme le prévoit Joanne Chory qui a imaginé une plante capable d'absorber 20 fois plus de CO2 que les autres plantes ! En termes de biodiversité, ce n'est pas l'idéal... Et pourquoi ne pas d'abord réduire ses émissions avant de chercher à les compenser !
Evidemment si on utilise le bois comme biomasse pour générer de l'énergie, on perd tout le bénéfice des captations de CO2 !
Enfin comme l'a montré la perte de 90% des arbres plantés en Turquie (11 millions en 4 mois !), le manque de suivi des forêts replantées font perdre totalement l'intérêt de la reforestation.
Il existe aussi des solutions encore plus greenwashing : les REDD+ qui consiste à attribuer des crédits carbone si on préserve les forêts, on évite d'aggraver notre impact sur le climat (interdit sur le marché européen mais autorisé en Californie). Moins je détruis, plus j'ai des crédits.
Le comble de l'absurde avec les REDD+ est qu' il manque de solutions pour compenser les émissions de CO2 pour l'aviation, alors on crée de nouveaux REDD+. Pour augmenter leur nombre, il suffit d'augmenter le potentiel de destruction ! C'est du quantitive easing appliqué à la planète. A la différence de la monnaie, le potentiel de destruction n'est pas infini.
C'est vrai que pour ces financiers, le concept de « Fini » est quelque chose qui les dépasse complètement jusqu'au jour où ... ! (cf. aussi article de Carbone 4 sur la compensation des émissions de CO2 par l'aviation)
Il serait judicieux de revenir sur terre avec un peu de bon sens paysan. Il faudrait appliquer un fort facteur réducteur aux compensations CO2 attribuées aux actions de reforestation aujourd'hui (en les fondant sur des chiffres vérifiés sur le terrain) et ne pas intégrer les REDD+ évidemment. Il faut aussi éviter toute compensation qui accapare des terres utilisées pour d'autres usages naturels ou qui réduit la biodiversité.
Aujourd'hui seule une crise comme le coronavirus Covid-19 a obligé les Etats et les entreprises à réduire drastiquement les vols avec l'acceptation des citoyens. Néanmoins, à long terme, il semble peu probable que ceux-ci soient prêts à prolonger l'expérience de confinement après cette crise planétaire pour réduire leurs émissions de CO2.
Le meilleur moyen de réduire les émissions de CO2 sans avoir des mesures coercitives est le prix (en l'occurrence le prix de la tonne de CO2 (cf. article Carbone 4) L'explosion du trafic aérien est fortement liée à la baisse des prix, l'inverse devrait donc être exact.
Le problème est que cela deviendrait complètement inégalitaire puisque seules les personnes riches pourraient se payer les vacances aux 4 coins du monde alors qu'auparavant « tout le monde » y avait accès. Comme l'esprit humain a une très forte aversion à la perte, cela ne facilite pas les choses.
Il y a deux mesures qui pourraient être prises pour réduire fortement les émissions de CO2 en minimisant l'impact inégalitaire.
La première consiste à imposer aux produits ayant des alternatives écologiques une taxe carbone / une détaxe en fonction de leur impact environnemental.
L'Allemagne a ainsi décidé d'augmenter la fiscalité sur les billets de 74 % pour les court et moyen-courriers et de 41 % sur les longs courriers. En parallèle, ils ont baissé les taxes sur le secteur ferroviaire, assez peu développé outre-Rhin et bien moins émetteur de carbone en la passant de 19 % à 7 %.
Concrètement, cela représente une taxe de 13 euros sur les vols intérieurs et européens (14 € en GB), 33 euros pour les moyen-courriers et environ 60 euros (86€ en GB) pour les longs courriers. Élisabeth Borne a annoncé une écotaxe sur les billets d'avion mais beaucoup plus faible car plafonnée à 18 euros par billet. Une autre voie serait de taxer le kérosène qui en est exempté en raison de la convention internationale de Chicago sur l'aviation civile internationale que la France a ratifié en 1944 mais c'est très long à négocier !
Ces taxes suscitent évidemment une forte opposition des compagnies aériennes en particulier américaines qui les accusent de contrevenir au régime de compensation et de réduction de carbone pour l'aviation internationale (CORSIA). On voit que transformer des secteurs ne va pas se réaliser du jour au lendemain ...
Ces taxes pourraient s'appliquer à tous les secteurs. Des vêtements fabriqués en Asie subirait une taxe proportionnelle au CO2 pour les fabriquer et les transporter jusqu'à leur lieu de consommation. Inversement la recette de cette taxe servirait à réduire les prix des produits à faible impact environnemental (produits près du lieu de consommation en particulier).
Cela nécessiterait une traçabilité des différents composants qui n'est pas toujours évidente afin d'éviter des cas où le produit serait assemblé en France mais dont les composants proviendraient du monde entier.
L'avantage de cette solution est de favoriser aussi la production et l'emploi local. Par simplicité, on peut utiliser des canevas standards (pour calculer les émissions en fonction du mode de transport et de la distance sans connaître la consommation précise du bateau transporteur) pour calculer les impacts environnementaux. Nous pourrons affiner les modèles au fur à mesure.
Néanmoins, en raison de la libre circulation des marchandises en Europe, il sera sans doute difficile de la mettre en place sur la partie transport pour les produits européens.
Récemment Jeff Bezos a constitué un fonds de 10 milliards de dollars pour faire face au réchauffement climatique destiné à des scientifiques, ONG, activistes.
Une idée qui aurait beaucoup plus d'impact sur la planète serait justement qu'Amazon applique ce type de taxe / détaxe aux produits qu'ils vendent.
Les émissions de CO2 sont étroitement liées à la croissance au PIB et donc à la croissance de la consommation. Aujourd'hui, nous n'avons pas reçu malgré toutes les bonnes volontés à découpler les deux.
Pour réduire les émissions de CO2, il faut réduire la consommation et pour un grand nombre de produits et services, la consommation est élastique en fonction du prix. Plus vous
augmentez un prix, plus vous réduisez sa consommation (à quelques exceptions près comme les produits de première nécessité ou certains produits de luxe à faible élasticité). (Ci-contre le
compte CO2 mais qui a un principe différent car en payant vous investissez dans des
actions de réduction de CO2)
Cela pose d'ailleurs un énorme problème car notre société est fondée sur la croissance et pas sur une stagnation ou une réduction de la consommation. Pour être caricatural, vous aurez beaucoup plus de facilité à augmenter le salaire de quelqu'un de 10 % et les prix de 15 % que de baisser son salaire de 10 % et réduire les prix de 15 % alors qu'économiquement la 2ème option lui est nettement plus favorable.
Une idée serait que chaque foyer ait un compte personnel d'émissions de CO2 non transférable et non transformable en monnaie (afin de responsabiliser chacun et d'éviter les transferts abusifs). A chaque achat, nous paierions en euros et en émissions CO2. Si notre compte Carbone est à zéro, nous pouvons le recréditer avec un prix de la taxe carbone suffisamment élevé pour dissuader des émissions de CO2.
Voici quelques exemples, un ménage composé de 2,3 personnes consomme 17 tonnes équivalent CO2 (teq CO2) soit 7,4 teq CO2 par personne. Normalement l'objectif serait d'atteindre 2 tonnes par personne voire 1,7 teq CO2 selon Jean-Marc Jancovici pour atteindre un réchauffement climatique maximum de 2°C.
Imaginons que nous accordions un budget initial de 2 teq CO2/personne (multiplié par le nombre de personnes dans le foyer) et que chaque mois nous accordions un crédit supplémentaire de 0,2 teq CO2, nous nous rapprocherions du but. Nous pourrions d'ailleurs réduire au fur et à mesure réduire l'allocation mensuelle.
D'autre part, nous pourrions faire payer des crédits carbone additionnels par exemple 100€ / teq mais ce prix pourrait être croissant en fonction du nombre de crédits supplémentaires demandés par mois.
Pour un vol Paris-New York, il y a de nombreuses différences de calcul sur les émissions de CO2 : on peut tenir compte que des émissions liées uniquement au trajet ou intégrer aussi l'amont (ex : l'extraction du carburant, au raffinage et à son trajet du puits au réservoir de l'avion) et les autres effets liés à l'altitude comme les NOx (oxyde d'azote) et les traînées de condensation ( "lignes blanches").
Partons sur celui de la DGAC, qui calcule un A/R pour 1 teqCO2. Si vous achetez un billet A/R pour New-York, si votre compte présente un solde > 1 teq CO2, vous ne payez rien en plus en revanche s'il ne vous reste que 0,5 teq CO2, vous paierez en plus 50 € (0,5*100€).
Le solde initial, le crédit mensuel, le calcul des émissions de GES doivent bien sûr être ajustés pour tenir compte des impacts sociaux néanmoins mettre en place ce compte serait un signal très fort et un levier d'action pour modifier nos comportements.
Pour mettre en place ce compte Carbone, nous pourrions commencer par une phase test, où chaque foyer aurait un compte virtuel où il pourrait se familiariser avec. Durant cette phase test, aucune somme ne serait réellement perçue en revanche elle permettrait à chacun de visualiser son utilisation. Il faudrait aussi que de plus en plus d'industriels et d'entreprises de service réalisent un double affichage euros et émissions GES et puissent créer des solutions simples pour débiter ce compte. La voie législative serait utile pour inciter chacun à le faire.
On peut aussi imaginer que des actions solidaires ou pour la société civile comme le ramassage de déchets sauvages à titre individuel, des actions auprès des collectivités pour réduire les émissions GES permettent de recréditer ce compte Carbone.
Ce compte ne résout pas tout, car il ne tient pas compte des impacts négatifs ou positifs qu'on peut avoir sur la biodiversité, la pollution ... indépendamment du réchauffement climatique. Une idée pourrait être de créer des équivalences pour que ces actions soient intégrées dans ce compte. Soyons francs, on mélange des choux et des carottes mais si on veut avoir une vision globale de nos impacts, il vaut peut-être mieux cela plutôt que d'avoir une multitude d'indicateurs qui risque de perdre tout le monde.
Dans ce cas, nous pourrions modifier le terme de teq CO2 en monnaie "Planet", unité universelle qui représenterait l'impact négatif maximum de chaque individu mais aussi entreprise sur notre planète. En revanche, il est essentiel selon moi que ce compte en "Planets" ne puisse être transféré ou monétisable en euros...En revanche, on peut l'alimenter grâce à des euros ou des actions ayant des impacts forts sur notre planète.
Au niveau individuel, Oopla propose un petit kit permettant de réduire sa consommation d'eau, Hydrao a créé un pommeau de douche connecté qui change de couleur en fonction de sa consommation d'eau.
Le mode d'alimentation est astucieux puisqu'il utilise la pression de l'eau pour actionner une dynamo, source d'énergie pour modifier la couleur du pommeau et le connecter à son smartphone.
Je suis assez sceptique sur la réduction effective de consommation d'eau chez des particuliers. A moins de passer des plombes à réfléchir sous la douche, la durée d'une douche, en particulier un matin quand on va travailler, variera peu à cause de la couleur du pommeau de douche.
En revanche sur le plan collectif, cela pourrait avoir du sens si c'est associé avec une durée limitée d'eau chaude afin d'indiquer qu'il ne reste plus beaucoup de temps avant la fin de cette durée. Il y a d'autres solutions plus simples comme un timer sonore aussi ...
Pour collecter de l'eau, de nombreuses startups utilisent l'humidité de l'air pour la transformer en eau potable. Au CES Las Vegas, Watergen et Zero Mass Water présentaient leur solutions.
Pour cette dernière, elle n'a même pas besoin d'être accordée au réseau électrique car elle est alimentée par des panneaux solaires qui condensent l'eau de l'air.
Space Apes présentait son prototype à ChangeNow avec un autre principe. Ils utilisent un adbsorbant en silicone. Ils seraient capable d'extraire l'eau sous forme liquide en concentrant de rayons de soleil pour réchauffer les adsorbants et augmenter la pression interne ... A voir si cela est industrialisable, d'autre part l'eau ne semble pas vraiment potable ..
Pour éviter de gaspiller de l'eau ou de la traiter inutilement, on commence à voir des circuits courts permettant d'utiliser l'eau de pluie pour arroser les plantes et les pelouses. C'est plus compliqué à mettre en oeuvre car il faut un dispositif spécifique pour collecter l'eau et ensuite la raccorder au système d'arrosage. Il est impossible de créer un réseau parallèle à l'eau potable sauf si elle est locale ou qu'il y a des besoins massifs d'eau non traitée dans un large espace (ex : terrains agricoles).
My Water propose lui des fontaines à eau publics afin d'éviter l'achat de bouteilles en plastique.
De nombreuses startups présentaient aussi des solutions pour favoriser la biodiversité. Cela paraît moins urgent que le réchauffement climatique, malheureusement la chute de la biodiversité a un impact aussi important, voire supérieur, que les impacts négatifs du dérèglement climatique.
Cette chute favorise l'émergence de pandémies (le nombre d'épidémies a été multiplié par 10 en une centaine d'années) et de maladies comme le coronavirus Covid-19 en rapprochant les populations humaines et les animaux domestiques d'écosystèmes sauvages, en favorisant l'émergence de germes qui auront beaucoup plus d'impacts sur des populations homogènes que des populations à forte biodiversité.
La biodiversité et de manière générale la diversité sont les premiers facteurs de résilience de tout écosystème et système, les réduire nous rend plus fragiles.
On estime que les services mesurables de la biodiversité s'élèveraient à 50 % du PIB mondial soit environ 23 500 milliards d'euros par an. Les exemples les plus connus sont la pollinisation des abeilles, l'absorption de CO2 par la végétation, la protection contre l'érosion des sols,le filtrage de l'eau...
L'estimation exacte est très complexe en raison des nombreuses interactions et effets de réseau que peuvent avoir la préservation ou la perte de biodiversité.
La biodiversité est aussi un filet de sécurité pour l'humanité et l'environnement. Face à des maladies, des environnements dégradés, de fortes variations de chaleur... une diversité des solutions naturelles évite que nous mettions tous les oeufs dans le même panier et facilite l'adaptation globale. Une solution naturelle actuelle qui n'est peut-être pas adaptée à notre environnement actuel le sera peut-être beaucoup plus demain, si nous éliminons cette ressource naturelle, c'est une chance en moins de s'en sortir demain.
Urban Canopée, présent aussi au CES Las Vegas avec ses faux « arbres », armatures hébergeant des plantes grimpantes, crée des « ilots de chaleur »
Urban Forests utilise lui la méthode Miyawaki, pour créer des espaces végétaux denses en très peu de temps grâce à un écosystème vertueux entre les plantes. Ils nécessitent peu d'entretien, en revanche ils ne produisent pas de fruits ou de légumes sauf si on plante aux alentours des arbres fruitiers ou des vergers.
L'intérêt est principalement de créer rapidement des espaces à forte biodiversité.
La startup Hostabee veut contribuer à la biodiversité avec sa ruche connectée pour suivre l'évolution des colonies d'abeilles et prévenir les risques.
La propagation de ruches qui a priori semble être une bonne idée montre aussi les limites de l'intervention massive des hommes à ce sujet. La forte croissance des populations des ruches et donc des abeilles domestiques fait concurrence aux abeilles sauvages qui ont moins de fleurs à butiner (diminution de plus de 50% de l'abondance des abeilles sauvages dans un rayon de 900 mètres autour des ruchers par rapport aux densités mesurées au-delà de cette distance selon l'INRA).
Une solution simple consiste à augmenter les distances entre les différentes ruches afin de réduire cette concurrence existant aussi entre les abeilles domestiques. Le concept de mégapole pour les abeilles est donc contre-indiqué, peut-être devrions-nous nous en inspirer en ces temps de Coronavirus - COVID 19 ...
Beeodiversity utilise les abeilles comme capteur de biodiversité en analysant le pollen rapporté à la ruche (grâce à une trappe à pollen).
La mesure est la première étape pour mettre en place des actions concrètes pour améliorer la biodiversité car elle permet de s'assurer de leur pertinence et de changer de cap si nécessaire.
Nous voyons que les domaines de l'énergie, de l'eau et de la biodiversité sont loin d'être simples. Chaque élément, acteur a un impact sur l'autre qui a des répercussions sur un autre ...
A l'image du jeu de la vie, il est très difficile de Conway, même en connaissant les éléments et règles de base, il est très difficile de prédire comment un écosystème va évoluer. Une chose est sûre, il est très rare qu'une solution unique résolve tous les problèmes. En revanche, les solutions locales et de bon sens sont souvent beaucoup plus pertinentes même si cela va à l'encontre de notre envie irrépressible du "One Size fits all problems".
Il sera très difficile aussi de bouleverser nos modes de consommation pour réduire nos besoins énergétiques même si on commence à en avoir un avant-goût avec la pandémie coronavirus Covid-19. Néanmoins, il est préférable d'anticiper et prévenir afin d'atténuer les impacts futurs et plus largement d'agir.
Si vous souhaitez avancer sur ces sujets, sensibiliser vos collaborateurs, les former ou réaliser des projets sur l'économie circulaire ou la RSE.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, RSE / Économie circulaire ) - Contact - contact@livosphere.com
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Le coronavirus Covid-19 met sous tension nos sociétés, il constitue un terrible "stress test" à l'échelle mondiale de notre capacité à faire face à un fléau mondial et nous avons une réactivité sans commune mesure comparée au changement climatique ou la chute de la biodiversité.
Bien plus grave que la grippe , elle bouleverse aussi nos libertés individuelles pour enrayer la pandémie. Néanmoins, cette crise peut nous servir d'aiguillon pour anticiper d'autres risques futurs (changement climatique, inégalités sociales exacerbées...) et à mettre en place une stratégie de résilience fondée sur 6 principes :
(les liens sont directs vers les sections de l'article) - Article écrit le jeudi 12/3
Nos sociétés ont beaucoup de fragilités, le coronavirus a en montré une mais nous faisons face à d'autres risques liés au dérèglement climatique, aux inégalités sociales ?
L'UE, l'Etat, les régions, les villes, les entreprises et acteurs publics même les individus peuvent adopter une vraie stratégie de résilience pour réduire leurs impacts.
J'avais abordé ce sujet lors d'une de mes interventions à l'Assemblée nationale auprès d'un certain nombre de députés sur la démarche pour faire face à une catastrophe naturelle (cf. article ).
Pour imager cette démarche, je réaliserai un parallèle avec le risque d’un accident de voiture et sa survenance.
Notre société a de plus en plus dépendances et pour des raisons d'efficacité et économiques laisse peu de place aux solutions capables d'offrir des alternatives.
Lister les dépendances
Les dépendances sont nombreuses : l'incapacité des salariés à venir (liée par exemple à une maladie contagieuse comme le Coronavirus Covid-19 privant chacun de se déplacer et de se réunir), la perte d'accès à l'électricité, à l'eau, à l'alimentation, le cyberhacking, le défaut de fournisseurs ou de clients ...
Il est plus simple de réfléchir aux dépendances plutôt qu'aux causes qui pourraient les affecter car il est quasi impossible de les évaluer. Les causes pouvant affecter mon accès à l'électricité sont infinies (travaux, inondation, grève...) en revanche je peux partir du principe que je risque de perdre cet accès un jour ou l'autre et donc d'agir en conséquence. En revanche, il est utile de réfléchir aux causes internes et sur lesquels on a une influence ou un contrôle. Pour les télécoms, on peut envisager qu'un opérateur mobile peut couper votre accès télécoms. NE conséquence, vous utiliserez plusieurs réseaux télécoms (fixe / mobile avec la possibilité de réaliser du roaming national), et des solutions dégradés en backup (ex: réseau Lora pour la remontée de données de capteurs).
Pour chaque dépendance, on peut essayer de déterminer le risque de survenance. Néanmoins, compte tenu de l'imprévisibilité actuelle de beaucoup de facteurs (ex: Coronavirus), il est préférable pour la suite de la démarche de considérer le risque comme certain (worst-case scenario).
Il pourra être réintroduit à la fin de la démarche pour prioriser les actions. Un territoire ou une entreprise en zone inondable priorisera les actions pour faire à ce type d'événement de préférence à des actions contre les tornades. En revanche, il n'est pas nécessaire de traiter certains risques comme le chute d'une météorite menaçant l'humanité car ils dépassent largement le périmètre une collectivité ou une entreprise ...
Pour faire le parallèle avec les risques d’accident de voiture, les dépendances sont l'attention du conducteur, la sécurité du véhicule, la qualité des infrastructures, les causes sur lesquelles peuvent influer le conducteur sont la vitesse, l'alcoolémie, la fatigue, la distraction due à son smartphone mais aussi le choix du véhicule et des routes qu’il prend…
Déterminer les impacts et leur gravité
Il faut déterminer leurs impacts et leur gravité si nous n'avons plus accès à certains services, ressources ...
Un exercice à réaliser est de le réaliser sous forme d'ateliers / brainstorming avec des acteurs provenant de différents services pour indiquer quels problèmes cela poseraient, s'ils n'avaient plus accès à Internet, leurs données, l'électricité ...
Pour faire le parallèle avec les risques d’accident de voiture, cela peut être des pertes matérielles, des blessures à soi et autrui, le décès...
L'objectif est d'identifier le plus tôt possible la survenue de ces risques mais aussi l'augmentation de la probabilité qu'ils surviennent.
On peut mettre en place une structure centralisée ET décentralisée de remontée et d'analyse de risques technologiques (avec des capteurs connectés, de l'IA ) mais aussi humains car s'il n'y a plus d'accès à l'électricité il faut anticiper leur éventuelle panne.
Pour les risques d'accident de voiture :
Ce sont les alertes de collision, un éthylomètre embarqué, un capteur d'attention intégré dans le pare-soleil mais aussi le contrôle des pneus, le contrôle technique ... pour vérifier si les risques ne s'accroissent pas.
Pour le coronavirus, ce sont toutes les mesures de quarantaine, de limitation de déplacements et de regroupement...
Le gouvernement a par exemple mis en place des « mesures barrières » pour éviter qu'Emmanuel Macron, son gouvernement et ses collaborateurs attrapent le Coronavirus sachant que Franck Riester, ministre de la Culture - et cinq députés sont infectés. Des mesures de bon sens ont été prises comme éviter de serrer la main, se laver régulièrement les mains mais aussi espacer chaque siège...
Pour la perte d'accès à l'électricité, il est judicieux d'avoir des solutions manuelles qui ne nécessitent pas d'électricité pour fonctionner. Il faut aussi que le personnel soit formé à les utiliser à l'image des pilotes d'avion si le pilote automatique n'est plus opérant.
Pour les risques d'accident de voiture,
Pour réduire les risques ce sont les limitations de vitesse, les contrôles d'alcoolémie, le repos toutes les 2 h...
Pour réduire l'impact, ce sont les airbags, la structure déformante de la carrosserie capable de supporter les chocs, l'e-Call appelant les secours en cas d'accident...
Dans le cas du coronavirus, ce sont des solutions temporaires de télétravail, de vidéoconférences,
Pour la perte d'accès à l'électricité, vous pouvez utiliser des groupes électrogènes, des batteries de stockage mais plus simplement il faut être capable au pire de gérer la situation sans électricité, d'avoir un processus manuel en backup.
Pour la perte d'accès à l'eau potable, des entreprises comme Zero Mass Water sont capables de fournir de l'eau potable à partir de l'humidité de l'air et fonctionnent avec des panneaux solaires. En revanche, c'est fini pour les douches !
Pour les risques d'accident de voiture,
Ce sont l'accès à une trousse de premier secours, des secours proches du lieu d'accident, un hôpital capable de porter les premiers secours aux blessés...
L'objectif est de créer un filet de sécurité à moyen terme.
Pour le coronavirus, vous pouvez mettre en place une vraie politique de télétravail avec les outils pour que les salariés puissent travailler, piloter des sites, outils de fabrication à distance en cas de maladie. L'automatisation et la robotisation permettent aussi de travailler à distance. Une aile d'hôpital est aujourd'hui assurée par des robots à Wuhan. Néanmoins, cela créé une dépendance à l'accès à l'électricité et aux télécoms ...
Pour l'énergie, développer la production d'énergies renouvelables locales et partageables localement (afin de faciliter la solidarité)
Pour les matières premières, vous pouvez développer l'économie circulaire en utilisant vos propres déchets ou ceux de partenaires proches pour fabriquer vos produits ou produire localement vos aliments. A ce titre, il devrait y avoir de plus en plus de "fermes urbaines", serres... attenantes à des magasins d'alimentation sachant que beaucoup de commerces de la grande distribution ont des espaces non utilisés car ils avaient anticipé des agrandissements de leur superficie, devenus superflus aujourd'hui.
Pour les risques d'accident de voiture,
Ce sont l'accès à un centre de rééducation, à une assurance pour couvrir ses revenus durant la durée de l'invalidité.
Il faut diversifier ses modèles économiques, sociaux afin que certains d'entre eux puissent être résilients.
Le contre-exemple des Laboratoires Boiron est un cas d'école en misant sur la vente de produits homéopathiques (95% du CA et 60% des ventes réalisées en France), ils n'ont pas réduit leur dépendance aux produits homéopathiques malgré les risques de déremboursement ce qui les contraint à licencier plus de 600 personnes.
Des stratégies de partenariat, d'innovation ouverte, de lancement de produits et services potentiellement moins rentables sur de plus faibles volumes mais plus résilients sont quelques options.
A l'image d'un écosystème, vous devez avoir un pool complémentaire de produits et de solutions qui peuvent prendre le relais de solutions non fonctionnelles.
Pour les collectivités, il faut aussi identifier les services à absolument maintenir et quelles solutions complémentaires peuvent être mises en place. Idéalement, il faut que ces solutions puissent être locales afin de réduire les dépendances externes et permettre d'avoir au moins un mode de vie dégradé même en étant coupé de l'extérieur.
Pour les risques d'accident de voiture,
Ce sont choisir le vélo, la marche à pied à la place, réduire ses déplacements en voiture en achetant en vivant principalement à proximité de son lieu de résidence, trouver un travail, une activité compatible potentiellement avec son invalidité.
D'ailleurs les personnes ayant déjà une diversité d'activités ont plus de chances de s'en sortir avec une invalidité que ceux qui sont concentrés sur une seule activité ou travail.
Cette article a été écrit le 12/3/2020 avec une mise à jour le 14/3/20. Beaucoup d'éléments sont aujourd'hui mieux connus . Un autre article a été écrit sur le contact tracing, l'application StopCovid et l'initiative de Google/Apple sur ce sujet. Cliquez sur le lien.
Pour aller directement à la conclusion, cliquez-ici
Elle bouleverse nos libertés habituelles afin d'enrayer la pandémie (désormais qualifiée aujourd'hui par l'OMS) en nous interdisant
de nous déplacer :
Trump ferme les Etats-Unis aux étrangers venant d'Europe pour trente jours alors que l'Etat de Washington (à l'Ouest des Etats-Unis intégrant la ville de Seattle, à ne pas confondre avec la capitale Washington DC qui fait du Columbia District avec beaucoup moins de cas;) ) est l"Etat avec le plus fort taux de mortalité : 7,9% (Liste des cas complète des Etats).Trump risque fortement regretter sa politique contre l'Obamacare, le système de santé américain à destination des plus pauvres car les personnes contaminées doivent venir travailler car elles ne perçoivent pas d'argent en cas d'absence maladie ce qui facilitera la propagation du virus. Cela pourrait aussi avoir un impact sur l'élection de Trump.
de consommer : Italie ferme tous les commerces sauf pour l'alimentation et la santé et met en quarantaine , des provinces entières soit 15 millions de personnes, un quart de la population. L'Italie est le pays avec le plus fort taux de mortalité 6,6%.
de s'éduquer : Plus de 300 000 élèves ne reprendront pas le chemin de l'école ce lundi 16 mars dans le Haut-Rhin, l'Oise et en Corse.
de voir ses proches : En France, l'intégralité des visites de personnes extérieures dans les établissements d'hébergement des personnes âgées (EHPAD) est suspendue.
[MAJ 14/3/2020] : La France est au stade 3 de l'épidémie avec des mesures de plus en plus contraignantes depuis l'allocution du Président de la République, Emmanuel Macron (12/3) puis de son Premier ministre (14/3) : interdiction des rassemblements de plus de 100 personnes, les hôtels, restaurants, bars cafés, cinémas, les écoles, les musées, les salles de spectacles, les clubs, les salles de Gym, Station F, les commerces non nécessaires (tous les commerces sauf les pharmacies, les magasins et marchés alimentaires, les stations essence, les banques, les bureaux de tabac et de presse) sont fermés.
Covid-19 n'est pas à considérer comme une simple grippe car
Si 50% de la population française attrapait le COVID-19, ça ferait près de 700 000 morts soit un doublement de la mortalité en France (10 000 décès liés à la grippe) avec un taux de 2% de mortalité !
Néanmoins, comme de nombreuses personnes sont asymptotiques, ne présentent pas de symptômes et ne sont pas prises en compte dans les statistiques des personnes contaminées, ce taux de mortalité pourrait être de 0,6% si on utilise les statistiques de la Corée du Sud qui teste désormais systématiquement ces habitants.
Cela signifie potentiellement 200 000 décès en France au lieu de 700 000 indiqués plus haut soit plus que la première cause de décès, les tumeurs et cancers.
Par comparaison, la grippe espagnole a contaminé un tiers de la population (1,83 Md) et tué environ 50 millions de personnes. Avec un taux à 0,6% de mortalité et un tiers de population contaminée, nous aurions à déplorer 15 millions de décès, avec un taux à 2% de mortalité, le nombre de décès serait similaire à celui de la grippe espagnole (avec plus de 5 fois plus de population mondiale aujourd'hui).
Pour finir, cette crise doit nous alerter sur la nécessité d'anticiper ces risques et qu'il existe des solutions et moyens pour les mettre en oeuvre pour que la situation soit vivable. En revanche, sans anticipation, de nombreux phénomènes de panique apparaissent amenant à des comportements insensés comme se battre pour du papier toilette !
Notre société est une Formule 1 lancée à toute vitesse qui crée des nids de poule devant elle, nous devons apprendre à devenir une société tout-terrain qui roule moins vite mais est capable de supporter les nids de poule et n'en creuse plus (cf. mon article à ce sujet qui date de 2011 !) .
Si vous êtes intéressé d'échanger à ce sujet ou de travailler sur ces problématiques, n'hésitez pas à me contacter.
Nous avons couvert dans l'article précédent les innovations pour produire de manière écoresponsable et de manière plus générale les 6 innovations qui m'ont le plus interpellé à ChangeNOW. (English Version)
Cet article couvre une 2e partie de l'Economie Circulaire la logistique, l'usage, la gestion des déchets (tri,déchets sauvages, recyclage, upcycling, compostage - Liens directs). Un autre article aborde les innovations au CES Las Vegas : IA, IoT, Sustainability...
Rendre un événement éphémère, durable est loin d'être aisé, c'est pourquoi j'ai aussi présenté la démarche qu'ont suivi Santiago Lefebvre et Rose-May Lefebvre-Lucotte, fondateurs de ChangeNOW et d'Etienne Villotte, fondateur de Epatant, scénographe de ChangeNOW pour rendre cet événement écoresponsable.
Les 3 autres articles sur les innovations durables sont : la Production écoresponsable, l'Energie, l'eau et la biodiversité et la Mobilité, santé, inclusion, finance durable et indicateurs RSE/ESG.
Sommaire (lien direct vers section)
Economie Circulaire : Logistique, Usage, Déchets, Recyclage, Pyrolyse
Événement éphémère et économie durable : Oxymore ?
Il y a 2 autres articles, le 1er est consacré à la production (locale, écologique, microalgues...), le 3e sur l'énergie, la biodiversité et l'eau. (Liens directs vers les parties de l'article)
Avec 50 000 navires marchands en circulation sur les mers du globe, le secteur maritime assume le transit de 90 % des marchandises transportées dans le monde, à un moment ou à un autre de leur cycle de vie.
Il représenterait 3% des émissions mondiales de gaz à effet de serre, selon l'Institut supérieur d'économie maritime et 11% des émissions de CO2 dues au transport (le 1er étant de loin la route avec 74% de ces émissions puis l'avion à 12%).
Si cela paraît assez faible, sa croissance pourrait être beaucoup plus forte (*2,5 d'ici 2050).
Il existe plusieurs solutions pour y faire face. Tout d'abord une solution simple défendue par Philippe Louis-Dreyfus, président du conseil de surveillance de Louis-Dreyfus Armateurs (LDA) un des gros armateurs mondiaux et déposée par la France à l'Organisation Maritime Internationale (OMI), réduire la vitesse des bateaux !
Si les vraquiers qui représentent 70% de la flotte mondiale réduisent leur vitesse de deux noeuds soit de 15% (Vs 12 ou 13 noeuds aujourd'hui, environ 23 km/h), on peut réduire les émissions de CO2 de 20%.
L'autre mesure serait d'imposer un plafond annuel d'émissions de gaz à effet de serre pour une flotte. Chaque armateur garderait alors le choix de la méthode pour y parvenir.
Airseas - Voile additionnelle
Pour réduire la consommation, une technique qui commence à devenir en vogue est l'utilisation du vent comme force motrice complémentaire. AirSeas (spin-off d'Airbus et soutenu par LDA) présentait sa voile qui permettrait de réduire de 20% la consommation de fuel et donc de GES (Gaz à Effet de Serre).
Actuellement, ils ont évalué le gain sur terre mais ne l'ont pas encore testé en mer. Le système de pliage et de dépliage de la voile est bien conçu pour éviter que la voile tombe à la mer. D'autre part la solution est associée avec une cartographie des vents afin de proposer les routes permettant d'utiliser au mieux le potentiel vélique sans obliger à de trop longs détours.
En revanche, il n'y a pas d'adaptation en temps réel de la navigation en fonction du vent actuel ou anticipé à court terme. C'est évidemment l'usage en mer qui permettra véritablement de s'assurer de l'intérêt substantiel de cette solution. La solution est très intéressante dès lors qu'elle s'appliquera au parc actuel des bateaux et avant l'arrivée de nouveaux bateaux ayant une bien meilleure efficacité énergétique.
La voie à long terme est évidemment de construire des bateaux consommant dès leur conception moins de ressources fossiles. Ils utilisent aujourd'hui du fioul lourd, peu cher, très chargé en soufre, à 3,5%, "jusqu'à 3500 fois plus polluant que les voitures et ne sont pas équipés de filtres à particules" !
Zephyr et Borée (bureau d'études de navires) développe un premier bateau destiné à Arianespace pour transporter les éléments de la fusée spatiale de l'Europe jusqu'à Kourou.
Il utilise des voiles rigides articulées permettant une vitesse variant faiblement nécessaire au déplacement ces équipements très sensibles.
Neoline propose lui un cargo avec une voile souple (cargo roulier dit " ro-ro ", roll on â?" roll off à propulsion principale vélique et à propulsion auxiliaire diesel-électrique ) sur une ligne entre Saint-Nazaire et Baltimore (1er départ en 2022).
L'avantage de cet itinéraire est d'avoir des clients sur place avec du fret spécifique, qui ont un flux régulier de marchandises. A l'image des lignes aériennes entre villes moyennes, il évite la forte concurrence sur d'autres lignes.
Pour Neoline, la réduction de consommation serait de 80 à 90% avec une vitesse de 11 noeuds au lieu de 15/16 noeuds et donc une traversée de 13 jours au lieu de 9 jours entre Saint-Nazaire et Baltimore. Le gisement vélique est idéal sur cette route ce qui sera certainement une limitation sur d'autres trajets. La propulsion diesel-électrique reste toujours nécessaire pour permettre les manoeuvres au port ou en cas de manque de vent ou de vents instables (comme le Pot-au-Noir dans l'Atlantique).
Energy Observer
En fonction des routes choisies, le vent peut ne pas suffire pour propulser significativement des navires d'où la dernière solution, le stockage d'énergie sous forme d'hydrogène. Energy Observer se lance dans cette aventure, en combinant l'énergie solaire et le vent pour produire de l'hydrogène stocké dans une pile à combustible à partir de l'eau de mer.
Néanmoins, l'utilisation à titre principal de piles à combustible à hydrogène semble encore lointaine (> 5/10 ans) dans le domaine commercial et encore plus pour les gros navires. Les rendements énergétiques cumulés de la synthèse du dihydrogène et de la compression ou liquéfaction sont encore assez faibles. N'oublions pas que le dihydrogène n'est pas une source d'énergie primaire à la différence du pétrole ou du gaz ; c'est un vecteur d'énergie car il n'existe pas à l'état naturel, car toujours associé avec l'oxygène pour former l'eau (H20 !).
Avant de parvenir à des détaillants, les produits passent généralement par des grossistes. A Rungis, un très grand nombre de produits sont déplacés dans des bacs de polystyrène pour les produits frais comme le poisson, des cagettes en bois ou des cartons pour les autres produits alimentaires.
Pandobac propose aux entreprises de louer ses bacs (plastique PEHD recyclable) entre 2 et 5€ par mois plus 0,3€ pour le lavage du bac versus un coût unitaire et à usage unique de 0.60€ pour le carton, 0.80€ pour les cagettes en bois et 1.50€ pour le polystyrène. Leurs bacs ont été conçus pour facilement s'imbriquer lorsqu'ils sont vides et s'empiler lorsqu'ils sont remplis. L'intégration d'un QR Code facilite le suivi des bacs.
Il y a néanmoins un inconvénient pour le grossiste. Il va livrer son bac, par exemple à un restaurant qui va le garder le temps de le vider. Le grossiste ira le récupérer à la prochaine commande du restaurant en redonnant un autre bac. Pour que ça soit rentable pour le grossiste, il faut que le taux de rotation des bacs soit au minimum hebdomadaire (c'est le cas pour des produits frais) et que cela ne soit pas gênant pour lui que du matériel qu'il loue soit immobilisé chez ses clients. C'est sur le terrain que Pandoback verra rapidement si son modèle économique est pérenne pour lui et ses clients et s'il est "scalable".
Living Packets, qui était présent au CES Las Vegas ainsi qu'à Viva Tech en 2018 (avec une solution beaucoup moins évoluée) a une démarche similaire en proposant la location d'un emballage connecté réutilisable et repliable pour un coût de 2€ mensuel à destination des sites e-Commerce. Il possède en plus un système de géolocalisation autonome et un écran e-Ink (qui n'a pas besoin d'alimentation électrique pour afficher mais pour changer d'affichage).
Le modèle économique est aussi innovant car il permet à des particuliers d'investir dans les box qui seront mis à la location et grâce auxquels ils peuvent tirer des bénéfices.
Là encore, la problématique est la voie retour du paquet. Living Packets a une incitation financière pour qu'un particulier remette en circulation des boxes auprès d'un réseau de magasins affiliés. C'est l'expérience terrain qui permettra de voir si ce modèle prend ou pas et s'il n'y a pas un risque que de nombreuses boxes restent immobilisées chez des particuliers.
Repack
Dans le domaine des colis, Repack proposait aussi des « enveloppes réutilisables », pour la voie retour, il suffit de remettre l'enveloppe vide dans une boîte aux lettres, le frais de retours sont inclus !
Loop
Les solutions pour réduire le coût et l'impact écologique de la « Reverse Logistics » (voie retour de l'emballage ou du produit du consommateur vers le fabricant) sont au coeur de l'économie circulaire.
Loop (filiale de TerraCycle) présentait sa solution en partenariat avec de nombreux industriels de l'agroalimentaire comme Coca-Cola, Maisons du Café, Nivea..
Lorsque vous commandez des produits sur Loop (en partenariat avec Carrefour), vos produits sont emballés dans un conditionnement réutilisable et lavable conçu par Loop en concertation avec les industriels et déposé dans un gros sac pliable, tout cela en échange du paiement d'une consigne.
Lorsque vous faites une nouvelle commande, le sac et les conditionnements sont récupérés par le livreur (Reverse logistics) et remplacés par vos nouveaux produits. Vous pouvez aussi demander l'enlèvement de vos sacs sans commander mais cela crée un retour à vide.
Ils ont aussi développé des « Shop-in-the-Shop » pour acheter et rendre ses produits qui pourrait être une solution alternative pertinente sur le plan écologique comparé à la livraison à domicile.*
Le stockage des produits est à Lille et le lavage des conditionnements est réalisé à Besançon (400 km aller) ce qui est loin d'être écoresponsable. Le développement du partenariat avec Carrefour permettrait de réduire fortement les distances et donc la taille des boucles.
Pour accroître fortement le maillage et réduire les distances, il faudrait idéalement que l'approvisionnement, le cycle de retour, de lavage soient mutualisés par plusieurs acteurs. Ce n'est pas du tout la stratégie de Loop, néanmoins on pourrait imaginer que des acteurs tiers puissent laver et remplir les conditionnements utilisés par Loop et les industriels.
A l'image d'Amazon, Loop deviendrait une plateforme de vente intégrant un circuit complet (conditionnement, transport, lavage, remplissage et réutilisation qui pourraient être réalisés par des acteurs externes) à l'image de la MarketPlace d'Amazon.
Solzero propose une solution similaire à Loop en B2B (notamment avec Franprix) et peut installer des équipements automatisés de lavage.
L'enjeu est de parvenir à un effet de masse pour que la solution ne reste pas anecdotique.
Les contenants réutilisables sont fabriqués à partir d'aluminium, d'acier inoxydable, de verre mais aussi de plastique.
Lyspackaging a créé la bouteille VeganBottle à partir de la bagasse de canne à sucre (résidu agricole restant après la distillation du rhum). A priori, il resterait des excédents de bagasse non utilisés malgré l'utilisation de la bagasse pour alimenter les fours destinés à chauffer l'alambic. Cela pose néanmoins deux questions, que se passe-t-il si de nombreuses entreprises se mettent à utiliser la bagasse pour produire des bouteilles végétales et comment fait-on pour éviter le transport de déchets ou le transport de bouteilles fabriquées à partir de ces déchets du lieu de production du rhum vers le lieu d'utilisation des bouteilles ?
De manière générale, il y a un vrai enjeu pour réduire les boucles au maximum entre la production à partir de déchets, le transport vers le lieu d'achat puis de consommation et tout le cycle retour. Le problème est qu'en réduisant les boucles, on réduit les quantités et donc on bénéficie beaucoup moins d'économies d'échelle ce qui surenchérit les coûts et rend moins attractive financièrement l'économie circulaire ...
Point d'attention, il est très fortement déconseillé de réutiliser ses bouteilles à usage unique en plastique (biodégradables ou pas) car elles deviennent des nids à microbes et sont très difficiles à laver parfaitement. Il vaut mieux préférer des gourdes en acier inoxydable ou des bouteilles en verre.
Il y a une opposition évidente entre un produit biodégradable et un produit durable mais souvent oubliée. J'ai eu notamment du mal à convaincre un interlocuteur sur un stand qu'un verre en verre (issu de sable siliceux) n'est pas biodégradable, en revanche il est durable.
De la même manière, un produit issu du végétal n'est pas nécessairement biodégradable et inversement.
Pour savoir quel matériau utiliser, il est nécessaire de se poser la question de l'usage, de la réutilisation potentielle du produit (et la logistique nécessaire pour le faire) et du changement de comportement possible (ramener son contenant en particulier).
Idéalement, il faut réduire au maximum les usages uniques et utiliser des matériaux durables réutilisables au pire recyclables indéfiniment (avec un coût énergétique et des émissions de GES très réduits) comme le verre ou l'aluminium. Si l'usage unique est incontournable, l'emballage devrait être biosourcé et biodégradable.
Jean Bouteille
La solution idéale est évidemment de n'avoir aucun emballage d'où une tendance de fond, le développement du vrac. Jean Bouteille s'est spécialisé dans des solutions permettant de vendre des liquides en vrac en proposant des contenants principalement en verre pour les boissons, huiles et vinaigres mais aussi les lessives, shampooings, gels douche. Évidemment, ça nécessite une coopération avec chaque industriel. Vous ne trouverez pas de sitôt du Château Margaux en vrac ! Néanmoins, ils recherchent des producteurs bio pour la plupart. Cela peut être une très belle opportunité pour tous les petits producteurs comme nouveau canal de vente.
Il y a une consigne pour chaque contenant. Pour une bouteille, elle sera facturée 2€ pour chaque client, payée 0,83€ par l'enseigne. Si un client ramène une bouteille, il recevra en retour 1€. C'est malin car cela dissuade la surconsommation et le gaspillage de contenants. Cela pourrait avoir du sens dans le cadre de la loi pour une Economie Circulaire sur la consigne.
Jean Bouteille a aussi conçu un dispositif permettant de remplir une bouteille en 20 secondes plutôt que quelques minutes grâce à la compression du liquide. On peut bien sûr dire qu'encore une fois on va utiliser de l'énergie pour faire gagner du temps. Est-ce vraiment nécessaire ? De l'autre, s'il y a un plus grand nombre de consommateurs qui basculent vers le vrac parce qu'il y a moins de contraintes qu'avant, ce n'est pas nécessairement une mauvaise chose non plus !
Réseau Vrac
Pour toutes les enseignes et industriels intéressés, l'association Réseau Vrac réunit tous les acteurs pour trouver des solutions communes sur ce sujet.
Il propose une définition simple pour le vrac : la « Vente au détail de produits non pré-emballés, en libre-service, à la quantité désirée dans un contenant réutilisable ».
Pour passer d'une économie de consommation à une économie d'usage, la location est une bonne option. Cela n'a de sens écologique que si le produit est loué pour de courtes périodes et que son taux d'utilisation et de rotation sont élevés. Les locations longue durée peuvent au contraire avoir un impact négatif car elles incitent à renouveler beaucoup plus souvent ses produits.
Un non-sens écologique est le Pack Reprise de la Rue du Commerce qui permet de restituer un produit à 80% de sa valeur lors de l'année de l'achat. Cela incite le consommateur à racheter tous les ans un nouveau produit !
Lizee est une marque blanche de la location pour des articles utilisés sur de courtes périodes principalement. Ils proposent d'adopter une démarche progressive sur des produits spécifiques. Ils facilitent toutes les démarches de l'entreprise (facturation, remise à neuf, assurance, logistique, entreposage...). Décathlon travaille avec eux notamment pour les produits fortement saisonniers (neige, skis...).
C'est un modèle qui a tout son sens pour les produits de bricolage, les vêtements de cérémonie ou régulièrement renouvelés, le matériel sportif... C'est une vraie opportunité pour les marques qui avant de passer complètement le pas, délègue le risque à une entreprise externe.
La location est un métier à part entière beaucoup plus complexe que la vente directe sur le plan logistique, économique, relation client, facturation... C'est une excellente idée qu'une société propose cela en B2B car cela réduit l'obsolescence programmée. Le fabricant à tout intérêt à ce que ses produits durent le plus longtemps possible afin qu'ils soient loués le plus souvent et sur la plus longue durée possible.
Green Mood propose des panneaux isolants acoustiques à base de mousses naturelles (lichens scandinaves) stabilisées. Elles sont naturelles (y compris au toucher), ont une durée de vie de plusieurs années (même une dizaine d'années pour certaines) et nécessitent très peu d'entretien car la sève est remplacée par un mélange glycérine-colorant.
Ils jouent avec les différentes couleurs de mousse et sont capables de composer des tableaux comme la mappemonde, un des éléments iconiques de ChangeNOW.
Petite précision néanmoins, la mousse est blanche à l'origine et nécessite d'être colorée. On peut ainsi avoir des panneaux en mousse couleur rose bonbon. Cela retire un peu du charme de la solution, néanmoins la coloration est réalisée grâce à des pigments alimentaires. Le coût d'un panneau est de l'ordre de 500€ HT le mètre carré. Bien d'autres plantes peuvent bien sûr être stabilisées.
Les microfibres plastiques sont des constituants textiles millimétriques issus de plastiques transformés et composites tels que le nylon, l'acrylique, le polyester. Chaque lavage en machine (un cycle) de tissus synthétiques libèrerait plus de 700 000 microfibres plastiques dans l'environnement. Dans l'eau, elles agissent comme éponges à polluants ultra-toxiques avalées par les poissons puis nous.
La meilleure solution serait de n'acheter que des textiles naturels. A ce titre, les pires vêtements sont les polaires donc acheter des vêtements recyclés à base de plastique serait une hérésie. Une étude réalisée par l'Université de la Californie à Santa Barbara pour Patagonia, fabricant de vêtements d'extérieur, a révélé qu'une seule veste de laine polaire Patagonia peut libérer 250 000 microfibres !
Patagonia consciente du problème préconise idéalement de mettre ses vêtements à laver dans un sac filtrant les micro-fibres comme le GuppyFriend Washing Bag ou d'ajouter un filtre à microfibres à la machine à laver. Les micro-fibres récupérées par le filtre sont ensuite mises dans la poubelle « non-recyclable » ...
Planetcare a développé ainsi ce type de filtre pour les machines à laver. Idéalement, il faudrait que la législation contraigne les prochaines machines à laver à intégrer obligatoirement ces filtres et donne aussi comme objectif de réduire l'utilisation des microfibres plastiques dans les vêtements. Une idée un peu iconoclaste serait d'obliger à ajouter un pictogramme avec un poisson s'asphyxiant pour tout vêtement intégrant des microfibres plastiques sur l'étiquette indiquant les matières ! Cela permettra d'alerter le grand public sur le sujet à l'image des indications sur les paquets de cigarettes.
[MAJ 17/2/2020] : La loi anti-gaspillage qui vient d'être votée par le Parlement fait obligation aux fabricants de doter d'un filtre à microfibres plastiques chaque appareil qui sortira de leurs chaînes à compter du 1er janvier 2025.
Plutôt que d'attendre 5 ans ... Brune Poirson, secrétaire d'Etat à la Transition écologique et solidaire, réunit ce lundi matin les représentants des marques de lave-linge, des innovateurs et des ONG pour établir la feuille de route qui doit conduire à la production de machines à laver garanties « zéro microplastiques ».
De manière générale, le plastique se planque partout y compris dans les objets les plus inattendus (cf. article)... sachets de thé, lingettes humides, tasses de papier, Tetra Paks, nettoyants pour le visage, gels pour la douche et exfoliants pour le corps, les étiquettes sur les fruits, les reçus de caisse (mélange de papier et de plastique) ... Les industriels doivent s'y mettre pour rechercher des alternatives pour que le plastique disparaisse de tous les produits à usage unique.
Uzer que j'avais vu régulièrement au CES Las Vegas revient avec Eugène pour scanner les emballages et indiquer comment les recycler. Ils ont aussi une application qui permet de le faire. A terme, il y a de fortes chances que Yuka intègre cette fonctionnalité directement dans son application avec le nombre d'utilisateurs (> 9 M).
A ce titre, un amendement obligeant les industriels à rendre accessibles les informations sur leur emballage en open data a été proposée par la députée Paula Forteza et adopté, il y a peu. Il se trouve que c'est un des 2 amendements numériques que je lui avais présenté quelques mois plus tôt. Je suis ravi qu'elle ait pu le mener jusqu'au bout. Cela pourrait devenir un levier pour changer les comportements car l'information devient directement accessible de manière compréhensible.
Wastebox propose un service de mise à disposition de benne avec sa récupération mais je n'ai pas trop vu l'innovation ...
GreenBig vend B:Bot, une solution de collecte de bouteilles en plastique. Le plastique est broyé par B:Bot sous forme de paillettes, ce qui réduit fortement le transport mais rend plus compliqué le lavage des paillettes (car le plastique est mélangé avec la colle et le papier) puis son intégration dans de nouvelles bouteilles en plastique. Cristalline utilise ce dispositif mais les avis sont partagés sur les impacts environnementaux et sanitaires du broyage avant recyclage.
B:Bot rétribue de 1 cent, chaque bouteille donnée et de 15 centimes si la consigne pour recyclage avait été adoptée par la Loi pour l'Economie Circulaire. J'ai un sentiment mitigé à ce sujet. La rétribution à 1 cent incitera des personnes à ramener des bouteilles en plastique et augmenter le taux de recyclage des bouteilles en plastique (limité sur le plan national à 57%).
La généralisation d'une consigne obligatoire pour recyclage poserait de nombreuses questions comme on l'a vu dans les débats entre les acteurs sur ce sujet autour de la Loi pour une Economie Circulaire (cf. mes 14 propositions concrètes à ce sujet) :
A l'inverse, le taux de recyclage dans de grandes villes comme Paris est inférieur à 40% et la seule solution paraît être la consigne des emballages (mais plus pour réutiliser que recycler). Avec Hoali, j'avais proposé un dispositif complémentaire à la consigne classique pour déconsigner ses bouteilles directement à partir de sa poubelle jaune. Ca ne résout pas tous les problèmes, mais ça vaut le coup d'étudier des approches plus légères pour collecter les déchets. Au final, la consigne pour recyclage a été retoquée lors de l'examen de la Loi pour une Economie Circulaire à l'Assemblée nationale (et aussi au Sénat).
Selon leur estimation, 80% des plastiques qui aboutissent dans les océans proviendraient de 1000 rivières (cf. Carte).
Les points jaunes représentent les rivières qui déversent massivement leurs déchets dans les océans.
The Ocean Cleanup qui avait déjà proposé des solutions pour nettoyer l'océan montrait Interceptor, sa solution pour intercepter les plastiques dans les rivières.
Cette approche en amont semble beaucoup plus pertinente car cela permet de capturer les déchets (petits et moyens) avant qu'ils n'atteignent l'océan et qu'il se transforme en microplastiques quasi impossibles à capturer aujourd'hui.
Plastic Odyssey ne récupère pas les déchets plastiques (bien précisé sur leur site) mais fait de la sensibilisation à travers les océans sur le déchet plastique. Ils embarquent une micro-usine de valorisation du plastique embarquée et un espace d'expérimentation qui présente des alternatives au plastique.
Plusieurs startups montraient comment ils recyclaient leurs propres produits dans de nouveaux produits. Mud Jeans (« Circular Jeans » ), utilise à 40% des jeans recyclés pour fabriquer leurs jeans.
Le plus cocasse est certainement Coca-Cola présents sur le stand de Loop. Ils montraient leur « Marine Bottle » créé à partir de 25% de déchets plastiques provenant des océans (c'est le 1er contributeur mondial de plastique dans les océans !).
Entre nous, ce serait nettement plus simple et meilleur pour l'environnement qu'il n'y ait pas de plastique envoyé dans l'océan, plutôt que d'aller chercher des plastiques récupérés dans les océans et d'en fabriquer des bouteilles en plastique recyclé !
Uptrade, lui est un bureau d'achat qui valorise les chutes de tissu, fins de rouleaux ou des déclassés de production d'industriels du textile en les proposant à des sociétés qui recherchent cette matière première (recycleurs, upcycleurs, styliste).
Uptrade s'occupe de la logistique, le tri et la mise à disposition des matières.
Recyc Leather recycle les chutes de coupe de gants en cuir pour réaliser de la petite maroquinerie notamment. Ils utilisent principalement de la croûte de cuir non traitée car actuellement il n'est pas possible de recycler des cuirs tannés car ils utilisent du chrome (ou des sels d'aluminium) dans la très grande majorité des cas (pour des raisons de rendement). Les boues issues du tannage au chrome doivent être « neutralisées » chimiquement avec de l'oxyde de magnésium, de la chaux ou de la soude.
Une fois séchés, les restes sont entreposés en décharges de classe I (pour les déchets les plus dangereux). à la place, il est possible de réaliser du tannage végétal (issus d'écorces, racines, fruits...) beaucoup moins nocif (mais plus gourmand en eau que le tannage au chrome) dont les boues peuvent être valorisés dans la filière agricole.
Rev Society utilise du plastique recyclé pour réaliser ses collants eux-mêmes recyclables.
Oth recycle les pneus pour réaliser les semelles de ses snickers. Scale utilise les écailles des poissons tels qu'aiglefins, sardines, saumons récupérés auprès des mareyeurs pour réaliser de la « pierre d'écaille ». En comprimant ce matériau, cela extrait le collagène qui permet de les mouler et de les transformer en plaque une fois séchée.
Neolithe transforme des matériaux non recyclables (déchets ultimes non recyclables comme les déchets industriels et issus de la déconstruction) en granulats destinés au BTP. La solution est particulièrement bien pensée pour le BTP car les déchets créés sur place peuvent être réutilisés sur place comme matériau de construction, une Economie Circulaire locale !
UHCS Constructions utilise le PET pour réaliser des structures modulaires de bâtiment. Le choix du PET ne me semble pas pertinent car il y a déjà un manque cruel de PET pour les industriels des boissons qui veulent augmenter la part de plastique recyclé dans leur bouteille.
Ils n’étaient pas présents à ChangeNOW mais j’en profite pour parler de FabBRICK, brique isolante créée par Clarisse Merlet utilisable pour isoler des cloisons ou réaliser du mobilier à partir de textile recyclé (coton) en utilisant de la colle écologique.
La palme de l'originalité revient à Ocean Sole Africa qui transformait des tongs récupérées sur les plages et rivières au Kenya en magnifiques « peluches ».
S’assurer de la pérennité de l’approvisionnement et de solutions alternatives le cas échéant
Sur le principe, le recyclage de déchets non utilisés paraît être une excellente idée. Néanmoins, il y a plusieurs limites à cela. La première est l'approvisionnement en matières, Scale doit créer un réseau d'approvisionnement provenant de mareyeurs pour se fournir en écailles de poisson, il doit ensuite les transporter avant de les transformer en poudre puis briques.
Pour que sa solution soit pérenne et durable, il faut d'abord que sur le plan économique ses briques aient un coût de production similaire à celui d'autres briques équivalentes (à moins d'avoir une caractéristique extrêmement différenciante), d'autre part il faut réaliser une analyse du cycle de vie pour s'assurer que le coût de transport et de transformation n'est pas supérieur au coût de fabrication d'un produit provenant d'un autre matériau (potentiellement recyclé). Enfin, il faut s'assurer qu'on ne prive pas d'autres acteurs de cette ressource pour un bénéfice environnemental et économique supérieur. Il faut aussi anticiper les conséquences d'une utilisation massive de ce « co-produit » ou « déchet » devenant une ressource principale.
Pour rappel, une des raisons pour lesquelles le gouvernement français a fiscalement favorisé la consommation de gasoil est liée à la surproduction de gasoil dans les raffineries en France.
Les constructeurs automobiles français ont fortement investi dans le moteur à diesel qui s'est fortement développé dans les années 80 en France. Cela a contribué à la forte augmentation de la consommation qui n'a pas été jugulée assez rapidement par une fiscalité moins avantageuse pour le diesel. Cela a abouti à une importation massive de diesel de l'étranger ... On voit ce qui en résulte aujourd'hui.
Problème du mélange de matières
Le mélange des matières peut présenter aussi un risque car il est très difficile ensuite de séparer celles-ci. Sustonable mélange du PET avec du quartz pour faire des plaques, Qwarzo (en quantités très faibles néanmoins) ajoute une pellicule de quartz à du papier pour le rendre rigide et remplacer certains usages du plastique comme les pailles. Paper on the Rocks créé du papier en mélangeant des déchets de BTP et des déchets agricoles sauf qu'à part eux, personne ne saurait recycler leurs cahiers ...
Quand des entreprises disent que c'est 100% recyclable il faudrait s'assurer par qui et si leurs produits peuvent rentrer dans le cycle usuel de recyclage.
Un des buzz words dans le domaine du recyclage est le recyclage chimique qui recouvre en réalité, trois techniques : la purification des plastiques par dissolution dans des solvants, la dépolymérisation (qui casse les molécules des polymères) et, enfin, les procédés thermiques (pyrolyse et gazéification). Pour moi, c'est la solution de dernier recours ... à éviter au maximum si c'est possible.
La promesse est de rendre par exemple le plastique éternellement recyclable (en cassant et reconstituant les molécules de plastique), en revanche les impacts néfastes peuvent être nombreux : solvants toxiques, coût énergétique prohibitif ...
Clear impacts propose une solution qui permettrait une combustion sans émission de gaz nocifs grâce à l'utilisation de vibrations à une intensité spécifique. Ca créerait une forme de vortex pour séparer les différents composants pyrolysés. Ils utilisent aussi cette technique pour assainir les eaux usées.
La pyrolyse peut transformer des matériaux non recyclables en énergie et potentiellement en nouveaux matériaux ou en diesel... Etia propose la première option, EarthWake la 2e.
Je suis sceptique à ce sujet car l'objectif n'est pas, selon moi, de perpétuer une économie carbonée ... Le nom de la seconde entreprise prête aussi fortement à confusion.
Ces entreprises se prévalent de favoriser l'économie circulaire, les cercles proposés peuvent être tellement grands que c'est à demander si comparativement à leur solution, l'économie linéaire n'est par préférable dans ce cas ! Leur solution est intéressante s'il n'y a pas d'autre choix et que la solution reste transitoire. Dans le cas d'EarthWake, elle permet en attendant d'avoir des véhicules électriques mus avec de l'énergie décarbonée, de pouvoir utiliser des véhicules à essence en utilisant des déchets plastiques plutôt que du pétrole. Le risque néanmoins est que le large développement de cette solution, incite à conserver les déchets et les véhicules à essence.
Pour les déchets biologiques, le compostage semble pertinent dès lors qu'il est en circuit court.
Upcycle propose un composteur destiné principalement aux restaurants d'entreprise ou d'écoles. à€ la différence des composteurs individuels, on peut aussi composter de la viande et du poisson. La matière doit rester 14 jours dans le composteur (qui est mécaniquement brassée toutes les 2h durant 2 min afin d'avoir un compost homogène) puis doit reposer 2 mois à l'extérieur.
L'ajout de broyat de bois apporte du carbone, aère et absorbe l'humidité. L'équipement est vendu à 15 000€ ou loué 650€ par mois. Cela a du sens dans une démarche durable une fois intégré avec un potager ou une serre autonome en énergie. En revanche, il ne faut pas compter sur la vente de compost pour rentabiliser la machine car une tonne de compost est vendue aux alentours de 25€ HT !
Carbiolice proposait des plastiques compostables, qui selon moi n'est pas une bonne solution, il est nettement préférable soit de réutiliser ou au pire d'avoir des produits biodégradables car le compostage nécessite des conditions particulières pour décomposer la matière.
Le compostage peut parfois même nécessiter un équipement industriel (entre 70 et 80 °C, avec un taux d'humidité de 70 % et un taux d'oxygène de quelque 20 %), a priori, ce ne serait pas le cas de Carbiolice qui pourrait être composté dans un composteur individuel.
Pour donner un exemple tout simple, si vous réalisez des affiches ou des bâches avec votre signalétique et les dates de votre événement, vous aurez du mal à la réutiliser !
Comme la durée d'utilisation est très courte, soit vous pouvez louer les éléments « génériques », soit vous devez les faire fabriquer sur-mesure sans pouvoir les réutiliser.
La location est une bonne option mais peut se révéler très chère. Ce n'est pas le prix des éléments de stand qui coûte cher mais la main d'oeuvre pour déplacer et installer ainsi que les coûts de stockage quand ils ne sont pas utilisés, plus les marges des standistes. Le comble est atteint au CES Las Vegas, où le coût de location d'une télé peut être 2 à 3 fois plus cher que son coût dans un magasin. à€ ce jeu-là, la plupart des startups en particulier françaises achètent leur TV sur place dans un BestBuy local et la redonnent à des associations caritatives après.
Il est aussi difficile d'utiliser des produits de récupération. J'ai eu la chance d'échanger avec Etienne Villotte, le fondateur d'Epatant, l'agence qui a réalisé la scénographie de ChangeNOW (qui a aussi réaménagé totalement les Canaux, Maison des Économies solidaires et innovantes de la ville de Paris en utilisant très majoritairement des éléments recyclés).
Il s'était fixé comme objectif de réaliser le fond de scène en récupérant des lattes de sommier à recycler. Ils ont réussi à trouver les entreprises et organisations capables de leur fournir ces lattes, de réunir celles-ci dans un entrepôt. Mais il fallait toutes les ignifuger. Cela représentait un surcoût majeur, nécessitait d'ajouter un intrant chimique non nécessaire tout en accroissant fortement les délais. Compte tenu de cela, il a été décidé de réaliser un fond de scène sans utiliser d'éléments recyclés. Cela ressemble à un parcours du combattant...
Santiago Lefebvre, Rose-May Lefebvre-Lucotte et Kevin Tayebaly, fondateurs de ChangeNOW ont mis au centre leur écoresponsabilité ce qui est totalement cohérent avec la nature de l'événement.
Pour faire face à ces problématiques, en collaboration avec l'agence Epatant, ils ont particulièrement fait appel à la location pour éviter au maximum de jeter des éléments. Ils ont utilisé des éléments recyclés notamment les Chaises Maximum (plastique recyclé) et facilement recyclables. Pour les éléments spécifiques, ils ont réutilisé la plupart des éléments imprimés produits les deux dernières années,
Etienne Villotte souligne qu'il faut concevoir l'événement dès le départ comme écoresponsable avec des principes très simples : anticiper la réutilisation des dispositifs (démontage, stockage...), travailler sur les matériaux bruts, privilégier les vis, clous, agrafes par rapport à l'utilisation de colle pour que le matériel puisse être démonté puis réutilisé facilement. Pour mettre en valeur la scénographie, ils ont intégré dans les grilles représentant chaque pôle des éléments distinctifs, verres recyclables pour la partie éco-emballage, tissus pour Sustainable Fashion ... avec l'aide aussi de nombreux bénévoles qui ont imaginé et créé ces dispositifs.
L'équipe interne de ChangeNOW a eu pour mission d'identifier les partenaires et mettre en place tous les flux de revalorisation et de sourcing. Ce sont les premières fois qui sont difficiles. A chaque nouvel événement, on parvient à aller plus loin, à changer les habitudes pour que cela soit plus facile, moins cher, plus rapide la fois d'après afin que cela devienne un réflexe, m'indiquait Etienne.
Santiago et Rose-May m'ont indiqué qu'avoir une démarche écoresponsable a un coût homme relativement important dans la mise en place du dispositif. En revanche, elle serait globalement moins chère, car il y a moins de matières utilisées de base, plus de partenariats qu'une relation clients / fournisseurs et une courbe d'apprentissage élevée pour les événements futurs. ChangeNOW a fait un énorme effort pour réduire au maximum son empreinte écologique malgré un budget qui devait rester limité (Ils n'ont pas fait de bénéfices sur cet événement ).
Hormis les éléments génériques qui peuvent être loués, il serait judicieux que toute la chaîne événementielle (fabricants de matériels, imprimeurs, standistes, agences de scénographie, organisateur d'événements ...) travaille sur des techniques de dépersonnalisation qui permettraient pour un coût réduit de réutiliser du mobilier, des bâches, des signalétiques et de les personnaliser.
Une technique pourrait être le développement d'encres lavables ou effaçables à la chaleur (à condition qu'elles ne s'effacent pas en conditions normales ou de fortes chaleurs (cf. l' encre effaçable du stylo Frixion qui sous la canicule disparait, gênant pour le bac ...).
A défaut des solutions de stickers imprimables et décollables, des « vitres » supérieures permettant d'intercaler dessous des éléments imprimés sur feuille transparente, des parties personnalisables amovibles permettraient de réutiliser facilement du matériel.
L'imagination des designers, fabricants de mobiliers, bâches avec l'aide des industriels fabriquant des encres devraient trouver une solution car il y a un sacré gaspillage en raison de la personnalisation.
Dans le cas de ChangeNOW, la plupart des startups ont pris leur signalétique compte tenu de leur design et qualité 😉
Une autre approche pourrait être d'utiliser des bénévoles pour réutiliser des produits pour des événements. Cela nécessite une forte préparation en amont pour ne pas faire perdre de temps et être efficace. D'autre part, cette solution n'est possible que pour les événements organisés par une association ou organisation à but non lucratif.
Rapide digression : Normalement, la loi interdit des contreparties pour les bénévoles y compris le droit d'entrée et les repas. Toutefois, il est d'usage dans les événements que ceux-ci soient offerts afin que le bénévolat n'engendre pas non plus de frais supplémentaires (pour plus de précisions : Collectif des festivals). Depuis 2006, il est aussi possible d'offrir des chèques-repas du bénévole pris en charge à 100% par l'association et exonéré de charges sociales et fiscales (montant maximum 6,70€ en 2020).
Pour intégrer une dimension inclusive, il est aussi judicieux de faire appel à des entreprises qui emploient au minimum 80% de personnes en situation de handicap (EA, ESAT ou CDTD).
Dans le cas de ChangeNOW, les bénévoles sont notamment intervenus sur des postes comme l’accueil des participants et intervenants, animation des réseaux sociaux, …
La clé reste toutefois le partage de bonnes pratiques afin de mettre en place des filières et des processus partagés entre événements, organisateurs, agences et au-delà.
L'événement Hello Tomorrow sur la DeepTech (12 et 13 mars) a aussi une démarche écoresponsable et propose à tous les organisateurs de discuter d'événementiel responsable dans cet esprit.
Pour ceux qui étaient vraiment attentifs à l'empreinte écologique se pose la question du chauffage. Évidemment, on pourrait décider de ne plus faire aucun événement au Grand Palais s'il fait trop chaud ou trop froid pour réduire l'empreinte écologique !
Une autre manière est que de rechercher des solutions pour que ce type de bâtiment puisse au fur et à mesure nécessiter de moins en moins d'énergie externe (avec des panneaux solaires, peut-être pas au-dessus de la grande verrière 😉 mais ailleurs, des pompes à chaleur ...) et consomme de moins en moins d'énergie. Il est inutile de chauffer toute la verrière ... et c'est possible avec du chauffage par rayonnement infrarouge court (avec un rendement électricité en chauffage très élevé).
L'équipe de ChangeNOW a recherché pendant un an avec le Grand Palais des moyens de le chauffer de manière écologique (dont le rayonnement infrarouge), mais les solutions identifiées sont trop « early stage » et pas assez robustes pour être mise en place dès cette année.
ChangeNOW collabore justement en ce sens avec la Réunion des Musées Nationaux-Grand Palais pour les aider à faire cette transition dans les futures années.
Nous voyons qu'il y a beaucoup de solutions possibles et qu'elles s'appliquent à tous les domaines y compris dans le monde événementiel.
Des solutions peuvent être pertinentes dans un contexte, un lieu et plus dans l'autre en raison de la logistique, distance, des opérations de transformation.
Un vrai travail de recherche, de mutualisation de solutions permettrait d'utiliser une diversité de déchets disponibles localement afin de fournir avec le moins d'énergie et d'impacts négatifs possibles des produits tels que des briques, du mobilier, des vêtements.
D'autre part, il serait utile d'expliciter le champ de recyclabilité des différents produits. Un matériau utilisé et recyclable par un seul industriel pour un nombre limité de produits n'a pas du tout le même intérêt qu'un matériau utilisé et recyclable par une très grande majorité d'industriels pour une grande diversité de produits.
Le prochain article sera justement sur le diagnostic et les indicateurs RSE (lien vers le 1er) car pour savoir si on s'est amélioré, il faut une base de départ mesurable. Je couvrirai aussi les autres thèmes comme l'énergie et la mobilité. Avant celui-ci, voici une petite vidéo où je fais un 1er retour de ChangeNow interviewé par Duc Ha Duong.
Je réalise pour des entreprises, des missions pour "sourcer" des innovations (ChangeNOW, CES Las Vegas, MWC mais potentiellement toutes les startups et innovations internationales), les évaluer, concevoir et construire des solutions avec les partenaires développant ces solutions qui répondent aux problématiques des entreprises clientes et les déployer.
Si vous souhaitez que je réalise un débrief / conférence spécifique à vos métiers pour identifier les innovations, tendances et disruptions dans ce domaine notamment , n'hésitez pas à me contacter :)
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain et RSE / économie circulaire) - Contact (contact@livosphere.com )
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Les années 2020 sont celles de l'action et plus seulement de l'évangélisation. ChangeNow y fait écho en devenant l'événement incontournable de toutes les innovations sociales et environnementales. (English version - Voir aussi article sur les innovations dans l'économie circulaire et les innovations au CES Las Vegas : IA, IoT, Sustainability...)
Installée au Grand Palais après 2 ans à Station F, ChangeNow va désormais pouvoir être The Place to Go comme le CES Las Vegas pour l'innovation technologique, le Mobile World Congress pour les innovations mobiles et digitales (B2B) auxquelles je participe depuis plus de 5 ans.
A la différence du CES où la Tech for Tech prime, ChangeNow donne du sens à la tech et plus largement à l'innovation notamment sociale et économique. Il promeut des solutions innovantes, "scalables" à grande échelle, pérenne sur le plan économique qui répondent à un des 17 objectifs de développement durable (ODD ou Sustainable Development Goals, SDG) définis par l'ONU.
Quel serait le futur avec ChangeNow ? Nous pourrions imaginer un monde où se nourrir contribuerait à améliorer notre planète plutôt que de la mettre en péril, où les matériaux utilisés seraient réutilisables sans polluer, où le transport utiliserait le vent plutôt que le pétrole, où les produits seraient conçus pour être facilement réutilisés et leurs impacts négatifs neutralisés, où les déchets deviendraient des ressources pour émerveiller les enfants.
Ce sont en réalité les 6 innovations qui m'ont le plus interpellé à ChangeNow.
Il y a bien d'autres innovations citées ci-dessous : le vrac par Jean Bouteille, les moteurs électriques à énergie solaire (Saurea), les bateaux dépolluant les rivières de The Ocean Cleanup...
Il y a 3 autres articles: l'économie circulaire (le transport / la logistique, l'emballage, l'usage, le recyclage/la réutilisation, le compostage, la dépollution), sur l'énergie, la biodiversité et l'eau, et la Mobilité, santé, inclusion, finance durable et indicateurs RSE/ESG.
(Liens directs vers les parties de l'article)
Il y a urgence pour les grands groupes et entreprises à investir dans ces domaines et avoir des modèles économiques "sustainable" (sinon elles perdent au minimum 50% des talents). Il faut désormais les financer, industrialiser, les solutions, les déployer.
Un bon signe est la venue de plus de politiques à ChangeNow qu'au #CES2020 (Muriel Pénicaud, Brune Poirson, Kat Borlongan, Lise Kingo de l'ONU), de personnalités comme Nicolas Hulot, Tony Estanguet (pour Paris 2024) et de beaucoup de personnes de l'écosystème digital. Ce ne sera pas de trop pour accélérer le changement vers des modèles durables.
L’Europe a aussi promu son initiative JEDI, Joint European Disruptive Initiative pour attaquer des problèmes comme les micro-plastiques, les pesticides... et éviter qu'on se retrouve en tenaille entre Trump s'il est réélu et Xi Jinping
Je souhaite aussi soulever plusieurs paradoxes, celui de The Explorers qui a filmé avec des images superbes notre planète pour donner envie de la sauvegarder mais qui pour les montrer doit faire la pub pour la 8K de Samsung (dont le streaming vidéo consommera beaucoup d'énergie).
Je suis confiant avec Roberto M. de Samsung que les choses vont bouger aussi chez eux d'autant qu'ils sont intéressés d'échanger avec Emmanuel Faber, PDG de Danone afin de mettre en place un diagnostic et les mesures en ligne avec les 17 SDG. L'ONU en collaboration avec B Corp en mis en place SDG Action Manager, un outril permettant à chaque entreprise de se mesurer par rapport à ces objectifs)
Une amie m'a alerté sur l'utilisation de gobelets recyclables dans les talks de ChangeNow. Faut-il alors utiliser des gobelets réutilisables ?
Comme dans un grand nombre de cas, ça dépend (ici du nombre de réutilisations, de la matière...) ! Le plus simple est d'une part de mesurer et de réduire les impacts écologiques en fonction du contexte. Difficile de demander à chaque intervenant de payer une consigne avant de boire de l'eau.
Dernier paradoxe, en voulant faire mieux, on fait moins bien.
L'exemple le plus criant est Ecoams Planet qui vend des élastiques recyclables pour réduire la taille de l'espace occupé par les bouteilles en plastique. Je vous laisse juge de la pertinence de cette solution !
Paper on the rocks pourrait aussi poser problème. En réduisant la consommation d'arbres pour produire du papier, ils utilisent de la pierre (provenant de déchets BTP) et des déchets agricoles.
Le problème est que leurs cahiers ne sont recyclables que par eux car ils mélangent les matières.
L'économie circulaire repose sur des équations simples pour qu'elle soit pérenne économiquement. Pour le recyclage d'un produit, le coût logistique et de traitement d'un produit à recycler doit être inférieur au coût de la matière vierge pour un même niveau de qualité.
Pour la réutilisation, le coût logistique et de traitement d'un produit à réutiliser doit être inférieur au coût de la matière vierge, de production et logistique pour un même niveau de qualité et d'usage. L'objectif est de réduire les coûts logistiques et de transports notamment en réduisant la taille des cercles.
D'autre part, il faut intégrer le taux de recyclage des produits recyclés et le taux de réutilisation des produits réutilisés. Le plastique par exemple ne se recycle que quelques fois (hors recyclage chimique de plus en plus en vogue qui pose d'autres problèmes) à la différence du verre et de l'acier.
En plus du bénéfice écologique, les innovations ci-dessous ont pour objectif de réduire les coûts de recyclage et de réutilisation et d'avoir un niveau de qualité à l'usage similaire voire supérieur un produit fabriqué de manière linéaire (production -> usage -> déchet).
Fruit and Food propose de partager vos excédents de fruits et légumes produits dans vos jardins.
Vous n'êtes pas soumis à la fiscalité des bénéfices agricoles (tolérance du fisc) si la surface de votre jardin est inférieure à 500 m2 et que votre potager est attenant à la maison.
Peas & love propose de louer des parcelles de potager communs pour moins de 40€ par mois gérées par un "community farmer" et de pouvoir récolter les fruits et légumes de la parcelle alors que Culture et compagnies (destiné aux entreprises) propose qu'un maraîcher vienne cultiver vos surfaces disponibles (si votre entreprise a des espaces verts) et vous.
Les produits sont vendus localement aux salariés ou peuvent l'être aussi à des AMAP locales (Associations pour le maintien d'une agriculture paysanne), restaurant d'entreprise.
Fleurs d'ici a un mode plus classique de vente mettant en relation des producteurs locaux de fleurs (provenant en très grande majorité de l'étranger, Pays-Bas mais aussi Kenya, Équateur, Colombie ...) avec des consommateurs. Ils proposent aussi un abonnement.
Pour l'anecdote, ils tracent leur production grâce à la blockchain. Je ne suis pas sûr que cela vaille le coup de le mettre en avant et que la blockchain soit indispensable dans ce cas.
En direct des éleveurs vendent aussi du lait en circuit court en revanche, ils distribuent dans les supermarchés Super U et Leclerc (Ouest de la France).
Une des problématiques de ces structures est leur scalabilité car leur maillage local rend très difficile un développement national et international. L’objectif est de contourner le réseau des grossistes voire de détaillants. Ils ont certes de nombreux points à améliorer mais ont aussi un rôle pour structurer le marché, mutualiser les risques, faciliter la communication (évite la multiplicité d’interlocuteurs) … La réglementation peut certainement favoriser le développement de multiples entités et initiatives de production locale en circuit court.
En revanche, cela me semble difficile de créer des acteurs nationaux et internationaux sur ces domaines à moins de créer de nouveaux types de grossistes sous forme de plateformes à la sauce Uber ou Amazon. Dans ce cas, on perd complètement l'esprit initial.
Solubio (Brésil) fournit des solutions permettant aux agriculteurs de créer leurs propres biopesticides et biofongicides afin d'éviter l'usage de produits chimiques.
En les produisant localement, ils sont beaucoup plus efficaces et concentrés que s'ils étaient transportés et conditionnés (c'est une matière vivante ... !) pour une quantité adaptée.
Bioma est une entreprise suisse qui a développé des produits enzymatiques (sans OGM, sans produits chimiques et ne nécessitant pas d'équipement de protection individuelle pour s'en protéger) qui permet de réduire drastiquement l'ammoniaque (NH3) dans les fumiers ce qui par conséquent réduit l'acidification et de l'eutrophisation des milieux.
En France, l'agriculture contribue à hauteur de 97 % aux émissions nationales d'ammoniac dont 46 % proviennent des élevages bovins laitiers et allaitants.
Solicaz pose une délicate question car leur métier est de revégétaliser des terres exploitées. Soutenu par le groupe de luxe Kering ( Marques Gucci, YSL, Balenciaga, Boucheron... dirigé par François Pinault, qui à l'origine était dans le négoce de bois ... ;) ).
Solicaz permet de revégétaliser par exemple des mines d'or n'utilisant pas de cyanure ou de mercure (ce dernier est amalgamé avec l'or pour faciliter l'extraction d'or mais les vapeurs de mercure sont extrêmement toxiques d'où d'ailleurs son interdiction dans les thermomètres).
Y a-t-il un risque d'effet rebond ? Sachant qu'on peut revégétaliser, va-t-on plus exploiter les ressources naturelles ?
Planctonid proposerait la solution idéale ... des photo-bioréacteurs remplis de micro-algues.
Se fondant sur une bibliothèque de plusieurs dizaines de milliers de micro-algues différentes, ils sont capables selon l'intrant (l'eau naturelle, azotée, phosphorée, polluée et même des métaux lourds), le CO2 et la lumière, de les transformer en produits alimentaires (les micro-algues séchées et mises en poudre) pour nourrir des élevages, de servir de complément alimentaire pour un impact écologique bien moindre (dont aucun dégagement de méthane) et me de réaliser des bio-plastiques.
Pour une surface équivalente, ces micro-algues pourraient capter 180 fois plus de CO2 que des forêts. La difficulté est d'industrialiser le processus de production car les micro-algues doivent être consciencieusement choisies, cultivées à la bonne température avec les conditions lumineuses adéquates.
Compte tenu de leur multiplication, il faut gérer leur récupération ainsi que le cycle de l'eau. On ne peut pas par exemple les mettre dans une cuve transparente et attendre qu'elles se multiplient car les microalgues au centre ne peuvent survivre n'ayant plus accès à la lumière. Planctonid a passé le cap de l'industrialisation, ils traitent en pilote des eaux usées à Saint-Nazaire (et réduit l'eutrophisation des rivières) et a construit une usine visitable à Alicante en Espagne
Planctonid a choisi des plaques verticales types verre à double vitrage. Sunoleo propose aussi des photobioréacteurs plus petits pour produire de la biomasse en revanche ils utilisent des cuves intégrant des puits de lumière. Selon moi, il y a plusieurs problèmes à ce dispositif, la lumière absorbée par les micro-algues est différente selon leur emplacement, distance par rapport au puits de lumière et profondeur dans la cuve.
Je suis aussi un peu circonspect sur le mode de récupération des micro-algues par un système de vidange. Nous verrons...
En tout cas, il est évident, que nous basculerons d'ici quelques années du traitement chimique vers un traitement biochimique avec les micro-algues, mais aussi les enzymes et bactéries. Les Dupont de Nemours, BASF et consorts devraient a priori massivement investir puis basculer dans ce domaine. Il est aussi fort probable que des industriels s'amusent à modifier génétiquement les éléments biologiques pour augmenter leur efficacité et leur champ d'utilisation pour le meilleur et ... pour le pire. (NB : Planctonid n'apporte aucune modification génétique à ses microalgues). .
Pour la faim, il y avait évidemment des burgers sans viande ! HankBurgers Vegan avait installé un stand qui ne désemplissait pas sur base des Beyond Burgers, concurrent de l'Impossible Burger, présent au CES Las Vegas.
Ne rêvons pas, pour réaliser ces produits ultra-transformés, il faut beaucoup d'énergie, utiliser soit des organismes génétiquement modifiés (ex : le soja léghémoglobine ou hème, qui donne la texture et le goût de la viande aux Impossible Burger) ou d'autres produits interdits aux animaux (selon INRAE). Pour la viande artificielle, non seulement elle est extrêmement coûteuse mais en plus les bénéfices environnementaux sont très réduits.
Si jamais vous adorez le quinoa, n’oubliez qu’il provient à 80% de Bolivie et du Pérou, le reste provenant de l'Equateur, des États-Unis et de la Chine.
Saluons néanmoins la production de quinoa en Anjou dans le Maine-et-Loire 😊
Selon le rapport du GIEC, 80% de la déforestation est générée par l'agriculture principalement à cause de l'élevage industriel & la culture du soja pour l'alimentation animale (63 % de la déforestation en Amazonie).
Le système alimentaire mondial contribue jusqu'à 30 % aux émissions mondiales totales de gaz à effet de serre (2007-2016), principalement à cause de l'élevage du bétail (14,5%), la culture du riz et l'épandage d'engrais.
Pour avoir une vision équilibrée de l'impact de l'élevage sur notre planète, je vous conseille aussi la lecture de cet article de l'organisme public l'INRAE, l'institut national de recherche pour l'agriculture, l'alimentation et l'environnement.
Quelques exemples : 86% de l’alimentation mondiale des animaux se composent d’aliments non consommables par l’homme (feuilles, herbes…), 13% de grains et 1% de soja, manioc…, l’élevage utilise majoritairement des terres non cultivables (dites non arables : prairies, montagnes, steppes…).
En revanche, en calculant les surfaces dans les camemberts, on s’aperçoit que l’élevage représente environ 40% des terres cultivables …
Nous utilisons immodérément des colorants. Or leur production provient souvent de composés chimiques ( les colorants azoïques représentent 60-70 % de la production et certains sont toxiques et mutagènes).
Pili crée des colorants biodégradables mais résistants aux lavages grâce à des micro-organismes analogues aux levures utilisées pour fabriquer la bière, le pain. Ils consomment 5 fois moins d'eau, produisent 10 fois moins de CO2...
De manière plus anecdotique en termes d'impact, Krown.Bio fabrique des objets de décoration à partir de mycélium (racines de champignons) et de déchets agricoles.
Luma Arles transforme grâce à l'impression 3D des algues en lampes, bocaux ...
Marine Innovation utilise aussi des algues et d'autres sous-produits (mélasse d'huile de palme...) pour fabriquer des emballages, boîte à oeufs, cales dans les packagings.
Lactips propose des granulés thermoplastiques grâce à des protéines de lait. Ses emballages sont biodégradables et même comestibles et pourraient remplacer de nombreux sachets (riz, détergents...)
Enfin, l'éco-conception est aussi anticiper et faciliter le désassemblage de son produit. Resortecs fabrique des fils qui se dissolvent sous la chaleur et qui permettent de désassembler des vêtements en leurs différents composants tout en étant lavable, repassable.
Cela permet très facilement de décomposer un jean par exemple en ses différents éléments (textile, boutons, tirettes...) et d'en créer ou réparer un nouveau beaucoup plus facilement. Il y a trois types de fils qui se dissolvent à des températures différentes. Un à 190°C pour les vêtements qui se repassent, un autre à 170° et 100°C pour les tricots.
La température de repassage est certes supérieure à 200°C mais comme le fer à repasser ne passe pas nécessairement longtemps sur les fils et que la température se diffuse dans le tissu, les tests actuels n'ont pas montré qu'ils se dissolvent. A l'inverse, la température de dissolution ne peut être trop élevée pour éviter que les vêtements brûlent !
Voilà pour la première partie de ce guide de ChangeNow qui en comportera encore bien d'autres (ça prend du temps de l'écrire !).
La démarche est celle que j'utilise pour analyser les startups et innovations au CES Las Vegas depuis quelques années (cf. debrief 2020, 2019, 2018), fondée sur de nombreux échanges avec les startups, entreprises, une veille technologique, la lecture de nombreux articles et ouvrages... D'autre part, je cherche à remettre en perspective les innovations par rapport à d'autres solutions, en tenant compte de leur viabilité économique et de leurs impacts sociaux et environnementaux (je réalise des expertises à 360° de startups et innovations pour la BPI).
Comme toutes les entreprises citées ci-dessus, j'ai aussi un modèle économique. Mes écrits sont accessibles gratuitement.
Je réalise pour des entreprises, des missions pour "sourcer" des innovations (ChangeNow, CES Las Vegas, MWC mais potentiellement toutes les startups et innovations internationales), les évaluer, concevoir et construire des solutions avec les partenaires développant ces solutions qui répondent aux problématiques des entreprises clientes et les déployer.
Aujourd'hui, la plupart de mes missions concernent de nouvelles technologies comme l'IA, l'Internet des Objets et la blockchain. L'article suivant présente le projet que j'ai réalisé pour déployer des robots collaboratifs dans une entreprise de mode. Je m'étends vers des projets ayant un impact environnemental et/ou social.
Si vous souhaitez que je réalise un débrief/conférence ou formation spécifique à vos métiers pour identifier les innovations, tendances et disruptions (Mobilité, Énergie, Santé, Economie Circulaire, Smart City, 5G, IA, Blockchain, IoT ...) , n'hésitez pas à me contacter :) Je pilote aussi des projets d'innovation sur ces sujets.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain, Robots) - Contact (contact@livosphere.com )
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Comme chaque année, je réalise des prédictions sur l'année qui suit et les quelques années qui suivent car j'ai tendance à un peu trop anticiper certains événements. (Pour des conférences, cliquez ici - In English)
En 2019, j’avais traité le sujet de l’Humanité aux pieds d’argile et comment créer une société résiliente « en boule de gui », en 2018, l’Inflexion exponentielle des technologies, la Confusion (Homme-Artificiel, Vrai-Faux), et Confrontation entre Etats, GAFA, BATX, Individus, Planète
Le fil rouge pour cette année est la place de la Tech dans nos sociétés. 2020, sera une étape charnière pour la technologie, nous avions parlé d'une sympathique Tech for Good et avons dépassé ce cap car aujourd'hui devant le réchauffement climatique, les inégalités sociales…, nous sommes face à un dilemme : Tech for Gods ou Tech Bashing. Je suis partisan d’une technologie qui prend en compte plus la dimension humaine, locale, durable, et qu'elle soit proportionnée au problème.
En résumé mes prédictions sur les nouvelles technologies sont :
Technologie plus humaine, locale, écologique, proportionnée au problème
Quelques prédictions pour 2020 :
Aujourd'hui, 2050 sont devenus les années repoussoir avec son flot de catastrophes, effondrements, ravages annoncés dus notamment à l'utilisation de certaines technologies ! 50 ans avant, l'imaginaire collectif sur les années 2000 était plein d'espoir, de rêves nourris par la Science-Fiction, de progrès technologiques bien sûr exagérés et erronés sur différents plans mais qui donnait envie de les vivre. Il en est tout autrement aujourd'hui.
Entre les films Retour vers le futur et Ready Player One, le contraste est saisissant !
Tout ça ne paraît pas très enthousiasmant, je termine donc par mes dernières prédictions pour répondre à ces problématiques :
Nouvel imaginaire pour 2050
Si les moins de 20 ans ne veulent pas périr de désespoir, ils peuvent créer et communiquer sur leur propre imaginaire de la société dans laquelle ils aimeraient vivre, différente de celle de leurs aînés. C'est cet imaginaire que des hommes et femmes comme Greta Thunberg doivent propager et construire plutôt que de perdre leur énergie à demander aux anciens de renier leur imaginaire.
ll y a beaucoup de débats sur les positions de Greta Thunberg lors de son passage à l'ONU ou à Davos.
Greta Thunberg est un peu la "Laurent Alexandre" du climat, son rôle est de nous faire prendre conscience de l'urgence climatique. Les leviers les plus forts pour y réussir sont la peur et le désespoir, domaines dans lequel elle sait exceller.
Mais on ne peut pas demander à Greta de devenir la Gandhi, la Martin Luther King du climat. D'ici un an ou deux, émergeront d'autres figures charismatiques, qui prendront la relève de Greta. Après cette première prise de conscience (merci Greta), elles nous emmèneront mondialement vers l'action au pas de course. Elles seront porteuses d'une transformation drastique de nos modes de consommation (encore très majoritairement fondée sur la consommation de masse, la mobilité carbonée, l'agriculture intensive...). Elles seront capables de faire bouger les lignes des États, des entreprises et changer nos comportements individuels. Avant Martin Luther King, il y a eu de nombreuses personnalités, Rosa Parks, Linda Brown, qui chacune ont contribué à transformer notre société. Greta est juste la première incarnation de ce bouleversement.
Soyons à l'écoute, découvrons et favorisons l'émergence de la Gandhi, la Martin Luther King du climat. Certaines personnalités jailliront et incarneront la métamorphose de notre société en se fondant sur des actions de masse partagées et non plus sur une peur collective.
1. la collaboration (de pair à pair, dans une communauté et entre communautés)
2. la responsabilisation des citoyens et des communautés (en anglais : " Citizen et community empowerment ") qui permet de décentraliser des décisions, moyens, ressources à la bonne maille et être responsable (" accountable ") de ses décisions (positives et négatives)
3. l'éco-responsabilité, utilisation de la low tech (tech utile, durable et accessible) et la high tech là où c'est vraiment pertinent
4. la diversité (indispensable pour faire émerger des idées nouvelles, être plus résilients, solidaires) dans le respect de chacun
L'objet de ces prédictions n'est pas d'avoir raison mais plutôt qu'on se pose les bonnes questions, à chacun ensuite d'y répondre. Nous rentrons dans un cycle de 20/30 ans qui devrait s'accélérer et profondément transformer nos sociétés, nos vies, notre consommation.
Nous vivons le début d'une crise existentielle de nos civilisations plutôt qu'un effondrement.
Rassurons-nous, il y a les JO 2020 et les élections américaines cette année, qui sait nous aurons peut-être de très bonnes nouvelles qui compenseront peut-être le lot de mauvaises nouvelles 😉
Avant de commencer à voir tous les problèmes posés par les nouvelles technologies voyons mes prédictions à ce sujet et ce qu’elles peuvent faire de bien en 2020 !
Elle se démocratisera de manière visible et surtout invisible en s'intégrant de plus en plus, dans notre quotidien dans nos logiciels et nos smartphones.
Dans nos TV, l'IA réalise déjà de l'upscaling, dans nos smartphones l'IA améliore la qualité des photos ou redresse notre tête quand on l'utilise avec FaceTime. Nos radiateurs, équipements électroménagers devraient réduire leur consommation, nous alerter avant les pannes et communiquer avec nous pour des usages précis, grâce à l'IA embarquée dans des puces pour des prix dérisoires.
Le partenariat de Snips (reconnaissance vocale & NLP embarquée aujourd'hui rachetée par Sonos) par NXP illustre cette tendance en proposant des puces capables de gérer les échanges vocaux spécifiques. Les lunettes classiques intégrant un assistant vocal intelligent (ou juste un espace pour l'intégrer) devraient faire florès comme l'illustre Amazon avec Echo Frames et Bose Frames.
De nouvelles interfaces homme-machine se développeront (ex: interfaces Brain-to-Command performantes comme NextMind captant et décodant avec l'IA le point d'attention à partir des flux électriques à la surface du crâne ).
Clinatec avait déjà montré leur dispositif, Wimagine qui permet à une personne tétraplégique de se déplacer grâce à son exosquelette. On utilise ses intentions de mouvement (interprétées par les signaux électriques du cerveau un Brain Computer Interface (BCI), dispositif médical qui mesure en haute résolution l'activité électrique dans le cerveau)
L'année dernière, BrainCo montrait ses premières prothèses de main utilisant la modulation de l'influx nerveux dans les moignons pour faire bouger chacun des doigts, cette année au CES Las Vegas, je peux même serrer sa main. L'IA est utilisée pour traduire un influx nerveux déclenché par le cerveau en geste et aide les personnes à compenser leurs handicaps. L'IA apprend du cerveau humain qui s'adapte à l'IA qui apprend du cerveau humain...
L'IA devrait rentrer dans une phase exponentielle en termes de capacités d'analyse, de découverte et de création. Les scientifiques sont souvent confrontés à la masse de données collectées lors de leurs expériences, de leurs découvertes. L'IA va devenir une aide indispensable pour eux pour faire le tri des données, trouver les perles rares mais aussi identifier les erreurs.
Récemment, une IA créée par Google a su prouver plus de 1200 théorèmes mathématiques (déjà prouvés 😉 ) avec un taux de réussite de près de 40% après avoir été entraînée sur plus de 10 000 théorèmes. Une IA a pu sur base de textes scientifiques anciens prédire les meilleurs matériaux thermoélectriques modernes grâce à du text-mining. Une IA d'une équipe du MIT a su traduire avec une précision de 67% une langue ancienne, le Linéaire B, forme ancienne et archaïque du grec.
Les Etats devraient aussi en profiter pour débusquer les comportements illicites et les fraudeurs. Le fisc français peut identifier les fraudeurs (limité aux activités occultes, domiciliations fiscales fictives, trafics illicites)... comme l'a autorisé le Conseil Constitutionnel, avec un certain nombre de garde-fous (ex : conservation limitée à 5 jours, recours interdits aux sous-traitants pour l'exploitation ou la conservation des informations personnelles).
Certains se disent qu'il suffit de ne plus poster publiquement des photos à côté de son véhicule pour passer à travers les mailles du filet. Ce serait bien naïf. Certaines IA sont capables de déterminer votre orientation sexuelle avec une forte probabilité sur base de vos likes même si vos likes n'ont aucun lien apparent avec votre orientation sexuelle. (cf. documentaire : Comment Trump a manipulé l'Amérique sur Arte) et intervention de Yuval Harari si un algorithme lui avait prédit qu'il était gay à 15 ans plutôt qu'il ne s'en rende compte à 21 ans).
Le principe est assez simple, si des groupes de personnes ayant des caractéristiques communes likent plus particulièrement certains types de posts par rapport à une population ne les ayant pas, on peut en déduire sur base des likes, la probabilité qu'ils aient tel type de comportement.
Avec 10 likes, on serait capable de mieux vous connaître qu'un collègue de travail, avec 100, mieux que vos proches et amis, avec 230, mieux que votre compagne/compagnon ... Il ne vous reste plus qu'à regarder combien de Like publics vous avez laissé sur Facebook, Instagram, Twitter ...
Pour entraîner l'IA, il faudrait idéalement identifier les posts des fraudeurs existants et connus du fisc et les corréler avec leurs likes néanmoins le Conseil Constitutionnel n'a pas autorisé à recourir à ce dispositif pour les cas de contribuables coupables d'un défaut de déclaration et déjà sous le coup d'une mise en demeure. Ca devrait donc ralentir la phase d'apprentissage 😉
Néanmoins, le fisc veut porter à 35 %, la part des contrôles ciblés par l'IA en 2020, contre 13,85 en 2018.
Google met à disposition des outils de plus en plus simples pour permettre aux entreprises de créer leurs propres IA (avec AutoML ou AutoAI). Ces briques logicielles déterminent par elles-mêmes les modèles de machine learning et de deep learning, en fonction des besoins et des données d'entraînement disponibles. Ces offres se généralisent chez Google, Microsoft, Amazon, Datarobot et plein d'autres comme chez la startup française Prevision.io qui était au CES 2020 et présentera une nouvelle mouture de son outil.
De plus, le codage sera de plus en plus simplifié grâce à l'IA avec des solutions low-code ou No Code qui auront des performances de plus en plus proches de codeurs professionnels. Le métier de codeur se transformera en architecte de solutions d'IA car l'IA va être capable de programmer par elle-même. En revanche, on aura toujours besoin de quelqu'un pour spécifier ce qu'elle doit programmer et lui donner les lignes directrices et les lignes rouges à ne pas dépasser.
L'IA sera combinée massivement avec d'autres technologies les objets connectés, la blockchain, la robotique, le quantique même.
L'IA combinée avec la génétique et la robotique permettrait de réaliser les thérapies géniques à des coûts bien moindres, à condition bien sûr que les labos pharmaceutiques acceptent de réduire leurs marges bénéficiaires (généralement leurs marges nettes sont supérieures à 20% et peuvent dépasser les marges bénéficiaires (Lien 2018) d'un certain nombre de groupes de luxe en %.).
Les robots industriels intègreront massivement la vision augmentée par l'IA pour adapter leur comportement (j'ai réalisé un projet de robots collaboratifs pour une entreprise de mode. Voici un lien vers une étude de cas qui décrit sa mise en place).
Dans les processus administratifs, la RPA ou Robotic Process Automation (avec des entreprises comme UI Path, Blue Prism, Automation Anywhere et plus récemment Microsoft avec UI Flows) permet d'automatiser des tâches répétitives et intègrent de plus en plus des briques d'IA à différents niveaux. Pour transformer des données non structurées en données structurées, la RPA utilise l'OCR pour la reconnaissance de caractères, le traitement du langage pour l'analyse de mails.
Pour s'assurer que le processus ne déraille pas, l'IA s'assure que les données utilisées ne sortent pas d'une enveloppe normale de données usuelles ou qu'il n'y a pas d'incohérence entre les données. Pour les cas inhabituels, la main serait redonnée à un être humain.
Imaginons qu'une date de naissance 1/1/1982 soit transmise dans un formulaire pour solder sa retraite aujourd'hui, une RPA classique ne verrait pas l'erreur sauf si cela a été codé en amont. Une IA serait capable d'identifier cette incongruité sans que personne ne lui indique qu'il y a potentiellement une erreur dans son programme car l'IA verrait qu'un très faible nombre de dossiers ont une année de naissance aussi récente. On utilisera des techniques d'apprentissage non supervisé, afin de grouper des caractéristiques de données similaires et d'identifier des écarts inhabituels.
Petit rappel, il n'est pas nécessaire d'utiliser des réseaux neuronaux pour faire cela, des technologies de data clustering permettent de le faire aussi. L'IA permet d'avoir une finesse et d'identifier des clusters moins évidents dès lors qu'on a une quantité de données suffisante.
Il ne serait d'ailleurs pas étonnant que les IA apprennent à utiliser des techniques classiques de statistique et " supervisent " automatiquement leur utilisation. Cela éviterait de dépenser du temps et des ressources pour entraîner un réseau neuronal pour trouver de simples corrélations linéaires !
Une des problématiques de l'IA, plus précisément des réseaux neuronaux avec apprentissage supervisé est d'avoir des données labellisées de bonne qualité et en nombre pléthorique.
Pour identifier un chat dans une image, il ne suffit pas d'avoir des images de chat, il faut labelliser chaque image pour indiquer celles où il y a un chat et si possible où il se trouve. Cela prend énormément de temps et de nombreuses entreprises indiennes se sont spécialisées dans ces micro-tâches (grâce notamment à la plateforme Amazon Mechanical Turk). Les grandes avancées de l'IA consistent à réduire le temps nécessaire à labelliser les données. Il existe de plus en plus de techniques, par exemple
Une autre technique est de prendre des contenus avec plusieurs formats d'un même contenu et entraîner une IA capable de traduire l'un dans l'autre. Jean Ponce (ENS) utilise l'audio-description des films pour labelliser les scènes (les objets, les événements ...) (ex : un homme passe à côté d'un piano alors que la femme regarde Sam)
Plutôt que de réinventer la roue à chaque fois, c’est-à-dire réentraîner des réseaux neuronaux à partir de rien, les IA fondées sur les réseaux neuronaux vont utiliser de plus en plus les technologies de Transfer Learning et Federated Learning (ou apprentissage fédéré).
Le transfer learning permet de passer d'un modèle généraliste et de le spécialiser, il s'entraîne sur des domaines spécifiques beaucoup plus rapidement et avec moins de données. Par exemple, un réseau neuronal apprendra à distinguer des espèces de fleurs à partir d'un réseau neuronal capable de distinguer les fleurs.
C'est la technique utilisée par NextMind pour en une minute être capable d'apprendre où vous portez votre attention grâce à son casque car ils ont entraîné leur IA avant avec un très grand nombre de données.
Comme l'amélioration de l'apprentissage est linéaire quand la base croît exponentiellement, cela signifie que cela coûte en ressources et en données des bases beaucoup plus importantes pour passer d'un taux de fiabilité de 80% à 85% que d'un taux de 92% à 97%. La mutualisation de bases génériques (comme Imagenet) associée au transfer learning, permet de minimiser ces impacts ainsi que le croisement de données de sources diverses et indépendantes. Si dans un véhicule autonome, vous avez trois sources de données indépendantes indiquant à 80% qu'il y a un piéton devant lui, la probabilité que ce soit un piéton est de 1 - (1-0,8)^3 = 99,2%. Cela nécessite certes d'ajouter des capteurs indépendants et d'intégrer de l'IA (sensor fusion) mais cela coûte moins cher que d'avoir un seul équipement parvenant lui-même à avoir un taux de fiabilité de 99,2%.
Le Federated Learning évite de transmettre ses données brutes pour entraîner un réseau neuronal global "mère" sur base de réseaux neuronaux "filles".
On entraîne un réseau neuronal localement et on ne transmet que les paramètres de ce réseau neuronal au réseau neuronal global qui les utilisera pour s'améliorer. Cela évite en particulier de transmettre des données brutes (ex : données clients, opérationnelles...) et réduit donc les risques de fuite de données. La startup Cosmian utilise cette technologie associée avec le chiffrement homomorphe pour " garantir " la sécurité des données
Il existe d'autres techniques comme l'agrégation de données entre plusieurs personnes et la Differential privacy (la confidentialité différentielle en français) pour assurer la confidentialité des données. Le chiffrement homomorphe permet d'entraîner un réseau neuronal sur base de données que vous aurez cryptées.
En phase de production, vous cryptez vos données en entrée, les faites passer par votre modèle d'IA qui les transforme en résultats cryptés. Vous seul pourrez les déchiffrer avec votre clé de décryptage. Néanmoins la qualité de l'apprentissage est bien moindre et nécessite beaucoup plus de données que l'apprentissage classique.
Pour éviter de transmettre des données, l'exécution et même l'apprentissage peuvent en partie se réaliser sur des équipements locaux grâce à la forte croissance de puissance de calcul des processeurs IA et le développement de puces neuromorphiques spécialement conçues pour l'apprentissage de l'IA.
Cela permet de respecter le RGPD et réduit la consommation énergétique.
Réduire les entraînements superflus d'IA et la consommation d'énergie grâce au transfer learning, réduire les transmissions de données dont personnelles, les risques de hacking et la consommation énergétique avec le federated learning et l'Edge AI sont quelques techniques qui permettent d'adresser ensemble les impacts environnementaux, la protection des données, la cybersécurité.
Leur développement et la création de nouvelles (comme les IA architecte cf. ci-dessous) vont devenir vitaux dans les prochaines années si on veut éviter un rejet de l'IA en raison de ses conséquences négatives sur la planète et les individus. Google a d'ailleurs utiliser Deepmind pour réduire sa consommation énergétique dans ses serveurs.
Au début, il y a du greenwashing mais nous devrions converger vers du vrai Green AI. Cela est d'autant plus crucial qu'une IA sans électricité vaut autant qu'une puce grillée !
Beaucoup de data scientists ne jurent que par le deep learning alors qu'il y a des techniques beaucoup plus simples et rapides.
Appliquer le deep learning, c'est comme utiliser la force brute, tester une multitude de combinaisons pour résoudre un problème mathématique. Un peu de raisonnement suffit souvent amplement !
Or l'IA n'est pas une mais multiple, entre IA symbolique (nommé aussi GOFAI Good Old Fashioned AI : moteur de règles) et connexionniste (réseaux neuronaux notamment). Les deux démarches sont différentes, la première, top-down, la deuxième bottom-up.
L'utilisation combinée des deux, associée aussi aux outils statistiques traditionnels devrait fortement s'accélérer en 2020. IBM qui aujourd'hui a exclu sa branche IA symbolique, ex-Ilog, de sa solution IBM Watson devrait la réintégrer cette année, selon moi car d'ici peu, les deux types d'IA seront intimement liés.
L'intérêt majeur de la combinaison des deux est de nécessiter moins d'énergie et de données. En fonction du type de données et de leur quantité, structurées ou pas, labellisées ou pas, du résultat attendu on peut utiliser les réseaux neuronaux (full CNN, réseaux convolutionnels pour les images, les RNN pour les analyses temporelles, les LSTM ( Long short-term memory) pour le traitement du langage et NLP ...), les réseaux bayésiens, les algorithmes génétiques ... les moteurs de règles et arbres de décisions .... Leur combinaison nous fait entrer dans une fractale d'IA... On ne sait plus très bien quel type d'IA est au-dessus de l'autre.
La question est comment construire une solution IA cohérente avec une telle complexité et la gérer ?
Comme l'illustre les conclusions de l'accident d'Uber , l'intégration de multiples sources de données avec des décisions potentiellement contradictoires est particulièrement complexe. Pour un véhicule autonome, la probabilité qu'un événement extrêmement rare pour un véhicule survienne est très forte s'il est étendu à l'ensemble des véhicules circulants. Ce n'est pas parce qu'il n'y a quasiment aucune chance de gagner au loto, qu'il n'y a jamais de gagnants ! Le raisonnement est vrai dans le sens inverse.
Et ce n'est pas tout, pour créer une IA performante, il faut avoir des données propres et si possible structurées. Il faut aussi adapter la présentation des données en fonction du contexte, de l'utilisateur et contrôler la pertinence des décisions des différentes IA.
Vu la complexité de préparation et traitement de données, il devient de plus en plus compliqué à un être humain et même à une équipe multi-spécialiste d'intégrer, construire une solution complète d'IA.
Les méta-IA ou IA architectes devraient fortement se développer à partir de 2020, elles concevront des solutions d'IA de plus en plus complètes avec la capacité de les adapter en temps réel.
Une approche pertinente serait d'avoir un réseau neuronal " architecte " qui testerait des algorithmes traditionnels, moteurs de règles... et des sous-réseaux neuronaux pour résoudre un problème. Une fois entraînée, une autre IA aurait pour rôle de le rendre explicable voire de le transformer en nouveau moteur de règles capable de s'adapter ou en réseau d'agents. Au fur et à mesure, ces IA architectes pourraient manipuler de nouvelles compétences comme la programmation d'interfaces utilisateur en HTML, Python... Microsoft présentait récemment Power Automate et Power Virtual Agents qui sont une première viision de ce que ce sera.
Ces IA architectes sont les précurseurs de l'AGI, intelligence artificielle générale capable de rivaliser avec les êtres humains.
Ces méta-IA ne suffiront pas pour tout gérer car l'IA ne sait pas prioriser par elle-même. La vie d'un être humain a autant de valeur qu'un bit 0 ou 1. Nous devrions intégré des règles éthiques dans les IA pour quelles puissent prioriser un minimum et éviter les non-sens.
En 2020, les IA explicables et des techniques pour les rendre explicables et l'émergence d'IA éthiques devraient fortement se développer. Il est très difficile de distinguer la frontière entre une IA éthique et non-éthique, d'autant que selon notre culture, le contexte, les utilisateurs, ce qui est éthique un jour, ne l'est plus le lendemain. Vérité en deçà des Pyrénées, erreur au-delà...
Une première approche a été réalisée par le groupe d'experts européens HLEG qui ont défini une checklist accessible dans 23 langues . L'objectif est de se poser les bonnes questions quand on met en place une IA.
Une approche complémentaire est de rendre les IA " transparentes " et de les rendre explicables. On a tendance à dire que le deep learning n'est pas explicable et est une boîte noire, ce n'est pas tout-à-fait exact. On peut caractériser de manière approchée un algorithme de deep learning.
Dans l'exemple ci-contre, on entraîne un réseau neuronal à détecter le type d'animaux. En cachant des parties d'images de manière réitérée et en vérifiant ce que l'IA détecte dans une image, on est capable de déterminer les zones utilisées par l'IA pour détecter qu'il y a un mouton, une vache...
De la même manière, on peut vérifier les biais de sélection dans une IA qui trierait des CV en cachant des informations ou en remplaçant des informations par d'autres (adresse, âge, homme/femme). Si le tri de CV est fortement différent si on inverse la donnée entre hommes et femmes, il y a un fort biais lié au genre des candidats. L'IA peut déduire ces informations du prénom, des activités extra-professionnelles, voire de la structure même du CV pour mieux détecter les biais. Il faut alors au préalable vérifier toutes les données corrélées au genre et les cacher ou les randomiser afin de mesurer les biais de l'IA. By th way, c'est encore le boulot d'être humain de faire cette recherche.
La perte de ces informations peut potentiellement réduire la qualité du tri d'où la nécessité d'avoir régulièrement des audits et tests de l'IA et une vérification terrain des CV choisis et non choisis.
Même aux Etats-Unis, ils ont conscience des risques de biais puisqu'une loi sera bientôt présentée au Congrès américain à ce sujet par les sénateurs Cory Booker (D-NJ sur la photo) and Ron Wyden (D-OR) et le soutien de Yvette Clarke (D-NY) (Analyse et PDF : Algorithmic Accountability Act : "an algorithmic accountability bill was introduced to the US Congress that would require certain algorithms to be regularly reviewed for signs of bias."). D'autre part, la sénatrice Maria Cantwell (D-WA) et des collègues démocrates ont proposé un vaste projet de loi sur la confidentialité des données qui obligerait les entités couvertes à auditer certains systèmes de "prise de décision algorithmique" qui utilisent l'apprentissage automatique (ML).
L'enjeu est majeur car l’IA peut soit être utilisée comme aide à la décision avec la supervision d'un être humain soit comme outil de décision automatisée. Pour le tri de déchets, une IA intégrée dans une caméra prenant des décisions automatiques pour trier dans un bac à plastique ou en carton paraît évident. Il en est tout autrement dans la prise de décision d'accepter ou refuser un crédit (interdit par le RGPD, tout décision doit être motivée et au final donnée par un être humain) voire pour prendre une décision de justice comme c'est en train de se passer en Chine avec le crédit social.
Pour les personnes intéressées, j'ai réalisé un MOOC spécifique à ce sujet avec EMLyon sur l’IA et la prise de décision qui couvre notamment ces problématiques.
Aujourd'hui, l'IA que nous utilisons provient d'entreprises externes en particulier les GAFAM, à l'image des données personnelles, il devrait commencer à y avoir un mouvement des consommateurs et citoyens afin que chacun puissions avoir une IA personnelle que nous entraînions.
J'avais écrit il y a quelque temps un article à ce sujet (en 2011, Jamais son mon iLad ...) et je vais réaliser une intervention en juin dont voici le teaser en vidéo avec CamélIA, ma future IA personnelle 😉.
L'objectif est que nous puissions avoir une forme de "contre-pouvoir" face aux IA fournies par les entreprises.
C'est encore un peu tôt mais d'ici quelques années, nous pourrions avoir un droit à avoir et garder une IA personnelle comme aujourd'hui nous avons un droit sur nos données personnelles.
Un risque majeur est qu'une entreprise sur base de données personnelles ou " para-personnelles " (ex : likes, navigation sur Internet...) même non stockées puisse créer un jumeau numérique de notre comportement. Elle n'aurait plus besoin de ces données personnelles pour nous connaître et anticiper notre comportement, son modèle suffit. Quid alors de notre droit concernant ce modèle personnel d'IA, de sa portabilité, de l'information du client. C'est un sujet que devrait adresser la CNIL. A l'inverse, une IA personnelle pourrait brouiller les pistes, créer un écran de fumée pour ne pas créer ce double digital.
Plus près de nous se pose la question de la propriété des modèles d'IA et de la portabilité de ceux-ci pour poursuivre leur entraînement. IBM, à ma connaissance garde la propriété des modèles d'IA même s'ils ont été entraînés avec des données clients. Cette position est intenable et devient inacceptable pour la plupart des entreprises.
De plus en plus de sociétés réalisant des modèles d'IA pour des clients donnent la propriété de ceux-ci à ces derniers. Cela pose néanmoins des questions de propriété intellectuelle dès lors qu'une IA a été entraînée avec de multiples sources de données, clients, externes, open-source... et qu'il est très difficile de démêler l'écheveau.
Néanmoins, peu d'entreprises peuvent poursuivre l'entraînement de leurs modèles d'IA si elles cessent leur relation commerciale avec leur prestataire d'IA même si les clients possèdent le modèle.
Nous évoluerons certainement vers une portabilité des modèles d'IA comme le permet d'ailleurs le format ONNX soutenu par Microsoft.
Un des points faibles de la blockchain (cf. mon article à ce sujet) est sa consommation d'énergie et sa lenteur de transaction pour les blockchain publiques (permissionless lié au mode de consensus : Proof of work extrêmement consommateur d'énergie).
Pour cette raison, on verra plus l'émergence de blockchains de consortium (permissioned) qui nécessitent beaucoup moins d'énergie et sont beaucoup plus rapides car les entités qui valident les transactions sont choisies à la différence des blockchains publiques qui peuvent être validées par tous.
La blockchain devrait voir ses usages s'étendre de manière invisible sur des usages B2B comme l'authentification, la traçabilité notamment alimentaire et des emballages (cf. ma proposition dans la Loi pour une économie circulaire à ce sujet).
Elle deviendra plus une brique qu'une solution complète. Des données peuvent être partagées dans une base de données décentralisée entre de nombreux participants et être régulièrement hachées et intégrées dans une blockchain publique afin d'assurer sa traçabilité ultérieure.
Combiné avec l'IA, la blockchain et les smarts contracts pourraient voir le développement des premières entreprises autonomes (nommés DAO)
Concernant les crypto-monnaies, je suis assez circonspect sur l'avenir de celles provenant d'acteurs privés. La Libra de Facebook aura beaucoup de mal à sortir après la vague de départ de partenaires (cf. article détaillé) et de l'opposition des Etats et banques centrales. En revanche, les crypto-monnaies et les monnaies digitales devraient être développées par les Etats et les banques centrales.
Digital Yuan et Digital Euro
Malgré le fiasco de la première crypto monnaie d'Etat, le Petro, projet de "stablecoin" vénézuélien, deux projets majeurs devraient être lancés en 2020, le Digital Yuan, monnaie digitale d'Etat annoncée par le gouvernement chinois (en réalité elle n'est pas fondée sur la blockchain mais utilise certains de ses principes comme la traçabilité) et le "Digital Euro", crypto-monnaie appuyée sur l'Euro et directement gérée par les banques centrales des pays membres de l'Union européenne.
Le Digital Yuan a aujourd'hui un usage domestique et a vocation à remplacer le Yuan, la monnaie fiduciaire. L'intérêt est évidemment de permettre une traçabilité de toutes les transactions et de pouvoir " saisir " facilement les digital yuan des Chinois mal notés ce qui est plus compliqué avec l'argent liquide... On n'arrête pas le progrès !
Aucune autre crypto-monnaie n'est autorisée en Chine. L'autre potentiel du digital yuan, d'ici quelques années est son utilisation dans les échanges commerciaux en particulier avec les pays bénéficiant d'infrastructures sur les " nouvelles routes de la soie " et les pays en voie de développement qui ont une très forte inflation et une monnaie très instable comme au Venezuela.
L'intérêt est que le yuan devienne petit à petit une monnaie de référence sur le plan international entièrement contrôlé par la Chine et contrer à terme le dollar (10% des échanges commerciaux sont chinois mais le yuan représente 2% des paiements). Le terme approprié de la monnaie chinoise est en réalité, le renminbi, le yuan est l'unité primaire du Renminbi mais c'est le terme utilisé généralement ( 1 yuan vaut 10 jiao). Il est envisageable que certains pays dépendants doivent payer en Digital Yuan pour commercer avec la Chine, ce qui faciliterait sa convertibilité aujourd'hui limitée.
L'utilisation des cryptomonnaies aurait aussi du sens pour créer des monnaies locales potentiellement "sponsorisées" par les collectivités locales afin de favoriser le commerce local. Un usage inattendu de la blockchain est le jeu vidéo avec Nine Chronicles, un RPG totalement décentralisé, ce qui réduit les risques de blocage en cas de panne centralisée de serveurs.
Pour plus d'éléments sur la blockchain, vous pouvez regarder mon article spécifique dessus.
L'IoT devient aussi de plus en plus une brique permettant de capter des données ou d'agir. L'IoT dans le B2B explose en termes d'usages et permet d'énormes gains de productivité (évite les pannes, déplacements inutiles, optimise la gestion des ressources) et s'associe beaucoup avec l'IA gourmande en données.
En B2C, l'émergence de standards dans la Smart Home est très longue à venir mais devrait peut-être arriver comme le montre la nouvelle alliance " Project Connected Home over IP ", avec Zigbee Alliance (qui intègre Legrand, Somfy, Samsung) et de nombreux acteurs Apple, Amazon, Google et Zigbee Alliance.
J'ai fait de nombreuses prédictions erronées sur l'arrivée de normes de communication dans la maison (avec Thread de Google notamment). La principale difficulté est l'incroyable hétérogénéité des objets, usages, accès à l'électricité ... et des occupants dans un logement qui rend les standards extrêmement longs à mettre en oeuvre car il s'agit de standards multilatéraux transsectoriels (équipement de la maison, éclairage, sécurité, télécoms, énergie, mobilité ...).
Ma prévision est donc que cela prendra encore beaucoup de temps pour que des standards se démocratisent.
Il y aura beaucoup de "hype","buzz" médiatique autour de la 5G, c'est une innovation qui changera la donne (plus robuste et moins de latence nommé URLLC) surtout pour des usages spécifiques comme l'industrie, la télé-médecine, le véhicule autonome et connecté.
En revanche, la 5G restera une innovation incrémentale avec un modèle économique incertain pour les opérateurs télécoms concernant l'augmentation de débit (nommé eMBB pour les usages : 360°, AR/VR) et surtout l'IoT à bas débit et faible consommation d'énergie (nommé mMTC) car les solutions existantes comme NB-IoT, LTE-M, Sigfox, Lora répondent à 80% / 90% du besoin
Les restrictions appliquées à Huawei devraient aussi pénaliser le développement de la 5G car les infrastructures Huawei étant subventionnées par la Chine (Le prix des équipements Ericsson et moins cher que Huawei en Chine) sont moins chères à déployer et donc réduit d'autant le ROI des opérateurs. Vous trouverez une analyse plus complète de la 5G dans mon article sur le CES Las Vegas 2020 .
Nous entrons dans la phase Hype de l'informatique quantique avec une 1ère phase de "Quantum-Washing" comme il y a eu de l'IoT, l'IA et la blockchain washing.
Des principes fondamentaux de la physique quantique comme la superposition des états, l'intrication, la réduction du paquet d'ondes sont la source des futurs usages du calcul quantique : la parallélisation massive de calcul en particulier combinatoire (le premier pas a été les GPU par rapport aux puces traditionnelles, ), la simulation d'interactions chimiques, moléculaires (ex : la compréhension du repliement des protéines ) qui dépendent eux-mêmes de la physique quantique, la sécurisation des échanges.
L'Union européenne a d'ailleurs lancé un projet OPENQKD pour développer une infrastructure de télécommunication de clés de cryptage quantique.
Le premier intérêt de l'ordinateur quantique est de résoudre les problèmes ayant des multitudes de combinaisons en un temps polynomial plutôt qu'exponentiel (ex : le problème du voyageur de commerce). Cela pose d'ailleurs inversement un souci pour toutes les technologies fondées sur l'impossibilité actuelle de calculer en un temps raisonnable la solution à un problème mathématique comme la décomposition d'un nombre en ses 2 nombres premiers. Ce problème est la base des techniques de cryptage actuelles comme AES 512 bits utilisé pour crypter les données dans une blockchain.
Cela deviendra un risque majeur en particulier pour les services bancaires avec des risques de fuites de données et de piratage. Il devrait y avoir donc des investissements massifs dans les prochaines années dans les techniques de cryptage post-quantique, résistantes aux ordinateurs quantiques, plus rapidement encore que l'ordinateur quantique. Une phase de recryptage de données avec ces techniques deviendra nécessaire afin d'éviter le décryptage des données historiques.
Nous n'y sommes pas encore ... Google et IBM se tirent la bourre, le 1er ayant déclaré la suprématie quantique contestée par le 2e . La suprématie quantique signifie le moment où un ordinateur quantique dépasserait très largement un ordinateur classique en puissance de calcul et est évaluée à plus de 50 qubits.
Le Sycamore de Google serait capable de réaliser en environ 200 secondes un calcul qui nécessiterait environ 10.000 ans sur un superordinateur classique sauf qu'IBM affirme qu'il peut réaliser ce calcul en 2 jours et demi.avec un supercalculateur classique (en ajoutant 64 Po de SSD et. 7 racks de data-center. Merci Olivier pour la précision ;). D'autre part, le problème résolu par l'ordinateur quantique de Google n'a aucune application concrète et est spécialement conçu pour des ordinateurs quantiques.
IBM utilise le terme de " volume quantique " (qu'il est seul à utiliser) pour désigner la capacité de calcul d'un ordinateur quantique. Cela regrouperait tous les facteurs pertinents, à savoir, le nombre et la connectivité des qubits, la profondeur de l'algorithme utilisé ainsi que d'autres mesures telles que la qualité des portes logiques, notamment le bruit du signal.
Il y a loin de la coupe aux lèvres, avant d'industrialiser, de fiabiliser et surtout de pouvoir utiliser des ordinateurs quantiques avec des applications concrètes, il faudra sans doute une dizaine d'années minimum. Le périmètre d'utilisation du calcul quantique est aujourd'hui très restreint aujourd'hui. Nous verrons une phase de création d'algorithmes quantiques et de programmation quantique qui seront fondamentalement différents de la programmation actuelle mais qu'ils ne pourront s'appliquer qu'à un certain nombre de problèmes mais pas la totalité comme le laisserait croire certains médias.
L'ordinateur quantique ne remplacera jamais les ordinateurs actuels en revanche d'ici 20 ou 30 ans, les puces quantiques pourraient remplacer les GPU et processeurs neuromorphiques qui réalisent des calculs fortement parallèles et seront une de leurs composantes. Le jour où NVidia lance sa première puce quantique, nous pourrons alors parler de vraie révolution quantique. Je vous recommande d'ailleurs l'excellent e-book d'Olivier Ezratty à ce sujet
Nous aurons quelques surprises avec le génie génétique en 2020 bonnes et moins bonnes ... avec l'émergence de langages de programmation génétique.
Nous pourrions tout à fait imaginer d'ici quelques années écrire en Python ou son équivalent biologique afin de créer les premiers automates cellulaires pour traiter tel ou tel type de maladie génétique ou soigner des patients atteints de maladie virale.
Nous sommes déjà aux prémices de cette programmation.
Au début de cette année a été créé le 1er xenobot, robot programmable basé sur des cellules de grenouille. Après de très nombreuses simulations numériques (Deep Green) pour aboutir à des modèles viables, des scientifiques ont construit des organismes capables de se mouvoir, de déplacer d'autres organismes ... et aussi capables de se réparer tout ça à partir de cellules souches de peau et de muscle de xenopus laevis, des grenouilles qui vivent habituellement en Afrique.
On pourra parler vraiment d'organismes vivants lorsque ces xénobots seront capables de se reproduire ...
D'autres chercheurs ont créé un système CARVER (Cas13-Assisted Restriction of Viral Expression and Readout), qui combine SHERLOCK, un " outil biologique " qui diagnostique et mesure les niveaux d'ARN viral dans un échantillon avec l'enzyme CRISPR -Cas13 pour identifier des mutations cancéreuses ou détecter des virus sur des échantillons génétiques et les traiter. Ils sont parvenus à réduire de plus de 300 fois l'infectivité du virus de la grippe et pourraient éliminer d'autres virus à ARN comme Ebola et la grippe.
Verra-t-on un jour des BPI (biological programming interface) équivalents des API (application programming interface) dans le monde de la santé ? Je n'en doute pas une seconde ... On risque de voir Google prochainement sur le sujet !
Vu comme le vivant et les virus ont une capacité d'adaptation phénoménale, ce serait ballot que ces virus modifiés se retournent contre nous ... Nous devons avoir une utilisation très spécifique et encadrée de ces remèdes pour éviter la même erreur que les antibiotiques. On les administre de manière préventive pour les animaux d'élevage ce qui a grandement facilité l'émergence de super-bactéries résistantes à l'ensemble des antibiotiques existants. Je vous laisse imaginer les conséquences d'une grippe et Ebola résistante à tout vaccin ... Espérons que le Coronavirus ne prenne pas ce chemin.
On verra aussi de nombreuses alternatives à CRISPR émerger comme les gènes sauteurs qui évitent les problèmes d'off-target de Crispr (gène découpé au mauvais endroit...) ainsi que le développement d'organoïdes. Ce sont des " mini-organes " formés à partir de cellules souches, ou de cellules progénitrices un peu plus différenciées, qui s'auto-organisent dans un environnement 3D adapté (hydrogel...).
L'intérêt est de pouvoir étudier de manière beaucoup plus proche de la réalité, le fonctionnement d'un organe ou d'un tissu biologique et de passer à la 3D à la différence des boites de Pétri en 2D. Aujourd'hui, de nombreux animaux sont utilisés pour tester des traitements, les organoïdes permettraient de rendre la recherche animale plus efficace, précise et ciblée, et donc diminuera le nombre d'animaux utilisés mais l'organoïde ne remplacera pas l'animal entier. Sinon, ce serait une forme de clonage.
Des chercheurs de l'université de Californie sont même parvenus à recréer un mini-cerveau avec un réseau de neurones fonctionnel où apparaissent des oscillations cérébrales synchronisées.
La génétique synthétique devrait voir ses premières applications dans le stockage de données et la traçabilité. Des chercheurs suisses ont synthétisé un " ADN " synthétique qui code l'information de conception d'un objet, ils l'ont encapsulé dans des billes de silice nanométriques résistantes à la chaleur et diffusées dans la matière.
En l'occurrence, ils ont imprimé un lapin en 3D avec cette matière " augmentée ". En prélevant n'importe quelle partie du lapin, on est capable de récupérer l'ensemble des informations nécessaires à sa conception à l'image de l'ADN vivant. Dans cet " ADN " digital qu'ils nomment " DNA-of-things storage architecture ", ils ont stocké 45kb d'informations mais sont montés jusqu'à intégrer une vidéo de 1,4 MB qui peut être extraite de n'importe quelle partie d'objet dès lors que les billes de silices sont bien réparties dans toute la matière.
Les usages sont nombreux, le stockage des dossiers de santé électroniques dans des implants médicaux, la traçabilité et l'authentification d'objets comme des sacs, des emballages et l'intégration du mode de fabrication d'un objet intégré dans la matière même de l'objet.
En revanche, il y a plusieurs limitations, cet " ADN digital " est fixe et non dynamique, il n'est pas " vivant ", il ne se réplique pas par lui-même et sa fabrication reste à ce stade artisanal et non industrie
Avec toutes ces technologies, l’Homme risque de se prendre pour un dieu capable de résoudre d’une baguette magique l’ensemble des problèmes.
Aujourd'hui, nous émettons 37 Md de tonnes d'équivalent CO2 par an dans le monde et il faudrait les réduire à 0 d'ici 2055 pour n'avoir que 2° C de plus. Le GIEC indique qu'aujourd'hui nous augmentons la température de 0,2°C par décennie (avec les émissions actuelles) et que nous avons déjà augmenté la température de 1°C.
Ce qui signifie qu'au minimum, si nous ne faisons rien et s'il n'y a pas d'effet d'accélération (réduction de l'albédo, dégazage de méthane venant du permafrost...), en 2050, il devrait y avoir 1,6°C de plus (et ce ne serait qu'un début...)
Enfin si nous arrêtons de produire aujourd'hui des GES, l'impact sera perceptible dans 20 ans ... L'augmentation de température est liée au cumul de GES émis depuis l'ère pré-industrielle, donc en arrêtant nos émissions, nous ne faisons que limiter l'augmentation de température ... Arrêter d'émettre des GES, c'est un peu comme payer les intérêts de ses emprunts sans s'endetter plus, en revanche, on reste toujours aussi endetté !
Pour inverser la tendance, il faudrait réduire la quantité de GES accumulé ... un des nouveaux terrains de jeu de la géo-ingénierie. Le GIEC le définit comme " l'ensemble de méthodes et de techniques visant à modifier délibérément le système climatique pour lutter contre les effets du changement climatique " et cela aiguise de nouveaux appetits. La géo-ingénierie peut atteindre d'autres objectifs comme augmenter la bio-diversité, ou les ressources en eau, ici on parlera de " Climate Intervention " plus précise.
Il y a deux moyens d'intervenir actuellement pour réduire le réchauffement climatique soit éliminer et séquestrer le dioxyde de carbone, soit réduire le rayonnement solaire absorbé par la Terre.
Pour éliminer et/ou séquestrer le carbone, nous pouvons augmenter la capacité des puits naturels de carbone (boisement/reboisement, bioénergie avec utilisation de la biomasse végétale stockant du CO2 pour produire de l'énergie en séquestrant le CO2 produit, Captage direct du dioxyde de carbone dans l'air, Minéralisation du carbone pour le stocker sous forme solide, Stockage géologique en injectant le CO2 dans une formation géologique).
Les 4 technologies les plus matures sont le boisement/reboisement, la gestion des forêts/champs, le stockage dans les sols agricoles et la bioénergie avec captage et stockage du dioxyde de carbone.
Une des plus gros projets est le "Great Geen Wall", "construction" depuis 2007 d'une Grande Muraille Verte de 8000 km au sud du Sahara constitué grâce à la plantation d'arbres. 15% a déjà été réalisé et permet aussi d'enrichir les sols et incitent les populations à rester sur leurs terres.
D'autres projets ressemblent plus à du green-washing lorsqu'elles ne sont pas encadrées. Replanter un arbre pour compenser ses émissions carbone est souvent un pis-aller car il faut quelques années pour compenser des émissions déjà réalisées par la croissance d'un arbre.
S'il n'y a aucun suivi de ceux-ci, ils resteront des plants d'arbres voués à disparaître qui ne compenseront même pas l'énergie pour les planter.
Si les arbres sont brûlés ou tombent naturellement, le stockage du CO2 n'aura duré que quelques décennies au plus... si aucune séquestration du CO2 n'est prévue.
Les plus gros risques viennent d'autres techniques comme l'ensemencement en fer des océans afin d'accélérer la croissance du phytoplancton responsable du captage du CO2 de l'atmosphère
L'objectif est d'accroître la quantité de carbone capturée et stockée par les océans et pour des sociétés privées, notamment américaines, de gagner des sommes mirifiques ... : le stockage du carbone devait permettre d'obtenir des crédits d'émissions pouvant être revendus sur les marchés carbone !
Très mauvaise idée en réalité car si les océans captent 25% des émissions de CO2 anthropiques, l'essentiel du captage se fait via un processus physique de dissolution du carbone dans l'eau selon Stéphane Blain, chercheur au Laboratoire d'océanographie microbienne (CNRS) et une grande partie du gaz carbonique est rejetée lors de la décomposition de ces algues microscopiques à la surface !
Heureusement, un moratoire sur les projets utilisant de telles techniques a été adopté par 191 pays dans le cadre de la Convention sur la diversité biologique de l'ONU.
On pourrait contrer le processus d'acidification en alcalinisant les eaux de surface. On relancerait du même coup, la pompe à carbone. Mis à part quelques études financées notamment par l'industrie pétrolière, cette pratique n'a pas encore été testée in vivo. (Source Les Echos)
Pour éviter les ouragans qui se forment dans une eau à plus de 25° C, l'entreprise américaine Intellectual Ventures a breveté un système consistant à faire flotter dans l'océan d'immenses tubes de 300m de long et de 200m de large, pour les plus imposants, permettant, grâce à la houle, de mélanger les eaux du fond avec celles plus chaudes de la surface dans le but de les refroidir et d'éviter ainsi les ouragans.
Mais il y a pire… les techniques permettant d’accroître la fraction du rayonnement solaire réfléchie par la Terre afin d’en réduire la température globale nommées modification de l’albédo.
L'albédo qui mesure le pouvoir réfléchissant de la surface de la Terre pourrait augmenter (0,3 en moyenne pour la Terre, 0 pour le noir parfait, 0,1 pour la mer, 0,2 pour une forêt, 0,8 pour de la neige fraîche, 1 pour un miroir parfait).
Les constructions humaines ont légèrement diminué l'albédo (les toits d'immeubles et des routes ont un albédo supérieur aux forêts, végétaux), mais la fonte des glaces remplacée par des terres à nu pourrait inverser cette tendance. Attention au raisonnement simpliste qui serait de croire que l'augmentation de l'albédo par exemple en déforestant des forêts (couleur sombre) pour les remplacer par des terres de terre sèche (couleur claire) réduirait le réchauffement climatique car augmenterait l'albédo ! Il y a de nombreux autres facteurs comme la réflectance spectrale dans les différentes longueurs d'onde pour les couverts végétaux, l'évaporation végétale ... qui nous empêche de réaliser ce lien.
L'apparition de nuages au-dessus de surfaces à fort albédo (glace, désert) diminue l'albédo et expliquerait aussi l'accélération de la fonte des glaces au Groenland.
Il y a des solutions comme l'introduction artificielle d'aérosols, de soufre et de carbonate de calcium dans la stratosphère (pouvoir réfléchissant accru), le blanchiment des nuages grâce à la pulvérisation d'eau salée (formation de gouttelettes plus petites au pouvoir réfléchissant plus important), la libération des produits chimiques dans la haute troposphère pour réduire la formation de cirrus, l'augmentation de la luminance des nuages et des océans, la restauration artificielle de la banquise en pulvérisant de l'eau de mer à sa surface pendant l'hiver.
On devine que l'impact de ses solutions serait catastrophique pour notre environnement, néanmoins, il y a une très forte pression aux États-Unis, pour financer ces expériences car selon un certain nombre d'entreprises privées et d'ardents défenseurs du " American Way of life ", cela permettrait d'éviter de mettre en place des mesures pour réduire nos émissions de CO2 et de poursuivre notre train de vie actuel ... Hallucinant !
Aujourd'hui, ces solutions sont imaginées comme des solutions de dernier recours ... des sociétés privées militent en disant que nous devons les déployer car nous n'aurions plus aucun recours (certainement des anciens climato-sceptiques qui ont retourné leur veste dans le sens de l'argent !) ...
Malheureusement, sous la pression, des Etats comme les Etats-Unis pourraient justifier envers leur population qu'ils ont le couteau sous la gorge et n'ont d'autre choix que de les utiliser pour préserver le mode de vie américain ... (à très court terme) quel qu'en soit le prix. D'ici 2025, il y a de fortes chances si Donald Trump est réélu que des expérimentations à large échelle soient réalisées au détriment d'ailleurs des pays voisins qui ne pourront pas construire des murs du fond des océans montant jusqu'au ciel !
Il existe des solutions nettement plus simples et moins dangereuses comme peindre des routes, toits et autres infrastructures dans des couleurs réfléchissantes et augmenter la couverture végétale (qui augmente l'humidité de l'air). Los Angeles aurait réduit de 7 degrés la température du sol en peignant ses routes en blanc.
L'installation de panneaux solaires augmenterait la température (albédo plus faible) mais aussi les précipitations ce qui dans ce cas aurait un impact positif au Sahara.
L'imagination des hommes pour imaginer des solutions simples à des problèmes complexes est sans limites d'autant que cela engendre des problèmes encore plus complexes à résoudre... Nous aurions intérêt à accepter que dans la très grande majorité des cas, il n'y ait aucune solution simple et globale et qu'une approche beaucoup plus locale soit bien plus pertinente.
Plus globalement, ce serait un grand pas pour l'humanité de comprendre que la meilleure manière de résoudre un problème est de ne pas le créer. Utiliser la géo-ingénierie (hors reboisement et technologies locales), est un peu comme demander une rallonge à un prêteur sur gage avec un taux usurier pour rembourser ses dettes. Ca finit rarement bien ...
Auparavant les technologies pouvant avoir un impact majeur sur notre planète étaient réservées à des Etats, créer une bombe nucléaire est difficile à faire au fond de son jardin.
Avec les objets connectés, l'IA, les réseaux sociaux, les données collectées sur chacun de nous sur Internet et nos smartphones, une entreprise devient capable de transformer la destinée d'un pays en manipulant les élections (cf. excellent documentaire sur le scandale de Cambridge Analytica).
Rappelons qu'un grand nombre d'élections se jouent à quelques pour cent près et qu'attiser sur les réseaux sociaux, les conflits latents et désaccords entre communautés, populations est une méthode employée pour inciter les indécis à voter pour certaines extrêmes.
Les véhicules autonomes, les objets mobiles autonomes ... (cf. article sur les armes autonomes) dans les mauvaises mains pourraient un jour transporter et lâcher des charges explosives ou biologiques ...
Allons plus loin, les ciseaux génétiques Crispr Cas 9 (cf. article) est à la portée de n'importe quel laborantin débrouillard. Il est rassurant de voir que He Jiankui, médecin chinois qui a modifié génétiquement des embryons humains d'où sont nées les 2 " bébés Crispr " ait été condamné à 3 ans de prison et à une interdiction d'exercer. Sera-t-on capable d'empêcher tout le monde de le faire ? Pourra-t-on s'assurer que personne ne pourra récupérer un virus de la grippe et le manipuler génétiquement pour en faire une arme biologique mortelle ?
La démocratisation des technologies est une très bonne chose, l'inconvénient est que dans toute population, il y a quelques % à avoir des comportements " déviants ". L' accès facile à ces technologies est un risque majeur. Aux Etats-Unis, la facilité d'accès aux armes est un contributeur aux tueries en masse aux Etats-Unis et bon nombre des tueurs se doutent qu'ils y laisseront leur peau. Si ces mêmes personnes ont accès à ces nouvelles armes, il est extrêmement difficile de le contrôler.
Nick Bostrom dans une intervention à TED dénomme ce type de technologie une " Black ball ", une technologie facile à mettre en oeuvre capable entre de mauvaises mains de détruire un très grand nombre d'êtres humains rendant notre monde très vulnérable (cf. mes prédictions 2019 sur L'Humanité aux pieds d'argile).
Ses deux préconisations pour y faire face sont un contrôle massif de la population et une gouvernance mondiale car il considère que les deux autres solutions, réduire la vitesse de la technologie et réduire le nombre de personnes y ayant accès est impossible.
Je suis vraiment opposé à cette vision, car vivre dans une société liberticide inciterait beaucoup plus à se rebeller contre elle et à utiliser des solutions à portée de main pour la détruire quitte à se détruire soi-même. Une gouvernance mondiale pour encadrer le développement technologique me semble illusoire à court terme à moins d'avoir des extra-terrestres impérialistes qui nous menacent ou un astéroïde qui frappe la Terre dans les mois qui suivent.
Les espoirs sont faibles que les Etats se coordonnent quand on voit leur implication ténue illustrée par les non-résultats de la COP 25 pour faire face au dérèglement climatique.
La situation géo-politique aggrave encore cette situation car nous assistons à la création de blocs isolationnistes qui s'opposent. Plutôt que de partager une ressource commune, chaque bloc veut se l'accaparer au détriment des autres. La Chine déploie ses routes de la Soie comme des racines pour récupérer les ressources planétaires et alimenter son arbre. C'est la tragédie des biens communs.
Il y a sans doute une autre voie possible que je décris plus loin ...
Avant même de parler de tech bashing, la consommation de biens technologiques plafonne et commence même à diminuer y compris dans les pays émergents.
Même si cela reste encore minoritaire et principalement européen, il y a une conscience qui se développe pour réduire sa consommation, on parle de "Green Friday" pour faire face au consumériste "Black Friday".
Le CES Las Vegas, la Mecque des objets électroniques auquel je participe chaque année (pas très écolo tout ça 😉 ), commence à montrer des signes de faiblesse, il y a moins de délégations, moins d'exposants et a priori de visiteurs (en particulier français et chinois). Un indicateur intéressant est la forte réduction des prix en décembre des chambres d'hôtel à Las Vegas durant le salon (grâce à l'annulation gratuite, cela fait gagner quelques centaines d'euros...).
Notre mode de consommation associé aux technologies a des impacts de plus en plus négatifs sur notre santé en plus du réchauffement climatique. 91% de la population mondiale ne respire pas un air sain selon la Banque mondiale !
Même si l'extrême pauvreté a fortement diminué, la pauvreté n'a pas diminué fortement et les inégalités ont explosé qu'on illustre par la courbe de l'éléphant (dont l'interprétation est un peu tronquée et corrigée par la suite).
Parmi les 10 personnes les plus riches au Monde, 4 sont issus des GAFAM, 3 ont directement bénéficié de la révolution numérique (CEO Zara, Oracle, America Moval, telco mexicain), seul Bernard Arnault, président de LVMH et Mukesh Ambani à la tête d'un conglomérat indien sont à la tête d'industries " traditionnelles ". Warren Buffet est le financier de la bande.
En sens inverse, 15 % des Français n'ont pas utilisé Internet durant l'année, ce chiffre monte à 41 % pour les titulaires d'un Certificat d'études primaires (CEP). Alors que de plus en plus de services deviennent accessibles uniquement par Internet, une part importante de la population ne peut y accéder.
Le numérique, permet d'un côté de rendre accessibles beaucoup de services y compris pour les personnes ayant un handicap (comme les assistants vocaux pour les personnes ayant une déficience visuelle) mais creuse aussi une fracture numérique qui peut susciter méfiance voire opposition à lui.
La dépendance de ces technologies, leur accès à l'électricité, aux télécoms peuvent nous rendre méfiants en cas de panne. Que ferons-nous si nous devons arbitrer entre notre consommation personnelle pour nous chauffer ... et la consommation énergétique de ces technologies ?
Aujourd'hui, l'énergie est assez peu chère, mais il y a de fortes chances qu'elle augmente très fortement. Les tensions géopolitiques avec un risque majeur de surenchère, récemment entre les Etats-Unis et l'Iran peuvent toujours être à l'origine d'un conflit régional qui induirait une très forte augmentation du prix du pétrole (l'Iran peut bloquer le détroit d'Ormuz par où passe aujourd'hui un tiers du trafic pétrolier soit 20% de la consommation ). Il s'agit très certainement d'une coïncidence 😉 mais les élections américaines ont lieu cette année ...
Néanmoins, il y a une autre raison pour laquelle, l’énergie devrait augmenter. Il y a un lien direct entre la consommation d’énergie et l’émission de CO2. Pour réduire fortement la consommation d’énergie, il est nécessaire de fortement augmenter ses prix. Les Etats devraient donc augmenter voire fortement augmenter les prix de l’énergie via les taxes (taxe carbone). Le problème est l’impact sur la population, qui pourrait être compensée par des primes, aides … aux plus défavorisés.
Pour l’électricité, elle est en moyenne à 0,2€ par kWh en Europe, 0,176€ en France et 0,3€ en Allemagne ce qui ne l’empêche d’exporter fortement. Une augmentation de la taxe carbone sur le plan européen semble être la seule solution car limitée à un Etat, elle défavoriserait trop son économie aux dépens de ses voisins.
Nous pâtissons aussi de l'effet rebond, en augmentant notre efficacité énergétique, nous incitons à plus consommer.
Les êtres humains vont aussi craindre de perdre le contrôle face aux technologies. Le manque de contrôle humain en dernier ressort aurait conduit au crash du Boeing 737 MAX. Le système MCAS de l'avion est un correctif numérique qui doit compenser le cabrage de l'avion en raison de la nouvelle position des moteurs. Se fondant sur une sonde défaillante, le MCAS a considéré que l'avion se cabrait alors qu'il était en position normale, les efforts répétés des pilotes pour redresser l'avion ont été contrecarrés par le MCAS qui le faisait piquer. Il a fini par prendre le dessus sur les pilotes menant au crash.
Il y a un vrai risque que nous soyons de plus en plus en désaccord et même en conflit avec les décisions prises par des machines et que nous perdions le contrôle dessus.
De plus, il y a un flou juridique concernant la responsabilité d'un accident en particulier mortel, s'il implique l'IA. Est-ce l'exploitant, le prestataire ou le concepteur de l'IA qui est responsable ? La jurisprudence constituera les premiers éléments de réponse avant qu'un cadre juridique clair soit établi.
D'un côté, de grandes marques, même si c'est loin d'être la majorité ont des agissements illicites: CDiscount, Allociné et Vanity Fair collectent nos données même si on refuse , la société Ring, populaire aux Etats-Unis pour ses interphones vidéos donne accès à la police à la localisation de ses produits afin qu'ils puissent solliciter les propriétaires à transmettre leurs vidéos.
Le nombre de fuites de données personnelles s'est fortement accru et les pannes aussi (cf. une augmentation de crashs des applications chez Facebook.)
Les citoyens et consommateurs deviennent de plus en plus méfiants des entreprises et des données qu'ils récupèrent sur nous. Facebook doit payer une amende 5 md$ aux Etats-Unis pour avoir violé les droits à la vie privée, ce qui au passage est une nouvelle façon de faire payer des "impôts" aux GAFA ! L'application chinoise TikTok utilisée déjà par 26 M d'Américains pour partager des vidéos est suspectée d'avoir des failles permettant à la Chine de collecter les données. L'application russe FaceApp rajeunissant, vieillissant votre visage ou le changeant de genre, collecte et transmet vos données en Russie..
Le développement de la reconnaissance faciale commence à effrayer les citoyens compte tenu de son usage en Chine pour noter chacun. A ce titre, la CNIL fait un réel travail d'analyse à ce sujet pour que son utilisation soit proportionnée au service rendu.
La Commission européenne en voulant protéger les citoyens avec la nouvelle réglementation e-privacy, risque de renforcer le pouvoir des GAFA car elle favorise les "first party cookies" et les sites web où on se logge (ex : avec le Login Facebook ou Google).
Pour des raisons différentes, les citoyens ont aussi de moins en moins confiance en leurs Etats en raison des différents scandales politiques, de l'inégalité de traitement entre les citoyens les plus riches et les autres ...
La propagation de fake news ne facilite pas les débats constructifs. Rappelons que selon une étude Ifop, près d'un Français sur 10 croit que la Terre est plate ! L'avantage des fake news sur la vérité est que si elles sont bien choisies, elles ne contredisent jamais vos idées ce qui est nettement plus confortable. Toute idée contraire aurait pour objectif de vous faire douter de cette " vérité imaginaire et fausse".
Au final, il y a un vrai risque de perte de confiance des citoyens à juste titre dans de nombreux cas mais aussi à tort car les données permettent aussi de résoudre bien des problèmes (médicaux, environnementaux ...) si elles sont bien utilisées comme l'explique très bien Aurélie Jean dans le Petit Quotidien à la suite de la publication de son livre sure les algorithmes.
Il est aussi probable que des entreprises comme les banques, les assurances soient confrontées à des dilemmes, tels que réduire fortement leur nombre d'employés grâce à l'automatisation permise par l'IA ou les maintenir dans l'emploi en assurant des formations.
Si de grands plans de licenciement suivent l'utilisation massive d'IA et la forte augmentation des profits, il ne serait guère étonnant que le grand public associe massivement IA et perte d'emplois, y soit vent debout et risque d'accroître le sentiment d'inégalités entre ceux qui sont dedans et ceux qui sont dehors ou vont bientôt l'être.
Plutôt que le revenu universel inconditionnel pour compenser la perte d'activité, je suis favorable à ce que les salariés sujets à un licenciement économique puissent bénéficier sur une période de 1 an à 3 ans à une part des bénéfices additionnels générés après leur départ. Cela permettrait de redistribuer une partie des gains de productivité apportés par l'IA, les robots.
Notre monde évoluant beaucoup plus rapidement qu'avant en termes de technologies et d'emploi, un très grand nombre de personnes développent une très forte appréhension à entrer dans l'inconnu.
Nous pensions accéder à des ressources illimitées alors nous utilisons la technologie à tout bout de champ pour résoudre tout nouveau problème sans toujours vérifier s'il existe déjà des solutions pertinentes moins consommatrices en énergie, avec moins d'impacts négatifs sur notre environnement ...
Une manière simple de réduire fortement la mise en place de technologies inutiles est de bien poser le problème et d'identifier les solutions pertinentes.
Cela paraît du bon sens mais très souvent on prend le chemin inverse. Par exemple, on va mettre en place un programme d'IA et on va chercher des problèmes qui pourront être résolus avec. Dans la majorité des cas, c'est complètement inefficace et cela crée des usines à gaz. Comme le dit le proverbe quand on est un marteau, tout ressemble à un clou.
La pédagogie est aussi essentielle. J'avais réalisé avec Cédric Villani une conférence publique à Saint-Christoly-de-Blaye près de Bordeaux sur l'intelligence artificielle et la ruralité, deux sujets qui a priori s'opposent. La salle était pleine à craquer, Cédric et moi avions préparé des cas pratiques (cf. pièce jointe) pour montrer comment dans l'agriculture, la mobilité, l'IA pouvait aider. Après avoir démythifié ce qu'est l'IA, et présenté des cas d'usages dans la ruralité, les questions ont fusé. Une des participantes est même venue me voir à la fin me disant : "J'ai enfin compris ce qu'est l'intelligence artificielle et en quoi elle me concerne." Nous avons réussi à créer un lien entre deux mondes qui ne se parlaient pas et à rendre accessible ce qui ne le paraissait pas.
Créer des ponts, expliquer ce qu'apporte les technologies avec les plus et les moins, donner des exemples concrets permettent d'éviter les rejets massifs et sans discernement.
Une manière de représenter la valeur d’une technologie et plus globalement d’ un service, d’un produit mais aussi d’un projet est de le subdiviser en 3 impacts : impact sociétal, environnemental et économique.
Les impacts potentiels seraient mesurés de manière positive et négative de manière distincte sur une échelle de -3 à 3.
On peut utiliser cette visualisation pour de gros projets comme pour des initiatives personnelles.
Pour donner un exemple, l'installation d'éoliennes en Allemagne a un impact positif sur le plan environnemental car cela compense l'utilisation de centrales à charbon pour produire de l'énergie mais aussi un impact négatif.
Il faut construire ces éoliennes consommatrices de ressources et cela peut avoir un impact sur la biodiversité locale en particulier les oiseaux. Sur le plan sociétal, l'impact positif est potentiellement de créer quelques emplois, l'impact négatif sont les nuisances visuelles et sonores. Sur le plan économique, l'impact positif est de donner accès à une énergie peu chère.
Sur le plan individuel, un voyage aux Maldives en venant de France aurait sur le plan humain, un impact positif (c'est les vacances !), sur le plan environnemental très négatif (voyage en avion et impact touristique sur les îles), sur le plan économique positif (si contribue au développement économique de l'île) et négatif (car réduit le budget des touristes).
Petite digression, il semble compliqué d'interdire de voyager aux Maldives mais on peut d'une part réduire sa fréquence (en plus de la taxe carbone, on pourrait imaginer des visas / autorisations (comme l'ESTA US qui coûte 14 USD) mais écologiques avec des prix différenciés en fonction de la distance entre le point de départ et la destination... C'est une idée à proposer au gouvernement car la France est le 1er pays touristique du monde...
Certains choix, comme ceux de la Norvège de renoncer à 65 milliards de dollars en annulant ses projets de forage dans les îles Lofoten pourraient être réalisés sur cette base. En revanche, ils ont inauguré Johan Sverdrup, une méga-plateforme pétrolière près de leurs côtes …
Pour chaque axe, il faudrait avoir un indice synthétique qui mesure de manière représentative la situation actuelle et la situation future. Le choix des indices est évidemment crucial et doit se faire avec l’ensemble des acteurs concernés. La taille des échelles est aussi essentielle pour ne pas écraser ou exagérer certains impacts.
L'impact économique est le plus facile a priori car on pourrait utiliser la valeur marchande ou le PIB additionnel apporté par le projet. La valeur non marchande, le bénéfice social serait lui intégré dans l'impact sociétal. Néanmoins, je propose une petite subtilité, au lieu de calculer l'impact économique en valeur absolue, nous pourrions utiliser l'impact "moyen" incrémental sur la population concernée.
Pour éviter la concentration de valeur sur quelques individus (qui augmenterait la valeur moyenne arithmétique de manière artificielle), nous pourrions utiliser la moyenne géométrique (qui n'augmenterait sensiblement que si l'impact économique augmente pour l'ensemble des individus.) et comparer la moyenne géométrique avant et après le projet rapportée à la moyenne actuelle.
Si les revenus moyens géométriques passent de 10 à 11, la valeur incrémentale sera de 10% (11-10)/10.
Ici, par exemple l'évolution des revenus depuis 1996 en France selon la moyenne arithmétique, médiane et la moyenne géométrique et l'écart entre les 10% plus riches et plus pauvres. L'inconvénient de ce rapport est que si vous améliorez fortement le niveau de vie des très pauvres sans aider les classes pauvres et moyennes, cet indice d'inégalité se réduit or ce n'est pas représentatif de la courbe complète. La courbe en éléphant illustre bien ce problème.
Un gros problème actuel est la mesure des effets bénéfiques que nous pourrions avoir sur l'environnement et sur notre société.
A la différence de l'impact économique qui se mesure en augmentation du PIB, l'impact environnemental se mesure de manière négative en réduction d'émissions en équivalent de CO2, ce qui n'est pas très encourageant ! Il est toujours plus motivant d'avoir des chiffres qui augmentent que des chiffres qui baissent ...
Sur le plan environnemental, nous pourrions fixer un objectif mondial de réduction d'émission de GES (et équivalent) et mesurer la contribution en points pour l'atteindre. Aujourd'hui, nous émettons 37 Md de tonnes d'équivalent CO2 par an dans le monde en 2019, la France en émet en 2018, 445 M et 465 M en 2017. En prenant comme base 2017, nous avons réussi à atteindre 4,3 points en 2018...
Cette mesure devrait être systématiquement utilisée et communiquée pour que nous sachions où nous nous trouvons face à l'objectif de zéro émission.
En revanche, cela ne concerne que les projets ayant pour but de limiter le réchauffement climatique. Pour atténuer la baisse de la biodiversité ou la pollution de l'air, il faudrait prendre d'autres indices plus pertinents.
L'impact sociétal (différent de l'augmentation du PIB !) est la valeur en termes de bénéfices de cohésion, solidarité, " bonheur " des individus ou inversement de tensions, disparités sociales.
Il n'est pas nécessairement très évident à mesurer. Nous pourrions utiliser des indicateurs mesurant l'accessibilité à des services de base (santé, logement, énergie, alimentation, mobilité, télécoms.) avec un niveau de qualité croissant (qualité des soins, logement ...)
Pour simplifier, nous pourrions aussi le mesurer avec le taux de satisfaction des individus. Ce taux de satisfaction est loin d'être parfait car une mesure peut être impopulaire avant sa mise en place et soutenue après, une fois qu'elle est mise en place en raison de la peur du changement.
Idéalement, il faudrait anticiper l'impact sur la future satisfaction sans pour autant négliger la satisfaction/insatisfaction actuelle avant la mise en place.
Le progrès est souvent synonyme d'une plus grande facilité pour obtenir des produits et des services. S'il faut toujours favoriser les gestes éco-responsables, il faudrait rendre difficile tout geste ayant un impact négatif sur notre environnement mais aussi notre société. Favoriser le don et dissuader l'égoïsme.
Parfois de nouveaux modes de fonctionnement peuvent complètement modifier la manière dont une communauté s'occupe d'un bien commun.
Par exemple, de nombreuses expériences ont été faites pour favoriser une pêche responsable. La technique se nomme " Catch shares " ou des droits à pêcher fondés sur un pourcentage (et non un volume) d'une quantité totale de pêche qu'ils peuvent revendre. Cela incite à ce que le volume de pêche augmente (car c'est un %).
Il existe une machine à laver l'increvable pensée dès sa conception pour pouvoir être facilement réparée et améliorée au fil du temps. Leur modèle économique est aujourd'hui fondé sur la vente (objectif 1000€) ce qui est risqué car ils ont peu de chances de renouveler leur parc.
En revanche, s'ils louent leur machine à laver par exemple dans des locaux communs d'immeubles, des hôpitaux, hôtels, qu'ils apportent des services récurrents comme le repassage, la réparation,
la revente de vêtements ... Ils pourraient avoir un modèle économique pérenne.
Le modèle économique fondé sur l'usage en revanche est très difficile à trouver sur des biens difficiles à partager, utilisés sur de longues périodes, quotidiennement et qui évoluent peu. La location de sèche-cheveux ou de brosses à dents électriques a très peu d'avenir en B2C sauf pour des usages ponctuels (hôtel, location AirBnB ...). En B2B, le marché est beaucoup plus intéressant car l'entreprise préfère qu'une entreprise externe gère ses matériels, sa maintenance afin de fournir le même service continu à ses salariés.
De manière plus globale, le développement de "B Corp" certifiés et d'ESS qui sont tenus de considérer l'intérêt des autres parties prenantes ('stakeholders') de l'entreprise et non ceux de ses seuls actionnaires ('shareholders') devrait être favorisé. Après l'ivresse du capital, succéderait une sobriété de bon aloi.
Dans le cadre du dérèglement climatique, vu la force d'inertie de nos sociétés, il sera très difficile de mettre tout le monde d'accord (en particulier sur le plan international) pour réaliser des efforts voire des restrictions massives dans nos modes de vie et de fonctionnement d'autant que les efforts d'aujourd'hui n'auront pas pour la plupart un effet immédiat mais dans 20 ou 30 ans.
Ils sont indispensables pour que nous prenions les " bonnes habitudes " dès aujourd'hui afin de ne pas aggraver encore plus la situation pour les futures générations mais ils seront longs à mettre en oeuvre en raison de la résistance de chacun au changement.
Il y a bien sûr des actions qui ont des impacts immédiats, comme l'a montré l'arrêt d'utilisation de CFC qui a permis au trou de la couche d'ozone de disparaître et comme toutes les initiatives pour supprimer le plastique à usage unique ou faible durée qui aideront à réduire les océans de plastique.
Quand les problèmes deviennent trop complexes à gérer, à piloter, qu'il y a trop d'acteurs avec des intérêts divergents, la solution n'est pas le contrôle de masse ou la gouvernance mondiale (car très compliquée à mettre en oeuvre sur des sujets vastes) comme le préconise Nick Borstrom mais de le décomposer en beaucoup plus petits morceaux et de trouver des solutions aux petits morceaux plutôt qu'une solution globale qui ne répond à aucun problème.
Concrètement, cela signifie avoir une approche beaucoup plus locale (cf. série sur Canal +: L'Effondrement ) pour résoudre des problèmes tout en ayant un cadre légal, institutionnel, financier (région, France, Europe, mondial) qui incite d'une part à adopter cette approche mais aussi offre un cadre permettant de facilement partager et mutualiser une solution d'une communauté, région à une autre facilement afin d'éviter de réinventer la roue à chaque fois.
Cela ne signifie pas qu'il faut abandonner une approche mondiale qui est indispensable pour freiner nos penchants consuméristes. En revanche, cela prendra beaucoup de temps et en complément, nous devons localement mettre en place des solutions qui nous permettent de mieux supporter des bouleversements majeurs dans nos modes de vie.
Actuellement, la société en particulier française a un modèle pyramidal, souvent assimilé au jacobinisme. La plupart de nos infrastructures sont pyramidales : alimentation en électricité provient à 71% de centrales nucléaires (dont près des 2/3 de 3 régions), l'approvisionnement en nourriture en àZle de France est très dépendant de l'accès au marché de Rungis, l'approvisionnement en essence et gasoil dépend de 8 raffineries et de près de 130 dépôts pétroliers sur le territoire métropolitain ...
Si un des noeuds critiques est bloqué (comme on le voit avec le blocage des raffineries ou si le marché de Rungis est bloqué par une inondation), cela a un impact massif sur un très grand nombre d'individus, de sociétés, de collectivités.
Les coupures d'électricité dues à des actions de grévistes sur les installations électriques qui dans la région de Lyon ont touché 40 000 personnes, des cliniques, des transports, les feux de circulation ... montrent notre dépendance à des maillons critiques. La grève liée aux retraites nous donne un aperçu sur la capacité de résilience de notre société à la perte d'accès à des services critiques (mobilité, électricité ...).
Un des premiers principes à promouvoir est que l'Etat, les institutions favorisent l'émergence d'un tissu social, économique et technologique résilient. Il permettrait à tout individu, acteur produisant ou ayant des ressources (énergie, alimentation, eau, outils, moyen de communication...) de les partager avec ses voisins et sa communauté proche géographiquement.
Par exemple, il faudrait inciter au développement de coopératives énergétiques sous une forme comme Enercoop (sous forme de SCIC) permettant à chacun de partager son électricité produite avec son panneau solaire avec ses voisins qui n'en ont pas y compris en cas de coupure d'électricité même prolongée.
Dans le cas d'Enercoop, à ma connaissance, l'énergie produite remonte par le réseau RTE vers Enercoop. S'il y a une coupure d'électricité, vous ne pourrez pas la partager avec vos voisins. Idéalement, il faudrait que RTE et son infrastructure permette de le faire même s'il y a une coupure. Les conditions financières et de partage d'électricité devraient être fixées à l'avance. On parle de mini-grid.
Ces coopératives (SCIC) pourraient occuper tous les domaines de la vie courante avec un modèle économique équitable.
Nous pourrions avoir une société structurée un réseau maillé par grappes ou en boule de gui, les communautés de personnes (villes, villages) sont reliées aux autres communautés. Une communauté est capable d'avoir un mode de vie au minimum dégradé si elles sont coupées des autres communautés. La connexion avec les autres communautés permet d'atteindre le niveau de vie actuel. (cf. article)
Ce modèle ne se substitue pas à notre société actuelle fondée sur l'économie de marché mais la complète. Elle présente l'intérêt d'offrir un filet de sécurité, un mode de vie dégradé au cas où ...
C'est un modèle analogue à celui existant avant l'industrialisation, des villages pouvaient vivre en autonomie mais bénéficiaient du commerce avec les villes alentour pour s'enrichir et se développer.
Dans notre société actuelle, cela signifie qu'un quartier (s'il est géré par une coopérative), une commune puisse fournir des services de base (électricité, eau, nourriture, logement ...) en quantité réduite à ses habitants même si elle est coupée de l'extérieur (télécoms, réseau électrique RTE, transports...). Les îles pour des raisons d'approvisionnement ont de plus en plus ce type d'approche.
L'usage de la technologie dans ces communautés serait différent qu'actuellement. Elle aurait pour vocation de résoudre des problèmes concrets de manière proportionnée avec le problème.
Avant d'utiliser les technologies sans discernement, posons-nous les questions suivantes : Quelles solutions sont accessibles autour de soi ? Que se passe-t-il si elles ne fonctionnent plus ? Quel est leur impact environnemental et sociétal (positif / négatif) ?
De nombreuses solutions sont créatives, ingénieuses et nécessitent très peu de ressources. La Low Tech est fondée sur 3 principes : Utile (répond à des besoins essentiels : énergie, eau, hygiène...),, Durable (Robuste, réparable, recyclable, peu d'impacts environnementaux négatifs) et accessible (coût et sa complexité technique ne sont pas prohibitifs pour une large tranche de la population.). De nombreuses solutions sont accessibles sur la plateforme Low Tech Lab.
Rien n'empêche d'utiliser des technologies actuelles comme Internet ou le smartphone en les utilisant comme levier par exemple les plateformes de partage de véhicules, outils ... Il faut juste ne pas être totalement dépendantes d'elles et avoir un plan B si elles ne fonctionnent plus.
Pour tous ceux qui sont nés avant les années 90, les années 2000 évoquaient un imaginaire rempli d'images de science-fiction de voitures volantes, de maladies guéries d'un clin d'oeil grâce au diagnostic d'un tricorder, de robots nous aidant dans les tâches ménagères...
Si vous demandez à un enfant de 10 ans ce qu'il imagine en 2050, son imaginaire est peuplé de catastrophes en série, d'effondrement de civilisations, de planète ravagée et invivable.
Pas super motivant ! Il y a un nouveau imaginaire à créer, celui de la société d'après ... celle qui émergera après que les crises humanitaires et écologiques aient eu lieu. Cet imaginaire peut se construire dès aujourd'hui sans attendre.
Cet imaginaire est indispensable pour être source d'espoir, donner de l'énergie aux nouvelles générations afin qu'elles construisent le monde dans lequel elles vivront sans attendre que les anciennes générations commencent potentiellement à réfléchir à la question ...
C'est tout l'enjeu des prochaines Greta Thurnberg
Au fur et à mesure nous pourrions assister à l'émergence d'une société complémentaire à la société actuelle qui servirait de filet de sécurité en cas de nécessité mais pourrait si nécessaire devenir le mode de société vers laquelle nous irions.
Elle pourrait se fonder sur 4 principes :
Aujourd'hui, il est essentiel que les institutions favorisent les " Citizen et Community Empowerment " en donnant le cadre légal, les incitations nécessaires pour la développer afin que les problèmes soient réglés par des solutions au plus près de sa source car souvent elles sont plus pertinentes.
Les clés sont entre nos mains pour faire de notre avenir et celui de nos enfants, un horizon dans lequel puisse se projeter. La tâche est rude mais l'espérance a été le moteur de l'Humanité et le sera encore donc tous les espoirs sont permis.
Si vous souhaitez que je réalise des conférences de prospective ou sur les nouvelles technologies spécifiques à vos enjeux et métiers, n'hésitez pas à me contacter :) Contact
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain, Robots) - Contact
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Le CES 2020 vient de s'achever, Voici mes retours sur cette nouvelle édition. (In English, click here)
Le CES Las Vegas est en perte de vitesse, il y a moins d'exposants, de visiteurs que l'année dernière. Le consumérisme à tout prix dont le CES était l'icône commence à montrer ses premières faiblesses. Gary Shapiro à la tête du CES en viendrait même à dire que cette baisse est salutaire ...
Si vous êtes intéressé(e) par une nouvelle tendance de fonds, les innovations et startups RSE et dans l'économie circulaire, vous pouvez lire mes articles à ce sujet à la suite de ChangeNow : Économie circulaire , paradoxes écologiques, productions (micro-algues, locales...)
Pour revenir au CES, dans les keynotes, on parle de plus en plus des impacts néfastes sur notre société (emploi, vie privée...) et environnement des technologies, même si ça se reflète encore très peu parmi les exposants, des signaux faibles montrent que la Technologie sans conscience n'est que la ruine de l'Homme ...
De grands acteurs comme Intel et Qualcomm ont soit disparu soit fortement réduit la voilure au CES. Pour la France, il y a moins de startups françaises, moins de grands groupes exposants accueillant des startups (seul Village by CA et La Poste ) notamment à cause de Viva Tech qui attire plus les grands groupes.
En bref, les tendances :
Massification
Grosso modo, les principaux usages de l'IA sont d'augmenter l'efficacité, de mieux personnaliser, d'aider à la décision et d'explorer de nouveaux champs.
L'exploration à l'exception des recommandations est encore bien trop peu connue du grand public alors que cela donnerait une toute autre image de l'IA, d'ouverture plutôt que enfermement dans un comportement normé.
Il y a une "Consumerization" / Massification de l'IA, elle s'intègre de manière invisible dans nos applications et objets. Les usages sont principalement la reconnaissance visuelle et sonore. De nouvelles interfaces Brain-to-Command (BCI) comme NextMind utilise l'IA pour détecter nos intentions grâce à un casque mesurant l'activité électrique de notre cortex visuel situé à l'arrière du cerveau et la traduit en intention.
La traduction instantanée entre deux interlocuteurs qui était un rêve il y a quelques années se banalise (ex : Waverly Labs). ST37 utilise des caméras associées à l'IA pour aider les arbitres dans leur décision sur de multiples sports comme le kayak, le tennis.
La traduction instantanée entre deux interlocuteurs qui était un rêve il y a quelques années se banalise (ex : Waverly Labs).
ST37 utilise des caméras associées à l'IA pour aider les arbitres dans leur décision sur de multiples sports comme le kayak, le tennis.
L’IA devient un outil puissant de personnalisation et guide de plus en plus guide nos comportements par exemple dans le domaine du bien-être.
L’Oréal propose des solutions (en prototype) pour personnaliser son fonds de teint, crème et rouge à lèvre selon le scan de sa peau réalisée avec son smartphone. L’IA permet de capturer les éléments personnels de chacun (caractérisation de la peau).
En revanche, il n’est pas évident qu’ils industrialisent ces produits. Le CES est ici plus un moyen de tester un concept et d’apprendre des retours clients sur ce type de produit qu’un pré-lancement de produit.
En revanche, cela pose une question, faut-il ou non donner des émotions aux IA. Le risque est que des IA simulent des émotions pour nous manipuler et c'est en train d'arriver. Un robot chien qui aurait une larme à l'oeil pour inciter un enfant à acheter des croquettes virtuelles est un exemple de manipulation, il peut aussi s'appliquer à des adultes.
Sans donner un statut aux robots ou objets, Il faudrait distinguer les IA et robots qui ont pour objectif de se rapprocher le plus possible d'êtres humains ou d'animaux des autres.
En revanche, l'IA devient " flippante " avec Neon.Life, filiale de Samsung. Grâce à une combinaison de techniques d'effets spéciaux (scanning en 3D, application de textures de peau, cheveux) et d'IA (utilisation du deep learning similaire au deep fake videos pour modifier à volonté les lèvres, les sourcils, les expressions), Neon.Life peut créer des avatars photo-réalistes d'êtres humains qui simulent des émotions (l'approbation, la surprise...) à volonté.
L'objectif est de réaliser des agents conversationnels intelligents avec lesquels nous pourrions discuter en langage naturel à l'image du film Her mais incarnés. Attention, nous sommes très loin de l'IA forte, car nous nous rendrons vite compte de la limite de ces agents qui ne pourront avant longtemps avoir une conversation qui couvre une multitude de sujets.
Insulter son toaster ou une IA qui aurait vocation à simuler les expressions, les intentions humaines pourrait être considéré comme identique. Néanmoins, il y a un risque qu'à terme, il soit de plus en plus difficile de distinguer ce qui est humain, de ce qui est artificiel. Si nous insultons une IA simulant en les humains, ne risque-t-on pas d'en faire de même pour d'autres êtres humains.
Lorsque les jeux vidéo deviendront extrêmement réalistes et immersifs et qu'il deviendra de plus en plus difficile de distinguer le jeu vidéo de la réalité, ne devrions-nous pas réglementer plus sévèrement les jeux avec une forte violence, pour éviter que les individus commencent à confondre les deux (j'ai écrit un article parce que cette confusion ici ).
La confusion ne s'arrête pas au monde digital. Impossible Foods a déjà réalisé un "steak" sans viande, nommé Impossible Burger, présent dans de plus en plus de lieux de restauration rapide. Il est fabriqué à partir de 21 ingrédients principalement du soja, et d'un ingrédient génétiquement modifié, le soja léghémoglobine ou hème, qui donne la texture et le goût de la viande. Il faudrait vérifier le bilan carbone de l'Impossible Burger pour voir la différence avec la production d'un steak normal ainsi que s'il y a des risques ou non à long terme pour la santé de manger ces aliments.
Impossible Foods réitère au CES avec son Impossible Pork, qui pose une question toute simple, est-ce que cela sera considéré comme un interdit alimentaire pour les juifs et les musulmans ? Si on se tient au sens littéral non, car ce n'est pas du porc, si on se tient à l'esprit de l'interdit alimentaire, oui car cela représente du porc. La question paraît anodine mais elle illustre une tendance de nos sociétés et les technologies à brouiller nos repères, nos frontières sur les choses les plus simples, ce qui est vrai, ce qui est faux (cf. article).
Les robots et objets robotisés permettent de compenser les handicaps. La prothèse de Brainco entraînée par une IA (coût encore élevé : 10k€) permet à une personne amputée de serrer la main et de saisir des objets.
Delta Airlines utilise déjà les exosquelettes Sarcos pour déplacer des charges lourdes. De manière plus générale, il y avait beaucoup d'applications destinées aux personnes ayant un handicap, Samsung présentait une application permettant aux mal voyants gardant une vision résiduelle de visualiser des personnes.
Samsung présentait GEMS, le 1er exosquelette grand public destiné à nous aider à faire nos exercices de fitness associé à un casque VR mais aussi pour aider les seniors à se déplacer.
Lexilife présentait sa lampe pour aider les personnes dyslexiques à lire. Les personnes dyslexiques auraient deux yeux directeurs au lieu d'un seul. La lampe LED permettrait de favoriser un oeil par rapport à l'autre pour qu'il devienne directeur. Abeye, soutenue par l'enseigne Atol a présenté aussi des lunettes pour les dyslexiques.
Ballie, robot compagnon de Samsung, devrait lancer la mode des robots compagnons. Il a l'allure d'une balle de tennis et peut exercer de multiples tâches : télé-surveillance (mais ne peut surveiller qu'une pièce à la fois !), un assistant encourageant à réaliser des exercices et aidant les seniors à utiliser leurs appareils connectés dans leurs maisons, et un jouet pour les enfants et animaux de compagnie.
Je suis circonspect sur la réussite de Ballie, robot-compagnon fourre-tout, néanmoins cela pour être le début de l'arrivée d'une vague de robots compagnons après celui des assistants vocaux intelligents. Je ne serai pas étonné de voir Amazon et Google compléter leur gamme d'Amazon Echo, Google Home avec des assistants intelligents robotisés en 2021 au plus tard. L'autre impact est que cela devrait fortement contribuer à réduire les coûts du hardware (en particulier les pièces robotisées) grâce aux économies d'échelle.
On voit que Samsung avec Ballie, Neon.Life, les exosquelettes GEMS posent les premières briques des robots compagnons de demain. D'ici 2,3 ans, ils devraient entrer massivement dans nos vies comme les assistants vocaux et ce qui nous paraissait étrange nous deviendra normal. Les premiers usages sont le monde du jouet. Cela va vite devenir un sujet préoccupant, car un jouet intégrant une IA conversationnelle passera plus de temps à discuter avec les enfants que les parents et jouera donc un rôle dans l'éducation des enfants . Elle risque de réduire la part des nombreuses histoires imaginaires que nous créons avec nos nounours, poupées ou tout objet (quand j'étais petit, j'imaginais en classe des combats épiques entre des stylos et des crayons !).
De plus en plus de startups proposent des solutions pour produire localement sa propre alimentation, eau, énergie. Cette tendance devrait s'accroître afin de faire face à de potentielles ruptures d'approvisionnement (catastrophes naturelles, grèves et blocage ...).
Je parlerai plus loin de l'énergie, mais l'intérêt de ces entreprises est aussi de permettre de fournir un service minimum si on n'a plus d'accès à l'énergie, eau potable, alimentation ...
Zero Mass Water et Watergen (présent aussi l'année dernière) montrent leurs solutions pour collecter de l'eau à partir de l'humidité de l'air ambiant.. L'avantage du 1er est qu'il utilise des panneaux photovoltaïques pour fonctionner. Tant qu'à faire, soyons totalement autonomes !
Myfood, présent déjà à VivaTech, montrait sa serre quasi autonome par les panneaux photovoltaïques (suffisant pour alimenter les parties critiques de la serre). Pour un prix entre 5000 à 20 000€ (ou un leasing de 150€/mois sur quelques années), elle permet d'alimenter en fruits et légumes une famille de 3/4 personnes pour 60 à 80% de ses besoins.
La serre demande environ 1h par semaine de travail pour semer et collecter. Il pourrait surtout y avoir un usage collectif des serres de quartier ou dans la campagne. Les investissements seraient partagés ainsi que les récoltes.
De plus en plus de solutions apparaissent dans le domaine du stockage d'énergie et de la production locale. O'sol présent aussi l'année dernière avait une rosace de cellules photovoltaïques qui alimentent une batterie Li-Ion.
Les panneaux photovoltaïques associés aux batteries font florès parmi les fabricants chinois avec des prix défiant toute concurrence (60? pour de grandes quantités de petits panneaux ). En revanche, il ne faut pas espérer de la qualité pour ce prix-là ! La batterie d'Otonohm (120 cellules) a vocation à remplacer les mini-groupes éléctrogènes difficile à transporter et utilisant du carburant. Vinci les utiliserait pour alimenter ses marteaux-piqueurs lors de travaux de voirie. Il serait capable de récupérer en entrée du courant alternatif, de le stocker et de le restituer en courant alternatif sans utiliser de chargeur et d'onduleur ce qui réduirait fortement les pertes.
Libest avec sa batterie flexible permet de rendre les objets de plus en plus autonomes.
De plus en plus de fabricants de batteries se rendent compte du problème d’extraction posé par le lithium et surtout le cobalt concentrée dans quelques pays et avec des impacts environnementaux désastreux. La production de lithium et surtout de cobalt est bien trop faible pour supporter un parc de véhicules électriques, équivalent au parc actuel de véhicules à essence et diesel. Il est donc indispensable que de nouvelles batteries soient imaginées sans nécessiter de lithium ou de cobalt ou d’autres terres dites rares.
Nawa Technologies propose des batteries à base de nano-tubes en carbone qui ont une densité énergétique plus faible que les batteries Li-Ion mais peuvent générer des pics de charges beaucoup plus élevés d’où leur utilisation dans des motos électriques plutôt que des voitures électriques.
Sunleavs lui veut faciliter le partage d'énergie localement grâce à un capteur de production et consommation électrique individuel qui remontent les données sur une plateforme. En réalité, un voisin ayant un panneau photovoltaïque ne transmet pas directement son énergie à son voisin !
Sa production remonte dans le réseau électrique et son voisin va consommer son électricité dans ce réseau électrique. La législation devrait favoriser que l'on puisse partager son électricité directement avec ses voisins pour réduire l'impact des pannes électriques plus fréquentes lors de catastrophes naturelles (en évitant que le technicien soit électrocuté s'il le répare !). Nommé mini-grid, c'est techniquement possible mais très peu mis en place (ex : A New York, Brooklyn Grid permet à une cinquantaine de voisins de s'échanger de l'électricité )
D'autre part, Wallbox propose des chargeurs bidirectionnels pour aussi alimenter la maison à partir de son véhicule car le véhicule pourrait devenir un nouveau réseau de distribution d'électricité en s'alimentant à des sources peu chères et les utilisant / les vendant lors des pics de consommation où l'électricité est plus chère.
De nombreuses solutions ont vocation à faciliter le premier / dernier km et développer la multimodalité. Kiwee présente son véhicule électrique qui facilite la redistribution en permettant d'accrocher jusqu'à 8 véhicules à la queue leu leu si des stations manquent de véhicules, d'autres en ont de trop.
ZPM, société sud-coréenne présente le premier véhicule autonome à une place, utile surtout dans des zones délimitées comme des zones industrielles, des lieux de villégiature.
Srom Motors, société indienne présente son tricycle électrique à 3 roues qui a pour avantage d'avoir un espace intérieur proche des véhicules à 4 roues mais pour un poids et une consommation électrique bien moindre Le plus étonnant est la voiture volante d'Aska, société israélienne qui pourrait produire ses premiers véhicules premier semestre 2020 . attendons de voir !
Glafit, société japonaise issue de Jetro présente sa cette trottinette électrique repliable. De nombreuses startups françaises étaient présentes dans ce créneau (Coleen : vélo électrique, Wello : Tricycle électrique à énergie solaire). Des solutions innovantes comme Cyc Motor permettent de transformer n'importe quel vélo en vélo électrique le coût reste encore assez élevé (900€) sans compter la batterie additionnelle.
Il y avait beaucoup plus de navettes autonomes que de voitures autonomes. Elles sont de plus en plus associées avec des modes de transport du dernier km (ex: Scooter ou trottinette électrique chez Toyota e-Palette). Les technologies des véhicules autonomes servent aussi à des véhicules semi-autonomes (niveau 2,5 ou 3). Il y aura des véhicules autonomes mais seulement dans les zones dédiées ou voies dédiées. Il n'y aura pas les véhicules autonomes sur le rond-point de l'étoile avant 2040 sauf si seuls les véhicules autonomes pourraient y rouler.
De même, il serait illusoire de croire que les camions autonomes vont tous mettre les chauffeurs au chômage, car le camion ne pourra jamais être autonome sur la totalité du trajet à quelques exceptions près. En revanche, on peut imaginer un chauffeur qui emmène un camion autonome à l'entrée d'une autoroute, et qu'un autre chauffeur le récupère à la sortie de l'autoroute après que le camion ait réalisé le chemin sur autoroute par lui-même.
Ford et la livraison au dernier km
Ford présentait sa solution pour la livraison du dernier kilomètre utilisant un robot avec pour tête un lidar. Je suis très sceptique sur le déploiement massif de ce type de solution semble plus être une vitrine de communication pluq qu'un vrai moyen de livraison compte tenu des coûts, des problématiques de sécurité pour le robot et les utilisateurs, leur acceptation.
Au moins l'avantage est qu'il pourrait livrer même s"il y a des escaliers à monter ... ce qui est un des gros freins de l'utilisation des mini-robots autonomes, à roues pour livrer.
Pour favoriser l’émergence des véhicules connectés et autonomes, le V2X (communication entre véhicules et avec l’infra de la ville) se développe mais encore timidement.
Il y a de nombreuses bornes de recharge électrique pour les voitures mais aussi pour les trottinettes (ex : Green Scooters). Ils ont choisi des bornes individuelles pour faciliter le maillage néanmoins il n'est pas possible aujourd'hui de savoir si une borne de destination est disponible ou pas ce qui peut devenir un peu gênant.
Bell Helicopter a de nouveau présenté son drone avec passager alors que Hyundai présentait aussi le sien avec Uber
La société israélienne Aska devrait tester ses 1Ers prototypes de voiture volantes 1er semestre 2020. Impatient de voir cela ... même si le représentatnt m'a indiqué que ce proto ne ressemblerait pas vraiment à celui de la vidéo !
Il y a beaucoup de "buzz" médiatique autour de la 5G. Autant la 5G aura un impact majeur en B2B, elle ne devrait pas percer en B2C (hors Asie) avant plusieurs années. En B2B, il y a 2 types d'usages : le « critical IoT » (URLLC) avec des communications plus robustes et avec moins de latence pour des usages principalement B2B: industrie, télémédecine, véhicule autonome et connecté.
Le massive IoT (mMTC) est le 2ème usage avec de très nombreuses communications à bas débit et consommant peu d'énergie. Les solutions existantes comme le NB-IoT (technologie Huawei à l'origine), LTE-M ne sont pas de la 5G à proprement parler mais que le GSMA (organisme qui standardise les protocoles télécoms) a inclus pour des raisons de communication dans la 5G. En réalité, la vraie 5G « massive IOT » ne devrait pas arriver avant longtemps car sa valeur additionnelle par rapport aux autres technologies (NB-IoT, LTE-M, Sigfox, Lora) est faible avec un coût économique très élevé.
Le principal usage B2C est l'augmentation de débit (eMBB), la 5G restera une innovation incrémentale par rapport à la 4G avec un modèle économique incertain pour les opérateurs télécoms en B2C (usages : 360°, AR/VR) vu les investissements nécessaires. On risque de voir de nombreux utilisateurs de smartphone 5G sans couverture 5G dans l'immense majorité des cas. La 5G nécessite de beaucoup plus densifier le nombre d'antennes (pour réduire la distance entre l'équipement et l'antenne).
Cela augmenterait le chiffre d'affaires des équipementiers réseau comme Ericsson et Huawei mais cela coûterait beaucoup plus cher pour les opérateurs qui n'y ont intérêt que pour les usages à forte valeur économique (critical IoT). Il est vraisemblable que l'iPhone 12 soit compatible 5G (avec les ondes millimétriques, > 6 GhZ) mais à un coût bien plus élevé aujourd'hui que la version 4G pour un usage qui sera restreint. On voit des surcoûts aujourd'hui de 200€ pour le même téléphone en version 5G par rapport à la 4G (néanmoins cela peut vite changer ...).
D'autre part, la 5G en très haut débit consommerait beaucoup plus d'énergie que la 4G même si de nombreuses optimisations sont possibles (ex: sleeping mode).
Les chiffres de vente de téléphones 5G prévus par le CTA (organisation en charge du CES) me semblent à ce titre excessivement optimistes.
Au final, il ne devrait pas y avoir avant au moins une dizaine d’années, une couverture de la 5G comparable à la 4G. Nous aurons beaucoup plus une couverture en peaux de panthère (centre villes, zones industrielles, zones agricoles très automatisées…) croisée avec un tigre (grands axes routiers).
En revanche, les usages B2B devraient se développer dans l'industrie, la santé et la mobilité comme l'indique le CTA.
Les Etats-Unis sont aujourd'hui à la "ramasse" concernant la 5G. Les 4 constructeurs d'infrastructures de la 5G sont soit chinois (Huawei, ZTE qui possèdent aussi des smartphones de leur marque) ou européens (Nokia, Ericsson qui ne vendent plus des acteurs majeurs de smartphones). Il n'y a aucune entreprise américaine or il s'agit d’une technologie majeure de communication qui prendra une place croissante dans les dix prochaines années (mais pas aussi rapidement que tout le monde le dit.)
Les Etats-Unis ont deux stratégies complémentaires. La première est de favoriser les concurrents à Huawei et ZTE (via deux fonds, de 750 M€ pour les entreprises développant des technologies 5G et 500 M€ pour les entreprises déployant ces solutions qui devraient être prochainement votées par le Sénat US) . La deuxième est de retarder le déploiement de la 5G d'acteurs chinois, le temps de rattraper son retard. Cela consiste à inciter les pays occidentaux à ne pas utiliser Huawei (ZTE n'est pas un gros acteur comparé aux 3 autres) mais aussi à favoriser les technologies concurrentes à la 5G et contourner partiellement la 5G pour avoir plus de temps pour rattraper son retard.
Pour les usages B2C, si, en Asie, particulièrement en Chine, il ne fait aucun doute que la 5G devrait rapidement s'étendre à tous les smartphones, il n'en est pas de même aux Etats-Unis et en Europe pour des raisons de coûts pour les opérateurs télécoms. Une extension de la couverture 4G suffirait à répondre à la majorité des besoins dans les 5 prochaines années en B2C.
Pour les Etats-Unis et potentiellement l'Europe, le leadership chinois peut devenir critique en B2B car la 5G a vocation à être utilisée pour les industries, la santé et les véhicules connectés et autonomes. L'intérêt de la 5G "Critical IoT" est la faible latence et sa robustesse ainsi que gérer des situations de mobilité étendue.
Quelles alternatives existent à la 5G dans ces domaines à court terme ?
Dans le domaine de l'industrie et de la santé, la majorité des cas d'usage ne nécessitent pas de mobilité étendue (c'est-à-dire capable de gérer des entrées/sorties de zone de couverture d’une station - Les AGV, véhicules autonomes eux le nécessitent) et pourraient être gérées par un réseau local à très haut débit. Le prétendant le plus apte à fournir ce service pourrait devenir le WiFi 6e sur des bandes de fréquences de 6 GHz (nommées bandes millimétriques mais fréquences pas encore libérées). La ZIgbee Alliance qui réunit désormais des acteurs américains comme Apple, Amazon et Google pourrait aussi se développer dans le domaine industriel et de la santé en plus du Smart Home. En revanche, son débit est nettement plus faible.
Concernant les véhicules autonomes et connectés, la 5G présente de nombreux avantages mais l'Europe soutient aussi la norme WiFi TS-G5 qui permet une communication entre véhicules à un horizon plus proche et un coût moindre que la 5G (avec en revanche une latence et robustesse bien moindre que la 5G dite C-V2X pour Cellular - Vehicle - to -Everything : Vehicle, Infrastructure, Pedestrian ...).
Même si à terme la 5G s'imposera, la question est quand . Il y a de fortes chances que les Etats-Unis et aussi l'Europe, mettent en avant d'autres technologies en réseau local (en particulier les différentes versions de WiFi, Zigbee ) en plus de favoriser leurs entreprises pour rattraper leur retard face à la Chine en particulier Huawei. Vu l'enjeu, je mettrai ma main à couper (mais pas dans le sens litéral, on ne sait jamais), que un des GAFA, potentiellement Google ou un des gros cablo-opérateurs fassent une OPA sur Nokia ou Ericsson. Je ne vois pas comment les Etats-Unis pourraient accepter de n'avoir aucune entreprise américaine capable d'avoir les infrastructures réseaux et le coeur réseau. Espérons que l'Europe saura garder ses fleurons ...
L'AR / VR / XR se développent de plus en plus dans le domaine professionnel. La VR devient de plus en plus immersive grâce à de nouveaux accessoires de « Gaming ». par exemple Tegway propose des équipements pour ressentir le chaud le froid même la douleur associée à la VR.
Les chaussures de Cyber shoes permettent de se déplacer à 360° en restant immobile grâce aux roulettes.
La Parallel TV de Misapplied Sciences en partenariat avec Delta Airlines, lance la future révolution de la TV... Elle personnalise l'affichage d'une TV sans lunettes 3D (ex: vous voyez votre nom, votre porte d'embarquement... sur l'affichage d'un aéroport mais vous seul le verrez, les autres verront leurs propres infos !).
La résolution est encore très faible mais devrait augmenter rapidement. Le principe est fondé sur des LED transmetteuses de différentes longueurs d'onde donc de couleurs à des angles différents de vision.
Le système est capable aujourd'hui d'afficher 1000 images différentes et cela devrait augmenter à 10 000.
Si deux personnes se rapprochent fortement, un texte générique est montré (dans la même langue si celle-ci est identique pour les deux personnes et que le système l'a identifié auparavant).
Il y a de fortes chances que la parallel TV devienne la prochaine tendance des futures TV (il y a des personnes de LG, Samsung...) qui ont jeté un oeil dessus ;) et d'ici là la tendance pour les systèmes d'affichage extérieurs.
La première version sera visible à l'aéroport de Détroit cette année...
L'innovation majeure est la capacité de Misapplied Sciences de modifier l'affichage pour chaque individu quelque soit sa position dans la salle. Ils utilisent une technique qui permet de vous identifier (par la haut et non facialement cf caméra) puis de vous suivre, de calculer votre position, de la transmettre à l'écran qui vous transmet l'image qui vous correspond.
La cybersécurité devient un enjeu systématique car la principale crainte des consommateurs est de se faire hacker leurs données. L'IA embarquée ou Edge AI est une des solutions mises en avant pour éviter que nos données personnelles soient transmises et potentiellement hackées. La biométrie principalement les empreintes digitales sécurise nos appareils électroniques. Keopass est un système similaire à celui des empreintes digitales pour PC mais intégré dans une clé. Elle permet aussi d'ouvrir sa serrure (via NFC). Shepherd Lock lui a carrément intégré la reconnaissance des empreintes pour ouvrir sa serrure.
BiroSign est capable d'authentifier la manière de signer grâce à un accéléromètre dans le stylo. Bystamp propose lui un tampon numérique qui possède une double authentification en appuyant le tampon sur l'écran et via Bluetooth. Des solutions permettant de crypter/décrypter les données à partir d'une clé USB
Les sociétés craignent aussi les contrefaçons. Goyalab utilise des nano-particules pour identifier les produits authentiques. Elle les intègre dans la matière.
Celles-ci réagissent à une excitation via des rayons UV (pour la plupart), rayons visibles ou IR et émettent à des fréquences spécifiques (lumière visible en général) qui forment une signature spectrale unique et très difficile à reproduire.
Avec leur produit, ils peuvent savoir directement si le produit est un faux ou pas en rapprochant la signature émise par les nano-particules par la base de données de signature. Dans la plupart des cas, aucune nano-particule n'aura été ajoutée dans l'emballage du produit sinon il sera facile de vérifier que la signature des faussaires ne correspond pas à celle prévue. Il est aussi possible de vérifier la signature d'un liquide, dans ce cas évidemment aucune nano-particule ne sera intégrée dans le produit. Même s'il y a une variation entre deux produits d'origine, elle sera beaucoup plus réduite par rapport à Une contrefaçon qu'on pourra ainsi facilement identifier.
Il y avait très peu de blockchain par rapport à l'année dernière, principalement des sociétés de services comme Transchain.
Après une phase où on voulait utiliser la blockchain comme alternative complète au cloud centralisée, souvent en créant des usines à gaz, on utilise aujourd'hui la blockchain pour des usages beaucoup plus précis comme l'ancrage de données d'une base de données pour assurer sa traçabilité. Cela a très fortement réduit les cas d'usages de la blockchain et le nombre d'entreprises.
Les entreprises présentes au CES Las Vegas communiquant sur la blockchain sont surtout des sociétés de service. Néanmoins, Pundi, présente aussi en 2019, montre son terminal de paiement blockchain ainsi que son téléphone portable sécurisé par là blockchain (les transactions et les échanges sont hashées et incluses dans la blockchain : Pour plus d’informations, article spécifique sur la blockchain)
La palme revient néanmoins à BitAirt qui propose des oeuvres créées par une IA intégrée dans une blockchain !
Il y a aussi BitArt, qui réalise des spectacles qui explique la blockchain à travers la danse, la chanson, le théâtre (mais ils n'étaient pas au CES !)
Le CES regorgent de gadgets inutiles. Il y a bien sûr le Smart Potato (qui a tourné en bourrique la sélection pour les startups à Eurêka Park) qu'on ne présente plus mais ne rigolez pas, demain vous parlerez peut-être avec votre chien ou votre chat grâce à l'IA, d’ailleurs c’est ce que propose Inupathy qui va traduire le rythme cardiaque de votre chien en émotions grâce à une IA !
Dnanudge va vous guider dans vos choix diététiques en fonction de votre ADN. Digital Heat va pour 219 USD vous imprimer vos toasts et ma préférée est le miroir qui amincit celui qui a de l'embonpoint qui ne servira plus à rien le jour où on portera tous des lunettes VR ...).Bzigo identifie les moustiques grâce à leur mouvement et le pointe avec un laser, il ne reste plus qu'à les écraser ou si vous avez l'âme charitable de les attraper et d'ajouter à l'extérieur de chez vous. Le seul souci est qu'il ne sait pas gérer les nuées de moustiques !
Une année donc en transition pour le CES. L'année prochaine, une partie du CES (Sands) pourrait déménager dans la nouvelle construction en face du LVCC. Cela créerait un sacré changement pour pas mal d'exposants et les startups localisées au Sands.
Il y avait encore beaucoup d'autres innovations. Je réaliserai plusieurs debriefs généraux du CES, un à l'ACSEL le 22 janvier et l'autre le 29 janvier avec Olivier Ezratty et Fanny Bouton au Forum des Images.
Si vous souhaitez que je réalise un débrief spécifique à vos métiers pour identifier les innovations, tendances et disruptions (Mobilité, Énergie, Santé, Economie Circulaire, Smart City, 5G, IA, Blockchain, IoT ...) , n'hésitez pas à me contacter :) Contact
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain, Robots) - Contact
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement et accompagnement dans vos projets ( de la recherche d'innovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Après ma pétition sur Tropicana (emballage carton vers plastique), je souhaitais aller un cran plus loin et voir comment nous pouvions améliorer la Loi relatif à la lutte contre le Gaspillage et à l’Economie Circulaire qui sera examinée par le Sénat le 24 septembre 2019 puis à l'Assemblée nationale par Brune Poirson, Secrétaire d'État auprès de la ministre de la Transition écologique et solidaire.< ( (English version)
Un point majeur manque selon moi : l'utilisation du numérique et des médias comme levier. Cela permettrait de bien mieux informer les consommateurs sur l'impact environnemental des entreprises et de leurs produits, leur tri, la localisation des consignes...
D'où ma proposition d'ajouter dans la loi, 2 mesures additionnelles :
Pour améliorer, il faut encore
Enfin, de manière pragmatique, je propose de favoriser les consignes pour réemploi local versus les consignes pour recyclage (beaucoup plus consommatrices d'énergie)
Au total, ce sont 14 propositions sur le loi que j'ai intégrées directement dans le projet de loi (partie en bleu dans le document PDF du projet de loi modifié) et détaillées dans l'article suivant en gardant les 4 axes de la loi. Les autres propositions sont :
Textes de référence
Il y a certainement des oublis, des modifications et corrections à apporter alors n'hésitez pas à faire part de vos idées et à les partager pour que la loi pour une économie circulaire ait un impact démultiplié !
Sommaire (Lien direct vers les parties d'articles)
Axe 1 : Stopper le gaspillage pour préserver nos ressources
Axe 2 : Mobiliser les industriels pour transformer nos modes de production
Axe 3 : Informer pour mieux consommer
Axe 4 : Améliorer la collecte des déchets pour lutter contre les dépôts sauvages
Les fabricants doivent fournir pour des biens d'une valeur supérieure à 50€ TTC la possibilité de louer leur produit (ex : perceuse, crêpière, tondeuse...) directement ou indirectement via une plateforme tierce (AlloVoisins, Zilok, Bricolib, Jelouetout ou d'un distributeur) .
Un ou plusieurs liens Internet seront proposés sur la page dédiée au produit.
Les fabricants peuvent aussi favoriser la revente de leurs produits ou de produits tiers entre particuliers en jouant le rôle de plateforme (directement ou indirectement), en assurant les biens, en sécurisant les transactions ... Le CA sera plus faible pour le fabricant mais les marges unitaires seront beaucoup plus élevées.
Ils peuvent aussi faciliter le don des particuliers en les mettant en relation avec les organisations réutilisant ces biens, les réparant... pour des personnes défavorisées notamment. Ces organisations pourraient faire part de leurs besoins aux fabricants qui les relaieraient auprès des clients.
Les batteries automobiles et individuelles à destination de véhicules électriques ou hybrides (selon la directive européenne 2006/66/CE relative aux piles et accumulateurs) doivent être conçues pour être facilement réutilisables par des particuliers pour stocker l'énergie à leur domicile puis être réutilisées par des groupes électrogènes et enfin recyclables au moins à 90% de leur poids en fin de vie dans une filière agréée et ne pas présenter de risque environnemental.
Les batteries de véhicules électriques nécessitent une forte consommation en énergie qui explique la consommation d'énergie très supérieure pour fabriquer un véhicule électrique par rapport à un véhicule thermique. D'autre part, la fabrication de batteries électriques nécessite de nombreuses terres rares dont l'extraction est très polluante. Ces batteries lorsqu'elles ne peuvent plus répondre aux exigences d'un véhicule peuvent servir comme source de stockage d'énergie dans un logement ou un local.
Les constructeurs de véhicules électriques doivent donc proposer aux particuliers directement ou indirectement la possibilité de réutiliser directement leurs batteries pour leurs logements pour des coûts très faibles, voire nuls ou de les reprendre pour qu'elles soient utilisées pour d'autres logements.
Ces batteries en fin de vie dans un logement ou local peuvent encore être utilisées pour des groupes électrogènes moins exigeants en termes de performance et doivent donc être conçues pour être réutilisées dans ce cadre.
A la fin de l'utilisation dans ces groupes électrogènes, ces batteries doivent être recyclées au moins à 90% de leur poids afin d'extraire notamment les terres rares et autres matériaux nécessaires pour fabriquer des batteries neuves.
Cette disposition pourra être étendu à l'ensemble des batteries du parc automobile quel que soit son mode de propulsion. BMW réalise déjà cela pour la fabrication de ses BMW i3 dans son usine de Leipzig.
On peut accentuer le malus des entreprises dont les produits sont trouvés sur terre ou mer, groupés ou isolés (plastiques, mégots...) et les obliger à nettoyer des sites ou réaliser des campagnes de nettoyage directement ou via les éco-organismes quelle que soit la date à laquelle ces déchets sont apparus (ex: les océans de plastiques).
Des campagnes de nettoyage aléatoires seront menées sur le territoire national et en mer et détermineront le type de déchets présents (plastiques, mégots...) et potentiellement la marque dont sont issus les déchets.
Sur base de ces campagnes, le type de déchets voire les marques concernées seront nommés dans une publication accessible au public. Les entreprises fabriquant les produits sources de ce type de déchets devront financer directement ou indirectement les campagnes de nettoyage (des opérations de nettoyage des plages sont déjà prévues pour les mégots, l'idéal serait de ne pas réserver ces opérations aux mégots et aux plages).
Une coopération internationale pourra être réalisée aussi pour nettoyer des sites en eaux internationales ou en aide pour des pays étrangers.
Toute partie non consommable d'un produit (ex : mégot) et tout emballage devra comporter un identifiant unique (par lots de produit ou par unité) gravé ou imprimé de manière pérenne. Seuls les emballages biosourcés provenant de déchets agricoles ou végétaux ou de co-produits et étant biodégradables en sol et dans l'eau et marine ne seront pas contraints par cette obligation.
Lors de l'emballage de son produit ou de sa fabrication, le producteur devra fournir à son éco-organisme, l'identifiant de l'emballage ou produit (ex : pour les mégots), le type d'emballage, s'il est recyclé, recyclable, les consignes de tri, le produit associé, les informations identifiant sa source (entreprise fabricant le produit et l'emballage, le lieu de fabrication, la date de fabrication).
A terme, cela permet de tracer, la totalité des étapes de fabrication du produit, les équipements utilisés lors de la fabrication, l’origine des composants et fournisseurs,les lieux d’entreposage,les contrôles réalisés,l es échanges commerciaux entre les grossistes, fournisseurs et revendeurs. Il faudrait qu'à chaque passage du produit, l'identifiant soit "scanné" et associé avec les opérations, l'entreprise en charge de celles-ci et leur lieu.
Afin de garantir l'accès et l'inviolabilité des informations, ces informations pourraient aussi être intégrées dans une blockchain publique ou une blockchain de consortium sécurisée (cf. mon article à ce sujet sur la blockchain et traçabilité).
L'objectif est d'éviter que des producteurs préfèrent des emballages à usage unique plutôt que consignés comme ça a été le cas en Allemagne (cf. article Reporterre).
Les produits ayant des emballages non consignables alors que leur filière REP prévoit la consigne auront un malus équivalent au montant de la consigne. Ce malus sera majoré si les emballages contiennent une part non recyclable.
Les produits ayant des emballages consignés pourront bénéficier de bonus en fonction de leur destination : réemploi, réutilisation ou recyclage
Aujourd'hui, les fruits et légumes bio, sensés être plus écologiques, sont vendus sous emballage plastique pour d'après la réglementation les distinguer des produits non bios...
Idéalement, il faudrait supprimer ces plastiques et trouver des solutions écologiques pour éviter l'amalgame (marquage sur le fruit avec une encre bio et comestible ou un gravage superficiel si c'est économiquement viable) ou mise à disposition d'appareils "certifiés" destinés aux consommateurs pour vérifier qu'un produit est bio. Itri (Industrial Technology Research Institute) avait présenté au CES 2018 un appareil de mesurer la quantité de pesticide dans les produits.
A défaut, tous les fruits et légumes bio mais plus globalement tous les fruits et légumes vendus aujourd'hui avec une emballage plastique ou non recyclable ainsi que tous les produits vendus en barquette ( fromages, charcuterie, poisson, viande...) devront être emballés dans des films plastiques biodégradables en sol, dans l'eau et marine ou une autre matière biodégradable. Ils doivent pouvoir se dégrader naturellement dans des composts individuels..
Cette mesure pourrait être mise en place dès 2020 pour les fruits et légumes bio et 2021 pour les autres fruits et légumes puis 2022 pour tous les produits vendus sous barquette. Cette mesure pourrait être étendue à l'ensemble des autres produits utilisant des films plastiques.
L'objectif est que l'ensemble des emballages vendus en barquette puissent être recyclés et mis dans la poubelle du recyclable.
En 2022, l'ensemble des barquettes devront être recyclables en utilisant de nouveaux matériaux.
Les collerettes non recyclables mises sur les goulots des bouteilles ainsi que les films plastiques non recyclables servant d'étiquettes seront interdits.
Les collerettes non recyclables n'étant pas nécessaires pour la consommation du produit devront être interdites dès 2020.
Compte tenu du faible espace disponible sur un emballage, un QR Code pouvant être accompagné d’un Tag NFC sur le devant du rayon peut renvoyer vers toutes les informations de fabrication, de consigne de tri, la part de matériaux recyclés dans son emballage et sur les pièces détachées, location du produit.
Le fabricant mettrait à disposition une application mobile ou un lien vers une carte géolocalisant les points de collecte et de consigne de son emballage et produit (partie non consommable et non consommée).
[MàJ] Cet amendement a été défendu par Paula Forteza en commission face à Brune Poirson, secrétaire d'État auprès du ministre de la Transition écologique et solidaire et adopté.
Détail de la proposition :
Le fabricant devra
afin de fournir au consommateur un moyen simple pour savoir où sont les points de collecte et de consigne associés à son produit sur base de sa géolocalisation actuelle ou d’une adresse.
La startup Hoali recense sur une carte accessible par smartphone les points de collecte et de consignes des collectivités. Le fabricant pourrait intégrer ces informations dans son application via une API connectée à Hoali qui se rémunérarait et reverserait une partie du montant aux collectivités qui lui transmettent ces données.
L’ensemble de ces informations devra être mis sur une page web unique via un lien Internet non modifiable (pendant la durée de vie du produit plus deux fois sa durée de conservation du produit pour les produits consommables et la durée durant laquelle le producteur devra mettre à disposition des pièces recyclées pour les produits électroménagers…).
Ce lien sera accessible via un QR code sur les produits et emballages ayant un espace suffisant d’affichage avec la mention : Information Produit et Tri ou vie un lien raccourci. Cette page sera aussi référencée sur Internet et accessible par une recherche en utilisant le code EAN (code-barre).
L’ensemble de ces informations devront aussi être accessibles via une API (connecteur Internet) gratuitement, de manière structurée pour toutes les entreprises, développeurs, plateformes souhaitant collecter et agréger ces informations sur une plateforme tierce (ex : plateforme Yuka).
Une liste complète des produits avec les API correspondantes et la documentation de ces dernières seront accessibles sur une page web ainsi que sur une API. Il sera possible néanmoins de rediriger les URL d’origine vers de nouvelles URL, et en cas de changement d’API, celle-ci devra être maintenue un an en mentionnant la nouvelle API.
En cas de nécessité de changer les URL, liée à des changements de noms de domaines, l’entreprise devra réaliser une communication sur son site avec l’ensemble des nouveaux liens.
Les producteurs devront fournir sur la page web dédiée au produit et accessible aussi via une API de manière structurée gratuitement et en libre accès :
De nombreux consommateurs ne savent pas qu'il y a des consignes de tri sur les emballages et leur signification, d'où la nécessité d'une très large information auprès du grand public.
Pour toutes les publicités télévisuelles, sur Internet et sur papier concernant des produits intégrés dans une filière REP, il faudra préciser les consignes de tri par un texte dont le format est similaire à celui utilisé pour les informations MangerBouger.
Les consignes de tri sont soit absentes soit souvent écrites trop petites et illisibles pour de nombreux consommateurs.
Le logo Triman aurait au minimum une taille de 1,5 cm sur 1,5 cm au lieu de 1 cm sur 1 cm, aujourd’hui. En cas de difficulté technique, en particulier du fait de la faible taille de l’emballage, la taille de cette signalétique ne devrait pas être inférieure à 0,6 cm par 0,6 cm. (Lien vers PDF Signalétique Triman)
Les consignes de tri doivent être placées juste après le logo Triman avec la même hauteur et une largeur proportionnellement maintenue par rapport au sigle initial.
Autres actions :
Un logo sur l'emballage ou le produit s'il le permet (ex : électroménager) précisera le taux d'incorporation de matière recyclée :
Ainsi que s'il est biodégradable ou consignable pour réemploi ou recyclage.
Le logo sera obligatoire si la taille de l'emballage le permet. Cette taille pourrait être définie par décret. Ces informations seront aussi accessibles sur la page web du produit et via API en accès gratuit et libre.
On peut s'inspirer de ce qu'a fait TUV Austria qui a mis en place une certification bio-plastique selon l'origine du bioplastique, la part du recyclé, sa biodégradabilité, son compostage (maison ou industriel).
Les entreprises devront indiquer dans leur rapport annuel, le tonnage des matières utilisées pour les emballages et les parties non consommables (ex : mégots), l'origine de l'emballage (part recyclée/biosourcée et d'où : déchets agricoles, biodégradable..) et la proportion de produits selon les consignes de tri en gardant un historique sur 5 ans.
Ils mentionneront aussi pour les 10 produits les plus vendus de manière distincte, la part de produits recyclés utilisés avec l'origine des produits recyclés et la part de recyclabilité de chaque produit (pourcentage en poids et unitairement qui va dans la poubelle de recyclage ou la poubelle grise)
Ces informations devront être disponibles de manière structurée sur le site Internet de l'entreprise ainsi que de manière structurée en libre accès et gratuitement via des API.
Les entreprises étrangères devront fournir de manière accessible sur Internet les mêmes informations pour les produits vendus à un distributeur localisé en France ou à des entreprises fournissant ces produits en France (cafés, hôtels, restaurants, lycées, lieux publics, gares...)
Les entreprises pourraient proposer sur leur site des appels à innovation sur leurs problématiques de conditionnement de manière détaillée, ex: réaliser un emballage fin et souple biosourcé et biodégradable pour les produits, trouver des alternatives aux barquettes non recyclables.
Chaque dispositif de consigne devra afficher le type de consigne (réemploi, réutilisation ou recyclage ). Les dispositifs utilisant le moins de ressources énergétiques comme le réemploi local sont favorisés par rapport aux dispositifs plus consommateurs d'énergie comme le recyclage.
Le transport de déchets recyclables sur de longues distances et a fortiori à l'étranger sont découragés.
L'étude de l'ADEME sur la consigne du verre est très intéressante sur le sujet montrant qu’il faut 15 fois moins d'énergie pour laver et désinfecter un verre que pour recycler du verre dans une nouvelle bouteille.
Les producteurs devront harmoniser leurs conditionnements afin de favoriser la consigne pour réemploi afin de faciliter l'identification des bouteilles et leur traitement ainsi que leur réutilisation.
Le gabarit, un numéro d'identifiant facile à détecter et à utiliser pour le réemploi, des colles nécessitant peu de traitement pour retirer les éventuelles étiquettes.
Parmi ces 14 mesures, certaines sont pertinentes et nécessiteront sans doute des ajustements pour être applicables, d'autres seront difficiles à mettre en œuvre voire impossibles à court terme.
L'objectif est de trouver des solutions pour que dans notre quotidien
N'hésitez pas à me faire part de vos idées, améliorations, corrections ..
Microsoft va financer pour près d'1 Md$ dans OpenAI (startup "non-profit" qui veut créer une IA forte (IA > Humain : AGI) qui en échange sera vendue avec la plateforme MS Azure.
💣Cela montre les limites et contradictions du développement commercial d'une IA éthique et ouverte.
💵 OpenAI a dû créer une société commerciale "OpenAI LP" car sa structure "non-profit" actuelle ne lui permet pas d'être pérenne économiquement et donc ...
📕 La société s'appelle "OpenAI" mais elle a décidé de ne pas mettre en open-source 📖 son dernier modèle GPT2 qui permet de créer des textes automatiquement afin d'éviter le développement de Fake news... il faut savoir dans quel champ on se trouve Open ou Closed ?
🌟 OpenAI a des fondateurs et sponsors "stars" (dont Elon Musk, parti depuis, Reid Hoffman, LinkedIn co-founder, Peter Thiel, PayPal co-founder...), Ils ont débauché les meilleurs spécialistes en IA à prix d'or et devrait dépenser son milliard de dollars en 5 ans,
🏝 sauf qu'à trop avoir d'argent, de talents, on a tendance à être plus "paresseux", "moins focalisé", moins incisif" (cf. les déboires passés de quelques équipes de foot composées de stars).
🚣 Pour info, l'IA Pluribus a battu à plates coutures les meilleurs joueurs de poker et a nécessité 1000 fois moins de puissance de calcul que DeepMind qui a battu le meilleur jouer de Go.
🦄 Avoir un objectif aussi vague que construire une AGI qui soit bénéfique et sûre pour l'humanité est aussi crédible qu'une entreprise qui a pour objectif de rendre les gens heureux ... sans préciser comment !
💥 Transformer un moyen, l'IA en objectif est extrêmement dangereux, l'AGI ne doit pas être un objectif mais un moyen d'atteindre un objectif (avec un impact positif pour tous ;)
🌡️ Pour qu'un jour cela débouche sur quelque chose de concret, il vaut mieux adresser des problèmes réels comme le réchauffement climatique, les inégalités sociales ... avec l'IA, en ayant des objectifs mesurables, une feuille de route ...
⚠ Pour terminer, l'IA actuelle est comme un peigne, elle est extrêmement forte sur certaines verticales (scanning de mélanomes, détection de fraudes...) et horizontales (reconnaissance visuelle, vocale ...) mais a des trous immenses entre chaque dent. Nous élargissons les dents du peigne, mais il faudra au minimum 20 à 30 ans, avant que les dents du peigne ne se touchent et encore bien 20 ans de plus avant qu'on ne puisse plus mettre en défaut une IA (et donc que l'on ne voit plus d'interstices).
🚀 Pour que ce milliard de dollars ne soit pas investi pour rien, il est essentiel qu'Open AI se fixe des objectifs idéalement parmi les 17 fixés par les Nations Unies (éducation de qualité, eau propre et assainissement, énergie propre et d'un coût abordable...) et construise une IA (ANI, ASI, AGI peu importe) capable de les adresser plutôt qu'une AGI qui ferait le bien de l'Humanité. L'IA doit être au service de l'Humanité pas l'inverse !
Article pour aller plus loin de La Tribune
Here is an overview of a few articles, I wrote on major trends and innovations concerning the CES Las Vegas (Robots, Autonomous Vehicles, Roll-up Screen, Blockchain, IA ..), limits in artificial intelligence especially neural networks and potential uses of blockchain especially in B2G (business to government).
Livosphere has a role of architect from transforming ideas to constructing a viable and innovative solution and then implementing it widely.
In addition, I am regularly a speaker on innovation and new technologies (AI, blockchain, IOT - Internet of Things, Robotics ...at Viva Tech). Here are some videos. You can contact me directly through this link to have additional information.
CES Las Vegas 2019 has shown many trends and innovations: (Full article translated with Google Translate)
Less buzz on autonomous vehicles but many progresses on components (lidars, cameras ...), modular vehicle and data crowdsourcing via vehicles
Many transport new solutions (Bell's UAV with passenger, the John Deere autonomous tractor, the hydrogen bike),
If there were fewer Chinese exhibitors (nearly 25% according to the newspaper Le Monde), They had bigger booths, more concentrated in the heart of the halls and aspire that the " Made in China " get ahead of the famous "Made in Germany "
The comeback of the space conquest via the private sector (mini-satellites Zero2Infinity, vehicles sponsored by JETRO that should go on the Moon starting on 2021)
AI in addition to voice, is present in visual recognition and helps people with disabilities (move chair with facial expressions)
Delivery robots , exo-skeletons, Omron robot that progresses at Ping-pong every year, Underwater robots ...
Resilience : many solutions on self-production and self-consumption of energy (Skavenji, Fenix, OSol, useful in case of long failure!, BioGaz, Lum'In (standalone lamp)
And a lot of amazing products: blood analysis via our smartphone ( XRBlood ), transformation of sounds into lights for the hearing impaired: SmartEar, Plant Urban Furniture ( UrbanCanopée )
Read full article translated with Google Translate
After Green Washing and IoT Washing, are we facing AI Washing ?
Many companies in particular startups claim to integrate artificial intelligence, is this reality and aren't there false promises behind ? (Full article translated in English via Google Translate)
Are there risks to use AI without understanding the impacts ? Are the neural networks the panacea for solving all the problems or, on the contrary, aren't they leading us to a dead end by being a black box ?
Is the AI robust or on the contrary a giant with feet of clay ? What about transhumanism and a strong AI that would overtake mankind ?
There is still some way before an AI can fully compete with a human being. The gift test (the ability of an AI to please a person by giving a gift, the first time, the 2nd, 3rd without being repetitive) would be a good indicator of the progress of the AI. It is a real challenge for an AI to integrate and anticipate the reaction of the a person without having the opportunity to test it beforehand.
This article explains artificial intelligence in
Read full article translated with Google Translate
Will blockchain revolutionize our society or will it be a niche technology? Before answering categorically, the blockchain is still young, with just 10 years on the clock, the first chain of blocks was conceptualized by the mysterious Satoshi Nakamoto in 2008 (Full version in English translated with Google Translate )
Besides, AI is already a senior of 62 years ! Blockchain needs to mature theoretically and practically so that everyone gets their hands on and really understands how it can be used with other technologies as AI and IoT.
There is a strong growth in the number of startups and companies including at the CES Las Vegas who use it in their solutions - according to their say ! - even if it is not yet the tidal wave as for the AI.
The main use cases of the blockchain are clearer than for AI: traceability, data security / authentication, exchange and sharing of resources (or digital assets called crypto-assets: crypto-currencies and tokens ) even if it is not so obvious to understand its mechanisms (see the end of the article on mining, public,consortium, private blockchain, token, Smart Contracts ...).
Basically, the blockchain (public) is a shared registry, database, accessible to all that keeps immutably the history of transactions and events. It is almost tamper-proof and we can add data but we can not modify past data, it is encrypted and its integrity is verified in a decentralized way by miners (or minters).
A major interest of blockchain is that we don't need any trusted third parties or centralizing entities that share data. This explains in particular the development of blockchain in the food industry (eg the famous Carrefour chicken) because in addition to the need for traceability, breeders, farmers and other actors no longer have to fear that the data transmitted will be monopolized by a big distributor and they lose their hands on it. When you dig a little, the reality is a little different when you switch to private blockchain or consortium (this is the case of Carrefour chicken now based on the blockchain IBM FoodTrust !).
I notably intervened at the French pension organisation, AGIRC ARRCO to present the interest of the blockchain which will also give you some ideas on its use in the field of pensions (see video)
Topics :
Blockchain, IA and IoT
B2G Business to Government
The principles of blockchain
Limits of the blockchain
Read full version in English translated with Google Translate )
If you are interested in conferences, training (general and specific to your area) on innovations, IA, blockchain, IoT, being accompanied on innovative projects..., feel free to contact me
Passionnant échanges et débat sur l'IA et la créativité à l'Institut Choiseul avec Aurélie Jean (Ph. D. Fondatrice d'In Silico Veritas) et Olivier Reynaud (Fondateur d'Aive qui permet grâce à l'IA de créer des montages pertinents et adaptés en durée et en format personnalisés automatiquement à partir de vidéos brutes)
Tous deux ont une vision optimiste de l'IA que je partage (dès lors que nous sommes attentifs aux potentielles dérives).
Elle a un double rôle : nous libérer des tâches ennuyeuses, fastidieuses et nous ouvrir à de nouvelles approches, idées.
Olivier indiquait qu'une étude d'Adobe montrait que 50% des tâches des créatifs étaient répétitives et donc les automatiser leur permettrait de passer plus de temps à des activités créatives. Il ne faudrait, sans doute, pas éliminer complètement ces tâches car bien des idées naissent durant ces moments et ce sont aussi des moments de pause pour le cerveau.
Aurélie a aussi développé pour Bloomberg un outil permettant de créer des "automated news", qui permet de composer des articles bruts financiers (souvent répétitifs). Il est clairement affiché que l'article a été créé automatiquement. En plus de l'honnêteté intellectuelle, cela participe à l'éducation de chacun dans la distinction entre ce qui est créé par une IA ou un être humain. A appliquer à d'autres domaines ;)
Aurélie a aussi créé un outil qui propose de nouveaux sujets, articles bruts aux journalistes sur base des quantités d'informations disponibles mais qu'une personne serait incapable d'ingurgiter et de comprendre en un temps très court.
Sur cette base notamment, les journalistes trient, creusent, construisent et rédigent des articles qui n'auraient jamais été créés sinon. Il en est de même avec Aive qui proposera des montages inédits qui alimenteront la panoplie d'idées du monteur.
En revanche, dans tous les cas, le passage de la matière brute à l'œuvre est du ressort des hommes et femmes et non de l'IA. Être capable pour un être humain de distinguer ce qui est d'origine humaine et IA est essentiel même si cela sera de plus en plus difficile. Nous serons certainement de plus en plus nombreux à croire que les équivalents de test de Turing dans l'art, l'écriture, le raisonnement, les sciences seront réussis ... À nous d'apprendre à les reconnaître.
J'ai posé une question à Aurélie et Olivier sur le risque qu'au fur et à mesure on se repose sur l'IA à l'image du GPS et Google Traduction, qui peut nous conduire à perdre le sens de l'orientation ou ne plus apprendre de nouvelles langues (ce que j'appelle le "diabète intellectuel").
Compréhension et Formation
Pour y faire face, Aurélie et Olivier indiquent que comprendre ce que fait l'IA et comment (sans être nécessairement approfondie) et voir la valeur ajoutée que, nous, les humains apportons est indispensable. Aurélie souligne notamment qu'à partir de cette rentrée 2019 , tous les lycéens auront les premiers cours de sciences informatiques obligatoires et non en option. Le mot "sciences" est essentiel car l'objectif n'est pas d'enseigner juste le code mais il donnera à chacun les bases pour créer un algorithme, un programme. La France serait parmi les premiers pays à rendre ce cours obligatoire pour tous. Bernard Giry, conseiller technologique à la Région IdF, précise aussi que le premier lycée IA est prévu par la région dans son plan IA.
Aurélie indique qu'il faut intégrer de l'aléatoire dans les propositions de l'IA (par exemple dans les CV proposés dans le domaine des RH) car cela permet d'ouvrir des champs au lieu de nous enfermer dans un entonnoir de choix. Olivier relate que Facebook le fait déjà dans ces fils d'actus pour ne pas limiter les news à nos deux sujets préférés !
Nous pourrions aller plus loin et créer sciemment des erreurs (en les traquant) afin de tester voire auditer que les humains restent attentifs à ce que propose l'IA et de garder l'esprit critique. Cela permettrait aussi de nous rappeler que l'IA est faillible et de rester vigilants dans le même esprit que le volant du véhicule qui vibre pour garder les mains dessus.
Nous avons tous des biais cognitifs (de confirmation, de représentativité...) indique Aurélie, qui sont des raccourcis mentaux utiles au quotidien.
Malheureusement, ces raccourcis sont intégrés dans l'IA et peuvent créer des problèmes majeurs. A ces débuts, les peaux foncées n'étaient pas reconnues car l'IA avait été entraînée avec des peaux claires, les IA peuvent proposer pour un recrutement, une très grande majorité de profils masculins car l'historique est fondé sur des recrutements d'hommes (qui perpétuent des biais).
Pour y faire face, Aurélie propose d'une part d'avoir une équipe diverse, une "représentativité exemplaire" selon ses termes qui permet d'intégrer une grande diversité sans avoir besoin d'intégrer toutes les diversités (matériellement impossible). Olivier met en exergue l'importance d'avoir une bien plus grande représentativité des femmes qui ont une ouverture plus grande (activités, expériences, culturels....) que les hommes (fondée sur sa propre expérience ;) ), Aurélie ajoute qu'il n'y aurait que 3% de femmes dans l'IA sur la partie Tech, bien trop peu et générateur par essence de nombreux biais masculins.
C'est un travail difficile de débusquer ces biais, les règles peuvent être explicites (ex : critères précis) ou implicites (ex cachées dans les couches de réseaux neuronaux). Dans ce dernier cas, l'enjeu est de rendre plus explicites les règles implicites en explicitant la méthode de travail, de sélection des données et de les confronter à une équipe variée.
Chaque diversité (genre, culture, origine, langue, situation familiale, âge ...) générée au-delà de chaque cas , une richesse de perspectives qui réduit les biais, c'est un peu comme voir une sculpture systématiquement de face (pas de diversité) versus la regarder en face, de haut, de derrière... Nul besoin d'avoir la totalité des points de vue pour visualiser complètement cette sculpture mais des perspectives suffisamment différentes offrent une bonne vision d'ensemble. Avec l'utilisation et le recueil des retours des utilisateurs, le modèle à de moins en moins de "trous".
Certes des métiers vont disparaître en particulier, les métiers répétitifs mais Aurélie pointe la nécessité d'avoir des techniciens de l'IA ne nécessitant pas les mêmes compétences qu'un ingénieur pour qualifier les données, évaluer l'IA en particulier face à la réalité métier.
Pour les personnes intéressées, j'ai écrit spécifique sur l'IA, l'éducation et l'emploi.
D'autres thèmes ont été abordés : le RGPD (cf. article où j'explique que le Deep Learning n'est pas compatible avec le RGPD pour prendre des décisions si aucune explication n'est donnée à un consommateur) comme l'approche chinoise nettement moins respectueuse des libertés individuelles qu'en Europe.
Je pense que l'Europe peut parvenir à sortir son épingle du jeu en développant des technologies combinant qualification des données pertinentes, cryptage, anonymisation de données et IA explicable (cf. article).
Pour donner un exemple, il n'est pas nécessaire de garder l'image d'un visage pour le reconnaître, il suffit de transformer ce visage en points caractéristiques (distance entre les yeux...) puis de hasher ces données et de les crypter de telle sorte qu'un hacker récupérant une base de données de signatures de visage, serait incapable d'identifier un visage et même de le reconnaître (dire si un visage est présent ou non dans la base).
La blockchain révolutionnera-t-elle notre société ou sera-t-elle une technologie de niche ? Avant de répondre catégoriquement, la blockchain est encore jeune, avec tout juste 10 ans au compteur, la première chaîne de blocs ayant été conceptualisée par le mystérieux Satoshi Nakamoto en 2008. (English version on this link)
A côté, l’IA est déjà une senior de 62 ans ! La blockchain doit mûrir sur le plan théorique et pratique pour que chacun se l’approprie et comprenne vraiment son intérêt par rapport aux solutions existantes comme pour l’IA et l’IoT.
Il y a une forte croissance du nombre de startups et d’entreprises notamment au CES Las Vegas qui l’utilisent dans leurs solutions - d’après leurs dires ! - même si ce n’est pas encore le raz-de-marée comme pour l’IA.
Les principaux use cases de la blockchain sont plus clairs que pour l’IA : la traçabilité, la sécurisation des données / l’authentification, l’échange et le partage de ressources ( ou actifs digitaux nommés crypto-actifs : crypto-monnaies et tokens) même si ce n’est pas si évident de comprendre ses mécanismes (cf. fin de l’article : Mining, Blockchain publique, de consortium, privée, Token, Smart Contracts...).
En gros, la blockchain (publique) est un registre, une base de données partagée, accessible à tous qui garde de manière immuable l’historique des transactions et des événements. Elle est quasiment infalsifiable et on peut ajouter des données mais on ne peut pas modifier des données passées, elle est cryptée et son intégrité est vérifiée de façon décentralisée par des mineurs (ou minteurs).
Un intérêt majeur de la blockchain est qu’il n’y a plus besoin de tiers de confiance ou d’organes centralisateurs pour partager des données. Cela explique notamment le développement de la blockchain dans le domaine alimentaire (ex : le fameux poulet de Carrefour) car outre le besoin de traçabilité, les éleveurs, les agriculteurs et les autres acteurs n’ont plus à craindre que les données transmises soient accaparées par un grand distributeur et qu’ils perdent la main dessus. Quand on creuse un peu, la réalité est un peu différente dès lors qu’on bascule sur des blockchain privées ou de consortium (c’est le cas du poulet de Carrefour fondé désormais sur la blockchain IBM FoodTrust !).
Je suis notamment intervenu à l’AGIRC ARRCO sur la blockchain pour présenter l’intérêt de la blockchain qui vous donnera aussi quelques idées sur son usage dans le domaine des retraites (cf. vidéo)
Si vous êtes intéressé par des conférences, formations (généraux et spécifiques à vos métiers) sur les innovations, IA, blockchain, IoT ..., n'hésitez pas à me contacter
Sommaire (Lien direct vers les paragraphes)
Blockchain pour les retraites et assurance à l’AGIRC-ARRCO
La ruée vers la Blockchain et pourquoi faire ? ...
Principaux usages: crypto-monnaies,traçabilité, sécurité / authentification, partage / échangede ressources
Blockchain, IA et IoT
B2G Business to Government
Les principes de la blockchain
Limites de la blockchain
AGIRC-ARRCO qui gère notamment les retraites m'a demandé d'intervenir sur la blockchain et voir quelles sont ses applications potentielles sur les retraites, assurances ...
L'exposer et le discuter en amont permet de comprendre à la fois l'intérêt mais aussi les limites de la blockchain et aide à bien l'utiliser sans créer d'usine à gaz ou de POC placardisé.
Quelques usages que j'ai décrits lors de mon intervention :
👩🎓 Traçabilité d'une carrière de bout en bout et authentification des documents justificatifs (lutte anti-fraude)
👨⚕️ Partage du dossier médical par un patient sur un périmètre et une durée déterminés par celui-ci
⌛ Simplification de la gestion interne pour réduire la durée nécessaire à solder les retraites (à l'image des greffiers des tribunaux de commerce)
🤝 Partage de données entre acteurs dans la réassurance et assurance
👴 Simplification du solde d'une retraite pour les personnes ayant des carrières sous plusieurs régimes
Après un préambule sur les principes, usages et limites de la blockchain (crypto-monnaies, minage, règle de consensus, blockchain publique/de consortium/privée, tokens, smarts contracts... ), les uses cases généraux et spécifiques pour la retraite et l'assurance, la conférence a été l'occasion d'échanger concrètement sur l'intérêt de la blockchain par rapport à une plateforme centralisée et un DLT (distributed ledger) traditionnel et de voir là où la blockchain a de l'intérêt et là où elle n'en a pas.
🚆 Il y a beaucoup de critiques sur les organisations et acteurs publics de leur manque d'innovation. Même si cela prend plus de temps que pour des startups, ils innovent pour aider les adhérents et salariés.
👉 Pour donner un exemple concret, l'AGIRC-ARRCO a mis en place récemment des solutions permettant de réduire très fortement le temps entre le départ effectif à la retraite et le paiement de la retraite, cela a un impact énorme pour un très grand nombre de personnes.
💎 Je suis certain que l'amélioration de l'efficacité des processus administratifs dans les organisations publiques aura un effet majeur sur la vie de chaque citoyen qui peut même être supérieur à des mesures fiscales. Il ne faut donc pas hésiter à en parler, les partager et les propager 😉
Au CES Las Vegas 2019, au MWC Barcelone, à Viva Tech. Il y a des pléthores de startups qui se prévalent des solutions fondées sur la Blockchain: leur signe de reconnaissance: elles terminent par ... chain: Vechain, Scorechain, Sunchain. Dans les grands groupes, chacun y va de son projet Blockchain avec parfois des absurdités comme des blockchain à un noeud !
Impossible de ne pas mentionner le fameux cycle des technologies de Gartner qui montre que la blockchain est sur une pente descendante mais qu’elle devrait remonter d’ici peu.
Je me suis même amusé à comparer la courbe de Gartner par rapport au cours du bitcoin par rapport au dollar ... Nous verrons si mes prédictions sont exactes. Pour l’anecdote, j’avais prédit que le cours du bitcoin du bitcoin serait inférieur à 5000 USD en janvier 2018 (il était à plus de 14 000 USD quand j’ai publié mon article 😉
Malheureusement, j’ai oublié de mettre une option Put sur le bitcoin à ce moment-là. Tant pis pour moi !
Si vous souhaitez démarrer un projet blockchain, il y a 3 questions à se poser.
Si vous répondez non à l’une des trois, la blockchain n’est pas la solution à votre problème, à moins d’avoir une raison pédagogique pour la développer.
Créer une blockchain destinée uniquement à une utilisation interne à une entreprise n’a aucun intérêt sauf si la direction à la tête de l’entreprise n’est pas à même d’imposer que les données soient partagées entre directions / entités. Des groupes comme LVMH, L’Oréal, Kering ont des marques concurrentes en leur sein avec des DSI distinctes, utiliser la blockchain pour lutter contre la fraude peut simplifier le partage de données. D’ailleurs, LVMH l’a récemment fait avec Louis Vuitton .
D’ici, deux, trois ans, on peut même imaginer que des groupes de luxe, concurrents partagent une même blockchain afin de réduire ensemble les contrefaçons.
La Blockchain permet ainsi de décentraliser la confiance (et les données ;) au lieu qu’elle soit concentrée par un seul acteur. Les données n’appartiennent pas à une entité centrale (qui peut ne pas exister ou en qui on n’a pas confiance) mais sont partagées par l’ensemble des acteurs.
Il est aussi de plus en plus courant d’associer plusieurs types de blockchain (publique et de consortium) ou d’ancrer ses données (d’une plateforme centralisée en "hashant" ses données et en transmettant ce hash, cette "signature" sur Bitcoin ou Ethereum régulièrement) dans une blockchain publique car cela permet de s’assurer que les données n’ont pas été modifiées entre deux ancrages (en revanche elles peuvent avoir été copiées, il faudra attendre la cryptographie quantique pour ça grâce au phénomène de désintrication ;) ).
La blockchain fait partie d’un ensemble plus grand de bases de données nommées DLT (Distributed Ledger Technology), ou base de données distribuée. eMule (disparu avec la loi Hadopi !) est un exemple de DLT qui permettait de partager des contenus parfois piratés 😉 Le réseau Tor (qui n’est pas un registre mais un réseau informatique) a un principe similaire fondé sur la décentralisation des noeuds de communication. D'autres technologies DLT comme le DAQ (Directed Acyclic Graph) veulent concurrencer la blockchain. A l'inverse, la crypto-monnaie est un sous-élément de la blockchain.
Les principaux usages de la blockchain sont les crypto-monnaies, la traçabilité, l'authentification et le partage / échange de ressources.
Ces usages sont liés aux caractéristiques de la blockchain : pas besoin d’organe central,transparence, sécurité (impossibilité de modifier les transactions intégrées dans une blockchain que l'on détaillera), automatisation (avec les smart contracts).
La cryptomonnaie est la partie immergée de l’iceberg de la blockchain, c’est une application spécifique dans le domaine monétaire qui permet de réaliser des transactions sans utiliser une monnaie battue par une banque centrale.
Depuis longtemps il existe des moyens de réaliser des transactions entre personnes sans passer par une monnaie ou un troc direct, par exemple le SEL (Système d’Echange Local), néanmoins la valeur de l’unité (qui peut être des équivalents heures de travail ou avoir un équivalent monétaire) est définie par l’organisation auxquels les adhérents participent.
La valeur de la cryptomonnaie est-elle définie par l’ensemble des acteurs (offre/demande) qui l’utilisent sans nécessiter d’organisation centrale. En revanche, il y a bien des règles (dont la règle de consensus) définies pour chaque cryptomonnaie.
Une des limites du Bitcoin est le très faible débit des transactions. Dès l’origine, Bitcoin a réduit à 1 MB, la taille des blocs qui peut être validée pour intégrer sa blockchain, sachant qu’un bloc est validé toutes les 10 min et qu’une transaction pèse 256 octets en moyenne, il peut y avoir une saturation du nombre de demandes de transactions (qui dépasse rarement 300 000 par jour).
Les mineurs choisissant les transactions à valider (1ère validation) en fonction des frais de transactions que vous proposez, cela a coûté plus de 38 dollars pour réaliser une transaction (quel que soit son montant) le 21 décembre 2017.
Aujourd’hui, cela coûte entre 0,5 USD (pour une transaction validée dans moins d’une heure) et 0,8$ (pour une validation dans les 10 min).
Ethereum a été créé en juillet 2015 et permet des Smart Contracts (contrats intelligents) à la différence de Bitcoin sa monnaie est l’Ether. C’est la 2e blockchain qui a eu des débuts mouvementés (cf. Hard Fork.)
Litecoin, fondé sur le code source du Bitcoin accélère le processus de vérification et donc augmente la rapidité des transactions, supérieure actuellement à celle de ses concurrents. Les frais de transaction sont bien plus faibles que ceux du Bitcoin et sont ainsi particulièrement adaptés aux transactions quotidiennes.
Monero garantit l'anonymat à ses usagers (le montant des transactions est également impossible à voir de l'extérieur).
Ripple propose à la fois la solution xCurrent à destination des banques (American Express, UBS, Crédit Agricole) et une monnaie XRP (surnommée Ripple). La confusion entre xCurrent (blockchain qui permet aux banques de communiquer en temps réel pour confirmer les détails d’un paiement et pour confirmer sa livraison une fois celui-ci réglé) et sa monnaie XRP parmi les particuliers acheteurs (qui pensent parfois à tort que XRP est soutenu par les banques ce qui est faux) a permis à la société de gagner un joli magot.
IOTA est une cryptomonnaie et un protocole fondés sur le DAG, graphe dirigé acyclique, une autre branche des DLT (registre partagé) distincte des blockchains. Il a pour objectif de fournir un moyen de paiement sécurisé pour la monétisation de données entre objets connectés pour des frais de transactions qui ont vocation à être gratuites. Le délai de confirmation des transactions est rapide, et le nombre de transactions simultanées pouvant être gérées par le système est théoriquement illimité.
Il y en a de nombreux autres cryptomonnaies comme Neo est en quelque sorte l’ « Ethereum Chinois », Cardano (Ada) qui propose une solution qui serait scalable et facile à mettre à jour à la différence d’Ethereum.
Pour le G20, il faudrait parler de cryptoactifs (actifs virtuels qui permettent à une communauté de réaliser des transactions sans avoir à recourir à la monnaie légale) plutôt que cryptomonnaies.
Les entreprises chinoises comme Tencent et Alibaba réduisent à zéro les frais de transactions en intégrant la brique de paiement dans leurs applications Wechat ou Alipay car leur modèle économique est fondé sur la vente de produits et non les commissions sur les paiements qui aujourd'hui font vivre Visa et Mastercard.
Mastercard et Visa ont bien créé des Wallet gratuits pour le client et le commerçant comme Masterpass ou Visa Check out, ils acceptent même les modes de paiement de leurs concurrents, mais le modèle économique de Mastercard et Visa est fondé sur les achats réalisés avec leurs cartes. Le risque majeur pour ces entreprises est que les GAFA lancent leur propre cryptomonnaie
[Mise à jour 17/6/2019] Facebook va lancer Libra (en 3 Libra) au premier semestre 2020 :
Ces Libras seront intégrés dans Calibra, le wallet de Facebook. Il y a bien sûr des questions sur l'utilisation des données personnelles. Évidemment, Facebook doit respecter les lois et règlements actuels en particulier RGPD et il indique bien qu'il ne récupère les données de paiement et ne peut les transmettre à des tiers (comme Uber ou Booking avec qui il a noué des partenariats) qu'avec le consentement de l'utilisateur. Facebook mettra en place certainement des services pour nous inciter à partager ces données mais nous avons la possibilité de refuser de les partager. Facebook a aussi noué des partenariats avec Visa et Mastercard mais avec aucune banque ;) D'autre part, Facebook doit être très attentif à ne pas donner envie aux régulateurs de le couper en morceaux en raison de son omnipuissance.
Les autres GA (F) A n'ont pas d'accord avec Facebook car eux aussi vont certainement dégainer leur crypto-monnaie. Celle qui devrait avoir le plus d'impact est celle d'Amazon selon moi ... (cf ci-dessous)
[Article d'origine du 10/5/2019 avant annonce sur Libra]
Facebook devrait lancer son Facebook Coin (avec un premier test en Inde avec WhatsApp cet été). D’après le Wall Street Journal , il a entamé les discussions avec de nombreuses institutions financières et d’importants commerçants en ligne afin qu’on puisse l’utiliser sur Facebook mais aussi sur des sites extérieurs. L’intérêt pour ces derniers est de bénéficier de fortes réductions voire une suppression des frais de transaction.
En revanche, il est plus étonnant de voir Facebook discuter avec Visa et Mastercard. En réalité, il y a probablement deux raisons à cela. Tout d’abord, cela permettrait d’utiliser des Facebook Coin avec sa carte de crédit et d'avoir accès à l’immense majorité des magasins physiques, ensuite cela permettrait de gérer un problème lié à la blockchain, son incapacité à gérer un très grand nombre de transactions simultanées.
Lenteur des transactions
Visa traiterait (d’après eux) en moyenne 1700 transactions par seconde avec une capacité théorique de 56 000 transactions par seconde (ou TPS). Par comparaison, Paypal traite près de 200 transactions par seconde et a été capable de traiter près de 500 transactions par seconde lors de CyberMonday.
Aujourd’hui, Bitcoin traite en moyenne entre 3 et 5 transactions par seconde (max : 7), Ethereum aussi avec un maximum de 20 par seconde.
C’est beaucoup trop peu et actuellement il me semble quasi impossible d’atteindre un nombre comparable de transactions par seconde à Visa en se fondant sur une règle de consensus fondée sur le proof of work utilisée actuellement par BitCoin et Ethereum et la règle des 51 % pour valider une transaction.
Il n’y a priori que deux solutions pour contourner ce problème :
C’est à mon avis là qu’interviennent Visa et Mastercard et d’autres institutions financières qui ont les infrastructures nécessaires pour traiter ces paiements soit en validant les transactions de la Blockchain de Facebook soit en gérant la partie offchain.
L’infrastructure sous-jacente au Facebook Coin serait ainsi soit une blockchain de consortium (avec les institutions financières) soit une blockchain semi-publique. L’utilisation du Facebook Coin serait ouverte à tous (donc lecture-écriture sur la blockchain), en revanche la validation des blocs (mineurs) serait réservée à un consortium d’organismes financiers dont Visa et Mastercard.
Quel est l'intérêt de Visa et Mastercard d'accepter ce deal de Facebook ?
D'une part, s'ils ne le font pas, ils risquent de se faire "bypasser" ou "ubériser" à un moment ou à un autre. Visa et Mastercard agissent comme tiers de confiance vis-à-vis des commerçants, banques, particuliers mais ce ne sont pas eux qui possèdent l’infrastructure qui permet de réaliser les transactions financières mais des entreprises comme Worldline, Ingenico, Worldpay.
Si Facebook faisait appel à ces entreprises traitant déjà les transactions financières de Visa, Mastercard sans passer par Visa, Mastercard…, ce serait la mort à petit feu voire plus de ces marques. Et la concurrence s’accroît.
En Europe, la mise en place de TIPS « Target instant payment settlement » fondé sur l’infrastructure de la BCE permet de réaliser des virements instantanés 24h/24h 7j/7 en Europe pour un coût de 0,002 euro par transaction pour les banques. A titre de comparaison, la seule commission d'interchange que les commerçants versent aux banques représente 0,20% du montant de la transaction par carte de débit et 0,30% par carte de crédit (notamment en raison de l’assurance en cas de non-paiement qui n’a d’intérêt que lorsqu’il y a un délai entre la demande de paiement et le paiement effectif).
Actuellement, ce virement instantané que vous avez dû remarquer sur votre site bancaire est facturé autour de 1€ (belle marge qui laisse largement de la place pour une réduction tarifaire future 😉 ). Les banques proposant cette solution directement aux commerçants leur éviteraient de payer une commission à Visa ou Mastercard en étant compatibles avec les cartes de paiement européennes et impliqueraient une forte réduction de transactions pour Visa et Mastercard.
Enfin, Visa et Mastercard ont plus de chances de tirer leurs marrons du feu avec Facebook qu'avec Amazon (qui ne devrait pas tarder à lancer son Amazon Coin). Ils se positionnent comme tiers de confiance de paiement pour Facebook qui ne l’est pas aujourd’hui et potentiellement leur permettrait d’augmenter la part du marché de paiements passant par eux.
Lancement de l'Amazon Coin en 2019, maximum 2020
Il est quasi certain qu'Amazon lancera sa propre monnaie virtuelle, en 2019 ou 2020. Des rumeurs circulent sur la création de leur propre cryptomonnaie et l'acceptation d'autres cryptomonnaies. Ils ont déposé des noms de domaines en ce sens (dont amazoncryptocurrency.com, amazonethereum.com)
Pour Amazon, le gain est bien sûr économique avec une réduction des commissions versées à Visa, Mastercard... mais il est aussi de maîtriser la totalité de la chaîne y compris le paiement, d'offrir une expérience complète au client et de réduire encore les frictions d'achat à l'image de ses concurrents chinois Tencent (via WeChat) et Alibaba. Ils pourraient offrir des prix réduits à leurs clients Amazon Prime avec cette cryptomonnaie. Mieux encore (pour eux, pas pour nos finances publiques !) ils pourraient faire tourner cet argent entre vendeurs et acheteurs, et imaginer des solutions leur permettant d'éviter de payer la TVA ou d'autres impôts. Les autorités publiques seront certainement très attentives à cela mais risquent d'avoir quelques trains de retard ...
Amazon avait lancé un Amazon Coin en 2013 qui permettait aux utilisateurs du Kindle Fire d'acheter des applications ou des jeux dans l'appstore d'Amazon. Cela avait été un échec et ils l’ont retiré ... parce que le périmètre d’utilisation était très petit et n’incluait pas la marketplace d’Amazon ... L'histoire est différente ici ...
Lancement déjà d'Amazon Managed Blockchain
Le jour où Amazon lancera leur coin, ce sera un vrai tremblement de terre pour toute l'industrie de paiement en Occident. Pour le coup, ils ne s'associeront pas avec Visa et Mastercard. Pour faire face au Facebook Coin et à l'arrivée progressive mais massive de concurrents chinois, ils n’ont pas le choix. Je suis même certain que d'ici quelques années, ils proposeront leur propre infrastructure de crypto-paiement concurrent des autres solutions à l'image de ce qu'ils ont d'AWS dans le cloud.
Déjà leur solution Amazon Managed Blockchain est accessible à tous, depuis début mai 2019 sur base d'Hyperledger et Ethereum.
Comme les cryptomonnaies sont des actifs numériques, il faut une clé privée (code alphanumérique) pour pouvoir les utiliser, si vous perdez cette clé, vous perdez définitivement vos cryptomonnaies. Si une personne les trouve, il peut en prendre possession.
Pour les stocker de manière sûre de nombreuses entreprises et startups ont créé des " Wallet " plus sûres que si vous stockiez ces clés dans votre ordinateur (en particulier si vous êtes piraté).
Quadriga, la principale plateforme de cryptomonnaies du Canada aurait ainsi perdu l’accès à 120 M€ à la suite du décès de son patron de 30 ans qui avait gardé les clés numériques mais ne les avait partagées y compris avec sa veuve qui se retrouve sans le crypto-sou ! Certaines rumeurs prétendent qu'en réalité il s'agirait d'un moyen pour échapper à la banqueroute ...
Ledger est une startup française parmi les plus connues qui réalise des "Cold Wallet" ou " Offline Hardware Wallet " car les clés privées ne sont pas sur une plateforme.
Archos a récemment présenté ses premiers wallets dont le Safe-T mini.
Coinplus déjà présent l’année dernière au CES Las Vegas, transforme vos clés privées en lingot (aussi un "Cold Wallet"). Sur chaque lingot sont écrites deux clés privées qui donnent accès à un montant fixé de cryptomonnaies.
L’intérêt est que vous ne pourrez pas vous faire hacker ces clés par Internet et que vous pouvez les transmettre à qui vous voulez, en revanche si un voleur vous les chaparde, les lingots de cryptomonnaie lui appartiendront. Il existe même de lingots en or mais c’est vraiment tenter le diable !
Pour faire face à ce risque, ils ont créé des "multi-lingots", il faut deux lingots pour avoir accès à vos cryptomonnaies sur les trois que vous recevez car vos clés privées sont codées numériquement sur les trois lingots. Deux lingots suffisent pour reconstituer votre clé privée.
Vault Logic propose lui un distributeur de billets qui transforme des cryptomonnaies en monnaie (mais pas l’inverse) en plus des espèces traditionnelles.
Pundi a développé plusieurs types de Wallets sous format de carte NFC (XPass), application (XWallet). Il a aussi créé un terminal de paiement permettant de réaliser des achats en cryptomonnaies (BTC, ETH, BNB, NPXS...), nous verrons si Ingenico suit.
Kelvin Wallet a une cryptographie résistante aux ordinateurs quantiques (PQC), ce qui aujourd’hui paraît peu utile mais dans 20 ans le sera peut-être moins, car la cryptographie actuelle (chiffrement RSA 256 bits) est fondée sur l’incapacité actuelle de nos ordinateurs de résoudre des problèmes tels que la factorisation d’un entier en un temps polynomial (a+bx+cx2+dx3...) plutôt qu’exponentiel (ax).
On aura néanmoins certainement d'autres chats (en particulier celui de Schrödinger !) à fouetter que se soucier de nos vieux wallets car nos cartes de crédit, nos échanges et transactions électroniques ... seront tous crackables avec des ordinateurs quantiques ayant suffisamment de qubit à ce moment-là.
Qdocks vend lui des serveurs de cryptomining à la maison chez soi, sorte de Qarnot de la cryptomonnaie.
Revenons à nos chaînons ... La Killer app de la blockchain en B2B est la traçabilité de toute transaction (immobilier, sharing economy, prestation commerciale, logistique ... ), information personnelle (parcours professionnel et de formation, santé...)...
Carrefour a mis en place une blockchain pour tracer la vie des poulets de l'élevage jusqu'au rayon (Ethereum), c'est possible avec la Blockchain, car les éleveurs n'ont pas nécessairement confiance en Carrefour et vice versa et naturellement hésiteraient à transmettre leurs données sur une plateforme de Carrefour avec le risque que Carrefour puisse la modifier ...
Avec la blockchain, les éleveurs voient directement la base de données et peuvent vérifier que leurs données n'ont pas été compromises. Le client final peut en scannant un QR code visualiser la totalité des étapes du cycle d'élevage du poulet (en réalité, j'ai appris que très peu de clients le réalisent effectivement !).
En octobre 2018, Carrefour a décidé de joindre la plateforme collaborative IBM Food Trust (blockchain de consortium facturée par IBM), qui souhaite devenir un standard mondial de traçabilité alimentaire grâce à la blockchain de consortium auquel participe aussi le distributeur américain WalMart, Unilever, Nestlé... Le CEO de Walmart avait expliqué au CES Las Vegas lors de la keynote d'IBM que la mise en place de la blockchain pour tracer ses aliments lui permettait de tracer en 20 secondes leur origine contre 7 jours auparavant.
L'Europe doit être très attentive car même si les données de la blockchain n'appartiennent pas à IBM, la structure de données et le type d'informations qu'on y intègre sont du ressort d'IBM (en concertation, je suppose, avec ses membres du consortium).
Il y a plusieurs points à creuser à ce sujet, est-ce qu'IBM (ou le consortium) à la main mise sur le choix du type de données traçable dans la blockchain ? Du côté des entreprises, comme Carrefour, peuvent-ils inclure des données spécifiques additionnelles comme l'utilisation des pesticides ou de types de données spécifiques à Carrefour sans devoir demander l'autorisation de la plateforme IBM Food Trust. Il y a un set de type de données communes à tous les membres de la plateforme pour faciliter la vie des agriculteurs, groupes agroalimentaires... néanmoins une personnalisation pourrait être utile.
Que se passe-t-il si une entreprise ne travaille plus avec IBM Food Trust ? Perd-il l'accès aux données lui permettant de tracer ses aliments (en plus des siennes) ? Est-il possible de porter la traçabilité des aliments sur une autre plateforme ? Est-ce que les autres membres perdent ou non l'accès aux données historiques et donc la traçabilité si un fournisseur de données ne participe plus à la blockchain ?
D'autre part, IBM se fonde sur Hyperledger Fabric (plateforme de développement open source blockchain très largement soutenue par IBM, Accenture, Intel ... ). Elle n'est pas considérée comme une blockchain pour les puristes car elle n'est pas publique et donc n'a pas les mêmes caractéristiques d'infaillibilité qu'une blockchain publique comme Bitcoin ou Ethereum. Quelles sont les règles de consensus utilisées pour accepter ou non une transaction ?
A ma connaissance, Hyperledger Fabric ne permet pas de dépasser la trentaine de valideurs (équivalents de mineurs de blockchain publique) de telle sorte que pour les larges consortiums, il faut définir des règles de tirage au sort ou de sélection des valideurs. Enfin, Hyperledger ne permet pas de créer des tokens ou cryptoactifs ce qui pourrait être utile pour inciter par exemple à valider des transactions. Ainsi la solution actuelle d'IBM fondée sur Hyperledger a des limitations directes empêchant une expansion massive en termes de nombre d'entités participantes (sauf si on accepte d'avoir une proportion très faible de valideurs mais cela retire l'intérêt de la solution !)
L'Europe, pourrait au minimum proposer une architecture de données en concertation avec les acteurs agroalimentaires européens, proposer des règles sur la portabilité des données, d'accès aux données et développer des blockchains publiques ... car il y a un vrai risque de monopole de fait avec la blockchain privée ou de consortium (ce qui peut paraître contradictoire avec l'esprit de la blockchain ... publique).
Une des réponses est apportée par GS1, un organisme qui normalise sur le plan mondial les codes-barres. Il a lancé une blockchain (en démo) qui permet à ses entreprises adhérentes de tracer leurs produits à travers son projet ScaleChain mais surtout a annoncé récemment sa collaboration avec IBM et Microsoft afin d'utiliser le standard GS1 EPCIS (Electronic Product Code Information Services).
Cela permet de rendre interopérable cette blockchain avec d'autres blockchains et d'autres bases de données en gardant un format partagé. Les événements sont capturés et décrits de manière identique ce qui facilitera les applications dans la supply chain et l'exécution de smart contracts.
Transchain, propose aux entreprises une solution blockchain pour gérer leur logistique et l’étend vers une solution BaaS (Blockchain-as-a-Service). Elle présentait au CES un cas d’usage sur la traçabilité alimentaire, sans doute l’application la plus populaire de la traçabilité.
Connecting Food permet de tracer l’origine des aliments en intégrant dans sa blockchain des droits d’accès aux données plutôt que les données elles-mêmes. Un éleveur pourra transmettre dans la blockchain une clé (accès à une API) qui permet d’accéder à des données spécifiques situées sur sa plateforme de données.
L’éleveur devra au préalable avoir un SI lui permettant d’accéder par API spécifique à certaines des données. En cas de besoin, un distributeur pourrait, selon certaines conditions, définies par exemple dans un smart contract (ex : un retrait de produits formalisé sous forme numérique) accéder à des données d’un éleveur sans avoir accès à la totalité de la base ou nécessiter que la base soit dans la blockchain.
La startup luxembourgeoise MySardines.com a développé une blockchain spécifique pour le traçage des boîtes de sardines (cycle de production mais aussi les différents propriétaires !). Les amateurs de sardines le savent sans doute, mais la sardine est comme le vin, il se bonifie avec l’âge (les meilleures sont d’ailleurs millésimées !) et présente un intérêt évident, il ne tourne jamais aigre !
Les ‘sardinophiles’ collectionnent leurs précieuses boîtes ‘millésimées’ pour ne les consommer que six à douze ans après la date affichée sur celles-ci exhalant un parfum complexe et discret à leur ouverture ! Cela reste néanmoins un marché de niche 😉 Une blockchain sur le vin réunirait sans doute beaucoup plus d’aficionados.
Au Mobile World Congress 2019, il y avait aussi beaucoup de startups dans la blockchain.
Artlog propose de sécuriser les oeuvres d’art et faciliter les transactions grâce à la Blockchain.
Tracks Co2 propose une blockchain pour tracer le marché CO2, ce qui serait une très bonne application de la blockchain associée à de l’IoT pour tracer le mode de production de l’énergie...
La sécurisation des données et l'authentification sont le deuxième usage majeur de la blockchain.
Si j'ai une base de données où sont inscrites toutes les étapes de fabrication d'un sac à main et qu'il est quasi impossible de modifier les données de cette base, je peux beaucoup plus facilement authentifier mon produit. Enfin le cryptage et hachage de données via un algorithme SHA-256 complique sérieusement la tâche d'un contrefacteur.
L'équipementier Denso utilise une blockchain (privé ou de consortium) pour tracer les événements ayant lieu sur le véhicule et sécuriser les évolutions logicielles, afin que seuls les upgrades acceptés par la majorité des véhicules soient réellement implémentés dans le véhicule. Cela rend beaucoup plus difficile,son cyber-hacking via des updates car il faut pirater la majorité des véhicules faisant partie de la blockchain.
On peut tracer l'ensemble des changements (mises à jour, échanges de données ...) sur un équipement informatique, un mobile... mais aussi conditionner un upgrade à l'approbation d'au moins la moitié des participants / noeuds (en fonction de la règle de consensus) de la blockchain.
Pundi a créé un smartphone où toutes les transmissions sont incluses dans la blockchain et est lui-même un noeud de la blockchain. Cela ne signifie pas nécessairement qu'il faille transférer toutes les données, il est possible de ne transmettre que le hash de celles-ci (une signature numérique sous forme de code unique).
Des données même modifiées d'un seul bit génèrent une signature totalement différente grâce à un algorithme de hachage spécifique. Ainsi, on verra tout de suite si des données ont été modifiées car le hash d'origine sera totalement différent d'un hash de données corrompues même de manière minime.
Devpriv a développé un produit de la taille d'une souris qui intègre les fonctions de serveur sécurisé et permet de se connecter à un réseau WiFi public avec la même sécurité qu'un réseau interne d'une entreprise. Il se plaque sur la face externe d'un ordinateur portable et se connecte via le port USB de l'ordinateur et intègre un module WiFi distinct du laptop.
Ce device utilise la blockchain pour certifier l'authenticité matérielle de chaque dispositif, il enregistre aussi l'ensemble des signatures pour assurer une traçabilité et éviter toute tentative de falsification (venant d'un dispositif ou de contenu frauduleux lors d'échanges entre devices, serveurs ...).
Un des problèmes de la gestion des identités est la crainte qu'elles soient centralisées, accessibles et modifiables par des personnes mal intentionnées. La blockchain permet de construire un système d'identification numérique sans avoir à confier à un organisme central ni même l'État la gestion et la conservation de celles-ci.
D'autre part, nous ne souhaitons pas transmettre la totalité de nos données personnelles mais souvent que la partie pertinente en fonction de l'entreprise ou l'organisation qui le demande et de son usage.
La blockchain permet d'avoir un accès unifié à nos informations personnelles tout en définissant des périmètres d'accès aux données, limités dans le temps.
Je peux donner accès facilement à un docteur à des informations (comme l'illustre le vidéo de la startup MedicalChain) qui peuvent l'aider dans sa consultation sans lui donner accès à des informations bancaires, de cartes de fidélité, en revanche, je pourrais accéder à toutes mes informations sans devoir aller chercher sur de multiples plateformes.
En France, la startup Embleema (co-fondée par Alexis Normand, ex-Withings) a aussi cette ambition et propose d'être rémunéré en partageant ses données avec la communauté scientifique
Si la cryptomonnaie permet de réaliser des transactions financières, la blockchain permet de partager bien d'autres choses afin de " blockchainiser " les ubérisateurs.
Des startups pourraient disrupter les plateformes comme Uber, Blablacar, AirBnb en créant des blockchain concurrentes en supprimant le rôle de tiers de confiance et d'intermédiaire de ces plateformes (mais cela ne suffit pas...).
Aujourd'hui, la raison pour laquelle vous passez par Blablacar ou Airbnb est qu'ils agissent comme tiers de confiance entre possesseurs de logements et occupants occasionnels, conducteurs et voyageurs. Il garde en mémoire un "registre centralisé" de toutes les transactions entre chacun de ses membres et prélève une commission à chaque transaction. Avec la blockchain, ce registre est partagé par tous ses membres au lieu d'être centralisé (ce qui assure en plus sa quasi-inviolabilité, sa transparence...). L'effet collatéral est qu'il n'y a plus de commissions versées à chaque transaction (ou beaucoup plus faible car le registre et les données sont distribués et non plus centralisés)
En revanche, il y a du boulot pour créer une communauté de la taille de celle de Facebook ou Uber mais sait-on jamais, ça peut aller très vite. Bien sûr, les plateformes comme Airbnb, Uber, Blablacar ne vont pas attendre les bras croisés et commencent à intégrer la blockchain pour éviter de se faire blockchainiser par de nouveaux entrants. Après Facebook et surement Amazon, il ne serait guère étonnant que les NATU (Netflix AirBnB Tesla et Uber) se mettent à créer leur cryptomonnaie.
La fidélisation est une des utilisations avec le plus fort potentiel pour les blockchains. Elle permet facilement d'échanger de points de fidélité sous forme de tokens au sein d’un réseau multi-marques sans nécessiter de relations de confiance entre elles ou de légitimité.
Il existe des programmes communs de fidélité mais ils sont compliqués à mettre en oeuvre et nécessitent souvent des relations bilatérales entre une entreprise porteuse et les autres participants au programme (ex : les programmes Frequent Flyers comme FlyingBlue d'Air France, points fidélité Amex...).).
La blockchain pourrait bouleverser la fidélisation car il n'est plus nécessaire d'avoir une entreprise tête de pont ou un consortium d'entreprises difficiles à gérer.
Souvent, les points de fidélité fonctionnent dans un sens, je reçois des miles qui me permettent de bénéficier d'une nuit d'hôtel gratuite mais une nuit d'hôtel payée ne me permet pas de bénéficier de miles. D'autre part, une entreprise leader a une plateforme centralisée collectant les données auxquelles les entreprises affiliées n'ont pas nécessairement accès.
La blockchain permet de faciliter très fortement les programmes multi-entreprises car les données ne sont pas centralisées par une seule entité mais sont accessibles par toutes celles y participant.
La startup Sandblock.IO construit justement ce type de blockchain avec de nombreuses marques et a lancé son application Surprise (iOS et Android ) permettant d'acquérir des points avec The Kooples, Asos, FNAC et de les utiliser sur des produits BOSE, Nike, L'Oréal ... et vice versa.
Son but est de proposer une solution "customer-centric" et transparente pour l'utilisateur et respectueuses de ses données personnelles. Ces points de fidélité sous forme de token sont plus sécurisés et utilisés avec plus de fluidité au sein du réseau.
Elle ne nécessite pas de contractualisation lourde et longue ou de relation de confiance, quelle que soit la taille des participants. Elle a été cofondée par Sarah-Diane Eck (également VP France Digitale), ce qui est rare car le milieu de la blockchain est encore plus masculin que celui de la Tech en général. C'est aussi un rare cas d'application concrète de la blockchain dans un domaine autre que financier, de la traçabilité et la sécurité et réalisé totalement en France.
Une startup, Bits propose de réaliser du cash-back en actions de société pour fidéliser ses clients. Cela pourrait avoir du sens pour les marques iconiques cotées en Bourse afin de créer de l’engagement client, de "l’ownership" mais c’est compliqué à mettre en oeuvre surtout si les actions baissent...
On peut aussi créer un point de fidélité indexé sur le cours de bourse voire créer un token sur une blockchain.
Autre exemple d’utilisation, nous pourrions accorder des bonus/malus en fonction de la pollution ou des émissions de carbone (pour le calcul de la taxe carbone) tracées par des capteurs certifiés par la blockchain (intégrité et données transmises), ou pour suivre le respect des obligations environnementales.
La Blockchain permet de s’assurer de l’intégrité des données sans les révéler, en les gardant anonymes par leur hachage.
Au sein d’un secteur, il y a des intérêts divergents entre les entreprises qui le composent néanmoins il y a des cas où elles peuvent avoir intérêt à coopérer et à partager leurs données (ex: Lutte anti-fraude, résiliation/nouvel engagement, traçabilité...).
Néanmoins elles ne le font pas car aucun acteur n’est légitime pour centraliser les données. Avec la blockchain, il devient beaucoup plus facile de partager les données car elles ne sont centralisées par aucune entité et accessibles à toutes.
En général, la technologie utilisée sera une blockchain de consortium potentiellement couplée avec une blockchain publique pour l’ancrer régulièrement et lui garantir sa non-falsification. C'est notamment dans ce cadre qu'a été fait l'expérimentation Blockchain avec 14 assureurs (dont Groupama et Allianz) en 4 mois sous l’égide de la FFA dans le cadre de la loi Hamon (résiliation d’assurance auto et MRH avec un horodatage certain).
Dentacoin Foundation (Pays-Bas) est une assurance santé dentaire à base de blockchain. Les dentistes sont payés en cryptomonnaie Dentacoin et la relation entre eux et les patients est établie via des smart contracts. Le système est censé favoriser l'usage de soins préventifs, qui réduit le coût de l'assurance et permet de proposer des mensualités raisonnables. Le dentiste se tire une balle dans le pied sur le plan économique car il aura moins de clients à soigner mais heureusement l'intérêt de son patient prime 😉
A priori, la blockchain servira à s'assurer que les patients réalisent des visites régulières chez leur dentiste (plutôt que des visites plus espacées avec des soins plus lourds) et qu'ils se brossent convenablement les dents sans doute via des brosses à dents connectées (ex : avec la Kolibree). D'autre part, le dentiste pourrait revendre ses dentacoins contre monnaies sonnantes et trébuchantes... Enfin, c'est une bonne manière de se faire les dents sur la blockchain 😉
BTU Protocol (France) présentait au CES 2019 son système de réservation hôtelière à base de blockchain, BTU Hôtel (vidéo). Il fonctionne sur la base de l'absence de commission, le consommateur étant récompensé en crypto-actif BTU après chaque réservation, qui est une nouvelle forme de cash-back. Le service consolide l'offre de 2 millions d’hôtels dans le monde en 2019 via divers logiciels de réservation utilisés par ces derniers qui intègrent une brique logicielle de BTU Protocol. La startup avait fait sa propre ICO en juin 2018 et avait pu lever 5,5M$.
Elle se rémunère sur un modèle voisin de celui d'Ethereum, ... c'est-à-dire... Bien, pas évident ! C'est de la vente de tokens (quelques détails). Le token ne peut que monter en valeur ... sauf s'il y a de moins en moins de réservations et d'hôtels sur la plateforme 😉
On voit de nombreux objets connectés intégrant la reconnaissance vocale, visuelle pour les caméras et l’intelligence artificielle au CES, les premiers objets connectés intégrant aussi nativement la blockchain commencent à apparaître. Pourquoi me direz-vous ?
Le principe est simple, les données collectées par un capteur sont envoyées dans la blockchain ce qui permet de les sécuriser. L’IoT est le moyen de réaliser un lien direct entre la blockchain et le monde réel, par exemple en débloquant un vélo électrique pour une plateforme de mobilité en blockchain qui serait l’événement de départ d’un smart contract . La détection par des capteurs d’inondation ou d’incendie déclenchant une indemnisation automatique ou l’appel de services d’urgence sont d’autres exemples.
La blockchain a de multiples usages, mais il y en a un qui devrait émerger pour les objets connectés au-delà du micro-paiement, le partage … On peut bien sûr, partager sa perceuse connectée, son escabeau connecté mais il y a deux usages en particulier où je vois un fort intérêt à la blockchain, le partage de véhicules, les échanges énergétiques dans un périmètre local, le partage des ressources informatiques.
Dans le premier cas, une entreprise comme Drivy pourrait créer une blockchain pour le partage de véhicules qu'il mettrait à disposition des fabricants de prise OBD et bus CAN et aux constructeurs automobiles en association avec des assureurs.
Toutes les personnes qui utiliseraient cette blockchain pourraient partager leurs véhicules en bénéficiant d'une assurance adéquate (via des smart contracts avec Ethereum par exemple). Cela ne se fera pas tout de suite car cela briserait son modèle économique actuel en réduisant ses commissions.
On pourrait aussi imaginer que Google ou même Apple crée une blockchain intégrée dans Android Auto / Carplay pour disrupter complètement le marché de l'auto-partage, du covoiturage et même du VTC
Des cas concrets hormis Tesla réfractaire
A priori, Tesla d’après Elon Musk ne va pas se lancer dans la blockchain ou créer une cryptomonnaie même s'il incite depuis peu ses utilisateurs à partager leur véhicule.
Pourtant, des constructeurs et les équipementiers y travaillent.
Denso utilise la blockchain pour proposer de nouveaux services tels que le partage de véhicule, la livraison de colis dans le véhicule, l'assurance avec une prime variant selon la conduite du constructeur. L'intérêt est qu'il ne soit pas possible de falsifier ces données.
Pour l'énergie, c'est le même principe sauf que ce sont des producteurs d'énergie solaire, des stockeurs d'énergie (via leurs batteries notamment de véhicule) et les consommateurs qui vont grâce à leur véhicule, maison, batterie connectés pouvoir échanger dans un périmètre au départ local puis plus vaste leur énergie pour un coût de transaction quasi nul (hors potentiellement acheminement entre les différents logements et un coût très réduit potentiellement fixe pour accéder à la blockchain crée par l'entreprise) .
La puissance de calcul, la capacité de stockage peuvent être " tokenisées " (cf. explication ci-dessous) et avoir une valeur financière échangeable OneThing Cloud (Chine) propose de partager les ressources de son NAS (serveur de stockage en réseau) multimédia mais aussi de ses smartphones non utilisés afin de recevoir des LinkToken en échange pour constituer un réseau " crowd-sourcé " de stockage et de puissance de calcul.
HiTech One (France) propose des capteurs qui transmettent directement les données collectées dans une blockchain (Ethereum, HyperLedger, Iota…), l’objet connecté devient un noeud de la blockchain. Les cas d’usages présentés sont multiples : station météo, tracking d’objets …
Dans le cas d’une cave à vin, les capteurs peuvent suivre l’hygrométrie et la température. En revanche, dans ce cas, cela ne prouve pas que le vin ait été placé dans le lieu où se trouve le capteur (pour prouver les bonnes conditions de conservation pour la revente).
Il faudrait imaginer que le capteur puisse détecter de manière continue la proximité des bouteilles (par un tag RFID par exemple non retirable et log dans la blockchain si les bouteilles sont à proximité ou pas).
Ledger (France) est connu pour ces " cold wallet " sous forme de clé USB, mais vont au-delà en développant du matériel spécifique intégrant IoT et Blockchain. Ils ont ainsi développé avec Engie une solution pour s'assurer de l'origine des énergies renouvelables.
Elle est constituée d'un boîtier connecté qui comptabilise la production photovoltaïque et transmet cette information sur une blockchain.
En cas d'effraction du boîtier (grâce à un accéléromètre), l'information est aussi loggée ce qui évite les fraudes.
Sigmadots et Essence (Israël) se sont associées pour proposer de sécuriser les flux de données et l’intégrité des équipements grâce à la blockchain.
A ce titre, vous trouverez plus d’éléments dans cet article sur différents moyens d’utiliser la blockchain avec l’IoT pour le sécuriser.
PiQube (2012, Inde, $500K) présentait sur Eurêka Park une passerelle matérielle "IoT-AI-Blockchain". Les objets captent les données, l'IA les analyse, et la Blockchain permet la mise en place d'un système décentralisé de stockage, PiQube. Mais celui-ci communique avec la plateforme NetObjex Digital Asset qui recentralise les données.
XYO Network (2017, USA, $13,6M) propose même de remplacer le GPS par des appareils coordonnés par une Blockchain (source). Un smart contract peut solliciter la blockchain de XYO via Ethereum et demander pour un équipement précis sa localisation ainsi que d'autres données comme des données vidéo, audio, de température environnante.
En B2G, les « killer app » sont la traçabilité dont j’ai déjà parlé et la gestion des identités (faciliter la délivrance d’un permis de construire, d’une carte d’identité ...).
La blockchain pourrait aider à trouver un meilleur équilibre entre sécurité et liberté individuelles concernant la gestion des identités sur le plan national et international.
Sont concernés le fameux fichier TES (pour « titres électroniques sécurisés ») validé par le Conseil d’Etat le 18 octobre 2018 (Journal officiel) et qui suscite de nombreuses polémiques car il concentre un grand nombre d'informations personnelles (nom et prénom, sexe, adresse du domicile, adresse mail, la couleur des yeux, la taille, la photo, l'empreinte digitale (sauf avis contraire de la personne), la date et lieu de naissance, la signature numérisée et les informations relatives à sa filiation)
et son grand frère européen (projet Common Identity Repository ou CIR ) qui permet l'échange de données entre les systèmes d'information de l'UE pour gérer les frontières, la sécurité et les migrations (registre des demandeurs d’asile, SI sur les visas. casiers judiciaires des ressortissants de pays non européens, système d'entrée/sortie
, d’autorisation des voyages)
Les risques soulevés par plusieurs associations sont les risques en cas de piratage, d'être détournés par des gouvernements mal intentionnés (ou par espionnage).
La blockchain permettrait de donner plusieurs niveaux d’accès aux données personnelles :
Pour le fichier TES, le décret précise que "Les consultations, créations, modifications ou suppressions de données font l'objet d'un enregistrement comprenant l'identification de leur auteur ainsi que la date, l'heure et la nature de l'opération". L’ensemble de ces opérations pourraient être consignées dans une blockchain publique (et cryptée) ou de consortium (entre Etats, organismes publics…).
Les régions et collectivités territoriales devraient aussi bénéficier de l'utilisation de la blockchain ainsi que d'autres technologies comme l'IA en mutualisant les efforts et les outils. De nombreux processus sont très similaires d'une collectivité à une autre, une boîte à outils digitale, évolutive et si possible open source pour gérer par exemple les demandes les plus courantes des habitants et les processus internes (demande de permis de construire, de places en crèches...). La boîte à outils serait composée de workflow digitaux (étapes avec les informations à obtenir, les actions à réaliser, les documents et livrables à donner), des interfaces simples pour l'utilisateur, l'agent, l'administrateur de la collectivité: formulaire, interface de contrôle, tableau de bord ...
La blockchain et l'IA (qui ne sont pas indispensables dans tous les cas !) peuvent aider à simplifier et automatiser certaines étapes (vérification des pièces d'identité, contrôle de cohérence, choix des procédures...). Chaque collectivité pourrait adapter son workflow mais aurait une base de départ fonctionnelle.
Pour illustrer cette tendance, il y a eu récemment le premier Sommet des GovTech avec Justin Trudeau. D'autre part, la Région Ile-de-France a mis en place un plan IA 2021 (mais pas encore de plan Blockchain 😉) pour favoriser l'utilisation de l'IA dans les PME et ETI franciliennes, je suis certain, qu'elle en profitera aussi pour l'utiliser aussi en interne.
La blockchain pourrait être aussi utilisée par les Régions pour gérer ce qui est de leur compétence spécifique (agriculture, lycée, santé...) car elles coordonnent de très nombreux acteurs ayant des intérêts souvent différents et qui idéalement devraient se partager des informations mais ne le font pas car aucun acteur n'est légitime pour le faire.
Un autre usage de la blockchain en B2G (Business to Government) est la forte réduction de la corruption car l'inviolabilité d'une blockchain publique réduit ces risques et on ne peut pas cacher les malversations en modifiant des registres ...
La Moldavie l'a notamment utilisé pour éliminer le trafic d'enfants facilité auparavant par des fonctionnaires corrompus qui modifiaient les registres des naissances. Le continent africain devrait selon moi être en pointe dans l'utilisation des blockchains pour assurer de la bonne gestion des fonds alloués notamment via des aides publiques, l'Estonie utilise la blockchain pour tracer ses documents et transactions.
La blockchain pourrait aussi fortement transformer des métiers ayant le rôle de tiers de confiance comme les notaires (qui ont d'ailleurs une initiative en ce domaine), les huissiers, les experts-comptables ... Cela réduira les falsifications possibles grâce à une traçabilité quasi infaillible.
Cela peut même être une nouvelle source de revenus pour les huissiers qui seraient garants des informations mises dans la blockchain, attester de la conformité d'un document par rapport au hash dans une blockchain...
Cela prendra un peu de temps avant que la blockchain ne se généralise et que les acteurs comprennent les cas d'usages et déploient des solutions l'utilisant. Sur un continent comme l'Afrique, souvent nommé Green Field, la blockchain sera un vaste terrain d'expérimentation. Il y a notamment des projets facilitant les transactions d'énergie (comme Ubuntu Energy Leader) ou de biens alors qu'il n'y a pas toujours de titre de propriété. La propriété pourrait être "certifiée" par les habitants d'un même village par exemple tous adhérents à une blockchain.
Si la communauté est suffisamment importante, pourquoi ne pas imaginer que l'Etat accepte cette blockchain comme preuve de propriété à défaut de ne rien avoir et surtout de ne pas percevoir de taxes à chaque transaction.
Le Rwanda, "l'Estonie africaine" utilise la blockchain pour tracer le tantale (de l'extraction du minerai à son raffinage afin de rassurer les acheteurs qu'il est "conflict-free mineral") souvent objet de corruption
Les prochains véhicules (bus, tram, voiture...) autonomes ou juste connectés sont nécessairement intégrés dans l'infrastructure de la ville, ils communiquent avec les autres véhicules les piétons, les infrastructures, les feux rouges, les chaussées ... La question majeure est: Qui va gérer cette plateforme?
Ford a proposé au CES Las Vegas 2018, sa plateforme de gestion de mobilité dans la ville mais est-ce le plus légitime ? ... La ville est certainement plus légitime sur ce sujet (mais n'a pas nécessairement le plus de compétences et d'agilité), mais doit travailler avec d'autres entreprises qui sont spécialisées dans la gestion de plateforme de données, tout en évitant d'utiliser des solutions propriétaires et en favorisant des solutions ouvertes ou open source comme Fiware.
La mise en place de blockchain pourrait faciliter la gestion des villes intelligentes car les données ne seraient plus centralisées par un acteur unique mais peuvent être partagées par les acteurs privés et publics (infrastructure, travaux, trafic, parking, commerces...), chacun accordant un droit d’accès spécifique en fonction de l’usage.
La blockchain a un très gros potentiel dans les cas où il y a une multitude d'acteurs ayant des intérêts divergents qui doivent partager des informations mais dont aucun n'a la légitimité pour coordonner la totalité des données agrégées. Pour des villes un peu longues à réagir, on pourrait même imaginer des acteurs privés et publics créant une blockchain indépendamment de la ville, néanmoins, ce serait dommage pour elles qu'elles prennent ce train avec retard.
Nous faisons face à de plus en plus de catastrophes naturelles et il devient de plus en plus important d'être capable de les surmonter sans dépendre d'organisation centrale pour s'alimenter en énergie, être approvisionné en nourriture ...
Une des clés de la résilience et de la reconstruction est la solidarité locale en plus des secours. Celle-ci peut se manifester de multiples manières, avec un principe de base le partage. Pour partager, il faut d’abord avoir et produire quelque chose qui puisse être partagé ! Ensuite, il faut savoir ce dont l’autre a besoin et pouvoir partager facilement cela avec lui, de manière si possible équitable par rapport aux autres personnes ayant le même besoin sans pénaliser celui qui partage.
Au CES Las Vegas, il y a de plus en plus de solutions qui permettent de produire des plantes aromatiques des légumes en appartement, les coûts ont aussi fortement baissé pour produire de l’électricité à partir de panneaux photovoltaïques, néanmoins ce qu’il manque le plus c’est l’infrastructure de partage.
En France, il est quasi impossible de partager l’électricité produite avec ses panneaux photovoltaïques à ses voisins lorsque le réseau électrique tombe (sauf cas rare d’auto-consommation réduite à une échelle locale). La solution qui commence à émerger (mais qui n’est pas sans poser problème à RTE, qui gère le réseau électrique) est la création de mini-grid fondée sur la blockchain.. A New York, Brooklyn Grid permet à une cinquantaine de voisins de s’échanger de l’électricité. Face aux incessantes coupures d’électricité lors de l’ouragan Maria à Porto Rico, AES, une entreprise fournissant des solutions globales d’énergie a proposé de mettre en place des mini-grids pour y faire face au lieu de créer une infrastructure centralisée beaucoup plus fragile et chère.
Plus proche de nous, le village de Prémian (500 habitants), dans l’Hérault, se positionne comme un pionnier de l’autoconsommation collective, avec le recours à la blockchain sur un réseau public de distribution d’électricité. La commune a installé une centrale photovoltaïque qui alimente sept consommateurs situés à proximité immédiate : les compteurs de la mairie, l’école, l’agence postale, l’atelier municipal, un centre culturel, une boulangerie et un logement.
Développé par Sunchain, spin-off du bureau d’études Tecsol, la blockchain certifie automatiquement la transaction entre l’unité de production et les consommateurs, sans tiers de confiance, en réalisant un bilan entre ce qui est produit et consommé et met en place des règles de répartition dynamiques.
Comme je l’avais indiqué auparavant, la blockchain est d’abord un registre distribué entre les différents acteurs qui le composent. Il enregistre de manière incrémentale les transactions bloc par bloc.
Chaque bloc est une forme de fichier qui agrège un certain nombre de transactions, d’autre part, ce bloc intègre l’adresse digitale du précédent bloc composant la blockchain, ce qui permet de fil en aiguille de partir du dernier bloc et d’aboutir au premier constituant ainsi une chaîne de blocs.
Dans les registres centralisés par exemple des notaires, chaque transaction est validée et vérifiée par une entité centrale avant d’être intégrée dans le registre.
La blockchain remplace cette décision centrale par une décision décentralisée (grâce à une règle de consensus).
A l’image d’une démocratie, une décision est prise s’il y a plus de 51 % de "votes" pour mais à la différence d’une démocratie, chaque acteur de la blockchain (comme Bitcoin et Ethereum) ne possède pas une voix chacun mais un nombre de voix proportionnel à la quantité de travail qu’il effectue. Cette règle du consensus repose sur une solution apportée au problème des généraux byzantins (comment, et dans quelle mesure, il est possible de prendre en compte une information dont la source ou le canal de transmission est suspect).
Les transactions (ou "décisions à prendre"...) sont regroupées dans un bloc de transactions et en plus, intègre le hash du bloc précédent et quelques autres informations (dont la racine de l'arbre Merkle du bloc de transactions, qui est un hash des transactions composant le bloc, le " nonce "...).
Dans une blockchain publique, tout le monde a la possibilité de valider des blocs à condition d'allouer une certaine ... puissance de calcul pour le réaliser.
Mais s'il n'y a personne pour valider les blocs, il n'y a plus de blockchain ! Donc pour inciter à le faire, on paiera une commission à celui va valider le bloc (le " mineur "). De plus, le mineur sera payé en cryptomonnaies créées lors de chaque validation de bloc (de plus en plus faible avec le temps cf. partie cryptomonnaie).
Si 51% au minimum des mineurs valident le bloc (le " minage "), il est intégré dans la blockchain (" registre distribué "), sinon il est rejeté (règle de consensus actuelle pour les blockchains publiques comme Bitcoin et Ethereum).
Le poids de chaque mineur pour avoir une chance d'être le 1er à valider un bloc n’est pas équiprobable mais calculé en fonction de la puissance de calcul qu’il accorde pour valider le bloc de transactions.
La question est comment vérifier la puissance de calcul de chaque mineur autrement dit quel est le " Proof of Work " ou sa preuve de travail ?
On va demander aux mineurs de réaliser une opération mathématique (nommé " Puzzle " ) qui peut être seulement résolue en " force brute de manière aléatoire et itérative" liée donc directement à la puissance de calcul. Pour être précis, il doit trouver le hash (utilisant la fonction de hachage SHA-256)
du bloc de transactions avec une contrainte : qu'il commence par un certain nombre de zéros comme 000000... le nombre de zéros dépend de la puissance de calcul capable de miner (sachant qu'il faut traiter chaque bloc en 10 min pour le Bitcoin)
Pour trouver ce hash, le mineur doit exécuter un très grand nombre de fois des algorithmes de hachage qui transforme un bloc de transactions (en ajoutant un " nonce ", un chiffre incrémenté qui permettra d'atteindre le nombre de zéro requis) en un hash (cf. ci-dessous) et vérifier un à un si ce bloc respecte ou non la contrainte de départ. A chaque itération, il doit modifier le nonce pour trouver un nouveau hash. Il n'existe aucun algorithme inverse plus rapide permettant de partir des contraintes du hash et du bloc lui-même pour trouver un hash final correct. Ce problème ne peut être résolu qu’en un temps exponentiel (ex : temps = 2n ) selon le nombre de zéros imposés (n) pour la clé et non en un temps polynomial (temps = a + bn+ cn2 ...). D'ailleurs, une des promesses des ordinateurs quantiques est de pouvoir résoudre ce problème en un temps polynomial en raison de la parallélisation des traitements.
Plus vous avez de puissance de calcul, plus vos probabilités d'être le premier à trouver le bon hash sont grandes. C’est ce calcul (nommé "Proof of Work") qui demande de la puissance de calcul et consomme beaucoup d’énergie.
Quand un mineur trouve un hash correct et qu'il est le premier, il reçoit une récompense (la commission et les cryptomonnaies) et transmet son résultat à tous les autres mineurs. Les autres mineurs doivent juste vérifier que son hash correspond bien au contenu du bloc (c'est très rapide dans le sens inverse). S'il y a plus de 51% de mineurs qui confirment ce hash, alors il est ajouté à la blockchain.
Ce mécanisme de consensus garantit l'intégrité et la consistance du contenu de ce registre partagé, néanmoins le " Proof of Work " provoque un gaspillage phénoménal d'énergie puisque toute la puissance de calcul utilisée par tous les mineurs ne sert qu'à déterminer le mineur qui va ajouter le bloc à la blockchain et être rémunéré en conséquence. S'il y avait un système qui déterminait " le gagnant " sans montrer sa puissance de calcul, on consommerait nettement moins d'énergie.
C'est pour réduire la consommation d'énergie, que d’autres solutions comme le "Proof of Stake" / "Preuve d'enjeu" ou "Delegated Proof of Stake" (on parle de "minting" et non de "mining") ont été imaginées.
Lorsqu'une blockchain l'utilise, il n’y a plus de contraintes demandées pour trouver le hash, en revanche il faut tirer au sort le minteur qui sera récompensé proportionnellement au montant de cryptomonnaies qu'il bloque pour réaliser le mintage.
Un peu comme le Poker, chaque minteur met un enjeu (une somme en cryptomonnaie) pour valider un bloc, la chance qu’il a d’être sélectionné (et de percevoir des cryptomonnaies et les frais de transaction) sont proportionnels au montant qu’il met en jeu. S’il valide un bloc, qui est rejeté, il perd son enjeu.
Il n’y a plus besoin de chercher une clé avec un nombre déterminé de chiffre ce qui réduit fortement la consommation énergétique. En revanche, cela crée d’autres biais, avec le risque d’un acteur possédant une part importante des cryptomonnaies gagnant beaucoup plus que les autres.
D’autres ont imaginé réaliser la sélection du gagnant en fonction du nombre de transactions faites par chaque minteur sur une période récente... parmi d'autres variations.
Le problème reste toujours de trouver la bonne règle de consensus ...
S'il y a une modification de la blockchain, tout le monde le saura. Plus il y a d'utilisateurs indépendants dans la blockchain, plus elle sera sécurisée. Ainsi une blockchain publique est plus sécurisée qu'une blockchain privée (si elle a plus de mineurs).
Enfin, en fonction des règles de la blockchain, une partie des utilisateurs peuvent faire un "fork" (crée un deuxième registre identique au premier sur une première partie et qui devient indépendant par la suite). C'est ce qui s'est passé le 20 juillet 2016 avec Ethereum avec la scission entre deux chaînes Ethereum Classic (l'ancienne) et Ethereum (la nouvelle et majoritaire).
Il ne faut pas s'en étonner ... on en a vécu quelques forks dans d'autres domaines ... En 1204 entre l'Église catholique romaine et l'Église orthodoxe et 1517 entre l'Eglise catholique et protestante (nommé schisme mais ce n'est pas reconnu par les protestants, qui gardent la Bible comme Grand Livre Commun et sans parler des autres religions ... pardon pour la digression ;). Le Fork est le Schisme de la blockchain 😉
Le hachage (hashing) est une technique qui permet de créer une signature (ou hash) quasi-unique à partir de n’importe quelles données. Si l’on modifie une des données d’origine (même infime grâce à l’effet avalanche), on modifie totalement la signature. Il y a des similarités à la technique de compression de données mais avec une différence fondamentale, deux images proches pourraient avoir un fichier compressé identique, ce qui n’est pas le cas du hachage.
Dans l’image ici, la Déclaration universelle des droits de l’homme a été hashée (fichier sous format texte via un outil en ligne en SHA 256) en deux versions avec et sans le H ! Les deux hashs sont complètement différents.
C'est d'ailleurs une technique que vous pouvez utiliser pour protéger une oeuvre ou un texte sans divulguer celle-ci. Vous envoyez le hash de votre oeuvre numérisée à une date certaine à un tiers de confiance par exemple un huissier. Pour prouver l'antériorité de votre oeuvre, il suffit de montrer votre oeuvre et de recalculer son hash et de montrer que les 2 sont identiques car personne ne sera capable de montrer une autre oeuvre correspondant à votre hash.
Les fonctions de hachage sont publiques (et open source). Il est extrêmement très long de reconstituer les données d’origine à partir du hash ou de créer un même hash à partir de données falsifiées. C'est un problème NP-complet, pour calculer le hash à partir de données c'est très rapide (temps polynomial) mais pour retrouver les données qui correspondent à un hash c'est très long si la taille du hash est suffisamment longue (temps exponentiel (environ 7,5*1051 années avec toute la puissance de calcul utilisée actuellement pour miner des bitcoins, l'univers aura disparu depuis belle lurette !) avec un ordinateur non quantique).
Pour l’anecdote (Guardtime), le gouvernement estonien hasherait la totalité de ses données et imprimerait le hash sur des journaux papier ce qui permettrait de s’assurer que les données n’ont pas été modifiées par des hackers (en gardant bien sûr un log quotidien des hashs de chaque jour et un hash des modifications apportées entre deux jours consécutifs ainsi que les journaux papier !)
A l’image d’Internet et des Intranets, il y a des blockchains publiques et privées. Les blockchains publiques ont des registres massivement distribués et ouverts à tous (ex : Bitcoin, Ethereum).
Les blockchains privées ou de consortium (basées par exemple sur HyperLedger) ont un registre qui n'est distribué, il est consultable seulement par des acteurs prédéfinis (un groupe d'entreprises par exemple). Le minage peut dans ce cas être beaucoup plus simple car délégué à des nœuds de confiance à la différence des blockchains publiques.
Une blockchain privée ayant un nombre bien plus faible de nœuds et ayant des règles spécifiques en particulier en termes de consensus peut être falsifiable à la différence d’une blockchain publique avec un très grand nombre de mineurs (Bitcoin, Ethereum) d’où l’importance de s’assurer des règles et du nombre de nœuds indépendants dans une blockchain privée.
Le cas extrême est une blockchain à un nœud ( ! ) qui en fait correspond à une plateforme centralisée ce qui ne présente aucun intérêt hormis de faire « blockchain-washing » et d’être complètement ridicule.
Certains protocoles comme Ethereum et Hyperledger (mais pas Bitcoin normalement) permettent de réaliser des Smart Contracts, qui sont des programmes automatisés (ex : Si j'ouvre une serrure électronique, alors le montant de la location de maison m'est automatiquement débité. Si un capteur de froid détecte une rupture de la chaîne du froid, alors la livraison est annulée (en plus de l'enregistrement de l'événement).
Dans les domaines comme l'assurance (ex : l'offre Fizzy d'Axa qui rembourse en cas de retard d'avions automatiquement) ou le partage des ressources utilisent les smart contracts afin de faciliter les transactions et éviter qu'une entité centrale doive appliquer des contrats.
Le token (ou jeton en français), est analogue à une cryptomonnaie, il fait partie des cryptoactifs : c'est un actif numérique émis et échangeable sur une blockchain.
Il possède à ce titre des caractéristiques identiques aux cryptomonnaies : Il est transférable sur Internet sans duplication en pair-à-pair et donc sans tiers de confiance ou organe central. à la différence du contenu numérique comme la musique, un film, un fichier, on ne peut le dupliquer, un transfert d'un token d'une personne vers une autre personne, signifie que celui à l'origine du transfert en perd la propriété.
Il est infalsifiable, les échanges de tokens sont inscrits dans un registre sans possibilité d'effacer ou modifier l'historique des transactions ...
Il peut représenter :
Attention, néanmoins de nombreux médias utilisent à tort le terme de security token et ce terme est réglementé aux Etats-Unis car assimilé aux Securities, des valeurs mobilières. Dans le cas des actions mobilières, on préfère utiliser le terme equity token plutôt que security token, terme souvent galvaudé.
A la différence d'une cryptomonnaie, un token ne peut être miné (mais de nouvelles évolutions permettraient de le faire dans le futur). Il peut être vendu et acheté à tout moment, sur des plateformes d'échange à un prix fixé en temps réel par l'offre et la demande. Il est donc très liquide.
On commence à parler de "tokenisation" de notre économie, dans le sens où l'on accorde une valeur fractionnable (en sous-unités minimales de 10-18 pour l'Ether) et échangeable à la propriété d'un bien ou l'usage d'un bien ou service.
La mise en place d'une blockchain privée nécessite une architecture spécifique très complexe à mettre en oeuvre (règles de consensus, architecture peer-to-peer...).
C'est la raison pour laquelle de nombreuses entreprises abandonnent ce type de projet et préfèrent se tourner vers la blockchain publique qui en plus assure un caractère infalsifiable ou se " plugge " sur des blockchains de consortium comme celle d'IBM (ex : FoodTrust fondée sur Hyperledger Fabric) qui ont des solutions presque prêtes à l'emploi.
Engie (plus trop une startup !) a créé avec Maltem, la société de services Blockchain Studios pour faciliter la mise en place de cette infrastructure dans les entreprises.
Neurochain (France) a créé une blockchain qui a pour objectif d’être plus rapide, équitable en restant sûre grâce à des « agents intelligents ». Ces « bots » utilisant le machine learning accéléreraient les transactions, la fluidité des échanges et la fiabilité du consensus afin d’éviter qu’un petit groupe puisse influer sur la blockchain de manière disproportionnée. La méthode pour établir un consensus n’est pas fondée sur le « Proof of Work » ou « Proof of Stake » mais fondée sur des principes de thermodynamiques des réseaux… « Proof of Workflow » ! Plus prosaïquement, les nœuds sont classés en fonction de plusieurs critères : leur implication dans la blockchain (quantité de transactions réalisées par le nœud), la qualité des échanges (intégrité vue par les autres nœuds). Le consensus est atteint lorsque le score cumulé des plus hauts nœuds dépasse un seuil (par exemple 50% du total cumulé des scores).
Devvio propose une solution Blockchain-as-a-Service avec une blockchain en open-source qui serait beaucoup plus rapide, scalable et moins cher que les autres blockchains. En réalité, ils utilisent une autre méthode de consensus que le “Proof-of-Work”, le “Proof-of-Validation” fondé sur des mineurs choisis par Devvio. Néanmoins, cela ne garantit pas l’infaillibilité de la blockchain.
Plus innovant, Monax (UK) fournit une boîte à outils permettant aux entrepreneurs de créer et d’automatiser un cycle complet contractuel (ou workflow) avec la blockchain (ex: création d’une entreprise, permis de construire, assurances,.. qui aboutit finalement à la signature du contrat). L’intérêt de la blockchain est triple, il permet de tracer tout événement, toute modification sans possibilité, il évite d’avoir un organe central, enfin il met en oeuvre les smart contracts.
Est-ce que la Blockchain est soluble dans le RGPD ?
On peut stocker dans la blockchain, des informations brutes, un hash de ses données (signature unique) ou une clé qui permet d'accéder à ces données sur une plateforme externe (via des API). La Blockchain peut sembler a priori incompatible avec le RGPD (ex : concernant le droit à l'oubli qui nécessite l'effacement des données).
La CNIL stipule que non, dès lors qu'un certain nombre de précautions sont prises. Par exemple, plutôt que d'inclure des données personnelles sur une blockchain, on peut y mettre une clé permettant d'y accéder partiellement ou totalement sur une plateforme de données respectant le RGPD. La DG Trésor avait d'ailleurs bien anticipé ces problématiques en lançant une consultation sur la régulation de la blockchain avec un focus sur le RGPD.
Côté face : La blockchain permet d'assurer la transparence (et l'inviolabilité) des données personnelles (art. 12) en permettant de tracer tous ses traitements.
La blockchain permet de certifier du consentement de la personne (art 7)
Le " Privacy by design " (art 25 - Protection des données dès la conception et protection des données par défaut) est directement intégré dans la blockchain car les données sont chiffrées et hashées.
Côté pile :
La possibilité de rectification (art 16) ou d'effacement de données, la durée de conservation et durée n'excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées (art 17) est impossible par définition pour la blockchain ...
Au sujet de la désignation du responsable de traitement (art 24 du RGPD) et d'un délégué à la protection des données (art 37), pour la blockchain privée, cela n'est pas gênant (la plupart des cas B2B hors cryptomonnaies) car il y a une entité qui assure sa responsabilité en revanche il en est tout autrement pour la blockchain publique où la responsabilité est difficilement applicable aux mineurs (qui fournisse la puissance de traitement).
La protection suffisante en cas de transfert hors UE (art 44 et suivants ) est difficile à garantir dans le cas d'une blockchain publique où l'information peut être disséminée mondialement.
Conclusion : ...
La blockchain est compatible avec le RGPD si elle est soit privée soit ne contient aucune information personnelle (!) directe ou reconstituable (ex : hash d'une identité). La seule solution aujourd'hui est que les informations personnelles soient sur une plateforme qui respecte le RGPD (potentiellement décentralisée si elle respecte le RGPD). Il serait imaginable que la CNIL sous réserve d'un hachage et d'un cryptage suffisant des données personnelles dans une blockchain puisse accepter que celles-ci ne soient pas des données personnelles.
L'effacement des clés privées reconstituant les données personnelles de la blockchain serait considéré comme équivalent à un effacement. Si un petit malin met en place plus tard un système de décryptage grâce à l'informatique quantique, il y a un risque mais je pense qu'on aura d'autres soucis bien plus importants à se faire ...
Dernier point, le règlement e-Privacy de l'UE risque de poser des problèmes bien plus considérables à la blockchain et sur bien d'autres plateformes car elles concernent toutes les données non personnelles ... Good Luck !
Les principales limites de la blockchain publique sont liées à sa lenteur de traitement (Bitcoin peut traiter au maximum 7 transactions par seconde, Ethereum 15) et sa consommation d'énergie nécessaire pour vérifier l'ensemble des transactions ("Proof of Work").
Pour contourner ce problème, on peut mettre en place des règles de consensus moins énergivores.
Ethereum et d'autres blockchains travaillent sur des solutions (notamment avec le "Proof of Stake" et "Delegated Proof of Stake") pour accélérer le traitement des opérations et réduire leur consommation énergétique, néanmoins actuellement cela n'assure pas une sécurité aussi robuste que le "Proof of Work".
On peut aussi créer des side chains, des blockchains privées beaucoup plus rapides et moins énergivores mais cela nécessite une infrastructure spécifique. La mise en place d'une blockchain privée utilisant par exemple HyperLedger, solution ouverte et extrêmement modulaire n'est pas à la portée de nombreuses entreprises non spécialisées dans la blockchain.
C'est la raison pour laquelle des entreprises comme IBM et Amazon proposent des Blockchain-as-a-Service pour réaliser des blockchains privées ou de consortium.
On dit souvent que les blockchains sont infalsifiables, ce n’est pas tout à fait le cas. Tout d’abord pour une blockchain privée ou de consortium, en fonction de la règle de consensus, un bloc légitime peut être refusé par les entités en charge de valider ou refuser les transactions ! En revanche, un bloc confirmé dans une blockchain ne pourra être modifié si les règles gérant la réorganisation de celle-ci dans le passé ne l’empêchent et sont respectées.
Même pour des blockchains publiques fondées sur le "Proof of Work", il est possible d'hacker une blockchain sur ces derniers blocs. Pour cela, il est nécessaire de réunir plus de 51 % de la puissance de calcul. L’attaque de 51% consiste à envoyer des fonds à un tiers, transaction qui sera acceptée par tous et en parallèle de créer un "forked copy" caché de la blockchain avec une transaction où on transmet l’argent à un autre compte. Avec la puissance de minage de 51%, on accepte la 2e version de la blockchain et la première transaction disparaît (le tiers perdant ainsi le montant de la 1re transaction).
Il existe même des sites qui vous calculent le coût d’une telle attaque sachant que vous pouvez faire appel à des solutions types Nicehash qui permettent de louer de la puissance de calcul pour réaliser ce hack. Pour Bitcoin, cela coûterait environ 1,4Md USD. Néanmoins, cela n’est pas impossible car 70 à 80 % de la puissance de calcul du bitcoin est concentrée en Chine et partagée par des groupes de ferme de minage qui pourraient s’associer comme cartel dès lors que leurs intérêts sont communs.
Il est essentiel de se poser la question : pourquoi mettre en place une blockchain.
Une plateforme centrale peut dans bien des cas répondre à des problèmes dès lors qu'il y a un tiers de confiance accepté et que l'on peut sécuriser suffisamment les données. Rien n'empêche d'ancrer ses données régulièrement dans une blockchain publique pour éviter les falsifications. Cela coûte peu cher et permet à moindre coût de s'assurer que nos données n'ont pas été modifiées.
Les ordinateurs quantiques pourraient causer des soucis à la blockchain d'autant que les données hashées pourraient être plus facilement hackées avec un ordinateur quantique, néanmoins il ne faut pas oublier qu'il faut actuellement des ordinateurs traditionnels pour gérer les ordinateurs quantiques et actuellement on est encore loin du comportement en puissance de calcul. On commence à avoir des résultats intéressants à partir de 56 qubits réels (équivalent du bit dans l'univers quantique).
Si vous souhaitez des debriefs, conférences, formations sur la blockchain, sur d'autres technologies (IA, IoT, Robots...), les innovations et startups dans vos secteurs, n'hésitez pas à me contacter.
Sommaire
Microsoft présentait aussi sa solution Hololens 2 qui pour l’avoir essayé est nettement plus confortable qu’Hololens 1.
Il intègre l’eye-tracking, la capacité à comprendre les gestes de la main pour déterminer notre geste (si l’on agrippe, pousse ...) et un écran nettement plus grand. Les applications étaient B2B : dans le domaine industriel, médical, de la construction de bâtiments et aussi avec Microsoft Dynamics (son CRM).
HTC Vive montre ses casques VR sans fil nous plongeant dans la réalité virtuelle alors que des robots humanoïdes commencent à entrer de plein pied dans notre réalité ;)
Et de nombreux robots humanoïdes tapaient la discute avec leurs homologues humains.
Le MWC a utilisé a utilisé pour la 1ère fois, la reconnaissance visuelle avec la société Breez pour l'entrée dans le salon. Il fallait transmettre lors de son inscription une photo HD. L'intérêt pour les visiteurs est d'éviter de sortir sa carte d'identité à chaque passage. Cela fonctionnait dans 80% des cas, pour les 20% restant, un petit réglage de la caméra ou retirer ses lunettes permettait d'identifier correctement la personne (cf photos).
La baisse des coûts de la reconnaissance visuelle permet aujourd’hui d’utiliser le flux de n’importe quelle caméra, non seulement pour identifier mais aussi pour déduire le comportement, identifier les personnes même les chats (cf Debrief CES Las Vegas 2019) ce qui pose la question de la collecte massive des données biométriques souvent à l’insu de notre plein gré !
Pour se conformer au RGPD, il y a plusieurs manières, la première proposée par D-ID, une startup israélienne qui brouille les photos grâce à l’Adversarial Network (cf. ci-dessous).
La deuxième me semble bien meilleure et est mise en place par RealNetworks avec sa solution Safr. A l’image des mots de passe, les photos ne sont pas stockées sur le serveur, plus d’une dizaine de caractéristiques du visage sont capturées (distance entre les yeux...), transformées en un hash (un peu comme la clé RIB en version cryptée) qui est conservé sur un serveur local ou sur un serveur distant.
C’est la raison pour laquelle, on vous demande de créer un nouveau mot de passe si vous l'oubliez car ceux-ci ne sont plus stockés sur les serveurs. C'est un hash qui est stocké. Il ne permet pas de retrouver le mot de passe mais permet de vérifier que celui que vous mettez est correct.
D'autre part, il est possible de créer des actions spécifiques en fonction du visage reconnu, s'il s'agit d'un VIP ou d'une menace ...
A l’image de la marée ou de la température (dans une casserole où serait plongée une grenouille !) qui monte progressivement, la stratégie chinoise pour devenir incontournable en plus de l’Asie est très différente des US. Pas de plan Marshall chinois, mais une progression de plus en plus rapide où leur valeur se déplace de l’usine du monde à celle de fournisseur de solutions complètement packagées.
Pour l'illustrer, le stand Ford semblait bien isolé par rapport aux entreprises chinoises 😉
L’Internet des Objets facilite grandement ce mouvement, la grande majorité des trottinettes sur le béton parisien sont de fabrication chinoise (Zoov, startup menée par Eric Carreel et trottinette dessinée par Elium Studio fait exception mais n'est disponible pour l'instant que sur le plateau de Saclay !),
Elles sont toutes connectées pour connaître l’état de leur batterie, leur position et leurs mouvements, il ne serait guère étonnant que les fabricants chinois récupèrent au moins une partie des données via leur plateforme, transmises ensuite à la plateforme Lime, Bird ...
Tuya, entreprise chinoise, fabrique ainsi une solution OEM complète "one-stop Al loT solution that covers hardware access, cloud services and APP software development", elle fabrique aussi ses propres produits.
Elle respecte même le RGPD et les données peuvent être hébergées sur AWS ! Pragmatique !
Les entreprises chinoises comme Tencent et Alibaba réduisent à zéro les frais de transactions en intégrant la brique de paiement dans leurs applications Wechat ou Alipay car leur modèle économique est fondé sur la vente de produits et non les commissions sur les paiements qui aujourd’hui font vivre Visa et Mastercard.
Mastercard et Visa ont bien créé des Wallet gratuits pour le client et le commerçant comme Masterpass ou Visa Check out, ils acceptent même les modes de paiement de leurs concurrents, mais le modèle économique de Mastercard et Visa est fondé sur les achats réalisés au final avec leurs cartes.
Le risque majeur pour ces entreprises est qu’Amazon décide de lancer sa propre monnaie virtuelle, ce qui d’ici quelques années est fortement probable. Des rumeurs circulent sur la création de leur propre cryptomonnaie et l’acceptation d’autres cryptomonnaies. Ils ont déposés des noms de domaines en ce sens (dont amazoncryptocurrency.com, amazonethereum.com )
Pour Amazon, le gain est bien sûr économique avec une réduction des commissions versées à Visa, Mastercard...
Compte tenu de la menace, il est probable que ceux-ci aient accepté qu’elles soient extrêmement basses, voire nulles.
Néanmoins, l’enjeu pour Amazon est de maîtriser la totalité de la chaîne, d’offrir une expérience complète au client et de réduire encore les frictions d’achat à l’image de ses concurrents chinois Tencent et Alibaba. Ils pourraient offrir des prix réduits à leurs clients Amazon Prime avec cette monnaie / tokens.
Ce sera un vrai tremblement de terre pour toute l’industrie de paiement en Occident le jour où Amazon appuiera sur le bouton Go mais pour faire face à l’arrivée progressive mais massive de concurrents chinois, ils n'auront pas le choix. Je parie sur un lancement d’ici 2021...
Amazon avait lancé un Amazon Coin en 2013 qui permettait aux utilisateurs du Kindle Fire d’acheter des applications ou des jeux dans l’appstore d’Amazon. Cela avait été un échec et ils l'ont retiré ... parce que le périmètre d'utilisation était très petit et n'incluait pas la marketplace d'Amazon ...
Incroyable, Volkswagen au lieu de présenter des véhicules comme les autres constructeurs n'en présente aucun à l'exception d'une trottinette électrique (acheté en marque blanche et rebrandée) a choisi de mettre en avant sa nouvelle marque We, qui couvre tous les services partagés.
VW aurait-il bouleversé son modèle économique et aurait-il pris à fond le virage des services de mobilité reléguant la voiture à une commodité parmi d'autres modes de transport ?
De belles découvertes parmi les startups françaises dont
Arjo Solutions qui permet d'authentifier et identifier unitairement n'importe quel packaging carton (mais pas seulement) grâce à une caméra qui scanne le packaging à l'usine (signature des trames fines de papier) et peut s'assurer s'il est authentique et retrouver lequel juste avec son smartphone.
Kiwi box a transformé les gorilles d'Orlinski en enceintes Bluetooth et chargeur pour téléphones... pour 400€. En revanche, je vous déconseille d'essayer de les défiscaliser comme oeuvre d'art ... ;)
Beaucoup d'autres startups étaient présentes dont l'inévitable Linagora et sa solution OpenPaas ;)
La FrenchTech est toujours aussi présente avec une centaine de startups (B2B) sous l'égide de BusinessFrance représenté par Eric Morand, plusieurs députés dont Eric Bothorel et Laure de la Raudière étaient venus, ainsi que Kat Borlogan, directrice de la Mission FrenchTech et Sébastien Soriano, président de l'ARCEP.
Famoco connu pour ses terminaux android dédiés présente sa solution multi-techno QR code pour les bus, trams (pour du light ticketing) et NFC (carte transport et paiement). D'autre part, il serait le seul terminal B2B Android à ne pas transmettre les méta-données de vos transactions (ex: paiement entre X et Y sans précision du montant ou de la commande).
De belles découvertes aussi parmi les startups israéliennes et espagnoles.
D-ID (Israël) qui utilise de manière étonnante l'Adversarial Network en IA pour protéger les images de visage stockées dans vos bases (modifie l'image pour être inutilisable par des Hackers pour d'autres applications utilisant la reconnaissance faciale).
Seismic.ai (Israël) utilise les milliers de séismes indétectables pour entraîner son IA pour prévoir plus en avance de gros séismes.
Visualfy (Espagne) transforme les sons du quotidien en messages ou alertes pour les mal-entendants.
Pas tout à fait ;) Il est plus probable que la sortie de sa version 2 de son véhicule électrique I.D ait dû être retardé après le MWC et que plutôt de laisser un stand vide, VW aurait eu la bonne idée de mettre en avant sa marque We.
Il reste néanmoins du boulot car les services partagés ont vocation à être des services additionnels destinés aux propriétaires de véhicules VW (et toutes ses marques).
Ce serait un moyen d'inciter les clients VW à acheter de nouveaux véhicules car ces service ne sont pas partageés avec les autres constructeurs...
Comment vous expliquer Mr et Mme VW ? Je pense que vous avez pris le problème du mauvais côté. Les services de mobilité ne sont pas des services additionnels au véhicule, c'est l'inverse ! L'utilisation de véhicules VW peuvent être un service additionnel à des services de mobilité.
Pourquoi me direz-vous ? Car aujourd'hui, à l'exception des véhicules Premium, une proportion de plus en plus croissante de clients voudront acheter un service qui leur permettent d'aller d'un point A à un point B dans les meilleures conditions, et pourquoi pas en VW. À l'inverse, je pense que la proportion de personnes qui voudront acheter une VW car elle permet de bénéficier de services de partage restera très marginale.
Évidemment le problème c'est que ça casse complètement le modèle économique actuel des constructeurs, il faut proposer à ses clients des plateformes multi-constructeurs, multi-type de mobilité (transports en communs, VTC, vélos...). BMW et Daimler ont fait un premier pas dans ce sens en réunissant leurs activités VTC, de services partagés ... Donc c'est possible néanmoins ça va complètement à l'opposé de l'ADN des constructeurs automobiles.
S'ils étaient tout seuls, ça ne serait pas gênant, mais quand vous voyez qu'Uber et Google investissent dans l'opérateur de trottinettes Lime, que les entreprises comme la SNCF (avec la marque We pardon Oui ...;), Transdev investissent dans le covoiturage ou la gestion de véhicules autonomes... et que pour eux, la marque du véhicule risquent de devenir secondaire par rapport à leur marque, il y a peut-être du souci à se faire ...
4FYN est un peu l’équivalent d'Eurêka Park du CES Las Vegas, avec des rangées de startups, beaucoup d’espagnoles, assez peu de françaises, beaucoup d'applications et moins d'innovation qu'à Eurêka Park .
C’est la deuxième année que la FrenchTech n’a pas de stand spécifique à 4FYN. Est-ce une erreur ? Je ne pense pas car beaucoup de startups au 4FYN sont " en early-stage " et que la FrenchTech veut développer ses scale-up. En se concentrant sur les halls 5 (le plus gros stand) et 8.1 (applications mobiles), on se concentre sur cet objectif.
Artlog, startup propose d’utiliser la Blockchain pour sécuriser les oeuvres d’art et faciliter les transactions, Tracks Co2 propose une blockchain pour tracer le marché CO2, ce qui serait une très bonne application de la blockchain associée à de l’IoT pour tracer le mode de production de l'énergie...
Bits propose de réaliser du cash-back en actions de société pour fidéliser ses clients. Cela pourrait avoir du sens pour les marques iconiques cotées en Bourse afin de créer de l'engagement client, de "l’ownership" mais c'est compliqué à mettre en oeuvre surtout si les actions baissent... On peut aussi créer un point de fidélité indexé sur le cours de bourse voire créer un token sur une blockchain.
Cela pose néanmoins des questions à long terme en particulier pour les enfants qui naissent aujourd'hui et qui ne feront plus nécessairement la distinction entre une émotion humaine et une émotion imitée par une machine avec les risques de manipulation inhérents.
La réaction naturelle que nous éprouvons lorsqu'on donne un coup de pied à un robot (de Boston Dynamics) ressemblant vaguement à un gros chien illustre à quel point il est facile de nous manipuler (cf. article sur la confusion).
Beaucoup de startups présentent des solutions intégrant l'IA avec une mode l'IA "émotionnelle", "humanisée" comme me disait une startup de la FrenchTech. Elle interprète votre émotion et réagit en conséquence avec une fausse empathie (jusqu'à preuve du contraire l'IA n'a pas conscience d'elle-même et des autres !). Empath détecte les émotions par la voix ...
Autre mode la Plant based meat", Novameat imprime vos steaks grâce à un imprimante 3d de "viande végétale", le processus est un peu long, plus d’une heure par steak... pour 17e /kg. Pas trop sûr de la réussite du concept ! Une autre startup Heura, propose plus simplement de la "Plant based meat" via des méthodes plus traditionnelles.
La mode du pliable s'étend au-delà de la TV et du smartphone avec Jivr, qui fait un vélo pliable connecté de 18 kg
Une des applications de la 5G fortement poussée par les équipementiers est l’industrie 4.0. C’est un des axes majeurs de communication de Nokia qui a d’ailleurs complètement abandonné son activité médicale, la partie B2C Withings, ayant été revendue à Eric Carreel. L’intérêt est de permettre aux équipements de communiquer entre eux en n’ayant plus besoin de fil. Il est d’ailleurs possible de créer un réseau privé sans fil en 5G sans passer par une antenne 5G accessible à tous. Le seul point gênant est qu’il faut un accord de l’opérateur télécom pour utiliser ces fréquences (car achetées par les opérateurs).
Il y avait de nombreux autres exposants présentant leur solution industrielle souvent en conjonction avec la 5G mais aussi avec le réseau bas débit, en l’occurrence Lora.
L’intérêt est que pour un prix très réduit (< 1000€), vous pouvez connecter vos équipements à une base station Lora afin qu’ils remontent directement s’ils ont une sortie numérique ou indirectement via des transmetteurs Lora ou des capteurs de température, vibrations… transmettant en Lora. Pour un prix raisonnable, vous pouvez transmettre vos données sur une plateforme, les visualiser … Pas besoin d’attendre la 5G !
A ce titre, j’ai été particulièrement heureux de retrouver Guillaume Meriel qui avec Simon Uyttendaele ont créé une startup Busit. Au CES Las Vegas 2015 sur le stand MyFox, nous avions discuté sur leur application à l’époque B2C, équivalent d’IFTTT. Je leur avais qu’ils n’avaient aucune chance de réussir sur le marché B2C et qu’ils allaient droit dans leur mur mais qu’en revanche il y avait un vrai marché dans l’industrie pour gérer les flux de données. Ca a pas mal trotté dans leur tête et ils ont décidé de pivoter complètement vers le domaine industriel. Aujourd’hui, ils ont monté une belle startup en plein développement qui propose une solution type IFTTT, MS Flow en plus intuitif dans le domaine industriel en collectant les flux de données d’équipements connectés, de capteurs et en appliquant des règles de gestion pour alerter, modifier des paramètres d’autres équipements, réaliser des tableaux de bord...
Il n’est pas toujours évident de s’y retrouver dans la 5G, notamment parce qu’il ne s’agit pas d’une technologie mais d’une agrégation des technologies.
Tout le monde parle de l’arrivée de la 5G et qui serait d’une absolue nécessité … selon ceux qui la vendent : les équipementiers de réseau comme Huawei, Ericsson et Nokia, les fabricants de puces comme Qualcomm, les fabricants de smartphones comme Samsung, Huawei.
Côté acheteurs B2B, c’est-à-dire les opérateurs télécoms, le son de cloche est différent car après avoir à peine amorti la 4G, il faut investir dans du matériel 5G, réaliser des upgrades réseaux, placer le nouveau matériel sur les relais télécoms alors qu’il ne reste pas toujours de place restante … Tout ça, cela coûte et loin d’être sûr que les utilisateurs accepteront de payer des abonnements intégrant la 5G ,plus chers …
Concernant les usages, le différentiel entre la 4G et la 5G pour le consommateur final est de moins en moins évident. Les délais de latence, l’ultra haut débit permet d'améliorer son expérience, c'est un changement incrémental. En revanche, il n'y aura pas de nouveaux usages qui transformeront sa vie (hors B2B) à la différence de la 3G et 4G qui lui ont permis d'accéder à Internet, aux vidéos de manière beaucoup plus fluide.
Tout le monde ne fera pas de l'AR / VR ou utilisera la vidéo volumétrique ! Pour des applications comme les véhicules autonomes, la 5G a un vrai intérêt en raison de son très faible délai de latence et de sa robustesse, mais ce n'est le client final qui achètera l'abonnement mais le constructeur automobile.
Quelques éléments techniques :
De nouvelles fréquences seront attribuées à la 5G (1,4 GHz, 3,5 GHz et 26 GHz). en plus des fréquences utilisées par les autres technologies (800, 900 et/ou 1 800 MHz).
La bande des 26 GHz dite bandes millimétriques (mmWave) permet des débits extrêmement élevés mais ne fonctionne qu'en visibilité directe entre l'antenne et le mobile et en rebond sur une paroi. Ces ondes ne traversent pas les murs, vitres ... Pour les téléphones intégrant la 5G mmWave, il y a 3 antennes, deux sur le côté et une sur le dessus pour capter le signal en fonction de la manière dont on place le mobile, l'antenne et le smartphone doivent communiquer en permanence pour que le signal radio soit aligné avec le téléphone. Aux Etats-Unis et au Japon, ils ont un spectre plus large qu'en Europe car ils vont jusqu'à 28 GHz.
(ex: Sony intégrant du mmWave pour des débits beaucoup plus rapides cf ci-dessous).
Une des solutions mises en oeuvre est le network slicing qui permet de n'autoriser que certains équipements ou mobiles à utiliser le réseau ou de favoriser l'accès et le débit de certains au détriment d'autres. Par exemple, le Stade de France peut " privatiser " les fréquences 5G de son stade durant un événement sportif (avec l'accord et rétribution des telcos) et proposer aux spectateurs de payer un montant additionnel à leur billet pour être sûr de pouvoir communiquer, partager des vidéos ...
Cela présente un intérêt économique évident au détriment pour le coup de la neutralité du Net.
En revanche, le GSMA qui gère l'évolution des protocoles télécoms a eu l'intelligence d'intégrer les protocoles LTE-M et NB-IoT dans la 5G.
Cela signifie qu'une puce transmettant en LTE-M et/ou NB-IoT ne devra pas être remplacée par une nouvelle puce avec l'arrivée de la 5G pour une utilisation type "Massive IoT".
Après l'accord avec Eutelsat pour intégrer une couverture satellitaire, Sigfox selon moi se spécialise sur des uses cases nécessitant des coûts globaux extrêmement faibles sur un nombre très massif de capteurs, ou dans des zones pas du tout couvertes par les opérateurs.
C'est un créneau sur lequel les opérateurs telcos traditionnels ne devraient pas se positionner sur du NB-IoT et du LTE-M via des satellites avant longtemps car aujourd'hui, il est interdit d'utiliser les fréquences licenciées pour des communications satellitaires (uniquement communications terrestres car les spectres de fréquences dans l'espace extra-atmosphérique ne peuvent appartenir à aucun pays), ils devraient accepter qu'un autre opérateur gère une partie de leur réseau, les protocoles NB-IoT et LTE-M sont beaucoup plus gourmands en émission-réception et énergie que Lora Sigfox (accusé de réception, authentification...).
Comme chaque année, je me lance à nouveau dans les prédictions de l’année (et des quelques années après !) avec un peu de retard ;)
L’article est un peu trop long … mais que voulez-vous, quand on aime on ne compte pas ! Version PDF - V. English
Les technologies s'intègrent de plus en plus dans nos vies : l’IA, l'IoT, le véhicule autonome, la blockchain, la RPA, automatisation des processus, la 5G, nous pouvons nous sentir omnipuissants, capables de résoudre tous les problèmes, et même de transformer la vie grâce à CRISPR-Cas 9 comme l’illustre la naissance des premiers bébés jumelles génétiquement modifiés (HGM).
En réalité, nous sommes des colosses omnipuissants aux pieds d’argile, car entre l’innovation et son déploiement massif, il faut du temps pour que chacun les adopte, c’est d’ailleurs une fragilité pour les GAFA et NATU qui peuvent subir un désintérêt massif de la part de leurs utilisateurs actuels. Alors que nous allons de plus en plus vite, nous avons rendu notre monde de plus en plus volatile, incertain, complexe et ambigu (VUCA), qui rend sa conduite de plus en plus risquée, nous sommes de plus en plus fragiles, exposés à une sortie de route.
Nous sommes de plus en plus nombreux sur Terre à vouloir accéder à un mode de vie occidentale alors qu’en même temps nous avons de moins en moins de ressources et d’espace pour le faire.
Les pays européens sont devant un dilemme cornélien soit prendre des mesures radicales et risquer de se faire éjecter du pouvoir au profit de partis populistes ou prendre des mesures symboliques sans s’attaquer vraiment au problème. C'est plutôt la deuxième option qui a été choisie vis-à-vis du public, en revanche les Etats commencent à se préparer au pire. Un bloc Chine, Russie, Turquie s’accapare les ressources au Moyen-Orient et en Afrique et affronte les Etats-Unis qui vitupèrent tout en s’isolant du reste du Monde de peur d’être entraînés dans un conflit futur. L’Europe entre les deux est soumise à d'énormes pressions internes et externes qui la divisent.
Risque-t-on la fin de l’humanité ou de la vie sur Terre ? Certainement pas, dans un ou deux millions d’années, les êtres intelligents qui peupleront la Terre, verront peut-être cela comme la sixième extinction et seront heureux de voir que la planète est revenu à un meilleur équilibre d’ici là.
Faut-il alors accepter de prendre le mur à vitesse grand V sans réagir ? Certainement pas. Même s’il est quasiment certain que nous nous fracasserons contre le mur d’ici cinq à cinquante ans, nous pouvons réduire légèrement la vitesse à laquelle ça arrive (c’est toujours ça de pris !), nous pouvons amortir l’impact sur nous (airbag sociétal), et trouver des solutions pour nous relever plus facilement, en résumé la résilience sociétale.
Parmi les solutions, nous pouvons aligner nos modèles économiques avec les intérêts de la planète, anticiper et trouver des solutions pour avoir au minimum un mode de vie dégradé si nous n’avons plus accès un réseau électrique, de télécoms, d’alimentation … ou que nos habitations deviennent inhabitables.
De manière plus globale, nous pouvons migrer au fur à mesure d’une société pyramidale vers une société en boule de gui (réseau maillé), qui nous donne accès à un mode de vie normal mais qui nous assure en cas de coup dur au minimum un mode de vie dégradé (accès à l’électricité, eau, transports, communication, logement …).
Il est illusoire de croire que l’Etat, capable de gérer des problèmes nationaux, soit capable de gérer de manière adaptée chaque cas particulier ou local. Il n’est pas structuré pour, il n’en a ni les moyens financiers ni les ressources humaines.
Les vrais leviers pour transformer notre société sont d’une part nous-mêmes et les structures intermédiaires du local au régional. En revanche, l’Etat a un vrai rôle à jouer pour faciliter cette transformation, aider à mutualiser les solutions sur le plan national et européen nommé aussi Etat-Plateforme.
En France, nous avons tendance à prendre l’Etat pour un Père Fouettard et un Père Noël, nous pourrions faire appel à lui, comme un architecte pour nous aider à construire notre propre projet de vie et comme assureur et gardien de la paix, pour assurer notre sécurité et un minimum vital en cas de coup dur.
Sommaire :
Intégration progressive dans nos vies
Vers l’Omnipuissance grâce aux technologies
Fragilité : beaucoup plus fragile qu’on ne le croit
Réactions actuelles
Solutions : Recherche de sens / Responsabilisation
Les technologies vont de plus en plus s’infiltrer dans nos vies sans même qu’on s'en rende compte.
Petit à petit on commence à prendre des véhicules autonomes via des navettes de Navya (à La Défense) ou EasyMile (expérimentation au Bois de Vincennes avec la RATP), poussée par des villes comme Paris qui souhaite interdire leur centre-ville aux véhicules individuels et utiliser le véhicule autonome à la place. (cf. article sur le véhicule autonome et l’étude sur les perspectives et les disruptions apportées par le véhicule autonome que j’ai rédigé pour Les Echos ). En revanche, nous sommes encore au début et le pivot d'EasyMile vers des véhicules autonomes industriels ou dans des zones closes (ex: avec TLD dans les aéroports) montrent que le modèle économique pérenne n'est pas encore là.
Les produits sont de plus en plus personnalisés (ex : fonds de teint Lancôme (cf. mes prédictions 2018 sur la customisation de masse et le fog manufacturing) et Nike ID qu’on peut voir directement en magasin, personnalisée à nos couleurs grâce à la réalité virtuelle via la solution de Smart Pixels ).
Alors que nous avions très peu d’informations sur le client en magasin, il y a encore quelques années (rappelez-vous des Estimotes, beacons Bluetooth pour traquer les utilisateurs alors que moins de 15% des visiteurs avaient leur Bluetooth activé ! ), aujourd’hui c’est l’inverse, nous avons même beaucoup plus d’informations que sur un site Internet. AIpoly par exemple est capable de déterminer votre comportement magasin grâce au « Sensor Fusion » (cf. article sur retail).
Ce n’est pas sans raison si Amazon multiplie ses magasins autonomes et Auchan commence à les tester en France après la Chine avec Auchan Minute. La multiplication des Drive Piéton en centre-ville (application du « Click and collect » ) illustre cette tendance car tout le cycle d’achat a déjà été réalisé en ligne. Il y a d’ailleurs de fortes chances que ça soit d’abord le drive piéton qui soit automatisé au moins pour la recherche des produits dans les réserves avec des robots tels que ceux d’Exotec. C’est nettement plus simple que d’automatiser tout le cycle d’achat alors que tout est déjà automatisé en ligne.
Mo-Ka, une startup française a même développé une poignée « intelligente » pour rendre n’importe quel magasin autonome (plutôt dans des petites surfaces, un faible nombre d’achats ou des articles pas trop grands ) car il faut mettre tous ces articles dans le sac).
Cette poignée clipsée sur un sac de courses permet de scanner tous les aliments à l’intérieur du sac grâce à une caméra (embarquant une IA de reconnaissance d’objets). Associée au capteur de poids précis à deux grammes près, cela suffit pour savoir précisément quels produits sont placés dans le sac, la géolocalisation (entre le sac et un capteur dans le rayon) sert à affiner la détection.
Son usage, selon moi, est plutôt dans des petites surfaces ou pour un faible nombre d’achats car dans une grande surface, il faudrait empiler plusieurs sacs dans un caddie (et avoir plusieurs caméras), traiter manuellement les articles trop encombrants … Si Mo-Ka réussit, il pourrait proposer à des fabricants de chariots d’intégrer sa solution. Des chariots connectés (ex : Hanshow) existent déjà mais sont trop chers pour un usage grand public. (IMAGE : Gisèle Père Noël)
Amazon applique lui les recettes de son site en ligne au magasin. En plus des Amazon Go, il teste à New York un magasin Amazon 4-Star à New York où ne sont proposés que des produits plébiscités par les clients du site (>= 4 étoiles).
Bien sûr, les membres Prime sont favorisés car ils paient en boutique les prix pratiqués sur le site Internet, souvent moins élevés. L’abonnement, rien de tel pour fidéliser le client à partir du moment qu’on a les moyens de l’attirer et de le garder.
Je ne pense pas .En revanche, les magasins devront le plus en plus proposer une vraie expérience client (conseil, ateliers DIY…) au risque sinon d’être remplacés par des magasins automatisés ou des sites en ligne ( j’en parle longuement dans l’article suivant pour différencier un magasin physique d’un site en ligne ).
C’est certainement ce qui a poussé LVMH à racheter le groupe Belmont pour 3,2 Md$ qui détient ou exploite 46 hôtels, trains et croisières fluviales. Comme j’en avais parlé l’année dernière, l’hôtellerie est un lieu privilégié d’expérience et donc de canal de distribution .
Pour faire face aux besoins incessants de nouveauté, il est probable que nous voyons de plus en plus de Pop-up Store pour vendre de manière temporaire des marques en particulier des DNVB, Digitally Native Vertical Brands (cf. article Medium).
Quelques mots sur les DNVB, elles se fondent autour de 4 piliers :
Il y a même des entreprises qui repèrent des Instragrameuses de mode influentes et créent une gamme de produits qui collent à l’esprit de ce compte et utilisent (avec son accord et des commissions) celui-ci pour promouvoir ces nouveaux produits !
Petite digression, le nombre de followers (qualifiés c’est mieux !) sur Instagram est un critère de sélection majeur pour les nouveaux artistes pour être exposé, indépendamment de la qualité des œuvres.
J’avais ainsi visité une expo dans le Marais. Les œuvres étaient d’une qualité particulièrement médiocre (variations de dessins d’enfant ! à l’exception d’une bonne idée, peinture sur une sphère). Ne comprenant pas comment d’aussi mauvaises œuvres pouvaient être exposées, j’ai bombardé l’artiste et le responsable du lieu de questions pour comprendre comment c’était possible (avec un ton très neutre pour ne pas trop éveiller les soupçons ;) J’ai vite cernée l’artiste après lui avoir posé la question sur la raison pour laquelle elle avait nommé un de ses tableaux « Miroirs » quand elle m’a dit qu’elle ne souhaitait pas se livrer dans ses « œuvres ».
En revanche, j’ai vu qu’elle avait un esprit très commercial car elle était capable en deux mois, de produire une quarantaine de toiles autour de deux, trois thèmes avec juste des variations de couleur.
Enfin, l'IA devrait remplacer à terme les mauvais artistes ... mais pas les très bons.
Le responsable du lieu lui m’a expliqué comment il faisait pour sélectionner les artistes qui étaient exposés. La visibilité médiatique en particulier via les comptes Instagram est un critère de choix pour lui car il sait qu’au moins il réduit ses risques d’une faible fréquentation de son expo, augmente ses chances de nombreuses publications sur Instagram faisant référence à son lieu. (les visiteurs d’aujourd’hui peuvent être les clients de demain…)
Il laisse néanmoins une chance aux artistes particulièrement bons mais qui n’ont pas de réseau sur Instagram ou Facebook mais il aura plus de boulot pour faire venir des personnes.
J’avais eu l’occasion de parler des futurs impacts de l’IA dans mes prédictions notamment sur le risque de confusion entre l’humain / non humain, réel/virtuel, vivant/inerte, créations humaines / créations d’IA, vrai/faux car les technologies brouilleront les frontières.
Le principal intérêt de l’IA est de pouvoir résoudre des problèmes complexes en temps réel (cf. Article sur les limites de l’IA),. Or notre monde est de plus en plus complexe en particulier pour les entreprises et acteurs publics.
Ma prédiction est à l’image de ce qui se passe pour l’Internet des Objets, une intégration de plus en plus massive d’IA dans les entreprises plus que pour les particuliers où ce sera encore très progressif (ex : recommandations de films, restaurants, intégration de la voix dans des appareils électroménagers et équipements électroniques et accroissement de l’utilisation des assistants vocaux, conseils financiers et gestion du budget familial …)
Dans les entreprises, l’IA va surtout avoir un impact sur les processus administratifs (processus comptables et financiers comme la facturation, la paie, les notes de frais, les processus d’achat, de vente et après-vente (visite du client en ligne ou dans un magasin, commande, facturation, paiement, livraison, retours clients, référencement, optimisation du prix), juridique (rédaction de contrats sur-mesure, analyse de contrats et des clauses, analyse des décisions juridiques … ) en facilitant l’automatisation des tâches nommée aussi RPA (…).
Il est aujourd’hui difficile d’automatiser un certain nombre de tâches en raison de petits éléments de variation, une myriade de cas particuliers qu’il est soit difficile de conceptualiser puis d’automatiser, soit de standardiser car on ne peut supprimer ces exceptions.
Dans ces cas, on crée souvent deux processus, un processus standard qu’on peut standardiser et un processus exceptionnel qui est en général très manuel et long avec souvent des contrôles renforcés ou des processus manuels « by-pass », chemins très courts très peu contrôlés avec des dérives potentielles. Si le nombre de transactions passant par le processus exceptionnel dépasse les 10%, il y a un souci …
L’IA permet de résoudre en partie le problème en transformant une multitude de cas particuliers en des groupes de cas qui suivront des traitements différenciés.
Prenons un exemple, vous devez référencer un nouveau fournisseur qui se trouve être une startup.
A moins d’avoir prévu un processus particulier pour les startups, on va lui demander un grand nombre d’informations pour s’assurer de la pérennité de l’entreprise : Kbis, liasse fiscale, bilan et Compte de résultat des 3 dernières années … Ce qui peut aboutir à des situations absurdes où vous souhaitez acheter un nouveau produit d’une startup mais vous ne pouvez pas car on ne peut référencer la startup car elle a moins de 3 ans d’existence n’a pas de résultats …
Avant même d’utiliser une IA, on peut déjà simplifier le processus : c’est beaucoup plus facile et moins cher à faire. En créant un processus allégé si c’est un achat indirect (qui n’entre pas dans la production du bien ou service) et peu critique avec une valeur réduite. D’ailleurs il est toujours préférable de nettoyer les processus avant d’utiliser de l’IA car comme on dit : Garbage In, Garbage Out et vous risquez de créer une usine à gaz pour des problèmes qui peuvent être résolus simplement.
Ensuite l’IA va, en fonction du montant de l’achat, de la criticité de l’achat, de la direction qui achète, des données sur la startup, catégoriser les achats et entreprises, proposer à celui qui décide un processus complet, allégé ou même adapté à chaque situation (ex : une demande de quelques informations additionnelles différentes selon chaque cas mais choisies par l’IA). L’acheteur va accepter ou non cette proposition, l’IA va apprendre sur base de ces choix à mieux catégoriser chaque fournisseur potentiel et achat.
Ensuite, l’IA va par exemple catégoriser en trois catégories : Vert, Orange et Rouge. Vert : Acceptation automatique du référencement – Orange : Acceptation sous réserve d’avoir des données additionnelles et après l’acceptation de l’acheteur – Rouge : Refus qui peut être outrepassé par l’acheteur mais doit être justifié (ex : entreprise frauduleuse, en violation de loi …). (Dans la vidéo, ici l'IA associée à un robot collaboratif Universal Robots est utilisée pour trier des boites de Pétri sur base de la reconnaissance visuelle)
Ainsi, une IA pourrait très bien accepter un référencement d’entreprise (jusqu’à un certain montant et criticité) sur base juste d’un numéro de Siren sans demander tout le toutim qui d’ailleurs fait perdre un temps fou au service achat.
Cela renforce d’ailleurs le rôle de l’acheteur dans des tâches à valeur ajoutée (vérifier les entreprises à risque), plutôt que d’accepter des référencements d’entreprise où tout est normal.L’IA permet de résoudre en partie le problème en transformant une multitude de cas particuliers en des groupes de cas qui suivront des traitements différenciés.
Prenons un exemple, vous devez référencer un nouveau fournisseur qui se trouve être une startup.
A moins d’avoir prévu un processus particulier pour les startups, on va lui demander un grand nombre d’informations pour s’assurer de la pérennité de l’entreprise : Kbis, liasse fiscale, bilan et Compte de résultat des 3 dernières années … Ce qui peut aboutir à des situations absurdes où vous souhaitez acheter un nouveau produit d’une startup mais vous ne pouvez pas car on ne peut référencer la startup car elle a moins de 3 ans d’existence n’a pas de résultats …
Avant même d’utiliser une IA, on peut déjà simplifier le processus : c’est beaucoup plus facile et moins cher à faire. En créant un processus allégé si c’est un achat indirect (qui n’entre pas dans la production du bien ou service) et peu critique avec une valeur réduite. D’ailleurs il est toujours préférable de nettoyer les processus avant d’utiliser de l’IA car comme on dit : Garbage In, Garbage Out et vous risquez de créer une usine à gaz pour des problèmes qui peuvent être résolus simplement.
Ensuite l’IA va, en fonction du montant de l’achat, de la criticité de l’achat, de la direction qui achète, des données sur la startup, catégoriser les achats et entreprises, proposer à celui qui décide un processus complet, allégé ou même adapté à chaque situation (ex : une demande de quelques informations additionnelles différentes selon chaque cas mais choisies par l’IA). L’acheteur va accepter ou non cette proposition, l’IA va apprendre sur base de ces choix à mieux catégoriser chaque fournisseur potentiel et achat.
Ensuite, l’IA va par exemple catégoriser en trois catégories : Vert, Orange et Rouge. Vert : Acceptation automatique du référencement – Orange : Acceptation sous réserve d’avoir des données additionnelles et après l’acceptation de l’acheteur – Rouge : Refus qui peut être outrepassé par l’acheteur mais doit être justifié (ex : entreprise frauduleuse, en violation de loi …). (Dans la vidéo, ici l'IA associée à un robot collaboratif Universal Robots est utilisée pour trier des boites de Pétri sur base de la reconnaissance visuelle)
Ainsi, une IA pourrait très bien accepter un référencement d’entreprise (jusqu’à un certain montant et criticité) sur base juste d’un numéro de Siren sans demander tout le toutim qui d’ailleurs fait perdre un temps fou au service achat.
Cela renforce d’ailleurs le rôle de l’acheteur dans des tâches à valeur ajoutée (vérifier les entreprises à risque), plutôt que d’accepter des référencements d’entreprise où tout est normal.
Dans les ventes et achats, l’optimisation du prix de vente (en B2B en plus du B2C) est un domaine où l’IA a une vraie valeur, Brennus Analytics par exemple analyse toutes les caractéristiques les propositions de ventes que vous réalisez en B2B dans le cadre d’appel d’offres et sur cette base va dresser une carte de chaleur qui va indiquer en fonction du prix et de l’offre, la probabilité de gagner l’appel d’offres.
Aujourd’hui, c’est applicable pour les offres où il y a suffisamment de transactions ( > 100 par an) et des offres suffisamment structurées car cela facilitera l’apprentissage de l’IA.
Dans le domaine juridique des entreprises comme Case Law Analytics et Hyperlex, analyse les contrats et les conditions générales de ventes.
L'IA aura évidemment un impact sur l'emploi (cf article). Francois Pachet (créateur de Flow Machines (ex-Sony CSL) qui a notamment crée les musiques sur base d'intelligence artificielle Daddy's Car qui reprend les thèmes des Beatles et qui est Creator Technology Research Lab Director chez Spotify) disait lors d'une conférence
"AI is just à tool that ease music creation. It creates OK music. It doesn't threaten good musicians but bad music and bad musicians, but that's not a bad thing ! "
En réalité, cela ne s'applique pas qu'aux musiciens mais à tous, et effectivement il y a de fortes chances que ceux qui n'excellent pas dans leur métier risquent forts d'être sur le carreau d'ici
une dizaine d'années (cols blancs, middle management, vendeurs n'offrant pas de conseils... ) à moins d'être dans un domaine difficile à remplacer par des IA (métiers impliquant des relations
humaines comme infirmière, professeur, chanteur mais aussi des métiers aujourd'hui compliqués à remplacer comme plombiers,sportifs de haut niveau ...).
Un article du NY Times dit
même qu'à Davos, un certain nombre de PDG de grandes boîtes y voient l'opportunité de drastiquement réduire leurs effectifs et d'augmenter significativement leurs bénéfices. Selon moi, c'est une
vision très court termiste (et cynique), car si un très grand nombre d'entreprises mettent en place des vastes politiques de licenciement, ils diminueront très fortement leur nombre de clients et
donc leurs profits.
D'autre part, ils bénéficieront de beaucoup moins d'économies d'échelle. Comme l'Europe est beaucoup plus protectrice vis-à-vis de ses salariés, les Etats-Unis et la Chine seront très certainement tentés de réduire fortement leurs coûts dans leurs pays (au moins par des licenciements pour les USA ) et d'exporter à beaucoup plus bas prix en Europe que les entreprises européennes (comme leurs effectifs seront beaucoup moins nombreux). Le marché des consommateurs européens deviendraient la vache à lait des entreprises extra-européennes.
Une idée pour amortir l'impact de ce type de licenciement. Comme les entreprises seront beaucoup plus rentables grâce aux licenciements économiques liés à l'IA, pourquoi ne pas compenser les personnes licenciées économiquement par des BSALLE ( BSA - bons de souscription d'actions liées à un licenciement économique) - cf lien vers le détail entre AGA, BSA, BSPCE, Stock Options). D'autre part, les entreprises pourraient favoriser et financer le développement de nouvelles activités de leurs ex-salariés ;)
L’IA permet de résoudre la quadrature du cercle que vit l’Etat ainsi que les Régions et collectivités territoriales : comment rendre un meilleur service avec moins de moyens.
A l’heure actuelle, à l’exception sans doute de Bercy pour les contrôles fiscaux, L’Etat et les collectivités territoriales n’utilisent pas beaucoup l’IA alors qu’ils pourraient très rapidement offrir un bien meilleur service avec autant ou moins de personnes (charge bien sûr à l’Etat de former les personnes touchées et de les aider à trouver une activité qui les intéresse au sein ou en dehors de la Fonction publique et avec leur accord.)
Il y a un nombre incalculable de procédures au sein de l’Etat (agrément, primes, contrôles, obtention de documents) qui n’ont pas toujours été adapté au monde actuel. Il y a eu un effort massif pour digitaliser un très grand nombre de ces processus et les rendre accessibles sur Internet mais dans bien des cas c’est une digitalisation d’un processus manuel sans changement majeur du processus et souvent en obligeant les administrés à rentrer dans des cases qui ne correspondent pas toujours à leur situation.
Comme pour les processus d’achats, l’IA pourrait être utilisée pour catégoriser la variété du nombre de demandes et proposer des réponses et processus adaptés et permettre aux agents publics de se focaliser sur les cas critiques avec un vrai rôle de conseil. L’agent garderait bien sûr la main sur la décision ou la procédure mais serait assisté par une IA.
Le programme Startups d'Etat (service public sans personnalité juridique propre, constituée d’une petite équipe totalement autonome, financée par une administration porteuse. Elle naît de l’identification d’un problème rencontré par les citoyens comme par les agents publics, qu’elle se donne pour objectif de résoudre grâce à un service numérique.) est un des moyens pour que ce type d'initiative se développe.
Pour prendre plusieurs exemples, la délivrance d’une carte de séjour ou de la carte d’invalidité d’une personne ayant un handicap pourrait être nettement accélérée pour des profils « sans risques » ou des personnes ayant un handicap irréversible. Dans l’autre sens, on pourrait beaucoup plus facilement identifier les profils à risques et fraudeurs (pour la carte d’invalidité).
D’ailleurs, dans ce dernier cas, je suis surpris du nombre phénoménal de fausses cartes d’invalidité posées derrière les pare-brises pour bénéficier du stationnement gratuit alors que c’est tellement simple d’avoir une solution pour le contrôler facilement.
Quelques idées : intégrer comme dans les billets de banque un filigrane (la PME Surys fait cela notamment pour authentifier des bouteilles), mais il y a encore plus simple, utiliser des codes de vérification dans le numéro de la carte d’invalidité ou imprimé sur d’autres parties de la carte (permet de faire un checksum comme les codes de la sécurité sociale) et bien sûr relier ce numéro de carte avec une base de données qui au moins indique juste si c’est un numéro valide ou non.
Il y aura toujours des personnes pour contourner le système mais là c’est vraiment trop facile et c’est au détriment de personnes qui en ont vraiment besoin.
Je prédis donc que l’Etat va massivement investir dans l’IA pour ses processus internes pour rendre un meilleur service avec moins de ressources mais aussi une meilleure qualité de vie des agents le réalisant (moins de stress en cas de pic, administrés plus satisfaits et donc ayant de meilleures relations avec les agents, satisfaction d’avoir un impact plutôt qu’insatisfaction de réaliser sans valeur ajoutée et de n’être qu’un engrenage dans une machine mal huilée …)
Les régions et collectivités territoriales devraient aussi bénéficier de l’utilisation de l’IA et je prévois qu’elles le feront intelligemment (en espérant que cela ne soit pas un voeu pieux ;) ) en mutualisant les efforts et les outils.
De nombreux processus sont très similaires d’une collectivité à une autre, une boîte à outils digitale, évolutive et si possible open source pour gérer par exemple les demandes les plus courantes des habitants et les processus internes (demande de permis de construire, de places en crèches…).
La boîte à outils serait composé d’une forme de workflow digital (étapes avec les informations à obtenir , les actions à réaliser, les documents et livrables à donner), des interfaces simples pour l’utilisateur, l’agent, l’administrateur de la collectivité : formulaire, interface de contrôle, tableau de bord … L’IA (qui n’est pas indispensable dans tous les cas !) peut aider à automatiser certaines étapes (vérification des pièces d’identité, contrôle de cohérence, choix des procédures…). Chaque collectivité pourrait adapter son workflow mais aurait une base de départ fonctionnelle.
Pour illustrer cette tendance, il y a eu récemment le premier Sommet des GovTech avec Justin Trudeau. D'autre part, la région Île-de-France a mis en place un plan IA 2021 pour favoriser l'utilisation de l'IA dans les PME et ETI franciliennes, je suis certain, qu'elle en profitera aussi pour l'utiliser aussi en interne.
J'en parle plus loin, mais le développement de la blockchain me semble aussi essentiel parmi les acteurs publics car les régions en particulier doivent gérer des domaines (agriculture, lycée, santé...) qui réunit de très nombreux acteurs ayant des intérêts souvent différents et qui idéalement devraient se partager des informations mais ne le font pas car ils n'ont pas suffisamment confiance les uns dans les autres. Or c'est un cas d'application direct de la blockchain.
Pour le particulier, l’IA va selon moi, entrer très progressivement dans nos vies, sans que nous nous en rendions toujours compte.
Le thermostat qui va adapter le chauffage en fonction de nos habitudes sans que nous ayons quoi que ce soit à programmer, le nounours Snow Shine d’Immplay qui va discuter avec les enfants (ce qui ne va pas sans poser problème en réduisant, selon moi, l’imagination des enfants (cf. article)
L’autre axe sera une imitation de plus en plus proche des émotions humaines qui pourraient modifier notre rapport avec les objets pour les prochaines générations et nous rapprocheraient de la culture animiste japonaise et dans de nombreux pays en Afrique. Qui sait dans 50 ans, il y a aura peut-être un droit des objets animés qui nous interdira de les maltraiter car ils seront animés d’émotions certes fausses mais si crédibles que nous n’oserons plus les fracasser contre un mur, les jeter à terre …
Imaginez une chaise qui hurlerait à la mort si vous la souleviez et la tapiez continuellement contre le sol. Cela pourrait d’ailleurs être un puissant moyen d’inciter à ne pas gaspiller et jeter. :)))
J’avais abordé la multiplicité et la complémentarité des interactions avec les objets (cf. article) qui devrait se développer aussi massivement en particulier la combinaison de la voix et du geste (chemin que prend d’ailleurs 7Hugs avec sa Smart Remote, télécommande contextuelle)
La blockchain devrait commencer à trouver ses lettres de noblesse et surtout des killer apps en B2C et B2B
Vous trouverez plus d’informations sur la Blockchain dans cet article (cf. article).
Il y a selon moi quatre intérêts à la Blockchain (registre/base de données décentralisée entre tous ses membres pour faire court ) !
Les principaux usages qui vont se développer selon moi sont la traçabilité (produits, personnes, processus, échanges…), la cybersécurité ( car on peut tracer tout changement, y compris l'authentification et la gestion des identités), la création de plateformes directes (et donc une désintermédiation des plateformes) et la fidélisation interentreprises / l’incitation à des comportements bénéfiques pour la communauté, partage de ressources, biens.
La Killer app en B2B est, selon moi, la traçabilité. Par exemple, Carrefour a mis en place une blockchain pour tracer la vie des poulets de l’élevage jusqu’au rayon (Ethereum), c’est possible avec la Blockchain, car les éleveurs n’ont pas nécessairement confiance en Carrefour et vice versa et naturellement hésiterai à transmettre leurs données sur une plateforme de Carrefour avec le risque que Carrefour puisse la modifier …
Avec la blockchain, les éleveurs voient directement la base de données et peuvent vérifier que leurs données n’ont pas été compromises. Le client final peut en scannant un QR code visualiser la totalité des étapes du cycle d'élevage du poulet. En octobre 2018, Carrefour a décidé de joindre la plate-forme collaborative IBM Food Trust (solution facturée par IBM), qui souhaite devenir un standard mondial de traçabilité alimentaire grâce à la blockchain auquel participe aussi le distributeur américain WalMart, Unilever, Nestlé.
L'Europe doit être très attentive car même si les données de la blockchain n'appartiennent pas à IBM, la structure de données et le type d'informations qu'on y intègre sont du ressort d'IBM
(en concertation, je suppose, avec ses membres du consortium). Il y a plusieurs points à creuser à ce sujet,
D'autre part, IBM utilise une blockchain privée Hyperledger (open source et très largement soutenue par IBM, Accenture, Intel ...) et donc n'a pas les mêmes caractéristiques d'infaillibilité qu'une blockchain publique. Donc quelles sont les règles de consensus utilisés pour accepter ou non une transaction ?
Du côté des entreprises, comme Carrefour, ils doivent s'assurer qu'ils peuvent inclure des données spécifiques additionnelles comme l'utilisation des pesticides ou de types de données spécifiques à Carrefour sans devoir demander l'autorisation de la plateforme IBM Food Trust. Bien sûr,
A ce titre l'Europe, pourrait au minimum proposer une architecture de données en concertation avec les acteurs agro-alimentaires européens, proposer des règles sur la portabilité, d'accès aux données et développer des blockchains publiques ... car il y a un vrai risque de monopole de fait avec la blockchain privée (ce qui peut paraître contradictoire avec l'esprit de la blockchain ... publique).
En B2G, la killer app est bien sûr la traçabilité et la gestion des identités (faciliter la délivrance d'un permis de construire, d'une carte d'identité ...)
Un des problèmes de la gestion des identités est la crainte qu’elles soient centralisées, accessibles et modifiables par des personnes mal intentionnées.
La blockchain permet de construire un système d’identification numérique sans avoir à confier à un organisme central ni même à l’État la gestion et la conservation de celles-ci. J'ai écrit la partie blockchain dans le rapport CES Las Vegas d'Olivier Ezratty où j'explique plus précisément ce qu'apporte la blockchain et les innovations que j'ai trouvées au CES.
Un autre usage de la blockchain en B2G (Business to Government) est la forte réduction de la corruption car l’inviolabilité d'une blockchain publique réduit ces risques car on ne peut pas cacher les malversations en modifiant des registres …
La Moldavie l’a notamment utilisé pour éliminer le trafic d’enfants facilité auparavant par des fonctionnaires corrompus qui modifiaient les registres des naissances. Le continent africain devrait selon moi être en pointe dans l’utilisation des blockchain pour assurer de la bonne gestion des fonds alloués notamment via des aides publiques. (cf. le Rwanda utilise la blockchain pour tracer le tantale (de l’extraction du minerai à son raffinage afin de rassurer les acheteurs qu’il est « conflict-free mineral »), l’Estonie utilise la blockchain pour tracer ses documents et transactions )
Dans le domaine de la Smart City, la blockchain permettrait que des acteurs ayant des intérêts divergents puissent partager des données sans qu’il y ait un acteur qui concentre tout. J’avais d’ailleurs prédit l’apparition de concurrents à AirBnB, Blablacar, Uber utilisant la Blockchain qui faciliterait les échanges peer-to-peer ou C2C mais on est encore loin.
La blockchain pourrait aussi fortement transformer des métiers ayant le rôle de tiers de confiance comme les notaires (qui ont d’ailleurs une initiative en ce domaine).
Aujourd’hui, il y a de nombreux programmes de fidélisation mono-marques, un peu moins mono-entreprise multi-marques, beaucoup moins multientreprise, multimarques (ex : Miles des compagnies aériennes, points fidélité Amex…).
On devrait voir l’émergence rapide de programmes massivement multi-entreprises grâce à la blockchain. La raison est la suivante, c’est très compliqué de monter un programme de fidélisation multi-entreprises car cela passe souvent par des négociations bilatérales entre une entreprise leader et un grand nombre d’entreprises affiliées.Souvent, les points de fidélité fonctionnent dans un sens, je reçois des miles qui me permettent de bénéficier d’une nuit d’hôtel gratuite mais une nuit d’hôtel payée ne me permet pas de bénéficier de miles. D’autre part, une entreprise leader a une plateforme centralisée collectant les données auxquelles les entreprises affiliées n’ont pas nécessairement accès.
La blockchain permet de faciliter très fortement les programmes multientreprises car les données ne sont pas centralisées par une seule entité mais par toutes celles y participant.
Aujourd’hui, il y a de nombreux programmes de fidélisation mono-marques, un peu moins mono-entreprise multi-marques, beaucoup moins multientreprise, multimarques (ex : Miles des compagnies aériennes, points fidélité Amex…).
On devrait voir l’émergence rapide de programmes massivement multi-entreprises grâce à la blockchain. La raison est la suivante, c’est très compliqué de monter un programme de fidélisation multi-entreprises car cela passe souvent par des négociations bilatérales entre une entreprise leader et un grand nombre d’entreprises affiliées et souvent dans un sens, je reçois des miles qui me permettent de bénéficier d’une nuit d’hôtel gratuite mais une nuit d’hôtel payée ne me permet pas de bénéficier de miles. D’autre part, une entreprise leader a une plateforme centralisée collectant les données auxquelles les entreprises affiliées n’ont pas nécessairement accès.
La blockchain permet de faciliter très fortement les programmes multientreprises car les données ne sont pas centralisées par une seule entité mais par toutes celles y participant.
La startup Sandblock.IO (France) construit justement ce type de blockchain avec de nombreuses marques. Son but est de proposer une solution « customer-centric » et transparente pour l'utilisateur et respectueuses de ses données personnelles. Ces points de fidélité sous forme de token sont plus sécurisés et utilisés avec plus de fluidité au sein du réseau. Elle ne nécessite pas de contractualisation lourde et longue ou de relation de confiance quelle que soit la taille des participants.
Elle a été cofondée par Sarah-Diane Eck (également VP France Digitale), ce qui est rare car le milieu de la blockchain est encore plus masculin que celui de la Tech en général. C'est aussi un rare cas d'application concrète de la blockchain dans un domaine autre que financier, de la traçabilité et la sécurité et réalisé totalement en France.
La 5G devrait se développer de manière très spécifique soit dans des centres-ville soit sur des autoroutes pour répondre aux besoins d’un véhicule autonome.
En revanche, je ne crois pas du tout à une couverture complète de la France en 5G car cela nécessite de placer beaucoup plus d’antennes 5G afin de réduire les délais de latence. Or ce n’est pas économiquement tenable pour les opérateurs télécoms sauf dans les lieux à forte densité ou usage.
Aujourd’hui, pour des raisons économiques, les GAFA concentrent un très grand nombre de données sur nous et deviennent capables d’en deviner et anticiper d’autres notamment grâce à l’intelligence artificielle. Il y a une raison toute simple, leur modèle économique à l’exception d’Apple est fondé sur la publicité à plus de 90% (Facebook, Google) ou la distribution de produits qu’ils ne fabriquent pas (Amazon, Alibaba...). Il en est de même pour Netflix et d’autres NATU (Netflix AirBnB Tesla Uber).
Même face à des êtres humains et des informations incomplètes, l'IA devient de plus en plus capable d'anticiper nos réactions. Très récemment, DeepMind (filiale IA de Google qui avait battu le meilleur joueur de Go, Ke Jie en mai 2017) a battu deux des meilleurs joueurs à Starcraft, après un entraînement de 18 mois. Pour le dernier match, DeepMind avait une un champ de vision égal à celui de son adversaire, ne lui donnant pas la capacité de voir toute la carte de jeu et MaNa, son adversaire human avait modifié sa stratégie pour le pousser à la faute... Résultat MaNa a gagné ! Tout espoir n'est pas perdu pour l'être humain ;)
La connaissance des clients et l’anticipation de leurs besoins sont essentielles pour accroître le taux de transformation des ventes. J’avais d’ailleurs écrit (en 2014 ;) sur des raisons qui pourraient expliquer certains projets de Google X ou ex-Google X comme le véhicule autonome devenu Waymo. Cela permet de libérer de l’attention et donc de voir des pubs proposées par Google, les investissements dans l’augmentation de la durée de vie, permettent eux d’augmenter la durée totale d’attention de vie humaine.
Mais il n’y a pas que les GAFA / BATX qui ont besoin de données mais de plus en plus les États pour de bonnes raisons (sécurité, amélioration de flux de transports et des infrastructures, meilleure gestion des soins de santé...) mais aussi de mauvaises pour certains d’entre eux (contrôle de la population voire censure, manipulation massive de citoyens, éliminer les oppositions ...).
La Chine l’utilise d’ailleurs massivement pour noter ses citoyens et aussi pour accélérer l’apprentissage automatique pour leurs IA. Pour l’anecdote, la Chine a réalisé toute l’infrastructure de caméras au Zimbabwe en échange notamment d’accès aux visages du pays , car leurs algorithmes ne tiennent compte principalement que de visages asiatiques.
En revanche, la plupart des États (hors USA et Chine) n’ont pas les capacités ou les moyens de collecter et d’analyser toutes les données en particulier non structurées (comme des messages, des posts sur Facebook...) et ont besoin d’avoir accès à des entreprises telles que les GAFA/BATX pour accéder aux sonnées de leurs citoyens.
Les intérêts des deux étant similaires, je prédis qu’il risque d’y avoir de plus en plus de coopérations entre les États et les GAFA (pour les Etats-Unis et la Chine, c’est déjà fait!) pour que les données et les capacités d’analyse soient partagées par les GAFA avec les États de manière massive.
La France a choisi de créer un groupe de travail à titre expérimental sur 6 mois avec Facebook où des représentants des autorités françaises ( 5 au maximum venant de l’ARCEP,CSA,DINSIC) devraient pouvoir accéder aux outils, aux méthodes et au personnel du réseau social chargés de faire la chasse aux contenus racistes, antisémites, homophobes ou sexistes ". L’objectif est d’éviter aussi les fake news. Il faut bien sûr s’assurer que la coopération ne crée ni de dépendance entre l’Etat français et les GAFA ni ne dépasse pas les lignes rouges de la vie privée (hors enquête judiciaire).
La concentration des données risque d’être accentuée avec la directive européenne ePrivacy qui favorisent les First Contact Players (les entreprises qui ont un lien direct avec le client, contact que les GAFA veulent s’accaparer en étant dans les smartphones, les véhicules, les assistants vocaux...). Il faut y prendre garde car nous risquons d’être face à un oligopole inamovible qui a un pouvoir sur tous les aspects de notre vie et une dépendance accrue de toutes les autres entreprises.
Pour certains cas, cela peut être justifié d’avoir accès à des données de ce type (tracer des terroristes potentiels via Facebook et autres messageries) mais le risque de dérive est très tentant. D’autre part, les GAFA ne sont pas philanthropes, donc il y a nécessairement une contrepartie des États.
Je pense d’ailleurs que les GAFA ne risquent pas d’être scindées aux USA, pour cette raison et en plus de maintenir des acteurs puissants face à la Chine.
Bien sûr, tout cela ne tient que s’il n’y a pas de fuites massives d’utilisateurs, exaspérés que leurs données soient accessibles à tout vent. J’en parlerai plus loin. Facebook fait face à une série de scandales (21 selon Wired au 12/2018) qui par contrecoup ferait plus attention. Néanmoins, il n’y aujourd’hui en Occident aucune réelle alternative aux GAFA/BATX à moins qu’un jour des plateformes blockchain émergent de manière massive.
Avec l’Internet des Objets, il devient aussi possible de contrôler les accès physiques. On pourrait imaginer aux États-Unis que les mauvais payeurs ne puissent accéder à leurs maisons en raison d’une serrure connectée empêchant son accès.
De manière plus générale, la montée des fièvres populistes pourrait inciter les États craignant d’être dépassés, d’user voire d’abuser des nouvelles technologies pour surveiller et contrôler les citoyens à distance.
La technologie ressemble parfois à une panacée. Dotés désormais de superpouvoirs, pour tout comprendre (IA), tout contrôler (IoT), tout guérir (génétique), nous pouvons nous prendre pour des demiurges capables de résoudre tous les problèmes faim dans le Monde, le dérèglement climatique et un jour la mortalité !
La technologie aide certes fortement mais elle ne règlera pas tout. Une fuite en avant technologique sans conscience de ses limites est un miroir aux alouettes.
Pour faire une analogie, si vous tombez malade en raison d’une mauvaise alimentation, il est préférable de changer son alimentation que de la garder et de prendre des médicaments pour compenser les effets néfastes car ces médicaments ont souvent des effets secondaires qui devront être résolus par d’autres médicaments... le seul gagnant dans l’histoire sont les entreprises pharmaceutiques 😉 En revanche, la technologie peut vous aider à réaliser un diagnostic rapide, fiable et à un prix abordable et lorsque c’est adapté apporter les traitements idoines.
Nous connaissons un formidable développement des outils génétiques qui nous donne les outils pour le meilleur, des guérisons inespérées de cancer par exemple et le pire, des armes biologiques dévastatrices interdites sur le plan mondial mais à la portée de n’importe laborantin.
Il y a plusieurs manières d’intervenir sur les maladies génétiques et les cancers (forme de maladie génétique de cellules) avec la thérapie génique (qui consiste à modifier des gènes d’un organisme), la première la plus risquée et dangereuse pour l’avenir de l’espèce humaine est d’intervenir directement sur les cellules germinales (ovules et spermatozoïdes) car les modifications apportées sont transmissibles de génération en génération, on peut intervenir sur l’ADN (de manière définitive sur un individu mais non héréditaire) et sur l’ARN (de manière temporaire sur l’individu).
La thérapie génique a fait un bond exceptionnel avec le développement de la CRISPR/CAS.
CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats : "Courtes répétitions palindromiques groupées et régulièrement espacées" ) est une séquence répétée et palindromique (même ordre des lettres dans les deux sens de lecture, pour des mots : radar, Laval, Abba, " Esope reste ici et se repose ", ou des gènes : A-T G-A G-A A-T G-A G-A A-T avec adénine (A), cytosine (C), guanine (G) ou thymine (T) ) dans les gènes)
Les CRISPR ont d’abord été utilisés pour identifier des souches bactériennes (signature de chaque souche). Ces répétitions nommées locus CRISPR se rencontrent dans la grande majorité des organismes vivants. Les gènes Cas sont généralement situés à proximité des locus CRISPR. La plus courante étant le Cas-1.
CRISPR-Cas 9 est une enzyme capable de localiser des séquences de l’ADN spécifiques puis de couper comme des ciseaux génétiques ces séquences et les remplacer par d’autres. Elle a été découverte par deux chercheuses, en premier lieu par la chercheuse française Emmanuelle Charpentier. Le problème est qu’il y a de très nombreux « off-target », des gènes édités qui ressemblent à ceux visés mais qui ne sont pas les bons et qui peut avoir des effets délétères et même létaux sur l’individu et sa descendance.
CRISPR-Cas 13 est elle une enzyme découverte récemment capable de localiser des séquences de l’ARN. Sur base de CRISPR-Cas 13, des chercheurs ont développé un outil génétique REPAIR qui est plus précis que CRISPR-Cas 9, modifie de manière temporaire (car l’ARN reste de manière temporaire dans l’organisme) et surtout ne modifie pas l’ADN.
Un point essentiel est la facilité et le coût très réduit d’utilisation de CRISPR-CAS 9 et 13, qui donne accès à un très grand nombre de scientifiques de l’utiliser voire de jouer avec pour le meilleur ou le pire. Il devient facile de soigner de nombreuses maladies génétiques et cancers et malheureusement il est très facile de créer un virus hautement pathogène avec cette solution et de la transformer en arme de destruction massive.
Pour rappel, le taux de mortalité aurait atteint 90% de certaines populations d’Amérindiens avec l’arrivée des conquistadors espagnols car ils n'étaient pas immunisés contre des virus et maladies comme la coqueluche, la rougeole ou la variole. Lors du siège de Tenochtitlan en 1520, entre 10 et 50 % de la population de la cité serait morte à cause de la variole en deux semaines.
Autre technique encore plus vicieuse, créer un virus qui empêche la reproduction des enfants prépubères (qui peut d’ailleurs viser un type de population caractérisé par des séquences ADN précises), car elle ne serait visible potentiellement que des années plus tard, largement le temps pour un virus de se répandre dans une population et de mener à son extinction. L’effet boomerang peut être dévastateur aussi car rien n’indique que ce virus ne se propage vers ceux qui ont propagé ce virus sauf s’ils ont un antidote … J’espère que cela n’arrivera jamais.
Pour revenir à la thérapie génique, en fonction de la maladie génétique, nous avons de nombreux outils différents à utiliser en fonction de la gravité de la maladie et des impacts potentiels sur l’individu et l’espèce humaine.
Elle utilise CRISPR-Cas 9. Selon moi, celle-ci devrait être interdite sauf si elle entraîne la mort de manière quasi certaine avant la puberté et qu’il n’y a aucune autre alternative connue à ce jour qui empêcherait cette mort, sont donc exclus pour moi, les personnes atteintes de trisomies, les personnes ayant une forte probabilité d’avoir un cancer à l’âge adulte qui devraient pouvoir être traitées par les autres thérapies géniques.
Elle doit rester exceptionnelle sur le plan mondial et les types de cas doivent être revus par un comité éthique mixte (avec des représentants scientifiques, de la société civile, politiques, d’entreprises concernées).
Il existe une technique nommée forçage génétique (ou "gene drive inheritance"), qui permet à un gène d’être transmis avec quasi-certitude par reproduction sexuée, même si cela va à l’encontre des lois de Mendel (une chance sur deux pour une reproduction sexuée). Elle permet de favoriser l’héritage d’un gène particulier et d’augmenter sa prévalence dans une population. Elle fonctionne ainsi : dans un chromosome, il y a deux allèles, un vient de l’organisme génétiquement modifié et l’autre provient de l’organisme avec lequel a eu lieu la reproduction.
L’allèle possédant le gène modifié possède une séquence ADN à perpétuer et une autre nommée homing endonucléase qui va couper la séquence à supprimer de l’allèle de l’organisme non modifié. Cela force la cellule à réparer les dommages causés en recopiant la séquence du gène du forçage (par recombinaison homologue) sur le brin endommagé générant deux copies identiques sur les deux brins du chromosome.
Pour les animaux et les plantes, on pourrait ouvrir largement cette technique. Elle est d’ailleurs étudiée pour tuer massivement des populations de moustiques qui peuvent propager la malaria par exemple. Le problème est que cela peut avoir des conséquences désastreuses surtout sur un écosystème.
Pour faire une analogie, pour favoriser le tourisme, l’Entente interdépartementale pour la démoustication (EID) en Camargue a réalisé à partir de 2006, des épandages massifs de Bti (Bacillus thuringiensis israelensis), un bio-insecticide, seul autorisé lors des épandages aériens en milieu naturel, et considéré comme très sélectif et inoffensif pour le reste de la biodiversité.
Le souci est que selon une étude du centre de recherche, Tour du Valat, tout l’écosystème est perturbé. Comme il y a moins de moustiques, cela affame ses prédateurs et les prédateurs de ces prédateurs et au final toute la chaine alimentaire est touchée ( araignées, libellules, oiseaux...) sans compter les effets secondaires de la prolifération de Bti.
Il est donc très difficile d’anticiper les impacts d’un changement qui paraît au départ mineur et bénéfique en utilisant une technique de forçage génétique.
Donc pour les OGM non humains, il me semble essentiel que les techniques de modification germinales soient soit interdites ou extrêmement restreintes avec des solutions permettant par exemple de réduire au fur et à mesure des générations leur impact. Selon moi, le forçage génétique devrait être interdit car cela empêche une dilution de gènes modifiés au fur et à mesure et il est impossible de prédire leurs impacts dans un environnement de plus en plus instable qui au contraire nécessite une grande diversité génétique....
Mais ce n'est pas ce qui a été retenu par l'ONU qui a rejeté le moratoire mondial lors de la réunion de la biodiversité en décembre 2016.
Actuellement, il est possible d’intervenir à plusieurs niveaux, au niveau de l’ADN avec CRISPR-Cas 9, au niveau de l’ARN messager avec CRISPR-Cas 13 (qui est l’expression de l’ARN).
Il est aussi possible pour certaines maladies de réaliser le test ex-vivo, maladies du sang par exemple, où des cellules sanguines sont cultivées hors du corps et sur lesquelles on peut apporter des thérapies géniques sans risque pour le patient puis qu’on réinjecte après vérification dans le corps.
Selon moi, CRISPR-Cas 9 devrait être autorisée uniquement
Les bébés jumelles qui ont vu leurs gènes modifiés (CCR5 delta 32 et concerne 0,3% de la population mondiale) pour éviter qu’elles aient le SIDA (parce que leur père en était porteur...) est une pure folie et d’ailleurs a été très largement condamné y compris par les autorités chinoises.
Malheureusement, malgré les risques de prison, He Jankui, le chercheur qui a fait naître ces bébés risque d’être connu par la postérité comme le premier à avoir créé des HGM (humains génétiquement modifiés).
La mutation gène CCR5 delta 32 préserve certes du SIDA auquel les deux filles n’auront sans doute pas à faire face à moins que leur résistance ne les y incite ... ;( mais on ne connaît pas du tout les impacts négatifs de cette mutation. Il est tout à fait possible que ces deux jumelles soient plus sensibles à d’autres maladies ou développent des cancers plus facilement.
Imaginez que cela devienne la mode de réaliser ce type de modification génétique et qu’une part majeure des bébés naissent sans ce gène et que 20 ans plus tard, une maladie frappe en priorité les personnes n’ayant pas ce gène, l’épidémie pourrait avoir un impact terrible.
Pire encore, imaginons que ce gène réduise fortement voire empêche une grossesse, vous ne le saurez pas aujourd’hui mais probablement 20 à 40 ans plus tard alors que la majorité des personnes l’auraient. On appliquerait de nouveau une thérapie génique pour contre-balancer à la première thérapie génique ? Tant qu’à faire, évitons ...
On peut même imaginer que les HGM (humains génétiquement modifiés) ne puissent avoir d’enfants avec des HGNM (humains non génétiquement non modifiés). On créerait une nouvelle espèce d’êtres humains...
Ce sont tous ces risques qu’il faut anticiper afin que la thérapie génique sauve de nombreuses vies sans menacer notre espèce.
Selon moi, elle devrait être autorisée pour guérir les maladies génétiques à condition que d’autres traitements beaucoup moins chers avec un taux de guérison proche ne soient pas disponibles.
Typiquement, si l’utilisation de CRISPR-Cas 13 permet d’augmenter le taux de guérison de 80% à 90% par rapport à des méthodes traditionnelles pour un coût dix fois supérieur, il est préférable selon moi d’utiliser les méthodes traditionnelles.
J'avais assisté à BIG (BPI Inno Génération à une conférence d'Erika Brunet de l’INSERM sur CRISPR, elle nous avait expliqué que la thérapie génique permettait de soigner Drepanocytose (qui protège certes du paludisme mais est extrêmement handicapante) .
Le coût du traitement aujourd'hui est extrêmement élevé (> 100k€). Novartis a homologué la première thérapie génique nommée Kymriah avec la production d'un médicament contre certains cancers du sang basé sur des cellules modifiées (sur base de cellules T reprogrammées génétiquement (CAR-T), technique différente de CRISPR).
Le coût de traitement d'une thérapie génique aux Etats-Unis peut atteindre 475 000 dollars (si le traitement réussit sinon ce n'est pas facturé !). C'est la raison pour laquelle l'autorité suisse l'a autorisée uniquement en cas de rechute après greffe ou après au moins deux premières lignes de traitement et Novartis dit vouloir travailler avec les autorités sanitaires de chaque pays afin d’établir "une tarification juste, basée sur la valeur du produit et supportable pour les systèmes de santé nationaux".
En effet, dans les pays où les soins ne seraient pas remboursés, rien n'est pire pour une famille que de devoir choisir entre guérir son enfant et s'endetter sur plusieurs générations ou laisser mourir son enfant. Dans les pays comme la France où ces soins sont entièrement remboursés, il est essentiel que vu leur coût même négocié, ces traitements soient utilisés quand les alternatives sont inopérantes et que la pathologie mettent en danger la vie du patient (ou le handicape très fortement).
Nous avons parfois l'impression qu'entre une découverte majeure ou l'invention d'une technologie et son utilisation massive, le délai est très court (de l'ordre de quelques années), en réalité cela prend beaucoup plus de temps que cela.
Par exemple, c'est en 1987 qu'a été découvert les séquences CRISPR par Yoshizumi Ishino chez Escherichia coli, en mars 2007, que l'équipe de Philippe Horvath a montré la possibilité de modifier des gènes provenant de l'ADN de phages et à partir de 2010, qu'ont commencé l'utilisation de CRISPR-Cas 9 avec la chercheuse française Emmanuelle Charpentier.
Pour l'intelligence artificielle, c'est encore bien plus long, puisque son point de départ date des années 50 avec les travaux d'Alan Turing (cf. article) et a commencé à devenir un domaine de recherche à partir de 1956 sous l’impulsion de John McCarthy. Le premier fait d'armes de l'IA date de 1997 avec la victoire de Deep Blue (qui utilisait pas mal de " force brute " !) contre Kasparov, En 1989, Yann Le Cun développe les réseaux neuronaux convolutifs qui est la technique la plus utilisée dans le deep learning pour la reconnaissance d’image, et vidéo, les systèmes de recommandation et le traitement du langage naturel.
Ce n'est que depuis quelques années seulement qu'on utilise massivement ces technologies grà¢ce à l'accès massif aux données et à l'accélération faramineuse de puissance de calcul et des processeurs parallèles.
Dans le même registre, les véhicules autonomes (cf. étude avec Les Echos) ne devraient être massivement sur les routes que vers 2040. Le récent pivot de la startup EasyMile qui va se concentrer sur des véhicules industriels autonomes (ex : avec TLD pour le transport de bagages dans les zones aéroportuaires) et les déboires de Navya l'illustrent.
Le Hype Cycle de Gartner l'illustre bien, après une phase où l'on croit que la technologie devient capable de résoudre tous les problèmes du monde vient le temps des désillusions puis intégration progressive dans nos vies. Malgré le buzz de la sortie de Second life en 2003, ce n'est que depuis quelques années que la réalité virtuelle devient " mainstream ".
Il y a de nombreux freins : règlementaires, temps entre le prototype et l'industrialisation, le développement d'un modèle économique pérenne, et tout simplement le temps d'adoption par les consommateurs.
En revanche, une fois que tous les clignotants sont au vert, l'adoption est beaucoup plus rapide, la pente de la courbe en S est beaucoup plus raide (ex :développement de l'usage du smartphone, de Facebook..)
Le modèle économique des GAFA est fondé sur l'utilisation massive de leurs applications et produits par des utilisateurs.
Or, il y a une surabondance de technologies qui commence à saturer de plus en plus d'individus pour un bénéfice souvent discutable et des données volontairement ou involontairement transmises à des tiers comme le montrent les récentes affaires, failles de sécurité ... de Facebook.
Une réduction de 10% d'utilisateurs sur Facebook, Amazon ou Google pourraient créer un mouvement de défiance massif comme l'ont fait craindre les baisses massives de valorisation boursière de la plupart des GAFA (qui remonte ces derniers temps) . C'est surtout Facebook (33% de baisse en 6 mois) et Apple (23% en 6 mois) qui les subissent.
Au départ, les êtres humains ont su créer leur monde normé, efficace... qui perturbe massivement notre planète depuis l'industrialisation de notre économie.
Nous avons réussi à créer une société Formule 1 mais qui aujourd'hui creuse des nids-de-poule sur sa route, néanmoins nous risquons à tout moment une sortie de route. En basculant vers une société tout-terrain, nous irions certes moins vite, mais nous serions capables plus facilement d'éviter des nids-de-poule ou à défaut de rouler dessus comme je l'explique dans un petit ouvrage.
De plus, la conduite devient de plus en plus ardue car le monde est devenu plus volatil (très fortes variations conjuguées à un effet papillon), incertain (très difficile d'anticiper l'impact de nos décisions et de l'évolution de notre planète...), complexe et ambigu (difficile de comprendre tel ou tel phénomène, d'en connaître les causes...), nommé en anglais VUCA (Volatility, uncertainty, complexity, ambiguity).
L'intrication de notre société, l'accélération des changements, les relations inter-dépendantes accrues l'expliquent.
Si les inégalités mondiales (entre pays) ont fortement diminué, typiquement les pays émergents comme la Chine et l'Inde ont vu une forte augmentation du niveau de vie d'un grand nombre de leurs habitants, en revanche au sein des pays développés, les inégalités ont crues comme le montre la courbe en éléphant.
En France, la pauvreté a fortement diminué entre les années 1970 et le début des années 1990 puis a varié entre 1990 et aujourd'hui avec une forte augmentation depuis 2004 pour atteindre aujourd'hui un niveau similaire à 1980.
Les inégalités qui mesurent l'écart entre les plus riches et les plus pauvres a fortement augmenté en particulier aux Etats-Unis. Les plus pauvres peuvent bénéficier en Europe d'une forte redistribution (en France : RSA), néanmoins les classes moyennes dans les pays développés sont celles qui ont le plus perdu en pouvoir d'achat.
Or la classe moyenne est la plus nombreuse de la population, généralement silencieuse, cette perte de revenus explique certainement la montée des mouvements populistes (Hongrie, Italie, Espagne avec l'Andalousie) dans les urnes et des mouvements spontanés comme les gilets jaunes, c'est aussi elle qui à travers l'histoire provoque les révolutions. La France est bien placée pour le savoir.
Ces inégalités réelles sont exacerbées aussi par un climat de défiance systématique.
Dans les médias en France, on remarque une hypersensibilité, tout sujet devient potentiellement tabou avec des voix extrêmes qui couvrent le chuchotement des voix modérées qui ne peuvent plus se faire entendre. Cela crée des tensions manifestes car il y a une surenchère à celui qui hurle le plus fort et aucun échange constructif mais que des diatribes destructrices.
L'esprit critique et la modération disparaissent au profit de positions clivantes. A ce titre, l'interview de Natacha Polony, journaliste, essayiste et directrice de la rédaction de Marianne sur son livre "Délivrez-nous du Bien! Halte aux nouveaux inquisiteurs," est éclairant ;)
Certains scientifiques font l'analogie entre l'espèce humaine et des espèces invasives qui trouvent un milieu particulièrement propice à leur développement : une boîte de pétri dans laquelle quelque bactéries seraient placées au départ au milieu de la boîte dans un milieu particulier riche en nutriments mais qui après s'être multipliées très rapidement, atteignent les bords de la boîte et périssent car la multiplication des bactéries a épuisé toutes les ressources disponibles pour se perpétuer.
Pour poursuivre l'analogie, les humains seraient au bord à certains endroits et tout près à d'autres...
Selon l'étude German Watch sur plus de 150 pays, ce sont en premier lieu les pays développés à faible PIB proportionnellement les plus touchés par les catastrophes naturelles (Sri Lanka, République dominicaine, Vietnam ...) ainsi que Puerto Rico (82Md : 63% PIB !). En 2017, les Etats-Unis sont en valeur absolue les plus touchés en termes de coûts des sinistres (178 Md$), et le 11e pays le plus touché en % du PIB (0,9 % du PIB). La France est dans le premier tiers des pays en % (0,07% PIB) et le 16e en valeur absolue (2 Md$), Pour la Chine, est en 3e en valeur absolue (30,5 Md$) et 39 en% (0,13% PIB).
La France a une diplomatie sur le plan international très en pointe sur le respect des engagements climatiques mais ne met que très moyennement en place une politique d'environnement sur le plan national selon German Watch .
Selon Jean Jouzel, climatologue et ancien vice-président du GIEC, une personne sur 20 est confrontée à un événement climatique extrême (inondation, sécheresse , canicule), ce sera les 2/3 à partir de 2050.
Enfin, en raison des catastrophes naturelles et du réchauffement climatique, de plus en plus de zones habitables ne le seront plus, les zones les plus touchées par la montée des eaux sont les côtes où se trouve un très grand nombre de métropoles dans le monde (New York, Osaka, Lagos, Shanghai, Tokyo, Bangkok, Miami, Amsterdam...), la sécheresse devrait toucher très fortement l'Afrique ...et l'Europe sera aussi globalement très touchée.
Dernier point, la population sur le pourtour méditerranéen serait de 524 M d'habitants en 2025. La population des pays du Sud ayant un accès direct à la Méditerranée (du Maroc à la Syrie) représente environ 224 millions d'habitants si 10% de cette population choisit de quitter leur pays car les conditions de vie deviennent intenables pour des raisons écologiques et/ou politiques. Cela fait un flux potentiel migratoire de plus de 22 millions de personnes ... Le flux migratoire lors de la crise de 2015 était de 1M de personnes (en 2018 il serait 43 000 personnes - cf article du Monde).
La question à résoudre dans les 5 à 20 ans prochains est comment permettre à tous d'avoir un mode de vie occidental sur une planète où il y a de moins en moins de zones habitables, de moins en moins de ressources pour les nourrir et les équiper et qu'on sera de plus en plus nombreux ?
Les mauvaises langues me diront que tout ça, va se terminer comme pour les bactéries qui touchent le bord de la boîte de pétri avec plus grand-chose à manger au milieu.
La différence que nous avons avec des bactéries est-ce que nous pouvons utiliser la technologie pour subsister plus longtemps ...
D'où l'idée géniale d'Elon Musk de partir sur Mars 😉 Pas sûr que ses fusées seront capables le transporter ne serait-ce que 1% de la population mondiale ...
Les réactions actuelles sont de deux ordres vis-à-vis de la population et sont tardives ainsi les pays européens sont pris en étau entre deux problèmes :
D'autre part, même si des mesures drastiques étaient prises, il faudrait qu'elles soient appliquées sur le plan mondial et cela ralentirait le dérèglement climatique mais ne l'arrêterait pas .. It's too late ...
Les élections européennes si elles tombaient sous la domination de partis populistes pourraient avoir un impact désastreux. Si cela peut rassurer, 20% en moyenne des lois en France sont d'origine européenne et non 80% ! De plus, elles ne s'imposent pas toutes à la France, un certain nombre nécessitant un vote du Parlement national !
Actuellement, j'ai le sentiment que la plupart des pays attendent qu'ils soient au pied du mur et que les catastrophes naturelles deviennent insupportables, que les populations sentent qu'elles n'aient plus le choix en la vivant au quotidien pour que les gouvernements prennent des mesures radicales et deviennent par nécessité acceptables par la population.
Grosso modo, on attend que tout le monde se rende compte qu'on touche les bords de la boîte de Pétri pour imposer des mesures drastiques. A l'image de ceux qui ont vécu la Seconde Guerre mondiale, les personnes acceptaient d'être rationnées même après la guerre car il y avait la guerre, mais avant c'est compliqué de le faire accepter de manière volontaire par les citoyens. Il est évident aussi que nous n'allons pas non plus créer une guerre pour y parvenir !
Compte tenu des tensions évidentes, aucun gouvernement ne peut être sourd aux risques futurs et tous certainement se préparent ...
Les risques sont de deux ordres, pour la population et les Etats.
Il y a un risque d'un raz de marée populiste néanmoins comme le montrent les déboires de Viktor Orban en Hongrie, cela ne résoudra pas le problème. Il y a aussi un risque de dérive autocratique dans certains pays comme on le voit de plus en plus à travers le monde.
Il y a un risque de soulèvement populaire, les gilets jaunes seraient alors un signe avant-coureur d'un mouvement beaucoup plus puissant.
Un risque migratoire lié à un afflux massif de migrants qui veulent échapper aux conditions insoutenables dans leur pays.
Etats-Unis
Chine/Russie/Turquie
Notons aussi des opérations militaires atypiques comme Komodo, sous l'égide de l'Indonésie qui réunit des bâtiments chinois, indiens, français avec le groupe naval Jeanne d'Arc et même américain, ...
Vu que les différentes forces en présence semblent les plus à même d'être adversaires demain, c'est à se demander s'ils ne jouent pas un match amical avant le coup d'envoi réel....
En réalité, il s'agit d'un exercice d'entraînement à la réponse à une catastrophe humanitaire. C'est rassurant de voir que les pays peuvent se coordonner ainsi pour faire face à des catastrophes d'énorme ampleur.
Les technologies en particulier l'IA sont aussi un facteur majeur qui intervient dans le jeu des forces entre Etats. Poutine disait que celui qui maîtrisait l'IA maîtrise le monde. La Chine est le plus gros investisseur en IA et ... N'oublions pas que l'accord sur les armes autonomes n'a toujours pas été ratifié (cf. article)
Europe
Après tout ce que j'ai écrit, on pourrais dire qu' " on est foutu " que tout va partir à vau-l'eau... sauf que je suis un éternel optimiste pragmatique !
La vie sur Terre existe depuis plus de quatre milliards d'années sur Terre, elle disparaîtra très probablement sur Terre dans environ 500 millions d’années , certainement d'ici 2 à 3 Md d'années car le Soleil, de naine jaune deviendra géante rouge, englobera Mercure et Vénus, qui seront désintégrées tandis que la Terre et probablement Mars seront définitivement brulées. Proportionnellement, c'est un peu comme si la vie sur Terre a aujourd'hui 71 ans et qui lui restait 9 ans à vivre, néanmoins la vie sur Terre était nettement plus calme à ses débuts qu'aujourd'hui !
Le premier représentant du genre Homo est Homo rudolfensis, apparu environ 2,4 M d’années (l'australopithèque apparaît, il y a 4,2 M d'années), les premiers représentants de l'espèce humaine dateraient d'1,2 Ma avec Homo Erectus. Les premiers Hommes et Femmes modernes, l'Homo Sapiens dateraient de 300 000 ans, il arrive en Europe il y a environ 45 000 ans alors que l’Homme de Néandertal s’éteint il y a 30 000 ans.
L'agriculture apparait il y a 9000 ans, l'écriture (cunéiforme) apparaît avec les Sumériens, il y a environ 4000 ans.
Pour rappel, les dinosaures ont régné sur Terre 165 Ma entre -230 Ma et -65 Ma, si jamais notre espèce survit autant, nous en sommes encore à moins de 1,5% de notre chemin !
Donc, je ne me fais aucune inquiétude sur la survie de l'espèce humaine et de la vie sur Terre dans les prochains millénaires. Il est évident qu'il y a une chute drastique de la biodiversité (-25% d'espèces devraient disparaître en France d'ici peu), mais il y a de très fortes chances que la biodiversité reparte de plus belle dans plusieurs millions d'années. Par exemple, la disparition des dinosaures vers -65 Ma a permis l'explosion des espèces mammifères (nommé radiation évolutive). D'ailleurs, les mammifères auraient commencé à être diurnes qu'après l'extinction des dinosaures.
Le souci est que nous serons morts et quelques générations après (> 30 000) avant de redécouvrir ce regain naturel de biodiversité.
D'autre part, s'il est très peu probable que l'espèce humaine disparaisse dans les prochains millénaires, il est beaucoup plus probable, à l'image des autres espèces animales, que nous subissions une forte réduction de la population humaine dans les prochains siècles après l'explosion démographique actuelle.
Nous devrions être 9,8 Md en 2050 et 11,2 Md en 2100 (versus 7,5 Md en 2017) si aucun événement catastrophique et mondial (pandémies, guerre, famine, victimes de catastrophes naturelles...) a lieu (cf. la fameuse boîte de Pétri). La surpopulation est une crainte majeure de nombreux scientifiques (ex : " Alerte solennelle sur l’Etat de la planète " signée par plus de 15 000 d'entre eux qui exhortent à des mesures démographiques : "Réduire encore le taux de fécondité par l’éducation et le planning familial " et " Déterminer à long terme une taille de population humaine soutenable et scientifiquement défendable tout en s’assurant le soutien des pays et des responsables mondiaux pour atteindre cet objectif vital. ")
Alors que faire ?
Ce n'est pas parce qu'on sait qu'un jour, on va mourir, qu'on doit se laisser mourir ou pire se suicider.
Le pari de Pascal consiste à démontrer qu'on a tout intérêt à croire en Dieu car on risque peu à croire et beaucoup à ne pas croire, que Dieu existe ou non !
Est-ce que les risques que j'ai cités précédemment arriveront ou pas ? Dans 50 ans, dans 10 ans, dans 5 ans, cette année ? Difficile à prédire, en revanche comme dans le Pari de Pascal, on a tout intérêt d'y croire que ce sera d'ici peu, que cela arrive ou non, en appliquant au minimum un certain nombre de mesures qui sans fondamentalement réduire le niveau des personnes, nous y préparent si c'est le cas. Je pense en revanche qu'il est extrêmement difficile d'imposer aux populations des solutions radicales de manière préventive car il faudrait sans doute des régimes autoritaires pour y parvenir.
On parle souvent de collapsologie, qui est l'étude de l'effondrement de la civilisation industrielle. Je n'apprécie pas du tout ce mot car il fait référence à une fin et non à un redressement, recommencement après une chute.
Je préfère créer un néologisme, le phénixologie, la science du Phénix, la science qui nous aide à "renaître après s’être consumé dans les flammes" au sens littéral du terme, la science qui nous aide à nous relever quel que soit la hauteur de la chute plus prosaïquement.
Nous avons trois différents types d'actions que nous pouvons prendre face aux risques de catastrophes naturelle, populiste, de migration massive et même de guerre, ce que j'appellerai la stratégie du Phénix
Je pense aujourd'hui que c'est le facteur sur lequel nous avons le moins la main, soit parce qu'il est trop tard pour fondamentalement changer la tendance (cas du dérèglement climatique), soit parce que c'est imprévisible. Ce n'est pas parce que vous lancez des allumettes en feu dans un salle parsemée de poudre à canon que ça va exploser tout de suite, c'est juste une question de temps !
Autre analogie, celle de la théorie de percolation, imaginez une grille en fer que vous posez sur un cadre horizontal. Tous les jours, vous coupez un lien entre deux intersections, au bout d'un moment certaines parties vont tomber au sol, et même un jour la grille tout entière va tomber.
Il est très difficile de prédire quand la grille va tomber exactement. On peut se dire que nous essayons aujourd'hui de recréer des connexions mais sans doute pas à la même vitesse que ce qu'on coupe.
Il est extrêmement compliqué d'obliger les personnes à changer profondément le comportement sans événements extérieurs les contraignant de manière brutale (ce que je ne souhaite pas car cela signifie des guerres, dictature, des catastrophes naturelles massives) d'autant qu'il y a des impacts économiques et sociaux à gérer (entreprises qui font faillite car les produits vendus ne sont plus autorisés à la vente ou les consommateurs s'en éloignent compte tenu de leurs impacts écologiques). En revanche, il y a des actions simples et volontaristes qui peuvent contribuer à ralentir la vitesse à laquelle nous fonçons dans le mur.
L'Europe réduit de plus en plus fortement l'utilisation de plastique et interdit le plastique à usage unique au plus tard en 2021 et s'étend aux contenants en polystyrène. Les ampoules incandescentes sont interdites totalement depuis 2012 , les gaz CFC sont interdits dans de nombreux pays avec le Protocole de Montréal signé en 1987.ce qui a permis de fortement réduire le trou de la couche d'ozone et montre quelle coordination mondiale peut avoir un impact global sur notre environnement. Néanmoins, l’utilisation secrète du CFC-11 serait encore effective dans le bâtiment et la construction en Chine selon l'Environmental Investigation Agency. Comme quoi il faut toujours rester vigilant.
Nous devons avoir de plus en plus de mesures en ce sens, le développement du véhicule électrique semble a priori aller dans ce sens, néanmoins comme j'explique dans l'article suivant, le véhicule électrique est loin d'être parfait en raison des batteries au lithium très polluantes et du mode de production de l'énergie électrique. Aujourd'hui un véhicule électrique roulant en Allemagne produit plus d'émissions de CO2 qu'un véhicule diesel ou essence, en raison de son mix énergétique encore très dépendant des centrales thermiques. En France, le véhicule électrique produit beaucoup moins d'émissions de CO2 grâce aux centrales nucléaires mais évidemment elle rejette des produits radioactifs ce qui est un risque majeur pour les générations futures.
Dans cet esprit, je pense que l’Europe et la France doivent avoir une stratégie beaucoup plus volontariste, incitative et légale auprès des entreprises pour réduire leur impact environnemental négatif et favoriser leur impact environnemental positif.
On aura beau inciter les citoyens à recycler leurs déchets, c’est tout de même nettement plus simple si à la base les produits consommés n’en génèrent pas.
Voici quelques idées :
Pour chaque entreprise, fabricant des produits, elle devrait réaliser un diagnostic synthétisé par un document normalisé divisé en quatre parties (au moins pour les produits les plus vendus) :
Pour chaque étape, elle devrait décrire leurs impacts et les actions qu’elle réalise pour réduire l’impact négatif et même mieux valoriser ses étapes.
Est-il réparable par la personne elle-même ? (impossible, partiellement, très majoritairement) ? Est-ce que l'entreprise donne accès à un site Internet permettant d'acheter les pièces défectueuses et mises à disposition des conseils pour le réparer par lui-même ?
Le projet de loi sur l'économie circulaire ( et une meilleure gestion des déchets) va dans ce sens. Il comprend 6 articles (issus des 50 mesures de la Feuille de route économie circulaire (Frec) présentée en avril 2018 par le Premier ministre), le dernier visant à autoriser le gouvernement à légiférer par ordonnance sur ce sujet.
Le projet de loi devrait être discutée avant l'été 2019 a indiqué Brune Poirson, la secrétaire d'Etat auprès du ministre de la Transition écologique et solidaire. Il transpose aussi trois directives du Paquet européen sur l’économie circulaire (sur les déchets, les emballages et déchets d’emballages, et la mise en décharge) de mai 2018
Les chiffres ne doivent pas être exact la virgule près en revanche ils doivent donner un bon ordre de grandeur (ex : pour l'énergie dépensée par unité de production, on pourrait prendre la consommation énergétique d'une usine divisée par le nombre d'unités produites)
Il manque certainement beaucoup de questions. Ca donne un premier aperçu du diagnostic qui serait j'en suis certain un très bon révélateur et bénéfique pour les entreprises, valorisant pour leurs salariés. La communication de ce type de diagnostic auprès des clients accroîtrait certainement la confiance de ceux-ci dans la marque. Il y a bien sûr beaucoup d'informations dans le rapport RSE qui répondent à ces questions néanmoins elles ne sont pas synthétisées et structurées de la même manière pour l'ensemble des entreprises (on pourrait commencer par le CAC 40 sur leur top 3 des produits vendus).
Ce diagnostic pourrait servir de point de départ pour une politique volontariste en se focalisant sur les solutions faciles à mettre en oeuvre et ayant un impact élevé.
Une initiative très récente de Loop, une nouvelle plateforme de e-commerce qui promet de venir à bout des emballages à usage unique. En service à partir du printemps 2019 en France et aux États-Unis, elle est à l’initiative d’une coalition entre de grands acteurs du secteur agro-alimentaire, mais aussi de l’hygiène et de la beauté.
Autre exemple, les entreprises pourraient développer un véritable service et une plateforme autour de la location, de la réutilisation, de la réparation et du recyclage de leurs produits. Cela créerait aussi un lien beaucoup plus fort entre la marque et le client fondé sur l'expérience plutôt que l'achat du produit. (cf article De la société Formule 1 à la société tout-terrain écrit en mars 2011 ;)
Idéalement, il faudrait que le client sache accéder à cette plateforme, juste en regardant le packaging du produit. On pourrait même imaginer l'obligation pour les produits non-consommables de communiquer sur le packaging via un logo simple (ex : QR code) et l'adresse du site. Pour les entreprises n'ayant pas la compétence en interne de créer cette plateforme, de nombreuses startups seraient certainement à même la créer.
Il y a bien sûr beaucoup d'autres actions possibles !
Etant dans une société capitaliste, la meilleure façon d'inciter des entreprises à agir pour le bien de la société de l'environnement est que leur intérêt économique soit aligné avec celui de la société et de l'environnement. Plus la société fait de profits, meilleur c'est pour la société et l'environnement.
Inversement, il y a des entreprises qui ont un intérêt économique contraire à celui de la société l'environnement (qui est différent de l'éthique de l'entreprise)
Par exemple, une entreprise verticalisée qui vendrait à la fois des pesticides, des semences d'OGM et des médicaments auraient un intérêt économique à ce que ses pesticides nécessitent l'achat de semences protégées contre ceux-ci et à rendre malade des personnes les utilisant ou consommant des produits exposés afin de pouvoir vendre plus de médicaments pour les soigner. Je ne dis pas, bien sûr, que l'entreprise agit ainsi mais il est plus simple pour une entreprise d'avoir un comportement responsable si elle n'est pas tiraillée par un modèle économique qui incite à faire le contraire.
A l'inverse, le développement des ESS, entreprises de l'économie sociale et solidaire et les initiatives pour les favoriser vont dans le sens d'un modèle économique vertueux.
Ils ont dans leurs statuts l'obligation d'avoir un mode de fonctionnement démocratique et une utilisation des bénéfices pour le maintien ou le développement de la structure plutôt que l’enrichissement personnel. (ce qui permet d'accéder à des financements spécifiques et à une fiscalité favorable avec l'agrément ESUS).
La loi Pacte propose de compléter l'Article 1833 du Code civil " Toute société doit avoir un objet licite et être constituée dans l'intérêt commun des associés " par " La société est gérée dans son intérêt social et en prenant en considération les enjeux sociaux et environnementaux de son activité. " et de modifier d'autres articles afin d' encourager " les sociétés à ne plus être guidées par une seule"raison d'avoir'' ", soit la quête de bénéfice.
Il serait intéressant de voir dans le sens inverse comment défavoriser les modèles économiques ayant un impact négatif sur notre société.
A l'image des bonus/malus pour les véhicules, nous pourrions avoir des bonus/malus pour les entreprises qui ont selon un impact positif ou négatif. Cela aurait du sens y compris sur le plan économique car une entreprise ayant des externalités négatives (comme polluer une rivière) n'a aucun intérêt financier à les réduire tant qu'elle est en dessous d'un seuil règlementaire. Il existe déjà la taxe carbone pour quantifier l'externalité négative liée aux émissions de CO2. Comme le prix de la taxe carbone est encore trop bas, cela n'incite pas suffisamment les entreprises à investir pour réduire leurs émissions de CO2.
Ça me semble compliqué de créer des marchés de toutes les externalités négatives, risqué de faire un panier d'externalités négatives... En revanche, on pourrait dresser un diagnostic des externalités négatives et positives de toute entreprise et d'appliquer des bonus/malus en fonction de l'évolution de celui-ci par exemple sur le taux de l'IS. Afin d'éviter les transferts d'activité entre pays liés uniquement à la fiscalité, il faudrait appliquer quelques règles (ex : une comparaison sur base d'un périmètre d'activité constant).
On pourrait aussi prévoir de favoriser les modèles économiques fondés sur la location plutôt que sur l'achat car cela dissuade l'obsolescence programmée et incite au contraire l'entreprise à réaliser des produits pérennes, évolutifs, modulaires, à les réutiliser tout en réduisant au maximum les pannes.
Bien sûr, on peut pénaliser plus fortement les comportements ayant un impact négatif sur l'environnement (ex : taxe sur l'essence...), le problème est sur ce n'est pas la meilleure technique pour engager les personnes à avoir durablement un comportement responsable.
Dans le sens inverse, inciter financièrement des personnes à avoir un bon comportement n'a d'intérêt que si c'est intégré dans une politique plus globale car dès que vous retirez cette incitation, les personnes reviennent à leurs anciennes habitudes.
Il y a une force extraordinaire que les politiques utilisent très peu pour avoir des comportements positifs pour la société et l'environnement, c'est l'inertie et la propension que tout être humain a, de faire le minimum d'efforts pour les activités qui l'ennuie le plus. Il faut faire en sorte de faciliter au maximum les comportements vertueux en retirant le maximum de frictions qui l'inciteraient à faire autrement. Inversement, il faut rendre les comportements néfastes de plus en plus difficiles (et pas seulement sur le plan financier).
J'avais assisté à USI en juin 2017, un événement où se tiennent de nombreuses conférences de prospective, notamment une de Dan Ariely où il montrait comment il était possible d'avoir un impact phénoménal sur le comportement. La théorie qui soutient cela est le nudge (petit coups de pouce qui va inciter à modifier son comportement sans demander un effort important).
Deux exemples m'ont particulièrement marqué, le premier montre la différence entre le pourcentage de personnes acceptant de donner leurs organes en France et dans d'autres pays comme le Danemark, les Pays-Bas, la Grande-Bretagne.
Les Pays-Bas ont investi des sommes folles avec une communication très appuyée et ont réussi à atteindre 28% de taux d'acceptation. En France, nous avons investi beaucoup moins d'argent et de communication, et nous avons un taux d'acceptation de 100% !
Comment ? Depuis la loi Caillavet de 1976, lorsqu’une personne décède, elle est présumée avoir donné son consentement aux dons d’organes ou de tissus après sa mort. Pour inverser cette présomption, le défunt doit avoir exprimé de son vivant son refus de don sur un registre national des refus. Comme le registre est très peu connu, l'équipe médicale devait demander aux proches s'ils acceptaient ou non le prélèvement d'organe. Cela faisait perdre du temps et le don dans ce cas été refusé une fois sur trois. Aujourd'hui, il est plus simple de s'inscrire via un site en ligne, ce qui est un argument vis-à-vis de la famille pour expliquer que si le défunt ne s'est pas inscrit, il ne devait pas être contre.
Autre exemple, une campagne de vaccination a été menée et donnait juste l'information, 3% ont été vaccinés, en donnant les informations, le plan et une date précise et en relançant, ils ont eu 26% de vaccination.
Dernier exemple au CES Las Vegas, une startup propose une solution qui incite les enfants à aller à l'école en proposant des batteries rechargeables disponibles uniquement à l'école.
Je vais prendre un dernier exemple basé sur mon expérience personnelle, l'auto-stop. Il m'est arrivé un certain nombre de fois de rentrer chez moi assez tard après mon travail alors qu'il n'y avait plus aucun moyen de transport et je n'avais pas de véhicule.
J'ai "inventé" une technique que j'appelle la technique de l'Auto-Stop ! (fondé au final sur du bon sens et un peu d'audace ..) qui m'a permis de trouver des conducteurs en moins de cinq minutes lorsque la plupart des personnes peuvent attendre des heures pour qu'une voiture accepte de les prendre.
Évidemment, certains me rétorquent " Oui,mais je tourne à la prochaine rue ", Je réponds alors " C'est parfait pour moi. Ca me permet d'avancer ! "
Bien sûr, il m'arrive de devoir décomposer mon trajet en 2 à 4 courses mais ça m'a fait gagner un temps fou. Parmi tous les conducteurs ( de tout âge, homme et femmes), ils m'ont tous dit de mémoire que c'était la première fois qu'ils prenaient un auto-stopper. Je l'avoue, c'est un peu sans gêne mais les conducteurs et conductrices ont toujours été ravis que nous échangions lors du trajet 😊
Pour revenir à nos moutons 😉, il faudrait idéalement suivre les étapes d'utilisation, comprendre les raisons pour lesquelles une personne jette, ne réutilise pas, ne recycle pas ses produits, identifier toutes les frictions et trouver des solutions pour les aplanir. C'est ce que j'ai fait pour l'autostop les premières fois pour rentrer chez moi rapidement !
Nous savons que nous allons droit dans le mur, nous avons réussi à réduire un peu la vitesse d'impact, comment réduire et amortir la force de l'impact maintenant (à l'image d'un airbag sociétal) ?
Il y a un bon exercice à faire, lister nos dépendances et réfléchir à comment faire sans. C'est déjà réalisé dans les entreprises pour leurs serveurs informatiques (Disaster Recovery Plan - Plan de reprise d'activité) et pas mal de collectivités souvent sous la houlette des préfectures car elles sont en charge de la sécurité.
Une des faiblesses de ces plans est qu'ils prévoient un retour à la normale assez rapide (dans les quelques jours). Lors de catastrophes naturelles, les urgences sont bien gérées mais la période qui suit, l'est beaucoup moins comme j'en parle ici (cf. article et analyse)
L'exercice consiste donc à se dire (entreprise, collectivité, particulier) que fais-je, si je n'ai plus l'accès au réseau électrique et de gaz, au réseau télécom, à Internet, à de l'eau potable... pendant 2 semaines, 1 mois, 3 mois. Que se passe-t-il si mon entreprise, ma maison, mes locaux sont détruits, inaccessibles ... pendant une longue période ?
Il est évident que dans ces conditions il est impossible de revenir un état normal à court terme, nous sommes donc obligés de basculer dans un mode de vie dégradé. C'est ce qui existe pour des véhicules, des avions (panne de moteur..), en revanche on n' en parle pas pour les individus, les entreprises, les acteurs publics.
Comme nous ne prévoyons pas de vivre longtemps dans un mode dégradé (ex : lors d'une inondation...), on ne prévoit rien du tout ou très peu et si ça dure c'est catastrophique.
Sachant que nous risquons de vivre de plus en plus de catastrophes naturelles, les ressources pour aider les personnes et les entreprises en ayant besoin seront de plus en plus sollicités et moins disponibles proportionnellement, la situation peut vraiment mal tourner.
Je pense qu'il faut vraiment développer une culture d'anticipation des catastrophes naturelles et autres événements dramatiques. L'objectif n'est surtout pas de créer un sentiment de peur mais que chacun intègre et surtout anticipe que demain il peut avoir sa maison totalement inondée, incendiée... et qu'en l'anticipant ce sera nettement moins difficile de se relever.
Comme on n'a pas encore frappé le mur, il nous reste encore un petit peu de temps. D'ailleurs les entreprises ont un vrai rôle à jouer pour innover et proposer des produits et solutions résilientes aux particuliers mais aussi aux entreprises.
Quelques exemples :
Un mode de vie dégradé est un mode de vie qui permet de subvenir à tous les besoins basiques d'une personne et qui évite qu'elle tombe dans une précarité qui l'empêchera de retrouver un cours de vie normale :
Il n'y a pas de superflu dans ce mode de vie mais il n'est pas dégradant et a vocation à être temporaire mais peut durer plusieurs mois voire plus.
Toute personne vivant normalement aujourd'hui devrait pouvoir s'assurer qu'en cas de catastrophes naturelles, événement grave, elle puisse avoir au minimum un mode de vie dégradé
Idéalement, il faudrait que les personnes en situation difficile et aux SDF puissent aussi en bénéficier
Chaque personne peut trouver des solutions pour s'assurer au minimum d'un mode de vie dégradé même s'il ne perçoit plus de revenus. Acheter des lampes, batteries alimentées par des cellules photovoltaïques, installer un panneau solaire chez soi, partager avec les voisins des solutions pour rendre l'eau potable ou des générateurs d'électricité alimentés en énergie solaire.
Néanmoins, on voit vite les limites de cette démarche car il est nécessaire de mutualiser les solutions pour qu'elles soient économiquement acceptables.
L'assurance multirisque habitation peut proposer ce type de services mais il risque d'y avoir de moins en moins de particuliers qui y souscrivent compte tenu de l'augmentation des primes liées aux catastrophes naturelles. Elles ont augmenté de 38% depuis 2008 soit quatre fois plus que l'inflation. Cela signifie qu'on peut tout perdre si on n'est pas assuré (cf. conditions pour bénéficier de cette garantie) et on n'a potentiellement aucun moyen de subsistance.
Un des moyens de résoudre cette problématique est de développer un nouveau type d'assurance, l'assurance résilience. Elle débloquerait un capital défini (par exemple 30 000€) ou un montant mensuel en fonction de la durée d'un retour à " la normale " et proposerait des services d'assistance en cas de catastrophe naturelle (logement, accès à des téléphones, accompagnement des enfants à l'école, services de livraison de nourriture, d'eau à domicile, prêt de chauffages d'appoint, générateur d'électricité portable ...).
L'assurance résilience coûterait nettement moins cher aux assureurs qu'une assurance habitation en termes de coûts de sinistres. Cela leur permettraient de proposer des primes beaucoup plus faibles et donc de couvrir des personnes ne pouvant être assurées sinon. On pourrait aussi intégrer ce type d'assurance dans le pack d'assurances proposées par les cartes de crédit.
Comme nous l'avons vu avec le mouvement des gilets jaunes, il y a une forme d'injonction paradoxale et déséquilibrée qui sort des 42 revendications, l'Etat doit plus intervenir et réguler dans 41 propositions (ex : Les salaires de tous les Français ainsi que les retraites et les allocations doivent être indexés à l’inflation., interdire les délocalisations, Salaire maximum fixé à 15 000 euros, Limitation des loyers, Fin immédiate de la fermeture des petites lignes, des bureaux de poste, des écoles et des maternités, Maximum 25 élèves par classe de la maternelle à la Terminale. ...) et il y a UNE proposition qui donne plus de pouvoir aux citoyens : le Référendum populaire ou Référendum d'Initiative Citoyenne (RIC) et qui a le plus d'attention aujourd'hui.
En synthèse, cela signifie " je veux moins de liberté et je veux plus de liberté, je veux que l'Etat décide pour moi et je veux décider pour l'Etat " ... Compliqué ... Mes propos sont un peu caricaturaux car en réalité, c'est " je veux moins de liberté pour les autres, mais je veux plus de liberté pour moi et ceux qui me ressemblent " mais comme après Liberté, il y a Egalité et Fraternité, si on restreint les libertés de l'autre, on restreint mes libertés et inversement si on les augmente... CQFD
Enfin, il y a une confusion énorme entre problème et solutions. Le problème des gilets jaunes n'est pas que les patrons gagnent plus de 15 000 € mais qu'eux ne puissent vivre correctement à la fin du mois. Selon moi, il serait beaucoup plus intéressant que les gilets jaunes expliquent d'abord les problèmes auxquels ils sont confrontés au quotidien (recherche de travail, mobilité, accès aux soins...) et que face à ces problèmes, ils puissent proposer, s'ils le souhaitent, des solutions applicables pour eux.
Aujourd'hui, les gilets jaunes proposent des solutions génériques applicables pour tous. Pourquoi pas ! Mais souvent des solutions locales répondent mieux à des problèmes locaux (car chaque situation est différente) que des solutions nationales qui à l'image du lit de Procuste, ne répond de manière adéquate qu'à une partie de la population et mécontente tout le reste.
L'Etat n'est sans doute pas le meilleur interlocuteur pour traiter les problèmes spécifiques de chaque individu à la différence des collectivités territoriales beaucoup plus proches du terrain.
J'ai le sentiment qu'en général, l'Etat (en France) gère bien les crises à court terme et le quotidien (les événements catastrophiques, les urgences, les hôpitaux, les policiers et gendarmes ...) hormis des couacs de communication qui arrivent régulièrement dans tous les gouvernements. L'Etat gère aussi plutôt bien le long terme (sur les sujets sensibles comme les retraites, le chômage et sur la dette, c'est plus compliqué ...) car il utilise la loi qui a un impact moins visible au quotidien et dans la durée.
Sur le moyen terme (de quelques semaines à moins de 2 ans), l'Etat semble souvent désarmé. Il n'est pas suffisamment agile pour avoir un impact rapide et adapté sur la vie des gens alors que
l'attente de la majorité est sur cette période. Elle est d'ailleurs épinglée par la phrase " vous vous inquiétez de la fin du monde, alors que ce qui m'inquiète est la fin du mois " .
Pour donner un exemple concret lié à l'organisation même de l'Etat, la loi PACTE a commencé à être écrite en octobre 2017, a été prévue pour être adoptée en janvier 2019 et devrait après le
passage au Sénat être votée en juin 2019 soit 20 mois après. Dans une entreprise, ces délais seraient inconcevables en revanche les impacts entre les deux sont très différents, un ce sont les
habitants en France et d'autre les salariés dans une entreprise, ses clients et fournisseurs ..
Mais est-ce à lui d'agir ?
Ben Non ! Je pense d'ailleurs que c'est une erreur (compréhensible) des Gilets Jaunes, le gouvernement n'est certainement pas leur meilleur interlocuteur car le gouvernement propose des lois et l'Assemblée nationale les délibèrent et votent pour tous les Français. Il ne va pas faire de loi spécifique pour les chauffeurs routiers de la Creuse, les chômeurs de Montlhéry et les assistantes médicales de Tourcoing ! L'Etat n'est pas structuré pour ça et ce serait un non-sens et une gabegie de réglementer tous les cas particuliers à partir de Paris.
Ce sont évidemment toutes les institutions intermédiaires qui en fonction de la taille du problème et de sa représentativité ont ce rôle, de la région à la commune.
L'Etat en revanche peut avoir un vrai rôle pour mutualiser les solutions en France entre les collectivités territoriales et avoir un effet levier et faciliter la mise en place de solutions au niveau locale et régional. On parle aussi d'Etat-Plateforme.
Aujourd'hui, la société en particulier française a un modèle pyramidal, souvent assimilé au colbertisme. La tête, le Roi, l'Empereur, le Président décident de manière centrale, les niveaux en-dessous exécutent. S'il y a un problème sur le terrain,l' information remonte toute le long de la hiérarchie, la tête prend la décision et fait redescendre sa décision vers le terrain.
Dans un monde VUCA (volatile, incertain, complexe et ambigu), ce modèle n'est pas du tout adapté car il est beaucoup trop rigide, trop lent, il est incapable de s'adapter à la situation sur le terrain, met en place des règles qui conviennent à certains et mécontentent la majorité, ce qui transforme toute décision en véritable torture car vous êtes certain que quoi que vous fassiez vous ferez plus de mécontents que d'heureux . Au final, cela incite à la pire des stratégies : ne rien décider !
Le réseau maillé est une topologie de réseau (utilisé dans les télécoms et par Internet) où tous les noeuds sont connectés pair à pair sans hiérarchie centrale, formant ainsi une structure en forme de filet. Ceci évite d’avoir des points névralgiques qui s’ils tombent en panne isolent une partie du réseau. Si un noeud est hors service, on peut emprunter une route alternative.
Pour être plus précis, je propose un réseau maillé par grappes ou en boule de gui, les communautés de personnes (villes, villages) sont reliées aux autres communautés. Une communauté est capable d'avoir un mode de vie au minimum dégradé si elles sont coupées des autres communautés. La connexion avec les autres communautés permet d'atteindre le niveau de vie actuel.
C'est un modèle qui était celui d'avant l'industrialisation, des villages pouvaient vivre en autonomie mais bénéficiaient du commerce avec les villes alentours pour s'enrichir et se développer.
Dans notre société actuelle, cela signifie qu'une commune ou une communauté de communes puisse fournir des services de base (électricité, eau, nourriture, logement ...) en quantité réduite à ses habitants même si elle est coupée de l'extérieur (télécoms, réseau électrique RTE, transports...).
L'avantage de la société en boule de gui est qu'elle ne nécessite pas de transformation radicale de notre société actuelle. Elle consiste d'abord à mettre en place au fur et à mesure des solutions qui peuvent servir en backup en mode dégradé lorsque la solution centrale n'est plus fonctionnelle.
Pour donner un exemple, si RTE (gestionnaire du réseau d'électricité en France) doit couper pour des raisons de surcharge une partie de la Bretagne durant plusieurs jours et semaines, la Bretagne est plongée dans le noir et n'a aucune solution de secours pérenne.
Pour éviter ça des villes et villages, peuvent s'équiper au niveau local de moyens de production d'énergie (solaire, éolien, biomasse) couvrant une partie des besoins d'énergie (ce n'est pas à 100% car il s'agit d'une solution dégradée et ce serait trop cher sinon) afin de la distribuer aux habitants (le réseau électrique local s'il le permet, ou des distributeurs électriques où on peut recharger des batteries... avec un système de paiement et de limitation par foyer pour éviter les abus).
Cela peut même être réalisé pour un quartier (ex : dans un quartier de Brooklyn). Des technologies comme la blockchain associée avec des équipements connectés (IoT) et l'IA peuvent faciliter leur mise en place à condition bien sûr qu’elles ne consomment pas trop d'énergie et qu'on puisse s'en passer le cas échéant.
Les solutions appliquées dans les petites îles sont à ce titre très instructives car elles ne sont pas reliées au réseau électrique notamment et doivent produire leur propre énergie.
Je parle de ce type de solutions dans l'article sur la résilience face aux catastrophes naturelles.
L'association SOS Maires a cette vocation en cherchant à aider les communes rurales à sécuriser le minimum vital à l'échelle de leur commune et en favorisant le partage des solutions ingénieuses trouvées par les uns et les autres. Ils ont développé des kits de solutions pour les collectivités sur toutes les problématiques (eau, alimentation, sécurité ...).
Pour que ce type de projet réussisse, il ne sert à rien d'attendre que les solutions viennent à vous. Au contraire, chaque citoyen peut être acteur dans sa communauté, pour trouver proposer des solutions de collaboration avec les autres habitants et dans d'autres villes.
L'Etat pourra de moins en moins résoudre les problèmes de chacun, en revanche il peut stimuler les initiatives populaires et des collectivités territoriales, favoriser la normalisation des solutions pour faciliter la mutualisation de solutions entre les villes, favoriser le développement des activités et des revenus annexes (économie du partage, tric de services...).
Une des voies les plus prometteuses sont les partenariats entre des startups et entreprises innovantes et des acteurs publics, par exemple Simplon (j'avais réalisé un panel avec Frédéric Bardeau, son fondateur à Viva Tech). Ils permettent à des personnes qui sont souvent marginalisés (Chômeurs longue durée, réfugiés...) de trouver un emploi en se formant au code (> 95% dans les 6 mois). Les formations ont lieu dans des communes difficiles, rurales et permet aussi de travailler à distance. Ils ont mis en place aussi des formations, et en particulier une école en Côte d'Ivoire. Ils sont soutenus par Pôle Emploi qui finance une partie de la formation.
Pour terminer la technologie peut avoir un rôle, non pour forcer les personnes à changer de comportement mais pour les aider à aller par elles-mêmes dans la bonne direction.
Il y a 20 ans, personne ne regardait un smartphone tous les 5 mn, aujourd'hui, c'est extrêmement courant, c'est un changement majeur de comportement des êtres humains qui a eu lieu en très peu de temps. Changer les comportements pour réduire nos impacts négatifs et accroître nos impacts positifs sur notre planète est tout-à-fait possible, il faut juste rendre cela aussi facile et simple que possible.
Pour terminer, la plus grande force de l'humanité est ceux qui la composent. notre optimisme, notre volonté de rebondir, notre créativité. Nous sommes sans doute l'animal le plus résilient existent sur Terre.
Si vous souhaitez être accompagné dans votre veille stratégique ainsi que les répercussions des innovations dans l'IoT, robots, , blockchain IA) et de leurs impacts dans vos organisations et entreprises, n’hésitez pas à me contacter :)
Dimitri Carbonnelle - Contact
Fondateur de Livosphere
Conseil en IoT, IA, Blockchain et Robots collaboratifs / Cobots
#CES2019 c’est fini ! ... après un retour du CES Unveiled (article), voici les tendances et innovations :
Moins de buzz sur les véhicules autonomes mais avancée sur les composants (lidars, caméras...), véhicule modulaire et le crowdsourcing de données via des véhicules
Beaucoup de solutions de transport (drone avec passager de Bell, le tracteur autonome de John Deere, le vélo à hydrogène),
S’il y avait moins d’exposants chinois (près de 25% selon Le Monde), Ils avaient de plus gros stands, plus nombreux dans le cœur des halls et ambitionne que le " Made in China" supplante le célèbre "Made in Germany"
Le retour de la conquête de l'espace via le privé (mini-satellites Zero2Infinity, engins qui vont sur la Lune : Lunar à partir de 2021)
IA en plus de la voix, présente dans la reconnaissance visuelle et pour aider les personnes handicapées ( déplacer son fauteuil avec des expressions du visage)
Robots livreurs, exo-squelettes, robot Omron qui progresse au Ping-pong chaque année, Robots sous-marins…
Résilience : beaucoup de solutions sur l’auto-production et l’auto-consommation d’énergie (Skavenji, Fenix, OSol, utile en cas de panne longue ! , BioGaz, Lum’In (lampadaire autonome)
Et beaucoup de produits étonnants : analyse de sang via son smartphone (XRBlood), transformation de sons en lumières pour les mal-entendants : SmartEar, Mobilier Urbain végétal (UrbanCanopée)
Si vous êtes intéressé par des conférences, formations (généraux et spécifiques à vos métiers) sur les innovations, IA, blockchain, IoT ..., n'hésitez pas à me contacter
De nombreux constructeurs avaient montré leur véhicule autonome ou plutôt celui qu'ils fabriqueront un jour... , beaucoup ont trouvé une solution radicale pour éliminer définitivement les accidents de la route..retirer les roues ;)
Les véhicules autonomes nécessitent de collecter de nombreuses informations une technologie est le "Shadow mode". Des véhicules semi-autonomes intégrant des capteurs, lidars ... intègrent une IA qui compare la décision prise par elle par rapport aux choix du conducteur. Les données remontées permettent d'entraîner l'IA.
Citymagine lui remonte les données de l'état des routes grâce à ses caméras.
De nombreux nouveaux constructeurs rendent leurs véhicules modulaires avec un châssis autonome. La partie modulaire ("Pod")s'adapte en fonction des usages. (AEV Robotics).
IAV a créé une coquille modulaire multi-transports (drone, véhicule ...)
Transports : Beaucoup de solutions de transport : Drone avec passager de Bell,
le tracteur autonome de John Deere
La valise-scooter, le premier vélo à hydrogène (français : Pragma Industries) et même des patins à roulettes électriques.
S'il y avait moins d'exposants chinois près de 25%
(selon Le
Figaro... dont la source est... ).
Pour paraphraser France Gall, "Quand la Chine avance...", ils ont de plus gros stands, plus nombreux dans le cœur des halls et ambitionne que le "Made in China" supplante le fameux "Made in Germany".
Cela peut paraître loin pourtant une nouvelle conquête de l'espace et même de la Lune avant Mars devient à la portée de startups d'ici 2, 3 ans car il y a une chute des prix de lancement.
AstroCast - Réseau IoT constitué de nano-satellites
Astrocast envoie une constellations de nano-satellites (64 sur 8 orbites, déjà 8 lancé début janvier 2019) pour créer des réseaux IoT (type Sigfox). L'objectif est de couvrir 90% de la surface de la terre, de proposer une connexion bi-directionnelle bas débit et ainsi permettre la traçabilité et suivi de marchandises, de matériel, de véhicules (comme les éoliennes en mer, les mines isolées, les plateformes pétrolières, stations météo...) dans des zones non couvertes (non habitées, maritimes...). En revanche, il n'y a pas de couverture indoor ;)
Zero 2 Infinity - Lancement par ballon à hélium
Pour lancer ces nano-satellites, on peut utiliser des lanceurs type Space X mais il y a beaucoup plus ingénieux et moins cher ... Zero 2 Infinity offre de décomposer leur mise en orbite en deux phases. La première est un ballon à hélium qui va élever un mini-lanceur (intégrant votre nano-satellite) jusqu'à 40 km (stratosphère).
Ensuite le mini-lanceur va propulser le nano-satellite (75 kg max) jusqu'à 180 km puis dans dans un second temps 600 km. Le freinage atmosphérique est vingt fois inférieur dans la stratosphère qu'au sol (au-dessus de 99% de l'atmosphère) ce qui permet de réduire très fortement la consommation d'énergie pour mettre en orbite un nano-satellte. Vous pouvez aussi envoyer jusqu'à 6 tonnes à 40 km dans la stratosphère avec ce ballon à hélium.
Dernier point, nous sommes encore loin de l'orbite géostationnaire (35 786 km au-dessus du géoïde terrestre) qui permet à un satellite de rester en permanence au-dessus du même point de l'équateur.
iSpace (Jetro - Japon) - Engins lunaires d'ici 2021
Après l'espace proche, pourquoi ne pas aller sur la Lune, pourquoi me direz-vous ? Pour servir d'avant-poste et de base relais vers Mars !
iSpace a prévu d'envoyer des engins sur la Lune, une mission est prévue en 2021 autour de la Lune, une autre déposera ses premiers engins en 2022 grâce à Space X.
D'ici quelques années, on devrait voir des infrastructures se créer sur la Lune d'autant que nous avons récemment découvert de vastes étendues de glace pure aux pôles qui faciliterait la vie des colons et pourrait devenir un carburant (hydrogène) pour aller sur Mars grâce à l'hydrolyse de l'eau.
Enfin, une colonie sur la Lune nous rapprocherait de Mars en réduisant l'énergie nécessaire (gravitation beaucoup plus faible sur la Lune). En revanche, cela me semble peu plausible que des milliers de vaisseaux remplis de milliers de personnes ( < 0,1% de la population) aillent sur la Lune puis sur Mars ! Ce sera réservé à quelques Happy Few et à ceux qui trouveront que l'herbe est plus verte sur Mars ou la Lune que sur Terre ;)
Pour celles et ceux intéressés de faire un mini-trip sur Mars, il y a plusieurs bonnes raisons d'y aller :
la journée est plus longue de 40 mn, vous pesez moins de 1/3 à cause de la moindre gravité, vous "vieillissez" plus lentement mais avez moins d'anniversaires;)
Le petit souci est l’eau se situe dans les pôles sur Mars, la pire zone pour y vivre et nettement moins agréable (tempêtes de sable, variation de température phénoménaux ...) que les pires zones sur Terre. Le désert de Gobi ou le Sahara sont des oasis de douceur de vie comparés à Mars.
Avant d'envisager de déménager sur Mars, cela vaudrait le coup d'éviter que la Terre devienne Mars sur le plan climatique ! (cf photos de la conférence de Laura Kerber (Nasa Jet propulsion) à Hello Tomorrow) sur la vie sur Mars.
La blockchain est en train d'émerger au CES et devrait être une tendance forte l'année prochaine. À la différence de l'IA, les uses cases sont plus clairs : traçabilité, sécurité, partage des ressources même si ce n'est pas si évident de comprendre les mécanismes (Mining, token, Smart Contracts).
J'ai mis quelques photos de produits utilisant la blockchain : utilisation avec l'IoT (Hitech One), un TPE (Xpos), un distributeur de billets convertissant crypto-monnaie en dollars, pare-feu WiFi sécurisé avec la blockchain (DevPriv), un Wallet d'Archos et en-dessous un constructeur chinois qui propose de vous payer en token le partage de votre puissance de calcul et votre capacité de stockage.
Vous trouverez plus d'infos sur la partie que j'ai rédigé sur la blockchain du rapport CES Las Vegas d'Olivier Ezratty. Pour vous faciliter la vie, voici l'extrait spécifique à la blockchain (dizaine de pages sur plus de 400 !)
La reconnaissance visuelle s'est installé dans de très nombreux équipements des plus utiles aux plus futiles, pour reconnaître les battements cardiaques des bébés, ouvrir la mangeoires de distributeur de croquettes pour chats grâce à la reconnaissance visuelle de sa tête.
Intégration de multiples technologies (utilisation de l'IA dans AR pour reconnaître des objets et guider un technicien,
Fauteuil roulant déplacé grâce aux expressions du visage comme tirer la langue pour reculer :)
Prothèse d'avant-bras "intelligente" qui apprend avec son utilisateur à être manipulé grâce aux signaux électriques du moignon.
Impression 3D de masques de crèmes en fonction des parties du visage chez Neutrogena ) mais aussi chez Gillette (marque de P&G)
Ils proposent de personnaliser dans le magasin le manche de votre rasoir sur base de 49 motifs. Évidemment, l'intérêt est double, accroître les marges et fidéliser le client car comme le devinez, seules les lames les plus chères sont compatibles (Mach III et Fusion) et certainement pas celles des concurrents ;)
Ils ont inventé le premier rasoir à lames chauffantes .. mais où s'arrêtera le progrès ! Malheureusement, les clients intéressés ne se bousculent pas au portillon car ils vendent ce rasoir sur IndieGogo et sur plus de 20 000 ventes espérées, ils en ont vendu fin janvier .... 212 !
En tout cas, IndieGogo leur a permis d'éviter de transformer leurs lames chauffantes en four commercial !
Robot livreur heureux du travail accompli ;),
Robot Omron qui progresse au ping-pong chaque
CES Las Vegas 2019
Production d'énergie et stockage d'énergie
De plus en plus de startups et entreprises créent des solutions pour produire et stocker de l'énergie. O'Sol crée des panneaux photovoltaïques qui se déplacent en fonction du soleil et Skavenji proposent des batteries li-ion auxquelles on peut facilement brancher des éoliennes et des panneaux photovoltaïques.
Il y a comme d'habitude de nombreux produits connectés dans le domaine de la santé. L'objectif étant de collecter les données sur votre santé quelque soit le vêtement ou chaussure.
Une tendance est l'utilisation de la caméra, de l'écran pour visualiser et de la puissance de calcul du smartphone pour des usages médicaux. XRBlood permet à partir d'une goutte de sang de
réaliser un diagnostic médical.
Une tendance à suivre la fabrication et distribution de produits ici de pain devant le consommateur par Wilkinson Baking (cf article).
Dans le même esprit, Casino avait installée en novembre dernier dans un de ses magasins une serre pour produire et vendre des plantes aromatiques avant sa première ferme urbaine en 2020.
Apparaît aussi le 1er Pop-up Store intégrant de l'AI par Pop Square qui permet à la fois de connaître les types de personnes et leur comportement (via de la reconnaissance visuelle) et donne la possibilité de réaliser un Live Chat avec le consommateur)
L'Oréal a son capteur à pH pour la peau et propose des produits en fonction de celui-Ci. Urban Canopée propose le premier mobilier urbain végétalisé.
Petit événement, VLC (association et startup française) a fêté au CES son trois milliardième téléchargement !
Pour la FrenchTech, félicitations à Business France (et Maxime Sabahec !) qui a fait un super boulot avec l'appui des régions ont joué très majoritairement le jeu.
Si vous souhaitez que je réalise un débrief spécifique à vos métiers, n'hésitez pas à me contacter :) Contact
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Innovation (IA, IoT, Blockchain, Robots)
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement
PS : Si jamais des investisseurs recherchent la prochaine licorne, parmi les startups, je l'ai trouvée ;)
Blockchain
Pas mal de blockchain dont le Wallet Archos et smartphone et POS XPos fondé sur la Blockchain),
Multi-technos
Intégration de multiples technologies (utilisation de l'IA dans AR pour reconnaître des objets et guider un technicien, dans des caméras pour savoir si un bébé respire ou bouge, un distributeur de croquettes utilisant l'IA pour reconnaître la tête de votre chat et n'ouvrir que pour lui !
impression 3D de masques de crèmes en fonction des parties du visage chez Neutrogena )
Assistant Vocal dans des objets du quotidien (interrupteur intégrant Alexa chez Legrand)
C'est parti pour le #CES2019 avec le CES Unveiled.
De nombreuses innovations...
Produits autonomes en énergie
Beaucoup de produits autonomes en énergie avec des cellules photovoltaïques : ruche Cocoon de Bee-life qui tue en plus les principaux parasites de l'abeille, les mites Varroa, Lum'in, lampadaire photovoltaïque et le four solaire GoSun
Un certain nombre de grands groupes étaient aussi présents en plus de Legrand, Gillette avec son rasoir à manche personnalisé, L'Oréal a son capteur à pH pour la peau.
Snips hacke lui une machine à laver Miele. Tandis que le fabricant / distributeur de pain nous prépare en direct son pain tout chaud pas loin d'un mobilier urbain végétal (Urban Canopée) et d'un mini-satellite destiné à devenir un réseau IoT satellitaire.
Il y a même un gilet jaune connecté pour amortir les chocs.. si on tombe de vélo !
C'était un rapide aperçu du CES Unveiled Paris - avant le démarrage officiel mardi :)
Dimitri Carbonnelle
Conseil en Innovation - Contact
Debrief du CES spécifique à vos métiers et accompagnement dans vos projets ( de la recherche d'i nnovations / nouvelles technologies au déploiement de celles-ci dans votre entreprise)
Avant le CES, il est essentiel aussi de parler aussi des problématiques posées par les GAFA en particulier leur très faible imposition. Alors, voici ma petite idée pour les fêtes pour rendre la fiscalité équitable avec les GAFA … ;)
Plutôt que de taxer le chiffre d’affaires qui pose de nombreux problèmes (multi-imposition de sociétés en cas de multiples intermédiaires, décourage l’investissement et de mieux payer ses salariés, ne bénéficie des gains de rentabilité grâce à l’IA…), ne pourrait-on pas taxer un bénéficie reconstitué par pays avec un taux d’imposition égale à la différence entre le taux d’imposition du pays (en France 33,3% ) et le taux d’imposition réel et mondial du groupe pour les géants du numérique (entre 8 et 15%)?
On déduirait bien sûr l’IS effectivement versé par la société en France de cette taxe.
Des négociations sont en cours à l'OCDE, pour fixer quel est le profit taxable pour les entreprises du numérique mais cela risque de prendre au minimum 2 ans.
Au préalable, nous pouvons évalué en France un bénéfice reconstitué taxable, pour les entreprises du numérique qui ont un modèle économique fondé sur leur nombre d’utilisateurs et dont le bénéfice est directement lié au nombre d’utilisateurs.
Voici le mode de calcul :
Le bénéfice reconstitué par pays = Nombre d’utilisateurs actifs mensuels du pays * CA Européen par utilisateur * % ratio bénéfices / chiffres d’affaires mondial.
L’imposition de Facebook en France serait de 114 M€ si elle facturait tous ses services destinés à des utilisateurs en France à partir de la France (342M€ * 33,3%).
Avec cette taxe, Facebook aurait à payer une taxe de 75 M€ en France au lieu de 1,9 M€ aujourd’hui. Avec la taxe à 3% sur le CA, prévue par le gouvernement, elle devrait payer au maximum 26,1 M€ (avec un CA en France estimé à 870 M€ et 1,7 M€ si on se fondait sur le CA déclaré par Facebook en 2017 de 55,9 M€.)
Sur base des chiffres déclarés par Facebook sur le plan mondial (car c’est une société cotée ;) ):
CA estimé de Facebook en France = 870 M€ = 38 millions de Français * ( 23€ ou 26,2 $ = 9,8 Md$ de CA européen / 377 millions d’utilisateurs européens) (versus 55,9 M€ déclaré en France.)
Bénéfice estimé = 870 M€ * (39% = 15,93 Md$ / 40,65 Md$ (Résultat Facebook Mondial / CA Facebook Mondial) = 342 M€ de résultat avant impôts
Le taux de cette taxe = 22% (= taux imposition en France 33,3% - taux d’imposition de Facebook sur le plan mondial : 11%) soit 75 M€ au lieu de 1,9 M€ aujourd’hui ( taux d’imposition équivalent à 0,6% des bénéfices estimés !).
L’intérêt de ce taux réduit est d’éviter la double imposition (sachant que la taxe sur le CA proposé serait néanmoins déductible de l’assiette de l’IS en France), de ne pas concerner les entreprises déficitaires et de ne pas dissuader une entreprise d’investir en France car en implantant et facturant ses activités en France elle paierait exactement le même impôt. Enfin, à la différence de la taxe sur CA, l’Etat bénéficierait des énormes augmentations de productivité liées à l’intelligence artificielle des prochaines années.
La raison pour laquelle il s’agit d’une taxe et non d’un impôt sur les bénéfices est que l’assiette de ce dernier doit être négociée au niveau de l’OCDE qui sert de référence pour la très grande majorité des conventions fiscales.
On déduirait de cette taxe le montant de l’IS déclaré ainsi toute entreprise qui déclare ses impôts en France, n’aurait aucune taxe à payer. Bien sûr, si l’IS versé était supérieur à cette taxe, on ne va pas rembourser l’entreprise !
Dernier point, pour éviter toutes ces contorsions fiscales, la meilleure façon serait évidemment que les géants du numérique localisent leurs revenus en France. Facebook a annoncé qu’il le ferait dès l’année fiscale 2018 comme l’a expliqué Laurent Solly, VP Facebook Europe du Sud en novembre dernier.
C’est même l’intérêt des GAFA de localiser leurs revenus en Europe et de favoriser les réglementations européennes qui empêchant une très faible imposition des revenus et bénéfices car cela crée une barrière à l’entrée pour les acteurs chinois dont les BATX qui vont de plus en plus s’affirmer en Europe.
N’étant pas fiscaliste ou juriste, il y a certainement des points à modifier. N’hésitez pas à m’en faire part.
Les GAFA sont aujourd’hui dans la légalité en optimisant au maximum leur fiscalité de par leur activité numérique car il est très difficile de donner une territorialité certaine à leurs activités numériques (cf article Wikipedia )
Néanmoins, il est essentiel que les GAFA soient imposés de manière équivalente aux autres entreprises pour des raisons d’équité fiscale d’autant que les écarts sont faramineux. Pour les grands groupes français, le taux d’imposition sur le plan mondial varie de 20 à 25 % (deux fois plus que Facebook à 11%). Selon une analyse de l'eurodéputé social-démocrate Paul Tang, spécialiste des questions fiscales, publiée en septembre 2017 et centrée sur Google et Facebook entre 2013 et 2015, la France aurait ainsi perdu 741 millions d'euros de recettes fiscales, l'Allemagne 889 millions et les entreprises numériques sont soumises à un taux d’imposition effectif de 9,5 % uniquement, contre 23,2 % pour les entreprises traditionnelles.
Les activités françaises de ces groupes sont imposées à 33,3% (part > 500ke et si leur CA n’est pas minoré artificiellement ;)) alors que Facebook a un taux d’imposition sur ses activités françaises estimé à 0,6% (1,9 M€ / 342 M€ en 2017 ). Il y a bien sûr des techniques qui permettent de réduire les bénéfices notamment via les fondations d’entreprise (déduction de 60% des dons de l'impôt sur les sociétés) ou les transferts intra-groupes (royalties pour l’utilisation de la marque, quote-part compensant les coûts de la société mère reversée dans un pays à plus faible imposition …)
Il en est aussi de l’intérêt même des GAFA à ce qu’ils soient imposés à hauteur similaire aux autres entreprises car elles risquent à terme qu’on leur impose des sanctions beaucoup plus lourdes telles qu’une scission de leur structure ou des sanctions pécuniaires très fortes (> 10 Md€) sur le plan européen.
Cela créerait plus d’incertitudes pour leurs actionnaires que des impôts payés de manière récurrente fondés sur leurs résultats. Autant il ne peut y avoir de rétroactivité en termes d’impôts, autant pour les pénalités, the sky is the limit…
En ces temps de disette budgétaire, la tentation des Etats peut être extrêmement forte de récupérer une part de la cagnotte accumulée par les GAFA !
Dernier point, les entreprises européennes se tournent de plus en plus vers les BATX (Baidu Tencent Alibaba Xiaomi, équivalent des GAFA en Chine). Même si elles collaborent principalement sur le territoire chinois (ex : Accord d’Auchan avec Alibaba), les entreprises chinoises vont de plus en plus investir le marché européen.
Les GAFA ont beaucoup plus à craindre compte tenu de leurs poids des acteurs chinois qu’européens. Si les GAFA, en particulier Amazon veulent accroître la barrière à l’entrée sur le marché européen pour Alibaba, Baidu, Tencent, ils ont tout intérêt à favoriser les réglementations européennes qui empêche de délocaliser les revenus et bénéfices qu’ils n’ont pas eu à subir.
Merci la non-rétroactivité fiscale ;)
L’UE a choisi de taxer le CA à hauteur de 3% sur la vente d’espaces publicitaires à partir de 2021 si la recherche d'un accord international échoue dans le cadre de l’OCDE.
L’activité digitale globale était initialement prévue mais le périmètre a été réduit en raison de la concession française, l’opposition notamment de l’Allemagne craignant les représailles commerciales sur les droits de douane sur ses véhicules, l’Irlande (avec un taux d’imposition à 12,5% et qui accueille les sièges de Facebook et de Google), du Luxembourg qui accueille Amazon, la Suède qui souhaite protéger Spotify qui fait certes du CA mais pas de bénéfices et donc serait taxé…
Le projet initial de l’UE était de taxer les revenus publicitaires, les revenus de la vente de données personnelles ou générés par les activités d'intermédiaire de vente de biens et de services. Les entreprises réalisant au moins 750 millions d'euros de chiffre d'affaires dans le monde, dont 50 millions d'euros en Europe devaient être concernées (provisoirement avant la création d’une taxe mondiale dans le cadre de l’OCDE).
Bruno Le Maire a annoncé le 6 décembre que la France pourrait introduire "dès 2019" une taxe nationale sur les géants du numérique "si les États européens ne prennent pas leurs responsabilités et n'imposent pas une taxation des géants du numérique".
Cette taxe serait assise non seulement sur les revenus de la publicité en ligne, mais plus globalement sur les revenus publicitaires, les revenus tirés des plateformes (d’intermédiation) et ceux liés à la revente de données personnelles.
Bruxelles avait, certes, proposé de rendre la taxe déductible de l'impôt sur les sociétés, pour annuler l'impact sur les entreprises vertueuses, mais Bercy a jugé ce mécanisme contraire aux règles fiscales françaises. Elle serait donc seulement déductible de l'assiette de l'impôt sur les sociétés, ce qui entraînerait une surcharge fiscale.
Les Britanniques ont aussi prévu de taxer à hauteur de 2% le CA des géants du numérique dès 2020.
Évidemment les Etats-Unis sont complètement contre cette taxe qui va à l'encontre de leurs intérêts comme l' indique la lettre, conjointement signée par le président républicain de la commission finances du Sénat américain, Orrin Hatch, et son collègue démocrate, Ron Wyden : « La proposition de DST de l’UE a été conçue pour cibler les entreprises américaines et saper le traité sur les taxes internationales en créant une nouvelle barrière commerciale transatlantique qui va à l’encontre du nouveau dialogue entre les États-Unis et l’Union européenne pour réduire de telles barrières »,
La taxe sur le CA pose de multiples problèmes :
Lorsqu’il y a plusieurs intermédiaires entre une entreprise et un client final, est-ce le CA cumulé qui est taxé ou le CA de celui qui vend ou qui s’adresse au client final ? Compliqué à gérer.
L’interview de Jean-David Chamboredon, co-président de France Digitale est très instructif à ce titre car il couvre la plupart des problèmes.
La France avait poussé deux pistes au départ, la taxe sur le CA et une deuxième piste auprès de l’UE qui prévoyait une réforme de l’impôt sur les sociétés dans les États membres, qui permettrait de taxer les bénéfices des entreprises y ayant une "présence numérique significative".
Les sociétés concernées devaient satisfaire au moins l’un des critères suivants : des revenus de sept millions d’euros par an générés par la fourniture de services numériques, au moins 100 000 utilisateurs et la signature de plus de 3 000 contrats commerciaux pour des services numériques au cours d’un exercice fiscal.
Pourtant c’est la taxe sur le CA dite « DST » (Digital Services Tax) qui a été privilégié et sert de filet de sécurité si le niveau international des négociations à l’OCDE devait échouer.
Certains principes des impôts sur les sociétés doivent être négociés au niveau mondial, OCDE pour être précis (« présence numérique » notamment) pour éviter les problématiques de double imposition par exemple et en raison des nombreuses conventions fiscales existantes qui se fondent sur le modèle OCDE.
"L’art 7 OCDE (modèle de convention) : les bénéfices d’une entreprise d’un Etat contractant ne sont pas imposables dans cet Etat à moins que celle-ci n’exerce son activité dans l’autre Etat contractant par l’intermédiaire d’un établissement stable qui y est situé. Si elle exerce son activité de cette façon, les bénéfices sont imposables dans l’autre Etat.
L’ OCDE a d’ailleurs modifié ce modèle pour réduire les risques de « suroptimisation » et d’évasion fiscale.
D’après la définition du modèle OCDE : c’est une installation fixe d’affaires par laquelle une entreprise exerce tout ou partie de son activité. L’installation d’affaires est définie comme tout local matériel ou installation utilisé pour l’exercice des activités de l’entreprise sans que soit pris en considération le titre juridique qui permet à l’entreprise d’en disposer. On vise une notion de permanence."
A terme, il est bien prévu une modification de l’impôt sur les bénéfices qui intègrent la présence numérique, le problème est qu’avant d’accorder tous les pays ayant des intérêts divergents, ça risque de prendre du temps … Déjà au niveau de l’UE, c’est compliqué à bientôt 27 pays, imaginez à 36 dont les Etats-Unis, Mexique, le Chili et la Turquie, Israël, Corée du Sud, Japon, Australie …
Sans connaître tous les tenants et aboutissants, il me semble qu’il était plus simple de faire accepter une taxe sur le CA avec les GAFA qu’un IS qui intégrerait leurs vrais bénéfices. D’ailleurs, la déclaration de Google qu’il le paierait l’illustre (Google).
Comme on le voit sur les schémas suivants, la taxe sur le CA (3%) croit peu de manière absolue à la différence d’une taxe sur les revenus (au maximum 33,3%). Le prochain objectif des GAFA demain n’est pas la croissance de leur CA mais celle de leurs bénéfices (déjà en proportion très élevé près de 40% pour Facebook par rapport au CA). L’utilisation de l’IA permettra de générer beaucoup plus de rentabilité en utilisant au mieux les infrastructures actuelles avec le minimum de personnes. Les géants du numérique ont donc intérêt à favoriser une taxe sur le CA plutôt qu’une taxe sur les bénéfices.
Enfin, il est très difficile d’augmenter significativement le niveau de taxation sur le CA (3%) compte tenu de ses effets de bords, impacts négatifs. Un rapide calcul montre que Facebook devrait payer 13% sur son CA pour correspondre à un taux d’imposition de 33,3% sur ses bénéfices. Ce n’est pas tenable.
Concernant Facebook, Laurent Solly a récemment précisé que pour 2018, ils vont déclarer pour la première fois en 2018 les revenus de sa filiale française en France et non en Irlande.
« À partir de cette année, les investissements de nos clients français qui sont faits sur les plateformes Instagram et Facebook pour déployer des campagnes de communication auprès des Français, qui sont accompagnés par les équipes françaises de Facebook, seront déclarés à notre pays et donc soumis à l'impôt sur les sociétés ». C’est une très bonne voie et nous verrons si les bénéfices pour 2018 se rapprochent de 342 M€ qui est mon estimation pour 2017.
Amazon pour sa part est contre la taxe sur CA car cela pénaliserait les PME qui vendent sur sa Marketplace (car Amazon répercuterait les surcoûts de la taxe sur eux…). Certes, c’est vrai, mais Amazon ne propose aucune solution comme Facebook pour appliquer plus d’équité fiscale alors que cela aurait un impact positif sur les PME moins ponctionnées car les géants du numérique contribueraient plus aux finances publiques !
Je ne suis pas juriste ou fiscaliste, néanmoins j’ai essayé de mieux comprendre la mécanique derrière l’imposition des bénéfices et la difficulté à imposer ceux des GAFA. S’il y a des corrections à réaliser et des erreurs, n’hésitez pas à m’en faire part.
Aujourd'hui, la France fait figure d'exception avec son principe de territorialité car la plupart des Etats membres de l'OCDE ont adopté le régime de l'imposition mondiale dans lequel les entreprises sont imposées dans leur Etat de résidence sur l'ensemble de leurs bénéfices mondiaux.
Ainsi les bénéfices réalisés par des entreprises exploitées à l’étranger par des sociétés ayant leur siège en France sont soustraits à l’application de l’IS même si la comptabilité de ces exploitations est centralisée en France. A l’inverse, les entreprises dont le siège est situé hors de France sont quelle que soit leur nationalité sont imposables en France à raison des profits d’exploitation situés en France.
En présence d'une convention fiscale entre deux pays, les règles de droit interne s'effacent au profit des dispositions contenues dans la convention. La plupart des conventions signées par la France reposent sur le modèle OCDE qui retient le critère de localisation, la notion d’établissement stable.
Les entreprises françaises peuvent néanmoins opter le régime du bénéfice consolidé (imposition mondiale) qui a pour effet de les imposer en France non seulement à raison des établissements situés en France mais aussi d’entreprises situées à l’étranger et leur permet aussi de prendre en compte les pertes et déficits étrangers, d’imputer à l’ IS français des impôts payés à l’étranger à hauteur de l’impôt français qui aurait frappé ces résultats.
Le Code général des impôts n’a pas défini la notion d’entreprise exploitée en France qui justifierait l’imposition de ses bénéfices, c’est donc la doctrine et la jurisprudence qui ont développé trois critères pour savoir quand rattacher un bénéfice à la France.
Vous trouverez l’explication détaillée ici.
Les deux premières notions sont communément utilisées par presque toutes les conventions fiscales bilatérales obéissant au modèle de l’OCDE. En revanche, l’idée de cycle commercial complet est plus spécifique à la France.
On pourrait imposer en particulier pour Amazon la notion de cycle commercial complet qui est illustré explicitement .(lien BOFIP) ainsi que pour les autres géants du numérique.
L'exercice habituel d'une activité peut enfin résulter de la réalisation d'un cycle commercial complet d'opérations, alors même que l'entreprise ne posséderait dans le pays concerné aucun établissement ou représentant permanent.
Un cycle complet correspond généralement à une série d'opérations commerciales, industrielles ou artisanales dirigées vers un but déterminé et dont l'ensemble forme un tout cohérent.
L'exemple le plus caractéristique du cycle complet est celui des opérations d'achat de marchandises suivies de leur revente.
Peuvent également constituer un cycle commercial complet les opérations d'extraction, de transformation, de lotissement de terrain, de prestations de services ou les opérations financières, dès lors qu'elles correspondent à l'exercice habituel d'une activité distincte.
Le calcul du bénéfice reconstitué est facile pour les entreprises dont le modèle économique dépend directement du nombre d’utilisateurs.
Comme la plupart des géants du numérique sont obligés de communiquer sur leurs chiffres mondiaux (notamment s’ils sont mondiaux) et publient leur répartition de CA par continents et le nombre d’utilisateurs par pays, on peut utiliser ces chiffres pour reconstituer ce bénéfice par pays :
bénéfice reconstitué = Nombre d’utilisateurs * CA moyen par utilisateur en Europe * Ratio Bénéfice avant impôts / CA sur le plan mondial
Sur base des chiffres déclarés par Facebook sur le plan mondial :
CA estimé de Facebook en France = 870 M€ = 38 millions de français * ( 23€ ou 26,2 $ = 9,8 Md$ de CA Européen / 377 millions d’utilisateurs européen) (versus 55,9 M€ déclaré en France.)
Bénéfice estimé = 870 M€ * (39% = 15,93 Md$ / 40,65 Md$ (Résultat Facebook Mondial / CA Facebook Mondial) = 342 M€ de résultat net
Si l’entreprise a la capacité de justifier de chiffres plus précis par pays, elle pourrait bien sûr les utiliser auprès de l’administration fiscale. Il faut juste qu’elle ait accès au détail par pays (par exemple le CA moyen par pays ) pour s’assurer que la somme du détail correspond à la somme totale et que cette information puisse être partagée et croisée avec les autres membres de l’UE. L’entreprise pourrait aussi justifier de frais exceptionnels (investissements dans un laboratoire de recherche par exemple) qui réduit son bénéfice pour le pays.
Comme on le voit sur les résultats de Facebook, le CA par utilisateur peut fortement varier entre continents et pour refléter cela, il est préférable d’utiliser le CA par continent divisé par le nombre d'utilisateurs du continent que le CA mondial par utilisateur.
Bien sûr, une entreprise peut décider de facturer ses services à partir d’une entreprise hors d’Europe, en revanche on pourrait reconstituer en partie ce CA à partir des factures d’achat du client localisées en Europe ou par des analyses marché afin de voir les résultats aberrants.
Dans cet article, je parle des entreprises qui ont un modèle économique fondé sur le nombre d’utilisateurs et plus spécifiquement sur la publicité (Google et Facebook), mais nous pourrions étendre cela à Amazon, à des plateformes B2B…
Il faut parvenir (via les factures d’achats par exemple) à reconstituer le CA estimatif du pays.
Les impôts le réalisent déjà sur les personnes via la taxation sur le train de vie et signes extérieurs de richesse quand le fisc constate une disproportion entre le train de vie d’un contribuable et ses revenus déclarés.
Pour l’anecdote, la base forfaitaire est évaluée en tenant compte de douze éléments de train de vie dont le contribuable et les membres de son foyer fiscal ont disposé au cours de l'année considérée.)
D’autre part, le fisc réalise déjà ce travail pour les entreprises qui exercent leur activité en France. On a tous entendu parler de ces restaurateurs qui ont été redressés en raison d’un CA minoré et réévalué grâce aux factures de nettoyage de serviettes et nappes.
Aujourd’hui si le Fisc ne redresse pas les GAFA, ce n’est pas par manque de chiffres mais pour des raisons légales. Une taxation sur le CA ou les bénéfices reconstitués donneraient une base légale à des redressements. Le point ici est de basculer directement sur la taxe sur les bénéfices plutôt que de passer par une taxe sur le CA ou d’attendre une nouvelle convention sur l’IS.
Le taux de taxation de ces bénéfices reconstitués serait le taux effectif du pays (en France 33,3% pour le CA > 500ke) – taux d’imposition mondiale de l’entreprise (Facebook :11%, Amazon 0% en 2017 aux Etats-Unis, 11,4% avant).
L’IS déjà payé en France serait déduit de cette taxe (mais pas de remboursement si l’IS est supérieur à la taxe !). Le mécanisme pourrait s’assimiler à l’imputation actuelle des impôts payés à l’étranger sur l’IS sous le régime du bénéfice consolidé mais en inversé !
Cela évite la double imposition, le taux d’imposition mondial est connu publiquement et incite les entreprises à localiser leurs investissements en France en l’occurrence. En effet si l’entreprise a localisé ses résultats dans un pays avec un taux d’imposition supérieur au taux d’imposition mondial, il aura intérêt à les localiser en France car il paiera moins de taxes.
Pour les géants du numérique, la structure de coûts doit être globalement similaire à travers le monde compte tenu de la mutualisation des services et activités.
A l’exception des frais marketing et commerciaux spécifiquement dédiés à un pays et qui peuvent varier en proportion selon chaque pays, la plupart des autres coûts bénéficient à l’ensemble du groupe. Pour donner un exemple, le laboratoire d’IA de Facebook situé à Paris ne sert pas qu’à Facebook France mais à tout Facebook ! Comme les coûts dans un pays servent généralement à tous les pays, cela signifie qu’on peut appliquer le ratio Résultats net avant impôts / Chiffre d’affaires pour mesurer le bénéfice d’une entité d’un pays sur base de son CA.
L’objectif est un principe d’équité fiscale entre toutes les entreprises, qu’elles soient totalement numériques, en partie ou pas du tout. Cela signifie que les modalités de taxation doivent être identiques pour toutes. La taxe sur CA créé des effets de bords inévitables (taxe d’entreprises déficitaires, désincitation à l’investissement, à bien payer ses salariés, l’Etat ne bénéficie pas des formidables gains de rentabilité grâce à l’IA mais va devoir les payer via des revenus minimums, formations …). La taxe sur CA même à court terme est selon moi une erreur, d’autant qu’il faudra gérer la migration de la taxe sur CA vers un nouvel IS une fois les négociations internationales finalisées… Ce sera compliqué !
Idéalement, il faudrait que les géants du numérique localisent leurs activités et bénéfices en France comme Facebook le ferait à partir de l’année fiscale 2018. S’ils ne le font pas, il faut les faire rentrer dans ce cadre. Les conventions fiscales et le modèle OCDE nécessitent a priori un consensus mondial pour transformer l’impôt sur les bénéfices, donc à ce stade, on ne peut modifier l’IS. En revanche, on pourrait a priori taxer un bénéfice reconstitué dont serait déduit l’IS payé en France et qui faciliterait la transition vers les nouvelles règles.
Dimitri Carbonnelle
Agence conseil en Innovation - IoT, IA , Robots Collaboratifs - Contact
Le point de départ du mouvement des Gilets Jaunes est l’augmentation de la taxe sur les carburants. En contrepartie, le gouvernement a proposé un certain nombre de mesures dont une prime de conversion de véhicules. Ce à quoi de nombreux gilets jaunes rétorquent qu’ils n’ont pas les moyens d’acheter un nouveau véhicule.
Plutôt que de partir dans des polémiques picrocholines, pourrions-nous trouver une solution qui concilie les deux points ?
Ne pourrait-on pas transformer la prime à la reconversion en une prime au covoiturage ? Cela consisterait par exemple à ce que les vieux véhicules soient repris ( puis mis au rebus et recyclés) par des sociétés de covoiturage / ride sharing qui bénéficieraient aussi de cette prime pour mettre à disposition des véhicules électriques destinés au covoiturage dans les zones d’habitation des habitants bénéficiant des primes.
Cela redonnerait du pouvoir d’achat et aurait un effet écologique immédiat grâce au covoiturage.
La prime à la conversion pose plusieurs problèmes :
Cela signifie que le gain écologique sera potentiellement perceptible dans plusieurs années (sur base de l'étude de CIRAIG environ 4 ans si le mix énergétique est très peu émetteur de CO2), en raison de de la fabrication d’un nouveau véhicule. Un véhicule électrique est beaucoup moins écologique à fabriquer qu’un véhicule diesel ou essence en raison des batteries.
Sachant qu’en plus un véhicule est utilisé la plupart du temps moins de 10% du temps (moins de 2h30 par jour) et par 1,3 personne en moyenne.
La prime au covoiturage permettrait d’une part de donner un pouvoir d’achat additionnel immédiat aux utilisateurs (plutôt que d’en retirer avec le coût d’achat d’un nouveau véhicule) et de réduire l’impact écologique de la fabrication d’un nouveau véhicule en incitant au développement massif d’un mode de transport plus écologique, la mobilité partagée.
Le principe serait le suivant, tous les véhicules aujourd’hui éligibles à la prime de conversion (mais cela pourrait être étendu en fonction du coût budgétaire – Plus d’infos sur l’éligibilité de la prime)
Les véhicules repris n’auraient a priori vocation à être réutilisés (vu leur ancienneté) mais mis au rebut dans un centre agréé VHU (véhicules hors d'usage) qui se chargera de recycler le véhicule. Les entreprises devront acheter en échange des véhicules électriques ou hybrides (en fonction du rayon d’action du véhicule) utilisés pour le covoiturage.
L’intérêt est d’inciter à changer les comportements vers l’usage plutôt que l’achat de véhicules d’autant que cela devient trop onéreux en particulier dans les zones rurales.
Afin de vérifier les effets positifs ou négatifs, des expérimentations pourraient être faites dans plusieurs départements ruraux et des zones mal desservies avec des acteurs
Il y a aussi d’autres options : la prime de conversion pourrait être utilisée pour l’achat d’un véhicule en leasing qui serait associée à des services de covoiturage ce qui baisserait ses mensualités.
Une autre possibilité serait de favoriser le covoiturage de véhicules avec une prime au kilomètre covoituré (en passant par une plateforme comme Blablacar pour s’assurer de la réalité du covoiturage et simplifierait la gestion administrative des particuliers )
Afin de concrétiser cela, prenons un exemple, une personne non imposable et parcourant plus de 60 km par jour pour se rendre à son travail (afin de bénéficier du doublement de la prime de conversion) a un véhicule diesel immatriculé en 2005 et veut acheter une Zoé électrique (la moins chère est à 32 600 € TTC dont 8900€ pour les batteries, une Nissan Leaf avec une meilleure finition est à 33 900€ TTC ).
Avec toutes les aides, surprime (5000€) + bonus écologique (6000€, 27% du montant du véhicule cappé à 6000€) , ce Zoé coûterait 21 600€. Pour un ménage imposable (54% des ménages en France), il ne bénéficiera d’aucune prime mais seulement du bonus écologique.
Pour comparer, aujourd’hui un véhicule essence ou diesel coûte bien moins cher qu’un véhicule électrique équivalent (cf. article Challenges : Clio à essence moteur TCe 0,9 en finition comparable Intens est à 18.850 euros seulement pour une meilleure finition), le bonus permet de réduire l’écart de plus de 40% de prix.
Il y a deux problèmes, le véhicule électrique coûte plus cher qu’un véhicule à essence et il reste plus de 21 000€ à débourser pour des ménages qui n’ont pas les moyens d’investir dans un nouveau véhicule…
Voici quelques autres possibilités traduites concrètement (et à challenger) qui permettent d’augmenter le pouvoir d’achat tout en favorisant la mobilité :
1. Prime au covoiturage
Une société de covoiturage reprend ce véhicule diesel de 2005. Le particulier perçoit une prime de 2500€ ( à ajuster en fonction du coût budgétaire).
La société de covoiturage perçoit 1000€ (par exemple par véhicule repris) et doit acheter un véhicule électrique pour 5 véhicules maximum ( à ajuster en fonction du lieu et des besoins, il reçoit donc 5000€ au maximum), le mettre à disposition, le gérer (entretien, réparation…) et proposer une application pour pouvoir la réserver et réaliser du covoiturage facilement.
En concertation avec la collectivité, les véhicules doivent rester dans une zone facile d’accès aux habitants (ayant demandé la reprise de leur véhicule) où il est possible idéalement d’être rechargé.
Évidemment, l’objectif est que cela concerne le grand nombre de personnes pour éviter que deux personnes aient besoin en même temps du dernier véhicule disponible sur des trajets différents.
La société de covoiturage reprend ce véhicule diesel de 2005. Le particulier perçoit une prime de 2500€ ( à ajuster en fonction du coût budgétaire) et paie mensuellement un loyer de leasing pour un véhicule électrique.
La société de covoiturage propose de manière simple et facile que ce véhicule soit partagé ce qui réduit d’autant le prix du leasing.
Les particuliers perçoivent une indemnité additionnelle en cas de covoiturage à l’image de l’indemnité vélo.
Pour info, les revenus tirés du covoiturage s’analysent en des bénéfices industriels et commerciaux, obligeant ainsi ceux qui les perçoivent à les déclarer sauf s’ils sont tirés de la « coconsommation. Lorsque des frais sont partagés, mais font par ailleurs l'objet d'une déduction du revenu imposable du contribuable pour leur montant réel, cette déduction ne peut être effectuée que pour le montant net des remboursements perçus. Il en est de même si le salarié perçoit des indemnités kilométriques de son entreprise et qu’il perçoit des revenus tirés du covoiturage.
Dans les zones où il y a une très faible concentration de véhicules partageables (ex : une habitation éloignée de plusieurs kms d’un centre-ville), il est possible d’imaginer la mise à disposition ou l’aide à l’achat de vélos, trottinettes électriques ou non et des « hubs de mobilité » avec une zone de covoiturage et des bornes de recharge pour les véhicules et ces autres moyens de mobilité (vélos électriques, trottinettes électriques) et des zones
Agglopolys, communauté d’agglomération de Blois encourageainsi les modes de déplacement doux en remboursant jusqu’à 400 € pour l’achat d’un vélo électrique dans la limite de 25% du prix d'achat.
Il y a sans doute des imprécisions, des points à modifier, néanmoins l’esprit de cet article est de trouver des solutions en passant en particulier de l’achat de véhicules polluants à l’usage de véhicules non polluants (en fonction du mode de production électrique …) et partagés afin de répondre aux problématiques des citoyens et écologiques.
D’autre part, ces solutions préfigurent la prochaine arrivée des véhicules autonomes qui ne seront dans l’immense majorité des cas pas des véhicules individuels.
Pour ceux qui sont intéressés, j’ai réalisé une étude sur le véhicule autonome, ses impacts dans notre société , le modèle économique des constructeurs, la disruption de nombreux secteurs …
Dimitri Carbonnelle - Contact
Fondateur de Livosphere
Conseil et Speaker en innovation, IoT, IA et Robots collaboratifs / Cobots
Participe au CES Las Vegas 2019 et réalise des debriefs sur les innovations présetes au CES
N.B.
L’augmentation des taxes sur les carburants prévue est de 6,5 centimes d’euro du gasoil et 2,9 centimes pour l’essence. Elle a été rejetée récemment par le Sénat (à majorité de LR) qui vote son gel néanmoins cette mesure devrait être finalement adoptée par l’Assemblée nationale (à majorité LREM) avec potentiellement un retour à une taxe flottante diminuant en cas de hausse du prix du pétrole
Bruno Lemaire a annoncé hier la possibilité de suramortir les robots à destination des PME.
Pas mal d’entreprises seraient tentées d’en acheter directement un et de le tester. C’est, selon moi, une énorme erreur (investissement > 30k€, perte de temps minimum de 6 mois, risque social et de POC, proof of concept non transformé…), même si c’est très tentant.
Voici mon retour d’expérience sur ce sujet sur base du projet de cobots, robots collaboratifs que je mets en place avec une entreprise très connue dans la mode.
En 6 mois, nous avons déployé un robot collaboratif pour tester l’usure de produits, le robot réalise des contrôles qu’un être humain ne pourrait faire (des dizaines de milliers de gestes répétés en une journée) et nous allons mettre en place un robot qui réduira les TMS (troubles musculo-squelettiques).
Tout d'abord, j'aborde plusieurs questions (liens directs) :
Pour y parvenir, j’ai proposé et nous avons suivi la démarche suivante (liens directs) :
Cela peut paraître facile au début d’utiliser un robot, en réalité c’est comme construire une maison, c’est une attention de tous les instants et une coopération réussie entre l’entreprise cliente, l’intégrateur et moi. J’ai un rôle d’architecte, de la construction des plans au suivi du chantier ;)
L’expérience que j’avais acquise chez General Electric notamment en Six Sigma et en Lean m’a été aussi bien utile car l'amélioration et simplification de processus doit précéder son automatisation. Il y a aussi de nombreux gains de productivité mais c’est une conséquence et non l’objectif de ce projet. Il est essentiel aussi d'associer très rapidement les salariés au projet pour montrer que les cobots sont complémentaires et non en remplacement de salariés.
Les premiers cobots sont en place aujourd'hui et nous allons poursuivre leur déploiement dans d’autres domaines en utilisant une approche similaire.
(Pour avoir des sensibilisations, formations même à distance générales ou liées à votre secteur, vous pouvez me contacter ici : contact@livosphere.com ou ici . Nous menons aussi des projets d'Usine 4.0, robots collaboratifs, AGV...
Au début, il peut y avoir de nombreuses raisons incitant à utiliser des robots, augmenter la qualité, la productivité, améliorer l’environnement de travail, réduire les temps de latence, réaliser des opérations impossibles à faire par un être humain ... Enfin, les robots permettent de réduire les tâches répétitives causant notamment des troubles musculo-squelettiques (TMS) ainsi que des accidents de travail.
Ces raisons peuvent d’ailleurs inciter à relocaliser des usines en France en particulier si elles sont éloignées à quelques dizaines de milliers de kilomètres.
Devialet a ainsi implanté une usine fortement robotisée en France (cf. article), cela lui permet de se rapprocher des lieux de consommation et d’être ainsi beaucoup plus réactif face aux demandes des clients en réduisant les coûts de transport (et donc l’impact écologique), de réaliser des opérations très difficiles à réaliser ou à reproduire par des êtres humains (par exemple le collage à l’identique de pièces d’une enceinte Devialet qui a un impact majeur sur la qualité du son) et enfin de réduire les fuites de technologies.
D'autre part, le coût de la main-d’œuvre devient une part de plus en plus réduite du coût total exploitation d’une usine, en raison de l’automatisation.
L'Etat, les régions et les collectivités ont un rôle majeur pour faciliter le développement de ces écosystèmes (favoriser la formation aux nouveaux métiers y compris aux personnes en poste, simplification administrative, développement de partenariats publics-privés, soutien/caution financière, accès facilité aux marchés publics, développement de pôle, filière territorial...). Les actions actuelles montrent qu'ils mettent de plus en plus en place cette stratégie industrielle.
Cela favorise la relocalisation des usines (ex: SpeedFactory d'Adidas relocalisée en Allemagne) à condition bien sûr d’avoir les compétences au sein d’un bassin d’emploi et un écosystème voire une filière de sous-traitants, partenaires… proches (ex : écosystème aéronautique à Toulouse, mécanique à Clermont-Ferrand…), des infrastructures de transports et de communication (en particulier fibre) adéquats.
Juste une précision, ce serait une erreur de croire qu’il faille robotiser à 100% une usine, car l’ennemi principal du robot est la variation et sa gestion alors que l’homme sait bien mieux les gérer. C’est la raison pour laquelle Elon Musk est revenu en arrière sur les usines produisant la Model 3 qui trouvait qu’un excès de robotisation ralentissait sa production.
L’expérience que j’ai aussi acquise à travers ce projet montre que cela peut être une véritable usine à gaz si nous avions décidé de robotiser certaines tâches alors qu’à priori elles nous paraissaient simples à automatiser. L’intelligence artificielle devrait au fur et à mesure permettre de réduire la complexité de programmation et le risque de créer une usine à gaz car elle saura de plus en plus gérer cette variation mais l'être humain restera supérieur aux robots pendant encore quelques décennies.
Notre objectif sur ce projet est que les cobots, « robots collaboratifs » s’intègrent dans le processus global de fabrication et de contrôle qualité en concertation avec les salariés. Le cobot est complémentaire et à aucun moment, il n’a vocation à remplacer des personnes.
Dès le départ, nous avons pris le parti d’opter pour des cobots et non des robots industriels. Au sens large et à la différence des robots industriels, les robots collaboratifs sont des robots qui sont simples à programmer, flexibles (ils peuvent facilement changer d’activité), évitent la mise en place d'enceintes sécurisées car le cobot est prévu pour agir à proximité d’êtres humains sans risques de les blesser.
Les coûts sont généralement nettement inférieurs (cela commence à plusieurs dizaines de k€ pour le cobot seul) néanmoins il faut ajouter les coûts de programmation, d’intégration, d’installation ainsi que l’analyse de risque et les allers-retours liés aux corrections de bugs et améliorations.
Cela implique certaines contraintes, en particulier en termes d’énergie cinétique( vitesse de déplacement * masse embarquée) des parties mobiles du robot beaucoup plus faibles (4 joules dans le cadre d’un mouvement sans recul ou 10 joules si le mouvement recule ou reste libre (ex : des portes d’ascenseur)). Toute installation de cobot nécessite aussi une analyse de risque (qui suit la Directive « Machines » 2006/42/CE) plus poussée qu’un robot industriel (qui est dans une cage !)
On pourrait croire que la meilleure solution au départ est d’acheter un cobot, de le tester et de voir ce qu’on peut en faire. Même si cela paraît séduisant, c’est, selon moi, une énorme erreur, car c’est la meilleure façon de planter son projet à moins d’avoir un financement pour des projets purement démonstratifs.
D’abord l’investissement au départ est de quelques dizaines de milliers d’euros, tant qu’à faire, ça vaut le coup que ça serve à quelque chose plutôt que le cobot rejoigne le cimetière des POC (proof of concept) sans lendemain.
D’autre part, il faut programmer le robot, même si pour un développeur c’est assez simple, il faut ajouter la dimension physique. La gravitation n’est pas juste un paramètre qui se modifie comme un code javascript. Enfin il faut intégrer et réaliser une analyse de risques (réglementée).
Or ces étapes sont difficiles à réaliser pour une entreprise qui n’a pas l’habitude de programmer des robots en milieu industriel.
C’est la raison pour laquelle nous avons travaillé avec un intégrateur. Il est plus facile et parfois moins coûteux d’acheter un robot via un intégrateur qui réalisera l’intégration plutôt que d’acheter un robot directement et demander à un intégrateur de réaliser l’intégration.
Ce serait ballot de se retrouver dans une impasse avec un cobot ! Enfin, concernant l’analyse de risque, il faut être capable d’identifier tous les risques potentiels. Pour une même énergie cinétique, l’impact d’une pomme projetée contre vous sera différent s’il y a un couteau à la place. Tout le temps que vous pensiez gagner, vous le perdez très rapidement par manque de préparation et d’anticipation.
L’intégration d’un robot suscite nécessairement des questions par les salariés voire des peurs très souvent injustifiées. Implanter un robot sans avoir une vision claire de qu’on veut en faire est souvent périlleux et risque de susciter une levée de boucliers.
A l’inverse, il est aussi essentiel de prévenir et d’expliquer l’arrivée d’un robot avant son installation pour éviter de les mettre devant le fait accompli (en particulier vis-à-vis de ceux qui seront directement impactés par les tâches robotisées).
Dans notre projet, nous avons communiquer sur le projet pourquoi nous souhaitions intégrer un cobot (réaliser des tests d'usure impossible à faire par un être humain) au préalable. D'autre part, de très nombreuses idées d’amélioration et de nouveaux usages sont venus des salariés car ils voient rapidement en quoi ils peuvent les aider, simplifier leur vie, améliorer la fabrication…
Plutôt que de décider directement les opérations à automatiser, j’ai visité l’usine et suivi in vivo les différentes étapes de fabrication du produit avec des opérationnels, les chefs d'ateliers, le directeur d'usine et les responsables du projet de robotisation.
J’ai ensuite cartographié sous forme de processus simples (illustration différente en raison de la confidentialité des informations) ces étapes puis je les ai intégrées dans un plan haut niveau de l’usine ce qui permet de visualiser les flux de produits et de matière.
Cette étape est essentielle non seulement pour choisir les opérations à robotiser mais aussi pour se familiariser et avoir une vision globale du processus de fabrication. De plus, on ajoutait les étapes qu’on aimerait faire mais qui ne sont pas réalisées aujourd’hui (ex : tests d’usure)
Pour chaque opération, nous faisons une première évaluation (sans détails inutiles) sur
Les opérations à robotiser en premier sont évidemment celles qui ont le plus d'impact positif (et le moins d'impacts négatifs) et les plus faciles à mettre en oeuvre.
Il existe de nombreux robots collaboratifs et de nombreux fabricants. J’ai d’abord réalisé un panorama des différents types de robots puis sélectionné quelques-uns qui paraissent les plus adaptés par rapport aux tâches que nous souhaitions automatiser.
Il y a trois types de fabricants des robots collaboratifs :
Les fabricants des robots industriels élargissant vers une gamme collaborative : Kuka, Fanuc, ABB sont quelques industriels connus sur ce sujet
Les nouveaux industriels spécialisés dans les robots collaboratifs, les plus connus sont Universal Robots (UR) et Rethink Robotics avec le robot Sawyer et Baxter.
Nous avons quelques startups françaises dans ce domaine MIP Robotics, IsyBot qui se développent bien.
Dans le choix du cobot, en plus de la facilité d’utilisation, programmation, des coûts … il y a des éléments techniques à regarder :
Ils ont un rôle crucial. Sur base de besoins spécifiques de l’entreprise, ils vont s’assurer de la pertinence du choix du robot sur le plan technique en fonction de l’opération à réaliser, programmer le robot, réaliser la pince préhensile, ajouter des accessoires au robot, construire des bancs de tests, créer une interface entre le robot et une tablette par exemple pour faciliter son utilisation, développer des rapports d’usage, développer une interface pour réaliser la maintenance à distance, installer et tester le robot en conditions réelles, réaliser l’analyse de risques …
L’analyse de risques est essentielle et obligatoire pour réduire tout risque d’accident et éviter tout litige si cela arrive. L’entreprise peut elle-même réaliser sa propre analyse de risque mais à moins d’avoir une flotte de robots sur lesquels on a l’habitude de le faire, c'est risqué. L’analyse de risque est certifiée par une entreprise comme Apava, Bureau Veritas, , Cetim Ineris … Cette partie est aussi directement intégrée par les intégrateurs.
Livosphere a un rôle d’architecte : partir des besoins et problématiques, dessiner les plans de la solution, identifier et sélectionner les partenaires et déployer la solution avec l'entreprise cliente.
En fonction de la taille de votre projet, il peut être intéressant de faire appel à un intégrateur et à Livosphere. Si on poursuit l’image, pour construire un mur, vous n’avez ni besoin d’un architecte ni d’un maçon. Pour une petite construction, vous aurez sans doute besoin d’un maçon mais pas nécessairement d’un architecte. Au-delà de 150 m2 (seuil de surface de plancher), vous devez nécessairement faire appel à un architecte pour construire une maison. En revanche, il n’y a pas d’obligation de faire appel à Livosphere ;)
Pour choisir le robot et l’intégrateur, j’ai réalisé un cahier des charges en coordination avec le client puis une consultation auprès d’un large panel de fabricants de robots et d’intégrateurs.
Autre intérêt de passer par Livosphere, garder la confidentialité de mon client auprès d’eux, ce qui peut faciliter les discussions et négociations.
Après en avoir sélectionné trois, j’ai eu de nombreux échanges avec eux en termes de robots, support, périmètre … Ils ont alors rencontré le client, visité le site, les étapes de fabrication afin de choisir ensemble les étapes qui pouvaient être robotisées facilement.
Ce point est essentiel car vu de haut, on pourrait croire que certaines opérations sont faciles à robotiser alors que pour de multiples raisons elles ne le sont pas. Les points de vue différents entre intégrateurs sont aussi extrêmement intéressants pour avancer dans notre démarche et évaluer les intégrateurs.
Chaque intégrateur a réalisé ses devis détaillés et nous les a transmis en respectant notre deadline ou pas…
Avant de travailler avec un intégrateur, la phase de discussion, et de négociation, le respect des délais et l’exhaustivité des réponses à nos questions sont cruciaux car ils illustrent en concentré ce qui va se passer après la signature. A ce titre, il y a deux caractéristiques essentielles auxquelles je prête particulièrement attention : le professionnalisme et l’agilité.
Livosphere est rémunéré par l’entreprise qui va utiliser les robots et ne perçoit aucune commission de l’intégrateur ou du fabricant de robots pour des raisons évidentes d’impartialité.
Cela évite d’être mis en porte-à-faux notamment lorsqu’on doit négocier des prix avec les partenaires ou pour choisir un partenaire de manière impartiale.
De manière globale, Livosphere a pour rôle de faire gagner du temps et de réduire les risques.
Il a en plus de son rôle d’expert dans le choix des robots et intégrateurs, le rôle de suivre le projet de bout en bout et est garant de la réussite du projet. Cela évite aussi à l’entreprise d’avoir une ressource dédiée au suivi du projet.
Évidemment, cela nécessite une confiance acquise dans mon cas par un premier projet et par un premier travail d’analyse sur la démarche, les opportunités et les risques de l’utilisation de cobots (je suis un des fondateurs de Syrobo , le syndicat de la robotique il y a quelques années avec Bruno Bonnell, Bruno Maisonnier et Catherine Simon) afin de montrer que Livosphere est à même de réaliser le projet de bout en bout.
C’est la partie qui paraît la plus simple et pourtant qui est la plus remplie de surprises, c’est un peu comme si vous deviez monter un col à vélo, vous voyez bien le sommet et lorsque vous vous lancez, le pneu crève, car il y a des clous sur la chaussée, un véhicule manque de vous écraser, la distance est plus longue que ce que vous avez prévu …
Dans notre cas, nous avons eu quelques frayeurs car des tests qui paraissaient simples au départ, se sont révélés nettement plus compliqués à résoudre en raison notamment des contraintes d’énergie cinétique maximum et donc de vitesse du robot et de masse emportée.
Au final, nous avions prévu deux tests avec un robot, nous avons su en faire trois. Un des deux tests semblait trop difficile à réaliser alors on a réfléchi à un plan B… et grâce à une coopération à trois et une forte inventivité de l’intégrateur (qui a su mobiliser ses équipes), nous avons obtenu les trois tests !
Il est évident que le fait d’avoir instauré un climat de confiance, de partenariat entre nous trois a donné envie à l’intégrateur de relever ces défis.
La partie développement et test doit être suivie de près car c’est à ce moment-là que tout peut déraper.
Après une partie en vase clos de développement par l’intégrateur viennent les premières vidéos des tests du robot.
Durant la phase de développement, des petites piqûres de rappel sont importantes pour s’assurer que tout se passe normalement, que le planning ne sera pas décalé, qu’il n’y a pas de gros bug ou de fonctionnalités qui ne seront pas délivrées.
Souvent, le client final n’a pas le temps de s’occuper de cela, et c’est une partie de ma valeur ajoutée : s’assurer à tout moment que « Everything is on track as we expected » et s’il y a un souci, trouver des solutions. Le risque sinon est l’effet tunnel, avec un intégrateur qui prend plus de temps, ou en perd en oartant dans une mauvaise direction.
Il y a un certain stress avant de voir les vidéos car c’est la première fois que se matérialise tout ce que l’on a conçu avant. Dans notre cas, nous avons été très agréablement surpris par les premières vidéos où le cobot a réalisé des tests. Mais après la première phase d’enthousiasme, où l’on voit que le cobot répond à plus de 90% de ce que nous voulons, on commence rapidement à décortiquer les vidéos et à vouloir approcher le plus possible du 100% !
Les ajustements et modifications sont très nombreux au début, les échanges permanents, avec des conférences calls hebdomadaires. Cette période est un moment test car obligatoirement il y a des différences entre les attentes très élevées de la part du client et la première version de tests du robot.
Dans notre cas, la personne en charge de la qualité nous a indiqué qu’il y avait des tests que nous faisions avec le robot qui étaient normés et qu’en conséquence, il fallait que le robot reproduise au plus près ces mêmes tests. C’est un point que nous n’avions pas anticipé au départ qui nous a créé deux, trois nœuds au cerveau car les tests normés utilisaient des robots industriels en cage qui avaient des vitesses et des charges maximales bien supérieures à ce qui est autorisé pour les robots collaboratifs.
Nous avons fait quelques allers-retours avec nos cours de lycée sur la chute des corps et la trigonométrie car l’énergie cinétique est dépendante de la masse et de la vitesse. La vitesse est-elle décomposée en une vitesse horizontale et verticale qui se mesure en multipliant la vitesse initiale avec respectivement le cosinus et le sinus de l’angle de la trajectoire avec le sol ;) En jouant avec la gravité (9,8m/s2 ! ), de l’ingéniosité et la persévérance, nous avons réussi à trouver la solution !
Durant cette étape, mon rôle est multiple,
L’installation d’un robot sur un site industriel est critique car il doit donner une première bonne impression directement aux salariés.
Cela signifie que son usage est clair et qu’il ne laisse aucune interprétation sur le fait qu’il n’a aucune vocation à remplacer qui que ce soit, il doit fonctionner correctement et être facile à utiliser.
Enfin, il doit y avoir un effet Waoouh, sinon les salariés se disent « Tout ça pour ça !». Avant l’installation, nous nous sommes déplacés sur le site de l’intégrateur pour voir le robot en action sur place. Nous avons bien fait car il restait encore des ajustements à faire avant sa mise en place.
Le jour J, nous avons mis en place le robot avec l’intégrateur. Comme je l’avais dit précédemment nous avons eu trois tests d’usure opérationnels au lieu des deux prévus initialement grâce à la persévérance et l’ingéniosité de l’intégrateur. La phase d’installation a été suivie par une phase de formation sur les fonctionnalités mais aussi sur les consignes de sécurité.
Durant l’été, le cobot a été déplacé dans un autre lieu où tous les principaux tests qualité sont concentrés.
L’analyse de risques est obligatoire à chaque nouvelle application faite par le robot, en revanche les applications très similaires peuvent reprendre une partie de l’analyse déjà menée. L’objectif est de s’assurer qu’il n’y a aucun risque pour le personnel. Cela va du marquage au sol de la zone d’emprise, de bouton d’arrêts d’urgence, analyse des trajectoires du robot pour vérifier qu’il n’y a pas de risque et formation des personnes qui manipulent le robot.
Elle peut sembler parfois fastidieuse mais elle évite que des accidents du travail se produisent et dans le cas où ils se produisent, d’être couvert par l’assurance.
La certification de l’analyse de risque est généralement réalisée par un organisme externe qui peut être l’intégrateur mais il est possible de le faire soi-même. En revanche, je conseille au début de le faire par l’intégrateur ou si vous avez acheté directement votre robot par un organisme de certification.
Comme pour chaque projet, il y a à la fois des bugs à résoudre et des évolutions, nous avons mis en place une remontée à deux niveaux, une première remontée des utilisateurs vers deux personnes spécifiques et formées à l’utilisation du cobot.
Ils réalisent les remontées après la qualification et priorisation vers l’intégrateur. Celui-ci a une interface où l’on peut suivre la résolution des bugs et le développement des évolutions.
Des conference call régulières permettent de garder le momentum de part et d’autre et de faire évoluer les solutions.
En parallèle, nous avons commencé avec l’intégrateur d’autres opérations qui permettent de réduire les TMS (troubles musculo-squelettiques). Un nouveau robot devrait arriver dans les prochains mois.
Dans mon cas, mon objectif n’est pas de rester éternellement sur ce projet mais que l’entreprise et l’intégrateur travaillent de plus en plus directement sans mon intermédiaire. Ainsi, créer une coopération puis une confiance entre deux entreprises, c’est ce qui m’a animé et me permet aujourd’hui de réduire mon rôle au fur et à mesure du temps pour commencer de nouveaux chantiers :)
J’espère que cet article vous a permis de mieux voir comment mettre en place des robots collaboratifs dans une entreprise. Je l'applique aussi sur tous mes projets de recherche et de déploiement d'innovations en l'adaptant. L'intérêt pour l'entreprise est de réduire au maximum les mauvaises surprises pour n'en avoir que des bonnes. L'objectif aussi de cette démarche est d'avoir un impact sur le long terme tout en ayant des bénéfices à court terme car elle est bâtie dès le départ sur les problématiques de l'entreprise.
Si vous avez des projets de cobots, mais aussi tout projet où vous recherchez des solutions innovantes avec des partenaires (IA,IoT, Blockchain, VR/AR…), n’hésitez pas à m’en faire part. Je serai ravi de vous aider. :)
Dimitri Carbonnelle
Agence conseil en Innovation - IoT, IA , Robots Collaboratifs - Contact
J'étais ravi d'animer un débat passionné et passionnant
à l'Université d’été du Medef avec de nombreux thèmes : l'ubérisation, les GAFA, RGPD et données personnelles, l'IA, les class action, l'impact des innovations technologiques sur les citoyens, l'emploi et un témoignage terrain pour les VTC et l'arrivée des véhicules autonomes.
For English Speakers - Google Translation
avec la participation de
Autant de questions et sujets qui sont abordés dans cette conférence.
On dit souvent que la loi est très à la traîne par rapport aux nouvelles technologies. Comment est-ce qu’on peut rendre celle-ci plus réactive, adaptée face aux bouleversements qu'elles apportent ? En réalité, est-ce une si mauvaise chose qu’elle soit à la traîne ?
Mme la Ministre, vous savez à quel point le choix des matériaux est essentiel.
Grains de sel, grain de sable, ou au contraire mettre de l’huile dans les rouages, ou être le ciment dans une société, l’Etat peut jouer de multiples rôles.
Face aux plateformes, qu’est-ce l’Etat fait et veut faire pour favoriser l’innovation, tout en protégeant les entreprises et les individus qui en ont besoin en France ? Mais aussi que l’Etat doit-il éviter de faire ?
Comment vous avez vécu l’arrivée d’Uber au début jusqu’à maintenant ? et que souhaitez vous pour y faire face à sa position actuelle?
Réponse de Delphine Gény-Stephann à Sayah Baaroun
Sayah, vous vivez au quotidien l’ubérisation à la tête du syndicat VTC mais aussi comme chauffeur VTC,
L’Ubérisation a certes permis au départ de démocratiser l’usage des VTC mais vous dénoncez leur position ultra-dominante qui paupérise les chauffeurs VTC et les empêche de vivre correctement de leur travail que
Denis, vous avez une viison globale sur l'ubérisation.
Comment selon vous faire face à cette ubérisation, à la mainmise des GAFA ? L’Etat doit-il être plus présent ou au contraire les agir ?
Odile, un de vos chevaux de bataille sont les actions citoyennes et comment réunis, ils peuvent agir et faire pression sur les GAFA à travers des class action.
Récemment d’ailleurs, l’Assemblée nationale a été dans ce sens en adoptant les actions de groupe ("class action") en réparation dans la loi dans le cadre du RGPD. Comment voulez-vous les utiliser pour faire plier les GAFA ?
Il n’y a pas que l’Etat qui peut agir. Avec la Loi de Metcalfe, ceux qui ont le plus de pouvoir sur les GAFAM, ce sont ses utilisateurs.
Est-ce le droit californien (indiqué souvent dans les CGU) ou le droit européen ?
Selon vous comment doit-on changer le droit pour que ce soit le droit où vit l’utilisateur qui s’impose et non de le droit de l’entreprise dont il utilise les services ?
Olivier, une des problématiques que vous soulevez est quel droit s’applique pour un utilisateur en Europe ?
Vous êtes donc plus Schopenhauer qui disait que notre vie oscillerait entre la douleur et l’ennui que Schumpeter (destruction créatrice) ? ;) (56:37)
Si nous regardons plus dans le futur, l’ubérisation pose un autre problème puisqu’il n’est pour vous, qu’un prélude, une 1ère marche vers un bouleversement bien plus majeur, le robotariat.
De telle sorte qu’un grand nombre d’entreprises vont mettre sur le carreau de très nombreux salariés, ce que vous nommez « disruption destructrice ». Pourriez-vous expliquer qu’est-ce le robotariat ? et pourquoi l'ubérisation y mène ?
Le transport est certainement parmi les premiers secteurs touchés avec les véhicules autonomes. Comment positionnez-vous les services fournis ces véhicules par rapport aux chauffeurs VTC ?
Pensez-vous qu’ils remplaceront ou qu’ils occuperont un marché différent de celui des chauffeurs VTC ?
Intelligence artificielle peut aussi servir à analyser les CGV.
Il faudra du temps avant de voir un véhicule autonome à la Place de l'étoile.
Il y a sans doute une complémentarité à trouver entre véhicule autonome et VTC (trajets non rentables/rentables)
Ne pourrait-on pas extraire du bien, du bien commun. des données collectées par les GAFA, plateformes ?
C’est votre position Odile, car ils collectent un nombre incalculable de données grâce à nous tous, mais aujourd’hui, ils sont peu nombreux à mettre leurs données au service de la transition énergétique.
Que devraient-ile partager et comment les inciter voire les obliger à le faire ?
Merci encore à tous les intervenants pour la participation à cette conférence qui permet à tous de confronter les idées de chacun sur des sujets qui vont profondément transformer notre société.
PS. Il y a eu un mini-débat sur le taux de pauvreté en Allemagne, d'où ce fact-checking. Il est de 16,7% en Allemagne en 2015 versus 13,6% en France en 2015 (Source: UE - Eurostat). Le seuil de pauvreté (après transferts sociaux) correspond à 60 % du revenu médian et le revenu médian en Allemagne est inférieur à celui de la France. Ainsi le seuil de pauvreté en Allemagne est de 1033€ par mois versus 1071€ par mois en France.
En revanche, comme le précise l'article des Echos, la pauvreté est répartie de manière plutôt uniforme dans la population en Allemagne alors qu'en France, elle se concentre beaucoup plus sur les jeunes (<18 ans, 20% sous le seuil en France Vs 14,6% en Allemagne) que sur les personnes de plus de 65 ans (7,9% sous le seuil en France Vs 16,5% en Allemagne) .
Viva Technology était foisonnant cette année, beaucoup plus international, avec une scène Stage X pour la DeepTech inspirée de Hello Tomorrow...
For English Speakers - Google Translation
Les points à améliorer : il faut savoir chercher pour trouver les startups en fonction de verticales métiers ou de secteurs. Si vous recherchez d'ailleurs des startups ou des innovations présentes à Viva Tech, CES Las Vegas ou MWC Barcelone dans vos métiers, n’hésitez pas à m’en faire part :)
Les mots-clés de cette édition sont :
Concernant les technologies, en plus de l’IA (plus tournée vers les besoins internes) et l'IoT, les startups se sont déchaînées sur … la blockchain, le jeu était de trouver le mot avant chain pour créer le nom de son entreprise. Son usage principal : la traçabilité des produits.
Les robots avec un usage industriel étaient à l’honneur (Vitirover notamment pour s’occuper de ses vignobles). La VR plus exactement la XR (eXtended Reality qui recouvre la Virtual Reality, Mixed Reality, Augmented Reality) faisait le bonheur des marques de cosmétiques avec leurs miroirs qui transformaient vos lèvres et cheveux en objets à colorier.
Des voix se sont aussi élevées car les startups se feraient phagocyter par les grands groupes. Pour ma part, je dirais que la plupart des grands groupes sont bien plus bienveillants qu’avant vis-à-vis des startups, qu'aujourd’hui les startups ne sont plus nées de la dernière pluie ,elles peuvent chacune y trouver leur compte dans cet événement avec les groupes qui les hébergent mais aussi ailleurs. Il suffit souvent de sortir de son stand et de parcourir quelques mètres !
En bref :
Avant de rentrer dans le détail de l'événement, Viva Tech a concentré en très peu de temps des personnalités souvent inaccessibles.
Cela lui donne des airs de mini-Davos compte tenu de la journée "Tech for Good" qu'Emmanuel Macron avait organisé pour réunir un grand nombre de "géants du numérique" à l'Elysée.
Avec le nombre de startups, on peut aussi le rapprocher du Web Summit (plus que du CES Las Vegas qui reste ancré sur le Consumer Electronics).
C'était aussi l'occasion pour Mounir Mahjoubi de présenter Kat Borlongan, la nouvelle directrice de la FrenchTech.
L’IA était encore à l’honneur cette année parmi les startups même si cela s’assagit un peu après le « AI Washing » de l’année dernière. Cette année c'est la vague de Chain Washing.
Microsoft présentait les startups utilisant ses briques d’IA en détaillant le type d’IA utilisée (normal !). C’est plus crédible que d’avoir .AI comme extension de nom de domaine.
Ils ont aussi mis l'accent sur l'accessibilité avec AI Accessibility afin d’aider les personnes en situation de handicap.
En plus des solutions connues dans le domaine de l’analyse d'image (Heuritech…), des vidéos (Angus.AI), pour augmenter le taux de transformation (AB Tasty,..), et de la création de chatbots (Smartly.AI), l’IA est mis en avant pour les besoins internes de l’entreprise.
Quelques exemples sont l'analyse des contrats (CaseLaw Analytics, Hyperlex) et des processus industriels (Fieldbox.AI) mais aussi métiers (Makigami, Sagacify, Prevision.Io).
Un grand nombre de startups à VivaTech qui se prévalaient de faire de l'IA font juste de l’analyse de données avec de l’IA saupoudrée à droite et à gauche (ou pas du tout !), Deux/trois questions suffisaient pour s'assurer que l'IA boîte noire l'est autant pour eux que pour nous ! Néanmoins c’est la première étape avant une utilisation poussée de l’IA.
L’IA était bien sûr au cœur des discussions de Stage X qui reprenait des thèmes DeepTech chers à Hello Tomorrow avec des débats sur l’arrivée ou non de l’IA forte entre Luc Julia de Samsung et Bruno Maisonnier à la tête d’AnotherBrain.
Si d'ailleurs vous avez des startups DeepTech à me recommander, contactez- moi car en tant que Hello Tomorrow Curator, je recherche les startups intéressées par le Hello Tomorrow Challenge (100k€ pour le premier prix).
La réalité mixte (Intégration de réalité virtuelle sur des objets réels) était particulièrement prisée des entreprises de cosmétique comme Guerlain ou L'Oréal.
Comme j’en parle dans mon article sur la disruption du retail, l’objectif est que le client / la cliente voit quel sera l’effet des produits avant leur application ce qui réduit les risques de se tromper ! Aussi, il y a un jeu à tester des combinaisons improbables ;)
Les robots ont des applications de plus en plus B2B : la logistique (Unsupervised.AI), les zones difficiles ou dangereuses d’accès (Rovenso), l'agriculture (Vitrirover, Robot pour désherber les vignobles).
Associé avec des capteurs connectés, Vitirover permet en plus de réaliser une cartographie précise des maladies, pucerons, températures, et pour Rovenso de la radioactivité …
Ergo Santé présentait aussi son exosquelette, mais cela me semble encore tôt pour un déploiement massif…
Les drones autonomes étaient la coqueluche du CES Las Vegas 2018 (cf. article). Ils étaient moins nombreux à Viva Tech, néanmoins Airbus et Audi se sont associés pour présenter un drone commun.
Est-ce à dire que les industries aéronautiques et automobiles vont unir leurs forces comme à leurs débuts (ex: Rolls Royce, Saab) ? Sans doute, est ce un peu tôt pour le dire mais l'industrialisation de grandes séries et la maîtrise du vol ne sont sans doute pas étrangères à ses associations.
La date d'application de RGPD ou GDPR était par une étrange coïncidence au beau milieu de VivaTech (27 mai) ce qui en a fait le buzzword en concurrence avec TechForGood.
C’est d’ailleurs presque au pied levé que Isabelle Falque-Perrotin a été invité à venir pour un FireSide sur le RGPD.
Le RGPD montre à la fois l’influence du marché européen et donc par ricochet de ses principes
Néanmoins l’application de ses principes peut favoriser des acteurs extra-européens, GAFA au détriment de plus petites entreprises dépendantes de celles-ci (ex : Criteo ou des entreprises dépendant de Google, Amazon, Facebook, Apple).
Le RGPD donne aux citoyens européens un droit nettement supérieur sur leurs données qu’auparavant ce qui répond à des valeurs ancrées dans l’histoire de l’Europe face à la violence à laquelle nous avons été frappés par les dérives d’un fichage systématique.
Facebook a choisi de l’étendre au monde entier (GDPR like), après avoir déclaré au départ que ce serait réservé à l’Europe. Ne doutons pas de l’éthique de Mark mais je pense que son département juridique a dû aussi lui indiquer que cela aurait été un cauchemar de ne l’appliquer à l’Europe … Imaginez que vous ayez des amis Facebook à l’extérieur de l’UE, comment les données, relations, photos, likes… sont traitées …
La Californie a d'ailleurs récemment fait passé une loi reprenant certains principes du RGPD (sans aller aussi loin - cf. Article NY Times) applicable à toutes les entreprises résidant dans l'Etat et ainsi la Silicon Valley ;)
Snips, à raison, a fêté l’événement lors d’une Private Party mené tambour battant par Rand Hindi et Yann Lechelle car il y a une vraie problématique concernant les enceintes intelligentes (cf. article) qui uploadent de très nombreuses conversations pas toujours avec le consentement éclairé de leurs utilisateurs … que Snips résout en embarquant en local l’analyse et compréhension de la voix (Speech to text et NLP).
RGPD a aussi des implications inattendues sur la blockchain. La DG Trésor avait d’ailleurs bien anticipé ces problématiques en lançant une consultation sur la régulation de la blockchain avec un focus sur le RGPD.
Côté face : La blockchain permet d’assurer la transparence (et l’inviolabilité) des données personnelles (art. 12) en permettant de tracer tous ses traitements.
La blockchain permet de certifier du consentement de la personne (art 7)
Le « Privacy by design » (art 25 - Protection des données dès la conception et protection des données par défaut) est directement intégré dans la blockchain car les données sont chiffrées et hashées.
Côté pile :
La possibilité de rectification (art 16) ou d’effacement de données, la durée de conservation et durée n’excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées (art 17) est impossible par définition pour la blockchain …
Au sujet de la désignation du responsable de traitement (art 24 du RGPD) et d’un délégué à la protection des données (art 37), pour la blockchain privée, cela n’est pas gênant (la plupart des cas B2B hors crypto-monnaies) car il y a une entité qui assure sa responsabilité en revanche il en est tout autrement pour la blockchain publique où la responsabilité est difficilement applicable aux mineurs (qui fournisse la puissance de traitement).
La protection suffisante en cas de transfert hors UE ((art 44 et suivants ) est difficile à garantir dans le cas d’une blockchain publique où l’information peut être disséminée mondialement.
Conclusion : …
La blockchain est compatible avec le RGPD si elle est soit privée soit ne contient aucune information personnelle (!) directe ou reconstituable (ex : hash d’une identité). La seule solution aujourd’hui est que les informations personnelles soient sur une plateforme qui respectent le RGPD (potentiellement décentralisée si elle respecte le RGPD). Il serait imaginable que la CNIL sous réserve d’un hashage et d’un cryptage suffisant des données personnelles dans une blockchain pourrait accepter que celles-ci ne soient pas des données personnelles.
L’effacement des clés privées reconstituant les données personnelles de la blockchain seraient considérées comme équivalentes à un effacement. Si un petit malin met en place plus tard un système de décryptage grâce à l’informatique quantique, il y a un risque mais je pense qu’on aura d’autres soucis bien plus importants à se faire ...C’est toute la sécurisation des données qui seraient bouleversées avec l'informatique quantique puisque le cryptage de nos données est fondée sur pour résoudre la factorisation d’un entier qui se réalise en un temps exponentiel (problème NP-Complet - cf. article sur la blockchain ) et potentiellement résolu en un temps polynomial avec l'informatique quantique.
Dernier point, le règlement e-Privacy de l’UE risque de poser des problèmes bien plus considérables à la blockchain et sur bien d’autres plateformes car elles concernent toutes les données non personnelles … Good Luck !
Il y avait une pléthore de startups qui se prévalaient des solutions fondées sur la Blockchain : leur signe de reconnaissance : elles terminent par … chain : Vechain, Scorechain, Sunchain.
La Blockchain permet de décentraliser la confiance (et les données ;) au lieu qu'elle soit concentrée par un seul acteur (modulo RGPD cité ci-dessus).
La différence par rapport à une plateforme centralisée est que les données n’appartiennent pas à une entité (qui peut ne pas exister ou en qui on n’a pas confiance) mais sont partagées par l’ensemble des acteurs (qui n’ont pas nécessairement confiance en les autres).
Attention, souvent on utilise une blockchain en conjonction avec une plateforme centralisée ou décentralisée. La blockchain ne conserve dans ce cas que les hashs des données sur la plateforme ce qui garantit son intégrité mais pas sa sécurité.
Il y a parfois une confusion entre ubérisation et blockchain faite notamment par Raphaël Enthoven dans une émission sur Europe 1, le Fin mot de l'Info que je me permets gentiment de tacler par le texte suivant ;)
Il y a peu de temps, j'ai participé à une conférence de Raphaël Enthoven à la Fondation Jean Jaurès. Face au feu d'artifice intellectuel, je tentais de capter désespérément chaque éclat, alors que le précédent m'échappait déjà. Etre sur le qui-vive ne suffit pas !
Ubériser ne supprime pas les couches intermédiaires mais au contraire les crée (certes plus efficacement qu’avant) entre des individus ou des entreprises, les uns cherchant des services et les autres les fournissant (hébergement, trajets véhiculés…).
Ubériser consiste à créer une plateforme pour les mettre en relation très facilement tout en ne possédant pas d’infrastructure en propre (chambre, véhicule …).
Si un doigt pointait la lune et que je regardais le doigt
Mon fin mot de la philo serait « Banalisez pour mieux vous camoufler »
Mais je préfère regarder la lune et mon fin mot de la philo sera donc « Banalisez pour que l’inaccessible soit à portée de main. »
Revenons toutefois sur votre contresens. Vous sous-estimez Luther car il avait une vision bien plus puissante que l'ubérisation, mot vieillissant à la vitesse d'un mauvais rosé.
Pourtant, du haut de mes quatre consonnes et trois voyelles, je choisis, Raphaël de ne pas succomber à votre ensorcellement, quitte à devenir l'avocat du diable,
Mais ne serais-je pas aussi un peu le vôtre car vous vous cachez dans les détails. Illustration ...
Quand vous dites, je cite "Luther, le père du protestantisme n'a pas besoin d'être éclairé par tous ces intermédiaires que sont les Pères de l'Eglise, on assiste à de l'ubérisation théologique... ", vous vous fourvoyez, Professeur.
Ubériser la philosophie reviendrait par exemple à créer un intermédiaire facilitant l'accès de tous aux pensées des philosophes et écrivains en tissant un lien entre elles et des faits d'actualité afin qu’elles soient compréhensibles par le plus grand nombre.
Mais, n'est-ce pas ce que vous faites, n'ubérisez-vous pas la philosophie (en y apportant votre propre matière première bien sûr !)
En banalisant le mot ubérisation, ne légitimez-vous pas votre propre action d'ubérisateur
Il a initié une révolution au départ religieuse qui se propage 500 ans après … la Blockchain. Elle a le pouvoir de dissoudre les corps intermédiaires en étant partagée par tous. Je vous propose donc de troquer votre mot Ubérisation pour Blockchain.
Si Dieu était une blockchain, nous aurions tous une part de lui en nous et il n'existerait parmi les humains que par la communauté qui l'anime / la mine ;)
Revenons à nos chaînons ...
La blockchain permet la traçabilité de toute transaction (immobilier, sharing economy, prestation commerciale, logistique ... ), information personnelle (parcours professionnel et de formation, santé...)...
GS1, un organisme mondial qui normalise notamment les codes-barres a lancé une blockchain (en démo) qui permettra à ses entreprises adhérentes de tracer leurs produits à travers son projet ScaleChain.
Les premières entreprises « blockchainisées » sont ironiquement les premiers "uberisateurs" comme Uber, Airbnb mais aussi BlablaCar et dans un second temps les GAFA. Potentiellement, on peut voir apparaître l’émergence de blockchains massivement utilisées à l’image du nombre d’utilisateurs de plateformes comme Facebook sur des thématiques telles que le partage d’appartements (concurrent d’AirBnB), de véhicules (concurrent de BlaBlacar) (cf. article sur mes prédictions de l'année).
Autre exemple d’utilisation, nous pourrions accorder des bonus/malus en fonction de la pollution ou des émissions de carbone (pour le calcul de la taxe carbone) tracées par des capteurs certifiées par la blockchain (intégrité et données transmises – cf article), ou pour suivre le respect des obligations.
La Blockchain permet de s’assurer de l’intégrité des données sans les révéler, en les gardant anonymes par leur hashage.
Cela prendra un peu de temps avant que la blockchain ne se généralise et que les acteurs comprennent les cas d’usages et déploient des solutions l’utilisant. Sur un continent comme l’Afrique, la blockchain sera un vaste terrain d’expérimentation.
Il y a notamment des projets facilitant les transactions d'énergie (comme Ubuntu Energy Leader) ou de biens alors qu’il n’y a pas toujours de titres de propriété. La propriété pourrait être « certifiée » par les habitants d’un même village par exemple tous adhérents à une blockchain. Si la communauté est suffisamment importante, pourquoi ne pas imaginer que l’Etat accepte cette blockchain comme preuve de propriété à défaut de ne rien avoir et surtout de ne pas percevoir de taxes à chaque transaction.
La ruée vers l’Afrique s’est accélérée cette année en raison à la fois du formidable potentiel économique de la région.
L'Afrique est un « Greenfield », champ sans infrastructure initiale ce qui permet de construire sans avoir à intégrer un historique.
En plus de startups africaines disséminées dans le hall, un certain nombre d’entre elles étaient concentrées autour de l’AFD (Agence Française de Développement) et quelques acteurs bien impliqués en Afrique : Total, Vinci, Sanofi ;)
Le développement de startups locales est crucial pour le développement du pays lui-même car à l’image de la FrenchTech, cela crée une dynamique vertueuse et celles-ci ont une bien meilleure connaissance terrain que les entreprises occidentales. Leurs solutions sont pragmatiques et tiennent compte des ressources et contraintes actuelles.
L’Europe a appris de sa période colonisatrice alors que la Chine et les Etats-Unis n’ont jamais connu de période de décolonisation. Elle a de vraies cartes à jouer avec une approche « Teach to fish rather than give the fish ». Les entreprises américaines et chinoises sont plus friandes du « Sell their fish and get the money », « Take the Fish for yourself » !
La logistique est un point d’achoppement majeur en Afrique (à l’image de la distribution commerciale en Inde !). Plutôt que de recréer une logistique complète, les startups comme Keyopstech s’appuient sur le réseau de personnes pouvant délivrer en Afrique. (30% du continent africain sont des « zones blanches » de livraison).
Délivrer un paquet pour une famille alors qu’il n’y a pas d’adresse précise dans un village est une gageure pour un logisticien classique beaucoup moins pour des livreurs ayant une connaissance locale. Ce serait d’ailleurs un très bon cas d’usage pour la blockchain pour suivre l’ensemble des échanges et livraisons locales.
Enfin, iCivil Africa (Burkina Faso) s’attaque à un autre problème majeur : 50% des naissances ne sont pas déclarées en Afrique Subsaharienne (cf. Panel ci dessous).
Africa … Tech … for Good, le lien est tout trouvé entre les deux.
Lono (Côte d’Ivoire) a développé des unités de biogaz sur base de déchets agricoles.
MyJouleBox (startup française) fournit elle une batterie solaire à base de cellules photovoltaïques pour €1 par mois en Afrique.
J’ai animé à Viva Tech un panel sur Tech for Good à Viva Tech. Pour reprendre mon introduction et mes questions lors du panel :
Tech for Good, tout le monde parle de Tech for Good, Emmanuel Macron (CEO France ;), Mark Zuckerberg (CEO de quoi encore ?), Satya Nadella (CEO Microsoft), Eric Schmidt (CEO Google). La vraie question est pour le bien de qui ?
Est-ce pour quelques-uns, pour le plus grand nombre, pour ceux qui ont le plus besoin ? Est-ce que cela atténuera les inégalités ou les renforcera ? Est-ce que cela nous libérera ou nous rendra plus dépendants d’elle ? Est-ce que l’intelligence artificielle, les robots sont des menaces qu’il faut éviter ou des opportunités qu’il faut saisir ?
La technologie n’est ni bonne ni mauvaise, la différence entre aujourd’hui et avant et que nous avons une incroyable baguette magique entre les mains et que comme apprenti sorcier nous devons apprendre à bien l’utiliser. Évidemment, si on joue trop à Voldemort avec, un jour ou l’autre, soit on finit mal soit comme Harry Potter on casse la baguette.de peur de ce qu’il peut arriver avec.
Pourtant, face aux enjeux climatiques, aux inégalités sociales, à la pollution, au vieillissement de la population et de sa taille. Nous avons besoin de cette baguette. Que faire alors ? Rien de tel que l’exemple en montrant en quoi la technologie peut réellement nous aider et c’est ce que nous avons montré aujourd’hui à travers 4 startups Bayes Impact, Simplon, Ticket for Change et iCivil.
Il y a en France 3 millions de chômeurs, de l’autre près de 300 000 emplois non pourvus dont 70% seraient pour des raisons de manque de compétence.
Sur cette base, Paul Duan, fondateur de l'ONG, Bayes Impact a travaillé avec Pôle Emploi avec son initiative Bob Emploi pour utiliser leurs données anonymisées avec ses algorithmes afin de fluidifier la recherche d'emploi.
Il parle de ses derniers résultats ici dans La Tribune.
Simplon s’est attaqué à l’emploi sous un autre angle celui de la formation.
En un an, plus de 95% des chômeurs longue durée, des réfugiés, des personnes sans diplômes qui passent par Simplon trouvent un emploi alors qu'ils sont situés souvent dans des
zones difficiles ou rurales grâce à des formations de codage alors que tant d'acteurs publics se cassent les dents sur ce problème. Simplon est financé par 30% de ressources publiques (en réalité
plus me précisait Mounir Majhoubi car les formations sont financées par Pôle Emploi ;)
On parle aussi du manque cruel de femmes dans la Tech.
Simplon a 38 % de femmes dans ses promotions ( l’Ecole 42 qu'a fondé Xavier Niel peine à dépasser les 8%) en instaurant en sas de 6 semaines pour éviter
l’auto-censure et faciliter les échanges entre pairs sans regard extérieur.
J’ai eu un rapide échange avec Xavier Niel à Station F à ce sujet la semaine dernière qui m’a indiqué que dans ses autres initiatives (formations au digital et fondatrices de startups à Station F), il arrivait à 30% / 40% de femmes mais qu’il avait beaucoup de mal à avoir des femmes à écrire du code brut (cœur d’activité de l’Ecole 42). Est-ce qu’une approche low-coding ou l’utilisation de l’IA pour coder en dur aiderait ou le événement de startups fondées par des femmes ? A suivre …
Trouvez un emploi, certes mais lui donner un sens, un sens solidaire c’est la mission que s’est fixé TicketforChange illustré par un très bel exemple avec l’application Yuka.
Vous avez vu pulluler les NutriScore à la télé, sur vos produits, vous savez désormais si vous mangez vert, jaune ou rouge. En un coup d'oeil, vous saurez la qualité nutritive du produit mais rapidement vous voudrez en savoir plus : y a-t-il trop de graisses, de sucres, des allergènes, des additifs à éviter ? Aujourd'hui, vous n'en saurez pas plus ...
Mais d'où vient Yuka ?
Heureusement, il y a Ticket for Change ! Il transmute les "y'a qu'à" en Yuka ;)
Après la formation Parcours Entrepreneur de Ticket for Change en 2016, Julie Chapon et François Simon
ont fondé Yuka qui donne aujourd'hui à plus de 2 millions de personnes toutes les informations nécessaires pour prendre leur alimentation et donc leur santé en main.
Heureusement, il y a Yuka ! Vous scannez le code-barre de votre produit avec le smartphone et savez en quoi il est bon ou mauvais, s'il intègre des additifs cancérigènes et même quels produits équivalents sont mieux notés que lui. Je l'ai testé et mon ex-marque de yaourts préférée est passée à la trappe pour une nouvelle bien meilleure après avoir scanné celles présentes en rayon !
Ca va chauffer dans les rayons ... avec de belles opportunités pour les entreprises qui se soucient de la bonne alimentation de leurs clients :)
Et des Yuka, il y en a déjà 1300 en puissance, 1300 personnes qui ont créé leur entreprise avec un impact social positif grâce à Ticket for Change . Si vous n'avez pas l'âme d'entrepreneur, que vous fassiez partie d'un grand groupe ou d'une PME vous pouvez aussi avoir un impact social et apporter un nouveau sens à votre vie professionnelle en offrant par exemple du mécénat de compétences vers les entrepreneurs sociaux (cf. nouvelles Entreprises Solidaires d'Utilité Sociale (ESUS)).
Mais tout cela est vain, si nous n’existons pas, si nous n’existons pas légalement.
Cela peut nous paraître tellement facile dans nos contrées mais quand il faut faire des dizaines de kilomètres à pied ou à vélo sur des routes souvent impraticables sous une pluie torrentielle ou le cagnard pour déclarer la naissance de son enfant sur des formulaires alors qu’on ne sait ni lire ni écrire, ça devient un vrai chemin de croix que d’exister légalement et d’avoir accès aux soins, à l’emploi, à la nationalité…
iCivil Africa a mis en place une solution en association avec ProofTag, une entreprise française située à Montauban (identifiant unique utilisant les codes à bulles). Les enfants sont déclarés dès leur naissance dans le centre de soins où ils sont nés même si les parents sont analphabètes grâce à la sage femme pour qu’en Afrique, être humain soit synonyme de citoyen.
iCivil Africa a déjà permis à 2900 enfants d'avoir une existence légale dès leur naissance au Burkina Faso,
"Le sommet de la reconnaissance c'est l'indifférence à ce que nous sommes."
Il y avait beaucoup de startups et de projets pour faciliter la vie de ceux qui ont un handicap et alléger son poids.
Comme le met en exergue Raphaël Enthoven dans une de ces chroniques le Fin Mot de l'Info « le sommet de la reconnaissance c'est l'indifférence à ce que nous sommes » faisant référence à Galia Wolloch, présidente de l'organisation de défense des droits des femmes Naamat qui félicitait le général de division Sharon Afek pour sa promotion. (1ere nomination d’un général gay israëlien) en précisant « J'aimerais que nous arrivions au jour où une telle nouvelle ne serait plus une nouvelle . »
Le droit à l’indifférence vis-à-vis de son handicap (le handicap ne devient plus discriminatoire en termes d’emploi, d’accès au logement … ) est un enjeu majeur dans l’utilisation des technologies face au handicap. L’objectif serait qu’une personne handicapée puisse avoir des capacités analogues à n’importe qui avec un minimum de contraintes additionnelles à un coût acceptable (si elle le souhaite évidemment.)
Pour les déficients visuels et malvoyants, Virtuoz créé par Feelobject leur permet de se repérer dans un espace public comme un musée grâce à une carte imprimée en 3D.
Une fois posée sur un petit appareil, la carte est identifiée et permet de savoir l'emplacement des accès, boutique, toilettes via les écouteurs. En appuyant sur chaque icône, l'appareil donne un descriptif sonore.
Microsoft Seeing AI permet de transformer toute image avec son smartphone en une description auditive, reconnaître les visages (identifiés auparavant avec leur consentement), de lire le texte (documents, carte de visite, panneaux), reconnaître les billets, les produits à partir du code-barre vu par la caméra ou les descriptions de scènes.
Project Ray propose initialement un smartphone destiné aux personnes malvoyantes et développé une application qui simplifie l'accès aux fonctions du smartphone, ils utilisent aussi deux stickers sous forme de bouton NFC pour faciliter la navigation.
Google a sorti dernièrement Google Lens avec des applications similaires.
Pour les malentendants Roger Voice sous-titre les appels et donc réalise du speech to text en bilatéral (sans que son interlocuteur n'ait à télécharger une application quand il reçoit un coup de fil d'un malentendant).
Helpicto lui est dédié aux personnes ayant un trouble du langage lié à des pathologies de type autisme, dysphasie, ou encore Alzheimer et utilise l’IA pour faciliter la communication avec l’entourage.
Nous en sommes encore loin, mais l’homme et la femme augmentées commenceront par aider les personnes ayant un handicap à avoir des aptitudes similaires à ceux qui n'ont pas d'handicap..
Se pose la question de savoir s’il faut limiter ou non la capacité de ces augmentations.
Plusieurs exemples, ne pas avoir d'avant-bras et avoir une prothèse qui décuple la force de ses bras et les rendre modulaires (perçeuse, tronçonneuse, arme ce qui m'évoque un personnage de dessin animé … Cobra) , être non voyant et voir en UV et infrarouge (cf. L'homme qui valait trois milliards ...), avoir Alzeihmer et avoir une mémoire bien supérieure au commun des mortels, est-ce souhaitable, à éviter ou à interdire ?
Dans le cas où il n’y a pas d’interface entre l’intérieur du corps (ex : un nerf) et cette prothèse externe, la question ne se pose pas, car cette prothèse peut être considérée comme n’importe quel outil et peut pour la plupart être utilisée par des personnes valides.
C’est le cas de David Aguilar qui a crée sa prothèse en Légo (cf vidéo). Il me disait qu’il n’avait pas envie de la brancher à son cerveau directement car il craignait de se faire hacker.
Le cas du médicament « robot » qui s’avale et se rejette via les voies naturelles rentre selon moi dans le périmètre du médicament ou de la drogue (s’il a un des impacts délétères sévères sur le corps humain, il est préférable de les interdire !.) Un exemple e-Celsius de BodyCap qui donne la température interne corporelle utile pour le suivi des opérations chirurgicales.
S’il y a une interface entre l’intérieur et l’extérieur (entre un nerf et un capteur électronique par exemple) nécessitant une altération pérenne du corps humain (ex : via une intervention chirurgicale), c’est plus compliqué …
D’un côté, on pourrait dire que ce serait qu’un juste retour des choses que les personnes handicapées puissent à leur tour largement dépasser les capacités des personnes valides. De l’autre, c’est prendre le risque d’inciter chacun à potentiellement se mutiler pour bénéficier de cet avantage. Dans le BTP, une personne ayant perdu son bras pourrait être bien plus efficace qu’une personne valide dans quelques décennies.
Que ferait une personne valide qui a un travail manuel dans le BTP toute sa vie et veux y poursuivre sa carrière ?
A priori, je pencherai pour que dans le cas d’une « prothèse » qui nécessite une altération pérenne du corps humain, on ne puisse pas dépasser les limités humaines. (cf article, j'avais une position encore plus tranchée d'interdire l'intégration de puces dans le corps humain hors cas médicaux et sans augmentation, mais ça semble illusoire vu le développement certes encore marginal d'Implant Party où pour 21€, on peut se faire implanter une puce NFC ! )
Mais est-ce réaliste ? Peut-on brider les capacités de ces prothèses et qu’est ce qui définit les limites des capacités humaines ? Est-ce une moyenne, médiane, le Top 10%, le maximum possible ?
Dernier point, comment éviter le hacking électronique en particulier si cela touche le cerveau ?
A ce stade, il est très difficile d’avoir une position figée car certainement notre société va évoluer et accepter ce qui semblait inacceptable auparavant mais potentiellement l’inverse aussi.
En revanche, je suis contre la position de Moran Cerf qui incite à cette augmentation humaine en se fondant sur la plasticité du cerveaux qui permettrait d'atteindre les rêves ... et cauchemars les plus fous (cf article sur USI - Future professionnel Humanity). Il parle notamment de la capacité du cerveau à intégrer des ailes pour voler.. ce qui sur le plan physique et sans assistance d'un moteur est absurde compte tenu des muscles nécessaires pour décoller ...
J’ai vu beaucoup d’autres innovations intéressantes dont Jarriquez qui est un Lidar mobile et permet de cartographier quel que soit la luminosité avec une précision de 2, 3 cm sur 60m.
J’ai aperçu rapidement quelques personnalités du Ministère des Armées intéressées par cette innovation
Golbriak Space lui permet grâce à des micro-satellites de communiquer par voie optique en peer-to-peer et de gagner un temps précieux pour les communications entre deux parties très éloignées ou n’ayant pas accès à un réseau télécom terrestre.
Living Pack est une innovation d’usage et de modèle économique en proposant aux voyageurs entre deux gares de transporter des sacs certifiés par les douanes de recevoir 10 euros à chaque trajet.
Pour éviter le transport de matières interdites, vous voyez ce que vous transportez, le sac est géolocalisé et les coordonnées de l’envoyeur (qui paye 18€ pour une livraison dans les 3h), destinataire et transporteur. Vous pouvez même investir dans un sac (80€) à chaque voyage, vous gagnez 2€ !
C’est de l’investissement direct dans la sharing economy ;)
Une startup dans le domaine des transports pour les matheux : dY/dX (formule de la dérivée pour calculer la vitesse ;) en espérant que leur dY/dX2 ne tombe pas à zéro (l'accélération) !
Petite digression, un des retours négatifs de Viva Technology est le startup washing de certains grands groupes au détriment de startups.
Oui bien sûr il y a des start-up washing comme il y a eu du greenwashing du AI washing et aujourd’hui du blockchainwashing. Il vaut mieux du start-up washing que pas de startup du tout et c'est souvent la première phase d'une intégration plus importante comme on le voit dans le domaine du green et plus récemment de l'AI.
Il ne faut pas oublier que les grands groupes n'ont pas une vocation philanthropique, et que ce tremplin médiatique pour les start-ups fait place au fur et à mesure à une sélection beaucoup plus rigoureuse en choisissant des startups ayant en une vraie valeur pour les entreprises. A l’image de l’explosion cambrienne des espèces animales, il y a 530 million d’années, après une phase de pullulement, il va y avoir une sélection croissante des startups les plus aptes à prospérer ce qui leur permettra de les transformer en scale-up.
Il est beaucoup plus facile de créer sa start-up qu'avant. Si on est dans un domaine un peu « trendy », ce n'est pas trop compliqué d’avoir du « buzz ». En revanche, c'est nettement plus compliqué de réaliser des partenariats commerciaux pérennes avec des entreprises. La marche pour créer son entreprise est plus basse, ce qui fait mécaniquement que la marche suivante est plus haute pour avoir un modèle économique pérenne toutes choses égales par ailleurs.
Alors certes les startups ne vont pas avoir le tapis rouge devant elles, mais si elles ont la niaque, qu’elles vont à la rencontre de leurs clients potentiels, écouter et chercher à leur apporter une vraie valeur, elles auront plus de chances de réussir que si elles restent planqués sur leur 2 x 2 m.
Evidemment, si vous imitez ce jeune startupper (2mn33) face au micro de Guillaume Meurisse (qui a fait un spécial Viva Tech !!) croyant que le pitch est à l'image de la fameuse Brioche Pasquier doit être fourrée de termes indigestes, il y a de fortes chances que vous vous preniez rapidement une tôle, voire y finissiez car ça frise la pub mensongère.
A force de jouer du pipeau, on risque d’être mis au violon ;)
Lorenzo Croati s'en sort beaucoup mieux à cet exercice :)
Pour finir, plutôt que de résumer ce que j'ai dit avant, je vous propose un moment rock à la fin de Viva Tech avec le groupe Alb qui a l'art de combiner le rythme à la vidéo ... Je vous laisse découvrir !
Et un petit baby foot .. enfin petit ...
Merci aussi à Hugo Artman qui est stagiaire chez Livosphere, m'a accompagné à Viva Tech et travaille avec moi sur de nombreux projets :)
Si vous souhaitez avoir plus d'informations sur des startups, découvrir les autres innovations que j'ai trouvées, ou savoir comment celles-ci s'appliquent à votre domaine, n'hésitez pas à me contacter :)
Dimitri Carbonnelle
Agence conseil en Innovation - IoT, IA , Robots Collaboratifs - Contact
Le retail, magasin physique et la ville vont vivre de profondes mutations dans les prochaines années.
For English Speakers - Google Translation
Le Retail vit une convergence du digital et du magasin physique (nommé aussi phygital) en facilitant la vie de ses clients (« Grab and go », l'automatisation de la logistique, la robotisation de la livraison à domicile). Le magasin physique se différenciera aussi de la vente en ligne en apportant aussi une expérience plus immersive, personnalisée et participative.
La transformation du magasin reflète une convergence de tendances individuelles et de notre société :
Le véhicule autonome est un trait d'union entre le retail et la smart city. Il fera la tournée des magasins pour récupérer vos courses voire avec le "store-to-home", amène le magasin jusqu'à vous mais apporte aussi bien d'autres services (l'e-santé, la Poste, des hôtels mobiles) qui peuvent profondément transformer la ville en particulier ses flux.
La Smart City ou la ville intelligente va apprendre à s'adapter à ses habitants communicant avec ses véhicules, ses piétons, son infrastructure alors qu'aujourd'hui c'est généralement l'inverse.
Bien sûr, la question des données, sa centralisation via des plateformes et l'utilisation respectueuse des données personnelles restent centrales pour que ces usages puissent se développer et être acceptés. De nombreux exemples provenant du CES Las Vegas 2018 et le Mobile World Congress à Barcelone l'illustrent
La décision récente de faire payer l'utilisation Google Maps par les développeurs montre aussi la nécessité de ne pas s'appuyer sur un seul fournisseur qui fournit ses services gratuitement ...
Les principaux sujets abordés sont :
Smart Car to Smart City
Le retail est en train de vivre un profond bouleversement, la frontière entre l'e-commerce et le commerce physique s'estompe fortement, les deux univers se nourrissent l'un l'autre.
Les 3 axes majeurs de transformation dans les points de vente sont la réduction des frictions qui mène à l'achat (en particulier le paiement), l'expérience immersive, la personnalisation de masse.
Un des problèmes de l'e-commerce est le très faible taux de transformation en achat (< 0,2% de clics sur des bannières de pubs pas converties en achat !) qui est bien supérieur dans le commerce physique. Un des problèmes du commerce physique est que sa zone de chalandise est bien inférieure à celle d'un site d'e-commerce et que nous avons nettement moins d'informations sur les clients que sur un site e-commerce (les deux sont certainement liés .
C'est sans doute l'une des raisons pour lesquelles, la tendance est à l'hybridation des deux mondes. De plus en plus d'acteurs issus du digital investissent dans le commerce physique ou réalisent des partenariats avec des acteurs majeurs. Amazon a racheté Whole Food Market et a réalisé un accord avec Monoprix, Google a réalisé un partenariat avec Walmart en particulier pour contrer Amazon Echo, Alibaba a réalisé un partenariat stratégique avec Auchan, Tencent avec Carrefour (pour le marché chinois).
Évidemment la raison pour laquelle nous souhaitons réduire les frictions du client c'est pour qu'il achète plus facilement et donc plus.
Amazon a créé Amazon Go son premier magasin Grab and Go (vidéo) à Seattle. A partir du moment où vous avez scanné pour rentrer, vous pouvez prendre (et remettre si nécessaire) les produits qui vous intéressent, et partir sans passer par la caisse. Attention, néanmoins, si vous prenez un produit pour quelqu'un d'autre, c'est vous qui payerez !
Néanmoins, Amazon a déplacé le point de friction à l'entrée. Il n'y a pas de queue à la sortie il peut y en avoir à l'entrée car il faut scanner l’application Amazon Go de son smartphone pour rentrer et pour passer les portiques. D'autre part, si vous n'êtes pas client Amazon, la friction est beaucoup plus importante que dans un magasin classique car vous devez créer votre propre compte sur Amazon avec vos coordonnées bancaires, télécharger l'application...
C’est la raison pour laquelle Amazon fait tant d’efforts pour avoir des clients réguliers et Premium qui une fois passé le premier point de friction, peuvent dépenser sans compter … enfin presque.
Monoprix (qui d'ailleurs a annoncé le rachat de Sarenza… et a fait un pastiche de la vidéo d’Amazon Go, pour au final réaliser un partenariat avec lui sur la livraison de produits frais … ;) pousse de plus en plus l’hybridation.
Quelques exemples : « Shop and Go », actuellement déployé dans 80 % du parc permet aux clients de laisser leurs emplettes en magasin, les courses sont emballées et livrées à domicile où s’effectue le paiement.
Les e-commerçants, les logisticiens du « dernier mile » devraient proposer plus de solutions pour éviter les trajets retours à vide. Les casiers sécurisés et partagés dans les lieux publics pourraient aussi jouer ce rôle dans ce sens. La Poste propose ainsi une solution pour envoyer son colis directement à partir de sa boîte aux lettres.
Monop'Easy permet de payer avec son mobile sans passer par la caisse. « Shop & Give » permet de remettre gratuitement au livreur des produits alimentaires non périmés, des fruits et légumes ainsi que des piles et des ampoules usagées. C’est une excellente idée pour réduire le gaspillage.
Le « Grab and Go » consiste à ce qu’un acheteur puisse prendre un produit et partir avec sans passer par la caisse (en payant ! sinon c’est puni par l’article 311-3 du Code pénal, trois ans d'emprisonnement et de 45 000 euros d'amende pour vol à l’étalage !)
Pour y parvenir, il faut savoir quel produit est pris (et potentiellement remis) et qui le prend. Une multitude de capteurs (poids, présence…) et caméras permettent d'interpréter les comportements des acheteurs, de les identifier ainsi que les produits choisis. Vous entrez dans le royaume du « Sensor Fusion », qui va combiner toutes les données et les interpréter pour répondre au fameux « Qui et Quoi » .
Ça tombe bien, une des applications majeures de l'intelligence artificielle (et des réseaux neuronaux) aujourd'hui est l'analyse et l'interprétation d'images et de vidéos (en plus de la reconnaissance vocale et du NLP utilisés notamment par Google Assistant et Amazon Alexa).
Aipoly équipe les magasins non seulement de caméras capables de déterminer la tranche d'âge, le sexe et l'humeur de la personne mais surtout les comportements. Bien sûr cela permet de faciliter le repérage d'éventuels voleurs mais aussi d’analyser le comportement des utilisateurs en face de produits, la prise en main d'un produit, la recherche d'informations sur le paquet.
De manière générale, la tendance est d'équiper le magasin pour avoir de plus en plus d'informations sur les clients de manière analogue à un site e-commerce.
D'ici quelques années, il y aura des dispositifs permettant de déplacer les produits (robots, rayons automatisés) qui permettront de faire de l'A/B testing directement en magasin afin de modifier le rayon en fonction du comportement des personnes.
Cela pose évidemment la question de la confidentialité de la vie privée, à partir du moment où il n'y a aucune donnée qui permet d'identifier la personne, cela est moins problématique. Dans la plupart des cas, les images sont soit analysées par un mini-serveur local voire même par la caméra, ce qui évite d’envoyer l’information.
Je redoute néanmoins le jour où le prix du produit sera fonction de la tête du client (ce qui se fait déjà sur les sites e-Commerce), néanmoins ça pourrait avoir un impact inattendu, avoir des prix qui correspondent au niveau de vie de la personne ce qui réduirait ainsi les inégalités... (tout dépend bien sûr des critères qui seront utilisés !).
Vu du commerçant, il serait intéressant de tracer l’historique des visites d’un client dans le temps (on peut par exemple lier un visage ou une morphologie avec une signature à quatre caractères alphanumériques (technique de hashage) qui empêcherait une identification mais permettrait de suivre un client lorsqu'il revient cf. article). Dans un magasin, cela permettrait aussi de savoir le nombre de personnes différentes venant dans celui-ci (en retirant le doublonnage.).
A l'image d'une clé RIB où on essaierai de retrouver le numéro d'un compte, il n'est pas possible de reconstituer à partir de ces 4 chiffres, le visage d'une personne. En revanche, si on a accès à une base d'images suffisamment restreinte associée à des identités et le hash de chaque image (possible en croisant différentes données comme le sexe, âge, localisation...), il serait alors possible de retrouver l'identité de la personne.
En revanche, cela peut être gênant vu du client final selon la durée de stockage des informations même si elles restent anonymes.
Au-delà de faciliter la vie du client, le point de vente doit absolument apporter une expérience différente d'un site e-commerce, l'achat de produits banalisés sera de plus en plus l'apanage des sites e-commerce.
En revanche, le point de vente a des vraies cartes à jouer pour d'une part apporter une expérience immersive, très difficile ou trop chère à réaliser chez soi et personnaliser parfaitement son produit très facilement et très rapidement en fonction du client.
Créer une expérience immersive chez chaque particulier n’a pour la très grande majorité des cas que peu de sens économique (même si nombre d’entreprises proposent leurs machines à fabriquer des cosmétiques chez soi…), c’est donc une vraie barrière à l’entrée que de créer une expérience immersive. Il est beaucoup plus facile de la réaliser en magasin.
Le produit n'est pas encore très folichon mais Sniffy associe affichage de vidéo et des odeurs. D'autre part, on ne vient pas au magasin pour voir des vidéos mais pour voir les produits les tester, je reste donc perplexe sur la réussite de ce produit. En revanche je crois beaucoup plus à l'association des odeurs ou d’autres sensations avec un environnement immersif.
Le magasin se transforme en showroom d'expériences difficile à reproduire chez soi. Woolrich a créé ainsi dans son magasin phare à Milan un « Extreme Weather Experience Room » où les clients peuvent tester leur Parka dans une pièce à -20°c, neige, glace vent inclus. (En revanche, pas top pour sur le plan énergétique …)
Le magasin doit ensuite transformer cette expérience en achat en magasin ou au pire après coup.
La réalité virtuelle permet d’avoir une première expérience d’un service (ex : voir ses vacances en réalité virtuelle) mais surtout de personnaliser un produit avant de le fabriquer (les véhicules, chaussures, vêtements personnalisés à votre goût).
La personnalisation peut devenir tellement précise et attendue par le client qu’il n’est pas possible pour l’utilisateur d’aller dans un autre magasin ou enseigne (cf. fonds de teint Lancôme et chaussures sur-mesure par Blueridge sur base de vos pieds scannés en magasin)
La réalité virtuelle permet aussi de réduire la taille des magasins tout en proposant une variété de produits personnalisés beaucoup plus grande à l'image de ce que l'on voit sur les sites e-commerce. Cela peut d'ailleurs être un levier pour développer le commerce en centre-ville sur des petites surfaces.
De plus en plus de constructeurs automobiles comme Peugeot et Audi intègrent dans leur concession des dispositifs de réalité virtuelle pour personnaliser son véhicule directement en ayant une vision de plus en plus réaliste à l'intérieur et à l'extérieur du véhicule. (ci-contre une opération Marketing de Peugeot pour transformer une cabine téléphonique en concession grâce à la réalité virtuelle ;)
Même si cela doit prendre plus de temps au client pour choisir vu la multitude de possibilités cela doit aussi augmenter le taux de transformation du concessionnaire.
Comme la fabrication d’un produit personnalisé en un temps réduit en magasin n’est possible que pour peu de produits, il est nécessaire de le présenter de la manière la plus réaliste possible en utilisant par exemple la réalité virtuelle / mixte ou des solutions de vidéo mapping comme Smart Pixels sur des produits physiques « blancs » dans des magasins.
On peut ainsi personnaliser ses chaussures (Berluti ou Nike selon vos moyens ;), ses chemises (pour l'instant sur un mannequin.) en boutique, et se faire livrer un peu de temps après chez soi ou en boutique.
À une taille plus réduite que le stand de Ford au CES, on peut imaginer une pièce ceinte d’écrans affichant des vidéos émettant des odeurs adéquates pour immerger les clients (plusieurs entreprises réalisent déjà ce type de prestation synchronisant vidéo et diffusion d'odeurs).
On peut aussi associer l'immersion via des lunettes 3D et la diffusion d’odeurs en fonction du lieu virtuel dans lequel on se trouve (une autre entreprise française réalise aussi cela).
Une des manières de personnaliser des produits en magasin est simplement d'ajouter un sticker photo avec votre photo directement prise à l'achat ou que vous choisissez sur votre smartphone.
Cela paraît très basique sauf si vous associez à cette image, une vidéo de vous souhaitant Bonne Anniversaire via una application ad hoc. Le principe est simple mais cela permet de très facilement apporter une touche de personnalisation et d'émotion à son produit.
C'est sur principe qu'est parti PostMii très récemment qui au-delà de sa première activité, impression sur place d'une photo lors d'un événement, soirée associé à une vidéo a choisi de le proposer aux boutiques cadeaux notamment.
Il faut que la personne recevant le cadeau accepte de télécharger l'application PostMii pour avoir son message mais la très grande majorité le font ... Dernier point, cela permet aussi au commerçant de récupérer les coordonnées du client (pas du destinataire car il n'a rien demandé !).
Au CES, beaucoup de startups proposaient de personnaliser ses cosmétiques (Romy, Emuage) ses huiles essentielles (Oblend), parfums d’ambiance (Moodo) ou de parfums à porter( Nota-Nota)
Aujourd'hui, ils proposent leurs solutions en B2C ce qui me semble voué à l’échec.
C'est un peu la yaourtière des temps modernes mais pour les cosmétiques. En revanche, en B2B cela a tout à fait du sens, c'est une solution qui permet d'une part de proposer un produit complètement personnalisé à un grand nombre de clientes (ce qui amortit le prix de la machine) avec des marges nettement plus élevées.
Le meilleur exemple à ce titre est le fond de teint Lancôme que vous pouvez directement personnaliser dans un certain nombre de boutiques en fonction de la couleur exacte de votre peau (il est aujourd'hui difficile de trouver le bon de fond de teint correspondant à sa peau, c'est la raison pour laquelle en général, les femmes changent peu de fond de teint par la suite).
Ce fond de teint Lancôme est vendu à 70 € Vs 35€ à 40€ pour les autres fonds de teint Lancôme (cf. article et photos).
Apporter une expérience immersive, personnaliser ses produits en magasin coûte cher et risque de transformer nombre de magasins en show room (visite en magasin, achat en ligne), ce qui pour des raisons économiques va réduire leur nombre.
Il y a deux tendances pour compenser au moins partiellement ces coûts additionnels et inciter les clients à revenir régulièrement :
Alors que la fabrication chez soi n'est pas la voie la plus rentable et la personnalisation en magasin comme le propose Lancôme est assez onéreuse, il y a une troisième voie qui correspond à des aspirations de plus en plus fortes des clients le DIY ou Do-It-Yourself en magasin.
En effet, vu du client, il permet à celui-ci de prendre plaisir à fabriquer ses propres produits avec des ingrédients proposés par le magasin. A condition que le magasin joue la carte de la transparence sur l'origine des matières premières (répondant à un besoin accru de transparence lié à une méfiance aiguisée des consommateurs vis-à-vis des marques), cela contribue aussi à rassurer le client et même à créer un engagement beaucoup plus fort du client vers la marque. Le client devient fabricant de produits de la marque ! D'autre part, cela permet aux clients d'en rencontrer d'autres, d'avoir des activités sociales variées...
Pour la marque, les bénéfices sont multiples en plus de l'engagement et de la fidélisation. La première est que l'achat en ligne n'est pas à même de reproduire la même expérience ! Cela fait même venir des clients et les ateliers de fabrication étant souvent payants, c'est une source supplémentaire de revenus ! Quand on y pense, c'est un comble ;) Avant une marque payait des salariés pour assembler des produits, maintenant ce sont les clients qui paient pour les fabriquer. Le rêve pour une marque ;) Pour être honnête, la production par des clients est nettement inférieure à la production pour une finition souvent nettement moins bonne ... Ce qui fait qu'ils repartent avec des produits déjà faits par la marque. En revanche, la valeur émotionnelle pour les produits fabriqués par le client est nettement supérieure.
C'est l'approche d'Aroma-Zone qui propose à ces clients de réaliser leurs crèmes, rouges à lèvres ... dans leur magasin à St Germain à Paris avec des ateliers qui ne désemplissent pas.
Un exemple intéressant est celui du magasin Club une WingTip à San Francisco (ancienne Banque d'Italie) qui est à la fois un magasin libre d’accès similaire au Printemps Homme vendant aussi bien les vêtements, les alcools, vins, cigares. Il dispose d’un barbier logé dans un ancien coffre fort pour un accès destiné aux membres (125 dollars pour 4 visites par mois ou un accès illimité pour 200 dollars habitant dans les environs).
Les services proposés vont d’un accès à un superbe rooftop sur San Francisco, des salles privatisées, un simulateur de golf, un retoucheur et tailleur sur-mesure, une mini-cave personnelle mais aussi la possibilité de se voir prêter des produits de marques et d’échanger des montres (une Rolex contre une Breitling par exemple mais pas une Swatch ;)
J’imagine mal avoir un abonnement pour chaque magasin, ça reviendrait vite cher !
On peut néanmoins imaginer un espace-membre aux Galeries Lafayette ou Printemps avec des services comme des coiffeurs, salons de massage, des cours de yoga, gym suédoise … avec des prix réduits ou intégrant certains services… et un abonnement a coût nul si les dépenses dépassent un certain montant. Ils proposent des services mais pas aussi élaborés.
Pour inciter les clients à les faire sortir de leurs tanières et de leurs écrans pour venir en magasin, les distributeurs et les marques vendues par ces distributeurs ne peuvent plus se contenter de vendre des produits, ils doivent apporter des services connexes afin de fidéliser les clients et les inciter à sortir de chez eux pour venir dans leur magasin.
Il y a aussi un impact collatéral potentiel, cela pourrait réduire le nombre d’indépendants sur tous ces métiers de services. En revanche, les groupements de franchisés pourraient en bénéficier pour devenir des shop in shop ainsi que les indépendants qui s’associent à une marque ou à un distributeur.
Autre innovation commerciale, Sensorwake a réalisé un partenariat avec le groupe hôtelier asiatique HIS. De nombreux Sensorwake sont installés dans les chambres ce qui permet aux clients de les tester au réveil.
L'hôtel propose ensuite de vendre le réveil olfactif. Guillaume Rolland (CEO) m'a indiqué que le taux d'achat est très bon car les personnes ont pu tester et vivre l'expérience du produit avant. Cela va dans la tendance de plus en plus forte de proposer l'expérience d'un produit ou d'une solution avant l'achat (alors qu'en général, on achète sur base d'avis et d'expérience d'autres utilisateurs puis on l’achète).
À ce titre, les groupes hôteliers peuvent devenir de vrais nouveaux canaux de distribution de produits car ils ont cette chance de permettre aux clients de vivre des expériences avec des produits qui n'ont pas acheté. En revanche, cela ne réussit pas pour tous les produits, AccorHotels aurait aussi fait des tests dans ce domaine qui n’auraient pas été concluants.
Le produit proposé doit être cohérent avec l’expérience à l’hôtel, on ne doit pas le trouver pas facilement ailleurs (ex : produits locaux), et même idéalement on peut le personnaliser (date, lieu, événement) si c’est un lieu de villégiature, à un prix consistent avec un achat coup de cœur.
D’autre part, l’achat doit être extrêmement facile, ce n’est plus le « Steal and Go » du fameux peignoir de bain de l’hôtel, mais du « Grab and go », directement mis sur la facture.
Avec AccorLocal, AccorHotels diversifie les usages de ses hôtels (et potentiellement accroît son « yield ») en devenant une plateforme de services locaux à destination des habitants proches grâce aux commerçants et indépendants en se fondant sur l’expérience de JohnPaul racheté récemment.
L’exemple typique, ce sont les cours de Yoga entre 18h et 20h dans des salles de réunion (période où elles sont vides).
Pour augmenter le taux d'occupation de ses suites, de nombreux hôtels à Las Vegas les propose pour réaliser des soirées « Corporate » (par exemple soirée Kickstarter, IndieGoGo ou Hardware Club ;) à des prix nettement inférieurs que la location d’une salle ou d’un restaurant avec un service traiteur, nettoyage ...
Ce serait intéressant de voir si les hôtels modifient la configuration de leurs salles et chambres pour devenir plus modulaires et fournir des services additionnels.
La personnalisation de masse associée à l'exigence d'instantanéité des clients peut profondément transformer les circuits de fabrication des produits. Cela oblige à réduire fortement les délais et les distances entre le consommateur final et la production du produit.
J'appelle ça le fog manufacturing (cf. article) avec des unités en magasin qui personnalisent le produit, alors que les éléments standards ou banalisés (ex: une base de crème) peuvent être produits beaucoup plus loin.
Cela transforme aussi le mode de conception des produits qui doivent être conçus dès le départ comme modulaires. Les modules personnalisables peuvent l'être à proximité du client, dans un délai et un coût réduit.
C'est d'ailleurs le positionnement de Blue Ridge qui propose une solution permettant de scanner son pied et d'obtenir une chaussure sur mesure.
Dès le départ la chaussure a été conçue pour pouvoir s'adapter à chaque pied pour des coûts de fabrication d'une chaussure standard et non d'une chaussure sur mesure. C'est la customisation de masse.
Cette personnalisation pose néanmoins une question sur la réutilisation et recyclabilité. Un mug avec votre photo dessus a beaucoup moins de chances d'être réutilisé qu'un mug non personnalisé sauf si dès le départ la personnalisation est facile à enlever. C'est un vrai enjeu si on veut éviter un gaspillage encore plus massif de produits. En revanche, on peut s'attendre à ce que les produits personnalisés soient moins jetés ou gaspillées (pour des raisons émotionnelles, il est probable que vous gardiez plus longtemps votre mug personnalisé qu'un mug standard.)
Alors que la friction liée au paiement se réduit de plus en plus aujourd'hui le principal point de friction est la livraison du produit ou le déplacement nécessaire pour acheter et obtenir le produit.
C'est l'une des raisons pour laquelle le véhicule autonome et les robots autonomes livreurs ont tellement le vent en poupe auprès des plus gros sites e-commerce.
Ce n'est pas un hasard si les BATX (Baidu, Alibaba, Tencent Xiaomi) s'intéressent autant au véhicule autonome. Baidu ainsi présente son camion autonome Apollo qui lui permettra d'automatiser encore plus la chaîne logistique, réduire les coûts et les délais ( les 3*8 devienne les 1*24 !)
Alibaba a aussi pris une participation de 10 % dans Xiaopeng Motors qui a présenté son véhicule autonome au CES.
C'est aussi l'un des premiers usages présentés par Ford, où l'on voit le véhicule autonome faire la tournée des magasins pour récupérer les produits achetés en ligne sur le site e-commerce du commerçant local.
Il y avait aussi au CES, beaucoup de robots autonomes comme Twinswheel qui peut vous suivre à la trace ou Unsupervised.Ai qui propose un robot à la Boston Dynamics pour livrer sur les 50 derniers mètres.
C’est ce que Toyota appelle le Real e-Commerce, le van e-palette équipé comme un magasin de chaussure (ou de vêtements) vient à votre domicile. Vous pouvez essayer les chaussures et les prendre avec vous ce qui débitera automatiquement votre compte.
e-palette est beaucoup plus modulable que Robotmart puisque vous pouvez aussi transformer ces véhicules en casino, en hôtel individuel en Fab Lab…
L'étape ultime semble être le magasin mobile autonome qui vient à vous.
RobotMart avait présenté son véhicule autonome primeur intégrant du Grab and go. Vous demandez via une application qu'il vienne chez vous, vous prenez les fruits et légumes qui vous plaisent. Avec un système de caméra et de capteurs, il est capable de savoir ce que vous avez pris et directement de ponctionner la somme correspondante sur votre carte de crédit.
L'utilisation de ses robots en particulier dans les entrepôts permettrait de réduire la pénibilité du travail ainsi que le transport de bagages dans des aéroports.
Dans le même registre, Eyesee a aussi présenté son drone capable de réaliser l'inventaire d'un entrepôt sur base des codes-barres sur les paquets.
De manière générale, il faut s'attendre à ce que les services associés au site e-commerce et physique soient de plus en plus mutualisés même entre concurrents afin d'avoir des effets de masse et réduire les coûts (ex: Monoprix a signé un partenariat avec Ocado, leader du e-commerce alimentaire outre-Manche qui construit un entrepôt automatisé, robotisé au nord de Paris pour livrer d'abord Paris, puis l'Ile-de-France, la Normandie et les Hauts de France et avec Amazon pour la livraison en 1 à 2h de produits frais à Paris ).
C’est aussi la raison pour laquelle, Alibaba mettait en avant ses solutions de production de contenus, de maison connectée, d’applications industrielles et autres, tournée autour de l’intelligence artificielle au CES à l’image de ce que fait Amazon avec AWS et ses solutions logistiques.
Les acteurs chinois devraient être de plus en plus présents en Europe et aux Etas-Unis, parfois en en réponse à l’hégémonie d’Amazon (cf. Accord entre Auchan et Alibaba et le lancement de Tmall Genie qui ressemble étrangement à Amazon Echo…pour passer commande sur Alibaba).
Au CES Las Vegas, on n'est pas constructeur automobile si on n'a pas présenté sa voiture autonome ;)
Tout le monde avait la sienne même si la démocratisation de la voiture autonome ne devrait pas arriver au plus tôt avant 2025/2030 pour des raisons de coûts, d'infrastructures routières et de réglementation (pour info je commence une nouvelle étude avec les Echos à ce sujet, elle ira beaucoup plus loin sur le sujet que ce que j'avais présenté lors de ma première étude il y a 2 ans).
Aujourd’hui l’intérêt de proposer les services à l’intérieur d’un véhicule (ex: proposer de remplacer les essuies-glaces, déjeuner à proximité, visiter tel site) reste encore limité car il est utilisé moins de 10% du temps par an, en moyenne par 1,5 personnes y compris le conducteur qui ne devrait se porter que sur la route …. ;)
Dans ces conditions, il est difficile de vouloir distraire plus encore ce conducteur à moins que cela serve directement à sa sécurité (plus quelques services de conforts), c’est ce que propose Nissan qui avant de se débarrasser définitivement du conducteur, veut interfacer le cerveau et le véhicule avec le brain-to-vehicle (B2V) technology (en référence à la communication V2V vehicle-to-vehicle entre véhicules).
Un bandeau sur la tête permet de réagir plus rapidement (temps de réaction entre cerveau et les membres) et d'anticiper les mouvements. Pour des raisons de sécurité, il y aura un contrôle de plus en plus élevé sur la capacité du conducteur à conduire (éthylotest obligatoire, contrôle d'hypovigilance...) ce qui d'ailleurs incitera tout le monde à passer le volant ... à la voiture autonome. Cela semble gadget à ce stade car c’est une solution transitoire et un peu compliquée sauf à transformer le véhicule en cabinet médical….
Byton (société chinoise) reste sur le véhicule connecté et a fait autant de bruit que Faraday Future l'année dernière avec sa concept car. Il pousse la personnalisation de l'interface au maximum et abuse du geste pour commander son véhicule. L'omniprésence des écrans devient oppressante. Qui sait, au prochain CES, il n’y aura peut-être même plus de pare-brise et de vitres, remplacés par des écrans flexibles.
Il y a de fortes chances que Byton termine comme Faraday Future (aussi chinois) qui a disparu d'ailleurs des radars depuis. Autant sur le hardware, les sociétés chinoises sont capables de faire des prouesses, autant sur l'intégration du hardware et du software comme c'est le cas dans l'automobile ils ont d'énormes progrès à faire pour plaire aux consommateurs occidentaux.
Mercedes présente Smart Vision EQ Concept, son nouveau concept sans volant ce qui paraît logique à terme mais peut être perturbant (surtout si on fait face à la route car nous sommes dépossédés de la capacité d’agir sur le véhicule). ;)
Le véhicule autonome est par essence électrique (pardonnez-moi pour ce mauvais jeu de mots…) et surtout partagé. Compte tenu de la faible utilisation des véhicules et du coût bien supérieur, ce serait un non-sens économique qu’un véhicule autonome reste individuel.
Pour amortir ce coût, il est donc essentiel de le partager. Cela pourrait même être un investissement financier, on investirait dans un véhicule comment on investit dans un logement pour louer. Un certain nombre d’intermédiaires pulluleraient sur des plateformes comme Drivy, à l’image de ce qui se passe sur AirBnb où des agents auraient pour charge de gérer une multitude de véhicules pour gérer la maintenance, la réparation, les formalités administratives… des véhicules.
Plus probablement, ce sera un marché qui servira de relais de croissance pour les constructeurs automobiles et les acteurs de l’after market (Norauto, Speedy, Feu Vert…). L’avantage d’investir dans un véhicule autonome plutôt qu’un logement est que la barrière à l’entrée est beaucoup plus réduite en termes de coûts, l’utilisation du véhicule est beaucoup plus faible que celle de logement, ses usages et sa zone de chalandise sont aussi beaucoup plus vastes de par sa mobilité. Pour le constructeur automobile, on peut imaginer des montages financiers où le prix du véhicule est payé par un crédit remboursé par les revenus tirés par le partage du véhicule et où il prendrait une commission à chaque étape.
Une autre vitrine du véhicule autonome (ci-dessus un prototype de Nvidia) sera dès 2019 les RoboRace, les premières "Formules 1" de véhicule autonome qui utiliseront les mêmes circuits que les circuits de Formule E (Electrique). Les véhicules sont identiques (fondés sur la plateforme NVIDIA Drive Pegasus AI) en revanche le software et l'IA sera développés par chaque équipe.
Rouen Normandie et Transdev présentait dans la partie Smart City, leur expérimentation utilisant 4 véhicules autonomes (Renault Zoé rendues autonomes) accessibles au public. Il permet de se rendre de la gare à un point proche du domicile (17 points d’arrêts) ou l'inverse en utilisant la voie publique.
On peut commander directement son véhicule à partir d'une application. Le trajet est gratuit (car c'est dans le cadre légal d'une expérimentation). Si deux personnes veulent utiliser le véhicule en même temps pour des directions proches, le trajet sera nécessairement partagé par les deux.
Cette expérimentation aura un conducteur à bord jusqu’à mi-2018 mais en sera dépourvu après … L’intérêt de celle-ci est multiple, explorer l’intégration d’un véhicule autonome sur une route ouverte aux autres véhicules, dans un cadre plus large de mobilité comme une « last-mile » navette, tester l’appétence des utilisateurs à ce nouveau mode de transport après les premiers effets de curiosité mais aussi face à des dégradations possibles … Beaucoup de questions trouveront une réponse pragmatique grâce à cette expérience terrain.
Ford a juste montré deux véhicules, à côté d'écrans géants sur son stand nous immergeant dans la ville. Il est sans doute le constructeur automobile ayant été le plus loin dans l'intégration de la voiture autonome dans un environnement plus global, la Smart City (sur les vidéos en tout cas !).
Il propose de devenir une plateforme de services fondée sur la mobilité avec des services concrets pour le particulier ("car sales pickup" - votre véhicule fait la tournée des commerçants auprès desquels vous avez acheté vos produits qui les dépose au fur à mesure dedans). Ils vont même plus loin en imaginant comment un véhicule dont le conducteur aurait un malaise non seulement appellerait les secours tout en garant la voiture sur le bas-côté mais aussi pourrait modifier la signalisation des feux rouges pour faciliter l'arrivée de secours et réduire les risques d'accident.
La ville se réorganise, se reparamètre en fonction de chacun de ses constituants, véhicules, piétons, infrastructures …
Ce qui pose d'ailleurs plusieurs questions …
Qui va tout gérer ?
Ford se positionne pour devenir la plateforme de la ville et multiplie les partenariats (ex : Postmates pour livrer les colis) mais qui au final est le plus légitime pour détenir cette plateforme, serait-ce un acteur privé, un GAFA ou tout simplement la ville ?
Pour qu'il y ait un vrai développement de la Smart City, il faut que les entreprises qui développent des solutions puissent les utiliser dans de nombreuses autres villes et ainsi éviter de devenir dans une société de service, qui nécessite de réinventer la roue à chaque nouveau projet.
Si les territoires ne prennent pas en main directement le sujet, le risque est que ce soit des acteurs privés comme Ford, des GAFA qui aient la mainmise sur le développement de la ville intelligente.
Or, les territoires ont un rôle majeur dans cette transformation, en revanche ils doivent être capables de cerner ce qu’ils sont capables de réaliser par eux-mêmes et ce qu’ils doivent déléguer à d’autres acteurs notamment privés.
Ils me semblent les seuls capables (en concertation avec la région, l’Etat) d’être garants de l’intérêt des citoyens et d’en piloter les différents acteurs autour de la Smart City. Ils doivent aussi accepter de ne pas développer des solutions sur-mesure spécifiques uniquement à leur ville (cf. article sur la Smart City) pour deux raisons : cela prendrait beaucoup trop de temps et cela coûterait beaucoup trop cher.
Pour que cela soit possible, il faut que les villes acceptent de réutiliser des solutions existantes qui réussissent plutôt que de partir du principe que leur ville n'a rien à voir avec les autres et donc doit avoir une solution qui leur est spécifique. Fiware est par exemple une plateforme digitale open source pour la Smart City financée par l’UE qui peut se combiner avec les standards proposés par OneM2M.
Elle a été adoptée par de nombreuses villes à l’étranger (Séville, Prague…) mais trouve très peu d’échos en France (St Quentin l’utilise). Si un écosystème de solutions de startups, PME/ETI… se mettait en place autour de ce standard (ou d’un autre ouvert), cela réduirait fortement les coûts de déploiement et délais, accroîtrait la sécurité (car testée par de nombreux acteurs). Aujourd’hui, les villes préfèrent encore se lier à des solutions propriétaires sur lesquelles elles s’engagent sur des longues périodes… Pourquoi ? ….
Toyota avait le concept le plus innovant dans le véhicule autonome avec son véhicule e-palette.
Un des changements fondamentaux apportés par le véhicule autonome est non seulement l’absence de conducteur (ce qui réduira drastiquement le nombre de morts), mais aussi les conséquences de cette absence (en plus de la réduction du nombre de chauffeurs…).
Le véhicule a un espace disponible accru (il n’y a plus de volant, de pédales, de tableau de bord dédiés à la conduite) et cela permet de transporter et d'apporter des services en même temps (ou en temps masqué). Cela libère le transport en réduisant fortement son point mort : moins de coûts (pas de chauffeurs) et de contraintes humaines (temps pour le conducteur pour se reposer ou faire autre chose ) donc un temps d’utilisation allongé.
Des services accessibles seulement sur certains transports communs (avion, train) deviennent accessibles au véhicule individuel et vans.
Le premier exemple est le « mobile hotel » qui permet de dormir dans un lit durant un long trajet. Evidemment, cela nécessite un changement de la réglementation pour autoriser les déplacements sans ceintures de sécurité.
Un véhicule autonome pourrait rentrer dans la catégorie des véhicules de services publics contraint par nécessité de service de s'arrêter fréquemment et qui ne nécessite pas de ceintures… Pour un « mobile hotel », c’est un peu compliqué à justifier ;) En revanche, on peut utiliser une flotte de « mobiles hotels « dans les lieux sans hôtels ou en sous-capacité ponctuelle.
Pourquoi ne pas imaginer commander son « mobile hotel » quand on part en voyage d’affaires ou des vacances en solo sur une courte période (il n’y a de place que pour un lit une place !) ? On pourrait y dormir, y travailler, il nous emmènerait sur nos lieux de rdv sans perdre de temps dans les transports.
Au-delà des services de livraison automatisée, le magasin mobile verra certainement le jour en premier (décrit plus haut). La fabrication (de pizzas et pas seulement livraison) et le Fab Lab mobile semblent plus compliqués à mettre en œuvre compte tenu de la spécificité de l’équipement à mettre dans e-Palette.
En poussant l’idée plus loin, Toyota imagine un « on demand city », où des véhicules autonomes apporteraient tous les services lors d’un événement par exemple un concert, (food truck, "mobile hotel", santé…). A long terme, cela pourrait être une idée pour desservir les zones rurales qui manquent de services (santé, Poste, hôtellerie mobile…)
Un principe essentiel d’e-Palette est sa fabrication modulaire sur une base identique (3 modèles de même hauteur et largeur), l’équipement intérieur est modulaire. Cela ressemble étrangement au concept de France Craft présenté il y a deux ans avec son véhicule électrique modulaire…
e-Palette est fondé sur une plate-forme ouverte Mobility Services Platform (MSPF), Toyota s’est associé à Amazon, Didi (concurrent d’Uber en Chine), Mazda, Pizza Hut et Uber pour développer de nouveaux services avec eux. Le lancement commercial d’e-Palette n'est pas pour demain néanmoins une première expérimentation sera présentée lors des Jeux Olympiques 2020 à Tokyo.
L'utilisation de véhicules et de robots autonomes de livraison sur la voie publique pose néanmoins des problèmes d'occupation de la chaussée ou du trottoir de piste cyclable sur lequel il va falloir commencer à réfléchir en termes de de sécurité, priorité...
Hyundai présentait un oxymore technologique, enfin pour l'instant, un véhicule anti-polluant. Ce véhicule utilise des piles à hydrogène associées à un purificateur d'air. Les deux systèmes ne sont pas liés, et donc ce purificateur est applicable aux véhicules électriques habituels et réduirait la pollution extérieure.
Un véhicule électrique pollue beaucoup plus en amont qu’un véhicule à moteur à explosion (mais moins lors de son utilisation) et pollue aussi en aval, ce serait donc un minimum qu’il dépollue lorsqu'il est utilisé ;)
En amont, la fabrication d'un véhicule électrique pollue beaucoup plus qu'un véhicule à moteur à explosion en raison de la pollution provoquée par
En aval, le recyclage des batteries est coûteux, polluant et potentiellement dangereux, leur réutilisation notamment pour stocker l’énergie (panneaux solaires, la maison) est une des voies pour augmenter leur durée de vie. Par exemple, le stade Amsterdam Arena abritera une installation de 280 packs de batteries de Nissan LEAF (le véhicule électrique du constructeur japonais) en guise de système de stockage d'électricité de secours.
Le Total Environmental Cost réduit si le véhicule autonome favorise les modes de transports « doux » et collectifs
Il semble impossible de créer un véhicule complètement propre, la première étape est d’évaluer le Total Environmental Cost en intégrant la fabrication, l'usage et la réutilisation d'un véhicule électrique et de ses composants en fonction de son type de batteries et du mode de production de l'énergie et par rapport aux véhicules à moteur à explosion.
Le développement du partage des véhicules, de l'usage par rapport à la propriété et finalement du véhicule autonome devrait réduire le volume de voitures produites par rapport aux véhicules actuels et donc la pollution. Le véhicule électrique doit être aussi un levier à l’usage de transports ayant un impact environnemental plus faible (en facilitant l’intermodularité entre des véhicules électriques et les trains, le vélo par exemple). Pour donner un exemple, si le véhicule autonome incite plus de personnes à prendre les transports en commun parce que cela simplifie les déplacements (ex : navette entre le domicile et la gare), cela réduire de manière globale le nombre de déplacements en véhicule individuel.
Le développement de la voiture autonome est tributaire de la communication directe entre véhicules et avec les infrastructures routières … sans passer par une plateforme Internet pour éviter les délais de latence. Il permet notamment le "see-through", voir ce que la voiture en face de vous voit.
Qualcomm en fait d'ailleurs un argument pour développer la 5G intégrant son protocole de communication (C-V2X, ou Cellular V2X) fondé sur le standard international 3GPP Release 14.
En creusant le sujet avec un des techniciens de Qualcomm, ce n’est pas tout à fait exact. En réalité, le C-V2X sera déjà disponible avec la 4G a priori en test en 2018. Avec la 5G, cela se permettra d’accroître encore plus les performances. Ahhh, les amalgames pour vendre une techno, les fabricants de puces sont incorrigibles. ;)
A leur décharge, précisons que les délais de latence en 4G sont trop longs pour permettre une utilisation en temps réel pour réagir en cas de risque de collision qui est une des promesses de la 5G …
Petit rappel : V2X = Vehicle to Everything et intègre : V2V, Vehicle-to-vehicle, V2I, Vehicle-to-Infrastructure, V2P : Vehicle-to-Pedestrian, V2D : Vehicle-to-device and V2G, : Vehicle-to-grid.
Afin d'avoir une évaluation très précise des distances, une caméra ne suffit pas, il est indispensable d'embarquer des Lidar (utilisant des rayons laser pulsés ensuite réfléchis et captés), Velodyne et Quanergy se sont spécialisés dans ce domaine et réduisent de plus en plus les prix (de l’ordre de 10 000 € aujourd'hui, 75 000€ il y a 15 ans) et leur taille. Pour démocratiser cette technologie, il faudrait baisser selon les fabricants automobiles, réduire le prix à 250$ …
Avec la montée en puissance de la conduite assistée et des véhicules autonomes, on va certainement diviser leur prix comme cela s'est passé pour les accéléromètres avec le développement de la Wii de Nintendo puis les smartphones. Mais pour réduire à court terme aussi drastiquement les prix, il n’y a pas trente-six mille solutions … mais une : réduire les fonctions qui font grimper les prix et pour les Lidars, c’est leur rotation (afin d’avoir une vision 360°).
La rotation pose de nombreux problèmes : mécanique, fiabilité de la mesure, fragilité et risque de panne. En les rendant fixes, cela non seulement réduit les coûts et la taille mais augmente aussi la fiabilité. Quanergy devrait parvenir à fabriquer des Lidars pour 250$ en Q3 2018 en les rendant fixes (solid-state LiDAR).
Cela suggère une idée à tous ceux qui lancent leurs produits ou qui veulent disrupter un marché, plutôt que d’ajouter des fonctions, retirez-en et voyez comment cela peut ouvrir de nouveaux marchés inaccessibles auparavant.
C’est la démarche Blue Ocean et celle de Steve Jobs quand il a lancé le premier iPhone. Rappelons qu’il n’avait pas la 3G à son lancement à la différence de tous les smartphones concurrents, en revanche son design qui était alors l’attente majeure des utilisateurs était incroyablement meilleur que les autres.
C'est la question posée (par exemple si on nous vole notre véhicule) par Michael Sandel (Harvard) lors de l'Opening Keynote à James Hackett (PDG de Ford) et à une salle comble.
Voici ce que je réponds ... (en vidéo) ;)
Il n'est pas question de transmettre toutes ses données tout le temps à tout le monde mais de ne transmettre que les données utiles pour fournir un service juste le temps nécessaire pour le rendre et uniquement aux acteurs nécessaires pour le faire.
À travers ces secteurs: Retail, Smart City et véhicule autonome, nous pouvons voir à quel point des nouvelles technologies comme l'Internet des Objets, l'intelligence artificielle peuvent profondément transformer les individus, les entreprises, organisations publiques, les modèles économiques.
Il y a toujours une phase d'adoption qui est beaucoup plus lente que ce que la technologie nous permet d'absorber. Il est essentiel d'utiliser ce temps pour que celles-ci apportent un réel bénéfice à tous, et réduire les risques de dérives.
Dimitri Carbonnelle - Contact
Fondateur de Livosphere
Conseil en IoT, IA et Robots collaboratifs / Cobots
Le CES est le temple de l'innovation, des gadgets aussi mais son intérêt est de voir les tendances, décrypter les signaux faibles et aussi de se projeter sur les impacts de ces innovations dans le futur.
For English Speakers - Google Translation
C’est la raison pour laquelle, j'ai été vraiment heureux d'intervenir en mars auprès de députés pour réaliser le debrief du CES Las Vegas à l'Assemblée nationale avec les députés Didier Baichère, Eric Bothorel et Cédric Villani et avec la participation de Mounir Mahjoubi. car elles remettent ces innovations en perspective.
Nous avons eu de nombreux débats avec les députés sur les impacts législatifs et le développement des territoires.
Les principaux thèmes étaient :
Si on se réfère aux chiffres du CES, 80 % des entreprises françaises présentes au CES (352) étaient des startups situées à Eurêka Park, ce qui est énorme comparé aux autres pays (environ 40% pour GB et Israël, Allemagne 28%, USA: 15%).
Néanmoins, nous avons 69 entreprises françaises qui étaient en dehors d'Eurêka Park soit plus de 40% de plus que les autres pays (hors Chine, Corée du Sud et Etats-Unis ) (GB :48, Allemagne:45, Israël: 32).
Il y a certainement un effet d'entraînement des startups vis-à-vis des autres entreprises (en particulier les PME et les ETI qui font l'objet du plan de transformation numérique évoqué par Mounir Mahjoubi). Je pense donc qu'il faut accélérer cet effet d'entraînement que peuvent avoir les startups vis-à-vis des autres entreprises afin de devenir une locomotive voire un Hyperloop de notre économie. ;)
Par exemple, Sensorwake s’est associé avec l’entreprise française Lexibook pour vendre des réveils olfactifs pour les enfants en utilisant la marque Reine des Neiges de Disney et Bananas d'Universal.
Lexibook est un levier commercial pour Sensorwake via ses licences Disney et Universal et Sensorwake un levier d’innovation pour Lexibook. Sensorwake n’aurait certainement pas réussi à obtenir ces licences sans Lexibook.
Même si le CES n'est pas destiné à présenter des solutions purement B2B, cela était l'occasion de trouver plusieurs entreprises qui peuvent devenir des vrais leviers pour des PME et des ETI (en plus des grands groupes) dans le domaine industriel et logistique.
La première est Eyesee qui utilise des drones automatisés pour réaliser l'inventaire complet d'une usine en scannant les codes-barres de chaque palette.
La deuxième est Fieldbox.Ai. Elle travaille aujourd'hui plutôt avec de grands groupes comme Total pour prévenir les pannes des pompes de ses puits de pétrole et l'aéroport à Roissy pour gérer le flux des bagages.
Mounir Majhoubi a rappelé à ce sujet que les deux axes prioritaires du gouvernement dans le domaine du numérique sont le plan de transformation numérique des TPE et des PME avec des financements de l'Etat et des régions ainsi qu'un programme d'inclusion concernant les 20 % de personnes qui n'accèdent aujourd'hui pas à Internet qui ne doivent surtout pas être laissées de côté.
J’ai détaillé plus sur la politique des régions sur les startups, les relations entre grands groupes et startups plus bas….
Les usages principaux de l'IA que nous avons vus au CES sont dans le domaine
de la reconnaissance vocale et NLP (en particulier avec Google Assistant), la reconnaissance et compréhension des images, le véhicule autonome et le Smart home.
Google prédit que d'ici quelques années 50% des recherches se feront via commande vocale (20% aujourd'hui). Cela signifie que si je demande un Paris Marseille, c'est l'IA de Google qui choisira par défaut l'entreprise qui fournira ce service, SNCF, Blablacar ... ou à partir de 2020 Deutsche Bahn, problématique identique pour tous les achats du quotidien et le choix des informations du jour.
Cela peut mettre sous dépendance de nombreuses entreprises françaises à l'image de ce que Criteo a vécu quand Apple a décidé de modifier sa politique sur les cookies. Cela impacte aussi les distributeurs qui ont des marges plus élevées sur la plupart des consommables, qui font revenir les clients. Avec les commandes vocales, cela simplifie l’achat et réduit la nécessité de revenir en magasin et donc diminue le trafic…
Le règlement e-privacy de l’utilisateur qui aurait dû être mis en place en mai 2018 (mais cela prendra sans doute plus de temps en 2019 a priori) pourrait en l’état accentuer le pouvoir des acteurs ayant un accès direct aux clients (dont les GAFAM).
Sur le principe, l’intention est louable : demander le consentement préalable des utilisateurs avant de collecter toute information personnelle tout en simplifiant sa vie, concrètement en demandant un opt-in global à la 1ère connexion sur le navigateur, OS, terminaux (comme Google Home, Amazon Echo) ce que la plupart des utilisateurs refuseront (donc opt-out des utilisateurs). Aujourd’hui nous avons un opt-in local, avec le fameux bandeau quand on visite un site web. En revanche, on peut collecter les informations des utilisateurs dès lorsqu’ils se loggent à un site web ou à une application si cela est intégré dans les CGV à la création du compte utilisateur ce qui est le cas des Google, Amazon, Facebook et Apple …
Les entreprises n’ayant pas un accès direct au client dépendront de ceux qui l’ont (via navigateur, login) … Comme le sujet est complexe et mouvant, voici quelques articles avec des points de vue différents sur le sujet pour vous faire une opinion. (Usine digitale, propositions de la présidence bulgare de l’UE; Quadrature du Net, Rapport de Tech in France, Tribune de Pierre Chappaz dans Les Echos). D’autre part, ce règlement est très difficile à appliquer pour de nombreux cas d’usages d’Internet des Objets (ex : demander un consentement préalable à un capteur de pollution public avant de transmettre ses données est compliqué ! )
On pourrait croire que c'est tout bénef pour les GAFAM. En réalité, en renforçant encore leur pouvoir, cela donne encore plus de raison à l’UE et d'autres États de les réglementer voire de les scinder (cf. article à ce sujet) (à l'image de ce qu'a vécu Standard Oil, ATT ou plus récemment les contraintes imposées à Microsoft).
A terme, c’est une épée de Damoclès pour les GAFAM, renforcée par l’affaire Facebook/Cambridge Analytica. A court terme et afin de plus équilibrer les forces en présence, cela incite des acteurs européens à plus se rapprocher des BATX (GAFA chinois : Baidu, Alibaba, Tencent et Xiaomi) qui signent de plus en plus d'accords avec des entreprises européennes (Auchan et Alibaba, Carrefour et Tencent, Renault-Baidu). (cf article à ce sujet)
L'IA dans la vidéo a de nombreux usages, Netbelle Vue a présenté un interphone vidéo qui transmet les messages vidéos aux bonnes personnes en fonction des interlocuteurs (une sorte de mini-workflow fondé sur l’identification des personnes… ce qui pose quelques soucis sur la vie privée…).
Kolibree l'utilise pour vérifier si un enfant s'est bien brossé les dents en utilisant un jeu qui l'incite à brosser partout. Enfin AI.Poly l'utilise dans les points de vente pour analyser vos comportements, c'est d'ailleurs une brique essentielle dans le Grab and Go, qui permet dans le magasin d'Amazon Go de pouvoir prendre un produit et repartir avec en débitant votre compte de la somme correcte.
Cédric Villani a précisé aussi les impacts de l'IA et que nous étions encore loin de l'intégration de l'IA dans la robotique. Les robots de Boston Dynamics par exemple sont fondés sur des algorithmes non-apprenants et non de l'IA.
Mounir Mahjoubi a souligné que le gouvernement soutient le développement de l'IA comme outil d'aide, d'assistance à la décision. En revanche, il insiste sur le fait que ce seront toujours les hommes et femmes qui doivent garder la maîtrise de la décision, du choix.
Tout d'abord il faut inciter à traiter les informations localement (dans le microprocesseur du capteur ou sur un hub local). Cela passe notamment par l'intégration de l'intelligence artificielle dans les puces ( avec des puces GPU, puis FGPA (field-programmable gate array qui permet d’intégrer des réseaux de neurones spécialisés qui peuvent être reprogrammés/reconfigurés à distance) , prochainement des puces neuromorphiques (spécifiques aux réseaux neuronaux) et bientôt des puces quantiques comme le font Intel, Nvidia et Qualcomm.
S'il est nécessaire de transmettre des données, on peut les agréger, les anonymiser (ou les hasher), avant de les transmettre sur Internet (un peu comme si au lieu d’envoyer votre numéro de sécurité sociale dans le cloud on ne transmettait que la clé, les deux derniers chiffres).
Enfin on peut favoriser aussi l'émergence d'acteurs français et européens respectant la vie privée comme Qwant et Snips (reconnaissance vocale qui se positionne en concurrent d’Amazon Alexa et Google Home en ne transmettant pas la voix sur Internet à la différence des Echos et Google Home).
J’ai fait une petite digression concernant l'intelligence artificielle au sein des écoles.
J'ai vu beaucoup de solutions permettant aux enfants d'apprendre à coder ou à utiliser de l'intelligence artificielle comme des Legos au CES. Il me semble indispensable d'apprendre aux enfants à travailler avec l'intelligence artificielle avec ce type d’outils mais aussi sans.
C'est un peu comme le GPS et le sens de l'orientation, il faut savoir s'en passer, ne pas en être complètement dépendant car il suffit d'une panne d'électricité un peu longue pour que nous ne puissions plus y avoir accès.
Aujourd'hui ces solutions sont un peu chères pour qu'elles puissent être utilisées dans toutes les classes, néanmoins il y a certainement beaucoup de professeurs volontaires qui ont de très bonnes idées pour à la fois montrer ce que peut faire l'intelligence artificielle (par exemple via des applications , vidéos accessibles sur Internet ou un smartphone) mais aussi développer les capacités qui nous différencie par rapport à l'intelligence artificielle et apprendre à savoir-faire sans. (cf. article sur l'IA et l'éducation)
C'est aussi la raison pour laquelle il est indispensable que la France et que les autres membres européens fassent évoluer la Convention de Vienne rapidement afin d'éviter d'être à la traîne.
En revanche, cela présente un avantage à long terme car la législation sur les véhicules autonomes est différente entre chaque Etat américain (la Californie est à la pointe, pas sûr que l'Oklahoma, l’Utah et Wisconsin arrivent tout de suite à les rattraper).
La conduite d'un véhicule est soumise à la Convention de Vienne signé en 1968, trois pays majeurs n’y sont néanmoins pas soumis les États-Unis et le Japon qui n'ont pas signés et la Grande-Bretagne qui ne l'a pas ratifié (sacrés Anglais ;)
Cela leur permet de favoriser le développement du véhicule autonome sur le plan national beaucoup plus rapidement que les autres pays signataires de la Convention comme la France.
Le jour où il faudra déployer massivement dans véhicules autonomes, les signataires de la Convention de Vienne, au minimum l’UE aura un marché, une réglementation bien plus harmonisée qu’aux US !
Le véhicule autonome est aussi dès le départ conçu pour être partagé, il est absurde de garder son véhicule autonome plus de 90 % du temps dans son garage (le cas pour les véhicules individuels en moyenne) pour des raisons économiques notamment. D'ailleurs, l'avènement d'un véhicule autonome individuel n'arrivera pas de manière massive avant 2030.
En revanche, le véhicule autonome devient un mini-transport en commun, il devrait rapidement se propager dans les prochaines années comme le montre déjà l'expérimentation à Rouen avec Transdev et la Renault Zoé en route ouverte ou les autres expérimentations avec Navya et Easy Mile sur des voies dédiées (car ils n’ont ni volant ni pédales !) même s'il reste de nombreux problèmes à régler (es: ne pas confondre la tombée des feuilles mortes avec un obstacle).
Cela peut être aussi un moyen de désenclaver des territoires en réalisant des navettes entre la gare et des centres-villes, des zones de commerce, des zones d’habitation …
En plus du véhicule autonome, il y a le camion autonome (ici Apollo de Baîdu) qui devrait fortement se développer pour de multiples raisons : plus de pauses toutes les deux heures, risque d'accident qui sera beaucoup plus réduit, trajet long principalement autoroutier, zone de confort des véhicules autonomes ...
En revanche, nous garderons pendant un certain temps des chauffeurs pour les trajets sur des courtes distances entre la zone de départ (usine, entrepôt..) et le point d'entrée de l'autoroute, et le point de sortie d'autoroute et la zone de destination (entrepôt, magasin...).
À terme, nous pourrions imaginer des mini-hub de transit automatisé, où des camions autonomes alimentent des robots livreurs qui viendront jusqu'à chez vous pour faire les derniers kilomètres. De nombreux robots livreurs ont aussi fait leur apparition au CES comme celui de Twinswheel.
La multiplication de ces véhicules autonomes de taille multiple (voir aussi celui de Segway) pose une vraie question autour de l'occupation de l'espace public et en particulier les chaussées, les trottoirs. Faut-il créer des voies dédiées aux véhicules autonomes ou les partager avec les voies de bus ? ...
À un horizon plus lointain, on verra apparaître petit à petit des drones avec passagers. Entre Volocopter, qui a volé au Mandala Bay, Air Taxi et le drone taxi Ehang (présent au CES 2017) qui a déjà transporté ces premiers passagers et Vahana, drone d'Airbus, Uber... les entreprises se bousculent pour lancer leurs premières versions commercialisables. Dubaï est sur les rangs pour proposer le premier service commercial. La réglementation est encore très loin de permettre la généralisation de ces drones. Ils devraient a priori rester dans les couloirs sub-aériens.
Les législateurs doivent rester attentifs à ce mouvement pour le cas échéant adapter la réglementation afin de permettre leur utilisation progressive. Il permet comme les véhicules autonomes de réduire fortement le point mort d'utilisation et d'augmenter leur nombre puisque vous n'avez plus besoin de pilote d'hélicoptère ou d'avion.
Avant même le transport de passagers, le premier axe de développement est le transport d'objets en utilisant les drones. Les drones pourraient par exemple sauver de nombreuses vies dans le cadre du transport des organes en vue de greffe. Cela prendra plus de temps avant de transporter des blessés ou malades...
Le véhicule autonome est nécessairement intégré dans la ville, il communique avec les autres véhicules les piétons, les infrastructures, les feux rouges, les chaussées ...
La question majeure est : Qui va gérer cette plate-forme ?
Ford a proposé à Las Vegas, sa plateforme de gestion de mobilité dans la ville mais est-ce le plus légitime ? ... La ville a certainement le plus de légitimité (mais pas nécessairement le plus de compétences et d’agilité) sur ce sujet, mais doit travailler avec d'autres entreprises qui sont spécialisées dans la gestion de plateforme de données, en évitant d'utiliser des solutions propriétaires mais plutôt des solutions ouvertes ou open source comme Fiware.
Une autre solution est la mise en place de blockchain, qui évite d'avoir surmonter l'obstacle de faire accepter qu'un acteur ait la main mise sur une plate-forme agrégeant l'ensemble des données que les autres voudront bien lui donner !
La blockchain a un très gros potentiel dans les cas où il y a une multitude d'acteurs ayant des intérêts divergents qui doivent partager des informations mais dont aucun n’a la légitimité pour coordonner la totalité des données agrégées. Pour des villes un peu longues à réagir, on pourrait même imaginer des acteurs privés et publics créant une blockchain indépendamment de la ville, ce qui sera dommage pour elle.
La collecte de ces données soulève quelques interrogations ... Ainsi, lors de l'Opening Keynote au CES Las Vegas 2018, Michael Sandel (Harvard) pose une question à James Hackett (PDG de Ford) et à une salle comble sur la géolocalisation et les problèmes de "privacy".
Voici ce que je réponds ... ;)
Hyundai présentait un véhicule dépolluant qui associe un système qui décompose les éléments polluants en éléments inertes à son moteur à hydrogène (les deux sont dissociables).
On pourrait imaginer dans une dizaine d’années que les réglementations obligent non seulement les véhicules à atteindre zéro émission polluante mais des véhicules à « émissions négatives » ( qui dépolluent !), ce serait un juste retour des choses vu la pollution générée par les véhicules.
Une des grosses sources de pollution du véhicule électrique provient des batteries (en plus potentiellement de l’électricité si celle-ci est issue de centrales thermiques par exemple).
Les batteries lithium-ion omniprésentes dans nos smartphones et dans nos véhicules électriques ont un impact environnemental très négatif dans leur production ainsi que dû à leur manque de recyclage sans compter les problématiques géopolitiques d’extraction de lithium concentrée dans quelques pays (Bolivie, Chili, Chine, Australie).
Les piles à combustible (Fuel cell) sur base d’hydrogène sont sans doute une des techniques les plus prometteuses pour les remplacer car elles permettent de stocker l’énergie et d’être recyclées avec un impact nettement moindre que les batteries lithium-ion. Actuellement, l’une des problématiques de ces piles est leur coût de fabrication et l’utilisation de platine pour catalyser la réaction.
MyFC intègre une pile à hydrogène avec un chargeur de batterie pour smartphone (sans risque car l’hydrogène est stocké dans un compartiment sous forme d’eau (H2O ;) avec de la soude (NaOH) qui combiné dégage de la chaleur).
On pourrait imaginer qu’au lieu de distribuer de l’énergie par des stations-service, on achèterait nos piles à hydrogène dans n’importe quel magasin ce qui permettrait de sortir le problème de la poule et de l’œuf : comment vendre des véhicules à hydrogène s’il n’y a pas d’infrastructures pour les recharger Vs comment développer une infrastructure pour charger son véhicule à hydrogène, s’il n’y a pas de véhicules à hydrogène à recharger. A l'heure actuelle, ce ne sont que des "Range Extender" qui permettent d'augmenter les distances mais ne remplacent pas la batterie actuelle mais cela viendra ...
C’est intéressant de voir comment les nouvelles technologies peuvent disrupter des infrastructures et des paradigmes liés au développement du véhicule. Une autre infrastructure qui sera certainement disruptée, ce sont les parkings en ville qui deviendront majoritairement inutiles avec le véhicule autonome. Il faudra au fur et à mesure réfléchir à leur reconversion … Le détricotage des infrastructures spécifiques aux véhicules commence !
Il y a eu une panne d’électricité d’environ trois heures environ au CES Las Vegas liée aux trombes d’eau qui se sont abattues sur la ville qui ont provoqué des courts-circuits (équipements mal couverts utilisés pour les travaux liés à l’agrandissement du Convention Center).
Cela m’a incité à rechercher les solutions au CES qui pourraient nous aider en cas d’inondation et plus largement de catastrophe naturelle, d’autant que nous en avons été victimes en France.
L’objectif de ces solutions est de nous aider à devenir résilients, c’est-à-dire être capables de surmonter rapidement ce type de situation.
On peut diviser une catastrophe naturelle en cinq phases, avant qu’elle ne soit détectée, quand elle est détectée, quand elle survient, juste après la catastrophe et la période de retour à la normale.
A chaque phase, correspond un objectif, prévenir, alerter et préparer, survivre, trouver des solutions transitoires pour vivre et reconstruire.
Pour la première et deuxième phase, il y avait un certain nombre de capteurs permettant de détecter et d’alerter en cas de fuite ou d’inondation. La solution néanmoins qui m’a le plus intéressé est celle de Monuma, qui permet de réaliser directement des photographies certifiées par huissier en association avec son assureur de son mobilier et appareils (en utilisant la blockchain pour certifier l’authenticité de la photo, la date et le lieu ).
Si on est prévenu quelques heures avant l’arrivée d’une inondation, cela nous permet d’augmenter le taux de remboursement provenant des assurances. Une des évolutions prévues est l’utilisation de capteurs connectés (capteur de mouvement, d’inondation …) ce qui permettrait d’accroître la confiance de l’assureur en son assuré (en respectant bien sûr la vie privée, l’information pourrait être envoyée à l’assurer qu’en cas de sinistre).
Lors de la catastrophe naturelle, nous avons vu un de nombreuses victimes n’ayant ni chauffage, ni électricité, ni moyen de communication (si le réseau télécom tombe).
Lancey a développé un radiateur avec une batterie intégrée, ce qui permet en cas de panne électrique d’augmenter la période de chauffage (la batterie sert en premier lieu à se charger en heure creuse lorsque l’électricité est moins chère). Dans le cas où la personne a un panneau photovoltaïque, il paraît plus logique que la batterie se situe à son niveau, néanmoins dans le cas inverse, cette batterie pourrait aussi servir pour alimenter d’autres appareils dans la maison.
Appi Technology permet via leur application Appi-Wi de communiquer avec d’autres personnes (40,50 m max) en utilisant une connexion directe wi-fi sans passer par une box ou une connexion mobile (off network). La première des applications destinées à ceux qui font du sport dans des zones non couvertes par le mobile. Ils ont aussi une autre solution destinée au marché des professionnels (pompiers, chantiers…) avec des casques intégrant un micro pour communiquer sur environ deux kilomètres utilisant les fréquences libres (863 à 870 Mhz) mais à des prix nettement supérieurs (plusieurs milliers d’euros).
Enfin Supersola présentait ses panneaux photovoltaïques portables, qui permettent d’alimenter ces solutions. Pour l’anecdote, des pompiers français les ont rencontrés à un salon, ils leur ont acheté directement les quatre panneaux solaires pour les utiliser pour les secours sur l’île Saint Martin.
Une des clés de la reconstruction est la solidarité locale en plus des secours, celle-ci peut se manifester de multiples manières, avec un principe de base le partage.
Pour partager, il faut d’abord avoir et produire quelque chose qui puisse être partagé !
Ensuite, il faut savoir ce dont l’autre a besoin et pouvoir partager facilement cela avec lui, de manière si possible équitable par rapport aux autres personnes ayant le même besoin sans pénaliser celui qui partage.
Au CES, il y a de plus en plus de solutions qui permettent de produire des plantes aromatiques des légumes en appartement, les coûts ont aussi fortement baissés pour produire de l’électricité à partir de panneaux photovoltaïques, néanmoins ce qu’il manque le plus c’est l’infrastructure de partage. En France, à quelques exceptions près, il est impossible de partager l’électricité produite avec ses panneaux photovoltaïques à ses voisins, lorsque le réseau électrique tombe.
La seule solution qui commence à se dégager (mais qui n’est pas sans poser problème à RTE, qui gère le réseau électrique) est la création de mini-grid fondée sur la blockchain. La société Clem a mis en place des pilotes de ce type. A New York, Brooklyn Grid permet à une cinquantaine de voisins de s’échanger de l’électricité. Face aux incessantes coupures d’électricité lors de l’ouragan Maria à Porto Rico, AES, une entreprise fournissant des solutions globales d’énergie a proposé de mettre en place des mini-grid pour y faire face au lieu de créer une infrastructure centralisée beaucoup plus fragile et chère.
Les produits dédiés à l’environnement ne sont certainement pas le clou du spectacle au CES Las Vegas, néanmoins il y avait des solutions dans ce domaine.
Comment on le dit souvent, ce qui ne peut être mesuré ne peut être amélioré. Qista le démontre avec son produit qui non seulement tue les moustiques mais surtout mesure leur nombre, ce qui permet de suivre les essaims de moustiques voire même de les cartographier si un réseau de Qista se développe.
Hostabee lui a développé un système qui s’installe dans tout type de ruche en se positionnant entre deux cadres du couvain. Il mesure en temps réel le taux d'humidité et la température au sein de la ruche, utilise les données météorologiques pour optimiser le travail de l'apiculteur.
Lavie est pour sa part, une solution qui transforme l’eau du robinet en eau minérale pure sans filtre ni produits ajouté, grâce à un rayonnement électromagnétique contenu dans le spectre solaire invisible, les UV-A. Cela stérilise l’eau de tout virus ou bactérie selon Lavie. Ils ont une version connectée, mais la version utilisant les rayons du soleil pour stériliser de l’eau retient le plus mon attention car il est utilisable dans les pays qui ont en ont le plus besoin et qui souvent n’ont pas de réseau électrique à proximité
Une des problématiques majeures des objets connectés est le recyclage en particulier lorsqu’on crée de nouveaux objets connectés ou que l’on rend connecté un objet qui n’avait aucune électronique à l’intérieur. Typiquement, les chaussettes SirenCare intègrent des fils électroniques pour mesurer la pression. On demande aux utilisateurs de renvoyer leurs chaussettes usées au bout de six mois … Pas sûre qu’ils le fassent sauf s’ils bénéficient de réductions pour le faire !
Ce problème s’applique aussi aux objets personnalisés car il est plus difficile de réutiliser ce type d’objet qu’un objet standard. Pour être caricatural, il vous sera plus facile de revendre un mug Star Wars et même blanc qu’un mug avec votre photo dessus.
Pour faire face à cela, il est indispensable d’éco-concevoir ses produits, et en particulier d’avoir une conception modulaire pour facilement séparer les parties recyclables des parties électroniques, les éléments standards des éléments personnalisés (ex : encre effaçable à très haute température pour le mug personnalisé).
Il y a néanmoins un bénéfice aux objets connectés en termes d’économie circulaire, un objet connecté est plus facile à partager, à louer qu’un objet non connecté. On peut déverrouiller/ verrouiller son utilisation à distance, savoir s’il a été utilisé correctement (détecter une chute, un choc et vérifier s’il a été utilisé dans les limites décrites d’une assurance par exemple), et même potentiellement être géolocalisé. Typiquement, un véhicule connecté se partage plus facilement qu’un véhicule non connecté, pas besoin de se déplacer pour donner les clés et les reprendre, on est rassuré car on sait où il se trouve et s’il a eu un accident.
Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !
Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.
Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)
Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.
D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.
Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !
Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.
Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)
Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.
D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.
On peut collecter les données de santé n’importe où, même dans nos sous-vêtements… est-ce utile ? J’en doute.
Heureusement, il y a des applications concrètes et utiles des objets connectés dans la santé. Bonetag a ainsi développé un capteur RFID placé dans une prothèse qui permet de mesurer la température et la pression dans la prothèse.
Cela permet de suivre celles-ci, d’éviter en cas d’inflammation des opérations lourdes. Le RFID (utilisé pour le télépéage et par les bornes de sortie des magasins) a été choisi au lieu du NFC (utilisé dans votre carte Navigo, carte bleue, smartphone) car le NFC permet de capter les informations à une distance de 5 à 10 cm (ici, sans doute moins en raison de la peau). Il aurait été impossible notamment de capter des informations d’une prothèse à la hanche par exemple. Le RFID pose néanmoins un problème car il ne me permet pas à l’utilisateur final de vérifier par lui-même sa température. A ce stade il doit aller chez le médecin pour le vérifier ce qui retire beaucoup de l’intérêt du produit.
C’est la raison pour laquelle j’ai préconisée à la startup, de proposer aux patients l’achat d’un lecteur RFID afin de pouvoir contrôler par eux-mêmes la température, pression… sans aller chez un médecin. Le coût d’un lecteur RFID associé à un smartphone est inférieur à cent euros.
Il y avait aussi Diabeloop qui a développé une micro-pompe d’insuline qui injecte la dose d’insuline adéquate calculée par un mini-terminal sur base de la glycémie mesurée par un capteur, palliant le dysfonctionnement du pancréas.
Les données sont envoyées en parallèle à un service de suivi afin d’améliorer le traitement sur le long terme. Il est préférable qu’il soit impossible de commander ou de mettre à jour à distance l’appareil à moins de sécuriser totalement la chaîne de fabrication et de mise à jour en utilisant la blockchain pour s’assurer de l’intégrité du software et hardware (décrit dans l'article suivant). Un virus comme Wannacry sur ce type de produits mettrait en jeu des vies humaines.
Avec la baisse des coûts des capteurs et des dispositifs connectés, il devient de plus en plus facile à des consommateurs de vérifier par eux-mêmes la véracité de ce que disent les industriels de l’agroalimentaire.
Itri (Industrial Technology Research Institute) propose par exemple un appareil capable de mesurer la quantité de pesticide dans les produits, Stratio permet d’identifier les composants d’un aliment grâce à spectromètre proche infrarouge (comme l’avait fait auparavant Scio, mais avec un spectre de lumière plus large : de 450 à 1000 nm). Il permet aussi de vérifier l’authenticité de médicaments de distinguer les vrais des faux. Le coût est encore assez élevé (300 $) mais devrait certainement diminuer rapidement.
Au CES 2017, la société chinoise Changhong avait même montré un de ses smartphones intégrant le capteur Scio (racheté depuis par Analog Devices).
On pourrait même imaginer que les consommateurs puissent remonter des abus à la DGCCRF ce qui accroîtrait fortement son pouvoir de contrôle.
Ces capteurs permettent aussi de réaliser des autodiagnostics sur ses allergies, ses maladies, ses périodes de fertilité et sur ses gènes. C’est l’activité d’Orig3n qui vous propose pour un prix variant de quarante dollars à un peu moins de deux-cents, si vous êtes un super héros, la qualité des gènes de vos enfants ou de leur potentiel père ou mère.
Le représentant de l’entreprise avait fait tous les tests et me montrait ses résultats sur son smartphone. Grâce à cela, il savait qu’il devait continuer à faire du sport car apparemment ses gènes indiquaient qu’il avait du mal à absorber les graisses, inversement, il est allé voir ses parents en leur reprochant de ne pas l’avoir poussé à chanter ou devenir musicien car il avait l’oreille absolue comme le révélaient ses tests.
L’anecdote peut prêter à sourire néanmoins il y a un vrai risque avec la propagation de ces tests d’une endogamie rampante (car les gens pourraient être enclins à refuser d’avoir des enfants avec des personnes ayant des « gènes moins bons » que les leurs !), ce qui mènerait vers un eugénisme individuel. Cela pourrait aussi stigmatiser certaines personnes qui auraient des gènes ne correspondant pas à « la norme sociale ».
Cela est d’autant plus dangereux que les gènes ne sont qu’un facteur parmi les trois (comportement et environnement de la personne) qui explique les caractéristiques physiques et intellectuelles d’une personne et que l’expression de gènes peut très fortement varier d’un individu à l’autre, le phénotype n’est pas la traduction exacte du génotype !
Il me semble très difficile d’interdire ces tests (il suffit de racler sa bouche avec un bâtonnet fourni avec le test et de l’envoyer par la poste) , en revanche il me semble crucial de les accompagner par une pédagogie, sur le packaging, dans les réseaux sociaux mais aussi dans les écoles et avec le personnel médical. De nombreuses personnes pourraient craindre de voir tomber une épée de Damoclès et vivre dans la frayeur de tomber malade sans que cela soit toujours pertinent.
On sait à quel point il est pénible de mesurer la pénibilité au travail ! De plus en plus d’entreprises rentrent sur ce créneau en associant la possibilité de détecter des chutes grâce à des capteurs intégrés par exemple dans les chaussures comme l’a fait Zhor Tech.
La cabine médicale H4D n’était pas présente au CES Las Vegas néanmoins, je souhaitais les présenter aux députés car elle évite de se déplacer de dizaines de kilomètres pour des prédiagnostics médicaux, ce qui réduit l’impact des déserts médicaux et justifie d’autant plus l'investissement dans le Trés Haut Débit.
A ce titre, il est toujours judicieux de partir des besoins des citoyens et des usages pour justifier l’investissement dans la fibre plutôt que déployer la fibre en se posant la question après coup à quoi concrètement elle servira.
Il n’y a pas un très grand nombre de solutions destinées à aider les personnes handicapées au CES Las Vegas, néanmoins j’en ai identifié quelques-unes donc un fauteuil roulant autonome de Whill, ainsi que solution pour créer des prothèses de main.
Les textes digitaux sont aussi un bon moyen de faciliter la vie des non-voyants et mal voyants car il peut proposer une version audio avec le text to speech mais aussi grâce à du text-to-braille, comme le propose Dot incorporation qui a une montre connectée en braille (qui traduit des alertes en braille) et Braibook qui utilise les e-book et les « traduit » directement en braille (présent au MWC Barcelone et pas au CES ).
Le problème est que bon nombre de textes ne sont pas structurés pour être lus, typiquement les emballages de produit. Une idée assez simple à mettre en œuvre serait que les industriels donnent accès à une version numérique de leur emballage ( via un QR code balisé par des points embossés ou mieux par un tag NFC ou par une application spécifique capable d’identifier le produit sur base de son emballage).
L’information serait accessible sur une plateforme en suivant toujours la même structure, par exemple nom du produit, nom de la marque, risque d’allergies, ingrédients … pour un produit alimentaire. De manière générale, cette base pourrait servir aussi pour faciliter l’accès aux informations d’un produit, voire réaliser du data mining dessus.
Enfin j'ai terminé sur à Paris, que le champion du monde de ping-pong serait battu par un robot d'ici 5 ans soit à la prochaine législature ;) Comme il y a peu, le champion de go a été battu par l'intelligence artificielle, Alpha Go.
Vu la vidéo... C'est à la portée d'un bras robotisé !
Au CES, il y a un double mouvement : Le « Push » : Les fabricants de puces et d’infrastructures pousse leurs technologies via des spectacles (show de drones d’Intel), leur omniprésence (Google) en espérant que les clients (ou surtout les fabricants B2C) les adoptent.
La réalité du marché montre que le consommateur fait au final la loi, et douche souvent bien des espoirs. Le Pull ainsi est plus pragmatique en partant de vrais besoins clients pour aboutir à des solutions qui y répondent de manière innovante (comme on est au CES !) car à la fin quel que soit les événements (y compris les pannes d’électricité au CES), il faut vendre.
Comme chaque année, Intel investit énormément au CES (sans doute moins que Google cette fois-ci), il nous a montré le vol autonome d'un Volocopter et offert un superbe show de drones en indoor (Record battu au Guinness Book of Records nous a indiqué Brian Krzanich, CEO d’Intel) et à l'extérieur près du Bellagio.
Il a ici mis aussi beaucoup l'accent sur la vidéo volumétrique, en créant un studio capable d'enregistrer une scène sous toutes ses coutures et permettant à chacun le prendre n'importe quel point de vue, y compris celui du cheval (présenté par Intel lors d'une scène de cow-boys !). L'unité de mesure de cette image en trois dimensions est le voxel qui devrait ringardiser le pixel d'après Intel. Belle course entre fabricants en perspectives ... ;)
Intel a aussi présenté Loihi, son processeur neuromorphique qui a pour objectif d'intégrer des réseaux neuronaux à apprentissage autonome directement dans leur puce. En embarquant l’IA, cela évite de transmettre vers une plateforme Internet.
Cette puce succède aux puces GPU (Graphiques), qui sont massivement parallèles. Scortex, une startup française et aussi sur le même créneau sans parler d'Another Brain, startup de Bruno Maisonnier (cf. article) mais qui pour le coup n'intègre pas des réseaux neuronaux a priori.
Enfin, Intel se rapproche du Graal en dévoilant son premier processeur quantique (mais seulement 49 qbits !) qui pourrait de par sa conception dépasser n'importe quel processeur parallèle. Le processeur quantique n'est néanmoins pas pertinent dans tous les cas. Il l’est surtout pour les opérations qui peuvent être découpées afin de les traiter en parallèle.
Cela aura aussi un impact énorme sur la cryptographie et donc la sécurité des transmissions puisqu'il pourrait résoudrait le fameux problème P=NP en résolvant les ex-problèmes NP en un temps polynomial plutôt qu'exponentiel (le cas avec les chips actuels). Si le cryptage type AES-256 bits est suffisamment sûr, c’est parce que le temps nécessaire pour trouver la clé de décryptage est inaccessible (50 super calculateurs capables de contrôler un trillion de trillions (1018) clés AES par seconde nécessiterait en théorie environ 3 × 1051 années pour obtenir la clé de 256 bits, c’est plus rapide de créer un ordinateur quantique !).
Le retour sur investissement d’Intel de tous ces investissements est sans doute faible car la vente de puces en IoT, drones... pour Intel reste encore très réduit (5% du CA mais en croissance de 20%) par rapport aux ventes de puces pour les serveurs et les data center.
Sans doute le rachat de MobilEye, startup israélienne dans l'analyse d'image pour les véhicules autonomes et connectés devrait aider.
Autre annonce faite par Intel, ils n’utilisent plus de matériaux provenant de zones de guerre ( Conflict free minerals – extraction minière de tantale, étain, tungstène ou or qui financent des groupes armés de la République démocratique du Congo ou de pays limitrophes – Définition de la U.S. Securities and Exchange Commission (SEC)). C’est un premier pas …
Les fabricants de puces comme Intel et Qualcomm ainsi que les fabricants d'infrastructures réseau comme Huawei ou Ericsson poussent au maximum la 5G (cf. document de l’ARCEP sur les enjeux de la 5G) car c'est évidemment leur intérêt d'inciter les opérateurs télécoms et les fabricants de smartphones à investir dedans.
Il y a grosso modo trois types de 5G, eMBB (Enhanced Mobile Broadband qui est utile pour avoir un très haut débit et concurrencer potentiellement le très haut débit fixe), uRLLC (Ultra-reliable and Low Latency Communications : usages : transports en particulier véhicule autonome, santé, sécurité avec l'objectif de réduire les délais de latence et fortement accroître sa fiabilité et robustesse ), mMTC (Massive Machine Type Communications pour l'IoT avec une très faible consommation d'énergie).
On devrait commencer à voir les premiers tests en 5G en 2018, pour les deux premiers eMBB, uRLLC, en revanche pour le mMTC (pour IoT), cela ne devrait pas arriver au plus tôt avant 2023. C'est la seule des normes dont le standard n'a pas encore été finalisé. D'autre part, l'intérêt de la 5G par rapport aux autres protocoles LTE-M, Nb-IOT sur les fréquences licenciées et Lora et Sigfox sur les fréquences libres est assez faible (utilisation néanmoins de nouvelles fréquences), et le déploiement spécifique de la 5G pour l'IoT, ne serait pas du tout rentable, car les revenus générés par l'IoT pour un opérateur télécom sont très faibles alors que les coûts de maintenance seraient très élevés (sauf si c'est une antenne mutualisée avec d'autres usages générant des revenus élevés).
Toujours dans l'esprit show-off, on voyait des écrans gigantesques joints l'un à l'autre sans jointures, et même des écrans pliables, ce n'est pas demain la veille qu'on les verra dans notre salon mais c'est aussi l'esprit du CES.
Si jamais nous avions un doute sur le fait que le CES Las Vegas, était une formidable messe des nouvelles technologies heureusement que Netflix pour nous rappeler que c’est un gros levier de communication.
Il avait un stand nommé Psychotec où il présentait sa nouvelle technologie pour transférer un esprit humain dans n’importe quel autre cerveau et corps et ainsi changer d’âge, de sexe et de toute autre caractéristique possible...
Cela pourrait d’ailleurs être une idée pour condamner quelqu’un, lui faire prendre trente d’un coup sans possibilité de retour en arrière, en plus cela permettrait de libérer de la place en prison !
En revanche, sachant qu’il y a une forte probabilité que nous vivions déjà dans une simulation, c’est petit joueur que de changer seulement le corps, pourquoi ne pas changer complètement d’univers :))))
Avant de rentrer sur les innovations technologiques, abordons ce qui a agité le microcosme français : la FrenchTech et la présence massive de startups financées par les régions.
La France était en 2017 le 5e pays par le nombre de visiteurs au CES (près de 5000) avec 2,5% des visiteurs (rapport complet ici, la version 2018 n’est pas encore publiée), 7% des exposants étaient français et un tiers des startups à Eurêka Park. 2018 confirme cette tendance. Cela montre une surreprésentation des startups françaises ce qui est à la fois une bonne chose (c'est un aiguillon) mais aussi un risque si on se repose uniquement dessus.
Pour rappel, le CTA, organisateur du CES a fait l’International Innovation Scorecard où sur 38 pays la France est 18e et est dans la moyenne de l’UE (l'Union européenne globalement est 16e). Pour nous rassurer l'Allemagne est à la 14e place, Israël 15e, la Corée du Sud 20e (!?!), le Japon 25e ( ?!?), la Chine 26e !
Il n'est pas impossible que des chiffres aient été un peu ajustés ;) Il est amusant de voir le Japon être un Innovation Champion et la Chine juste en dessous Innovation Adoptor. Ménagerait-on quelques susceptibilités … ?
Si ça peut nous rassurer le 2018 Bloomberg Innovation Index, donne des résultats très différents, puisque la Corée du Sud passe de 20e à la première position, l’Allemagne de la 14e à la 4e, les US de la 5e à la 11e (qui sort des 10 premières nations - y aurait-il un message subliminal destiné à Trump ? ;) et la France de la 18e à la 9e …
Allez comprendre Charles, derrière ces index, il y a certainement quelques enjeux politiques et commerciaux ;)
Pour l'anecdote, les pays représentés par Bloomberg représentent moins de 40% de la population mondiale et seuls 4 pays les plus peuplés (incluant l’UE ! mais exclus l’Inde, le Brésil, le Nigéria..) sont dans cet index. Vraiment représentatif ! Le CTA couvre un espace déjà plus large 4,6 Mds de personnes soit 60% de la population, 7 pays sur 15 les plusieurs peuplés font partie de l’index. C’est déjà beaucoup mieux (même s’ils ont oublié notamment la Russie !).
La France n’est pas à la tête mais dans la moyenne plutôt haute dans le domaine de l'innovation dans ces deux classements, ce qui contraste très fortement avec notre présence massive au CES en particulier avec les startups. C'est un peu comme si nous étions excellents en maths, et que nous négligions un peu plus les autres matières même si notre potentiel est élevé. Les efforts actuels dans notre pays nous permettront sans doute d’être aussi bons, voire excellents sur les autres matières …
Il y a certainement eu une surenchère entre les régions, l'espace occupé par les régions françaises est 3 fois supérieur à celle de Business France qui est censé représenter la French Tech à Eurêka Park. Cela faisait un peu zoo de logos, comme chaque métropole French Tech a son animal emblème. On risque une nouvelle dispersion et confusion dans l'image de la FrenchTech à l'international.
Mais restons confiant, l'année dernière il y avait un grand nombre de grands groupes français qui monopolisaient une partie de Eurêka Park, ça s’est réduit par rapport à l'année dernière (Air Liquide n'y est plus par exemple).
Un des grands débats sur la présence française est le surinvestissement des régions dans la promotion des startups à Eurêka Park avec le risque d’un faible retour pour les startups participantes dont le CES n'est pas le coeur de cible.
Olivier Ezratty l'explique bien dans son rapport, il y a un accroissement d'erreurs de casting (le plus flagrant étant des entreprises qui proposent des services ou des plateformes qui n'ont rien à voir avec des produits électroniques. Petite illustration : cette startup certainement méritante qui propose de poster n'importe quel projet sur sa plateforme afin de former des équipes.
De l'autre côté, de nombreux acteurs sont devenus nettement plus pragmatiques. Plutôt que de pousser des technologies, ils partent des besoins clients pour apporter des solutions concrètes.
L'Oréal l’illustre bien passant de la brosse à cheveux connectée (avec Kérastase) en partenariat avec feu Withings, qui n'a pas dû passer le cap du prototype, à la mini-coccinelle, capteur d'UV sans batterie (avec La Roche-Posay), que l'on peut placer sur un ongle pour mesurer son exposition aux UVA et UVB.
Il y a eu un réel travail de miniaturisation, de design pour que cette petite capsule réponde à une problématique simple la surexposition au soleil, tout en en étant suffisamment petite et en évitant les marques de bronzage !
Dans le domaine du bien-être, Neutrogena filiale de Johnson & Johnson avait aussi créé sa caméra add-on au smartphone pour scanner la peau néanmoins c'est nettement moins innovateur car l'année dernière au CES, on en trouvait par brouettes.
Michelin a présenté son vélo e-Drive en association avec Wayscral, un fabricant de vélo et Cosmo Connected qui a imbriqué un feu arrière dans son dispositif électrique.
Michelin a utilisé une technique toute simple et très maline pour rendre un vélo électrique mais il fallait y penser.
Ses pneus (brevetés évidemment) présentent des petites stries qui sont entraînées par une dynamo « inversée » elle-même alimentée par la batterie électrique. Bien vu car Michelin fait le lien direct entre le pneu et l'électrification du vélo ce qui n'était pas évident à première vue.
Son système réduit aussi le poids de 3 kg par rapport à un vélo électrique traditionnel pour un coût total de 450€ HT (disponible en 2019). Le premier prix pour un vélo Wayscral est 750€ TTC aujourd’hui.
Une des grosses problématiques des startups est évidemment le modèle économique en particulier dans le domaine des objets connectés où les coûts récurrents comme la mise à jour des applications, l'hébergement le support, font fondre comme neige au soleil leurs marges déjà faibles. C'est pourquoi elles sont de plus en plus à s'associer avec de grands groupes sous forme de marque blanche ou marque grise.
Comme je l’avais indiqué auparavant, Sensorwake s'est associé avec Lexibook qui possède une licence Disney et Universal pour créer et vendre des réveils matin pour enfants Reine des Neiges et Bananas.
C'est un très bon levier commercial pour Sensorwake qui aurait été incapable d’obtenir cette licence directement et pour Lexibook qui lui permet de présenter des produits innovants. Même si c'est écrit en tout petit, Sensorwake parvient néanmoins à garder sa marque sous celle de Lexibook sur ses produits. D'autres startups devraient réfléchir à ce mode de commercialisation qui peut générer de très importants volumes.
Des PME et ETI peuvent aussi y trouver leur compte comme un premier moyen d’étendre leur gamme et d’innover à coûts réduits puisque le produit est déjà développé.
Netatmo réalise depuis longtemps ce type de partenariat B2B après Engie, Legrand et Velux, il poursuit avec le groupe Muller sur les chaudières.
Enfin j'ai vu un certain nombre de startups qui n'étaient pas venus l’année dernière et qui reviennent au CES après deux ou trois ans après leur première apparition une fois leur produit commercialisable, c'est le cas de My Brain Technologies avec son casque Melomind (présent en 2015 et 2016) ou Romy (présent en 2016) qui a un appareil réalisant des cosmétiques sur-mesure.
J'ai vu aussi l'apparition d'entreprises leaders de leur domaine mais peu connues du grand public qui exposent au CES. Celle qui m'a le plus impressionné est CWD Sellier (étude française où ils sont nommés) qui fabrique des selles de chevaux depuis 1998 en intégrant des innovations comme les matériaux composites.
CWD a depuis quatre ans, développé iJump, une selle connectée sur base d’une selle déjà existante, tout en intégrant des capteurs permettant de mesurer la performance du cheval. Pour une PME, ce n’est pas encore commun, le soutien de la BPI a certainement été essentiel.
Surys qui est leader dans la fabrication de films holographiques destinés aux billets de banque et au passeport a aussi présenté sa technologie pour servir de moyen d'authentification de produits de luxe.
L'intérêt par rapport au QR Code est que l’ hologramme est infalsifiable et qu’il coûte beaucoup moins cher qu'un tag NFC. Néanmoins l'inconvénient est qu'il est nécessaire de passer par une application sur le smartphone pour s'assurer de l'authentification la bouteille. L'intérêt est surtout pour des personnes qui contrôlent les bouteilles de manière régulière ou sur des marchés où il y a de nombreuses contrefaçons en Asie notamment. Le NFC est certes plus cher (0,1 à 0,2€ l’unité), néanmoins, on n’a plus besoin d'avoir une application et elle est compatible avec les smartphones Android et maintenant avec les nouveaux iPhone 8 et X.
J'ai demandé s’ils allaient s’étendre dans le domaine du NFC afin d'offrir des solutions complètes d'authentification et de relation avec le client en complément avec leurs solutions actuelles et ce n'est pas du tout prévu. Cela pose une question très intéressante lorsqu’on a développé une technologie unique et différenciante et qu’on la développe sur de nouveaux marchés. Vaut-il mieux rester sur celle-ci ou étendre son expertise sur de nouvelles technologies pour répondre complètement au besoin ? En général, ce sont souvent deux sociétés expertes qui s’associent, fusionnent ou se rachètent ce qui évite de réinventer la roue !
Les innovations au CES Las Vegas peuvent paraître au prime abord comme des gadgets, en réalité si on gratte un peu, au-delà du produit, on recherche les tendances, les opportunités, les problématiques, de très nombreuses discussions apparaissent qui peuvent aboutir à des solutions concrètes pour tous, à mieux anticiper les impacts des innovations et intégrer cela dans la loi.
Le désenclavement des territoires, la protection des données personnelles, l’accès à tous aux services rendus possibles grâce au numérique (e-Santé, e-mobilité, e-éducation…) font partie des nombreux sujets que nous avons débattus avec les députés
C'était passionnant car il y avait un réel intérêt pour les utiliser au bénéfice des citoyens.:)
Si vous souhaitez une présentation de ce type de solutions (ou sur les innovations dans l'IoT, robots et IA) et de leurs impacts dans vos organisations et entreprises, n’hésitez pas à me contacter :)
Dimitri Carbonnelle - Contact
Fondateur de Livosphere
Conseil en IoT, IA et Robots collaboratifs / Cobots
Le jeudi 8/2 a eu lieu l’AI Night au Palais de Tokyo, organisé par Artefact, France Is AI et France Digitale.
For English Speakers - Google Translation
Comme le dit très bien, Damien Gromier, maître de cérémonie de la soirée, l'objectif est de réunir l'ensemble de l'écosystème intéressé par l’IA en France afin d'en faire la locomotive européenne de l’intelligence artificielle.
Oui, il y avait des startups qui ne font pas de l’AI Washing. Oui, il y avait de speakers sachant parler de l'IA, de leurs impacts mais surtout l'AI Night ouvre le débat indispensable sur ce que nous voulons faire de l'IA dans nos sociétés.
En quelques mots :
Avec les interventions notamment de Laurent Alexandre, Moojan Asghari (Women in AI), Mounir Mahjoubi, Isabelle Ryl (INRIA) et Bruno Maisonnier (Another Brain)
L'AI Night ouvre le débat sur de nombreuses questions :
Doit-on accepter que l'IA soit une Black Box et l'instrument des puissants comme l’affirme Laurent Alexandre ou au contraire comme le défend Mounir Majhoubi, tout faire pour que les femmes, les outsiders, les élèves se joignent au débat et en deviennent acteurs car l'IA sans inclusion ne serait que ruine de notre société ? Aujourd’hui, l’IA est trop encore « Digital Man Centric ». Ce sera un des enjeux des prochaines AI Night que de diversifier encore plus les speakers et l’audience.
Doit-on investir 300 Md € dans le deep learning pour se battre contre les GAFA, chiffre minimum d'après Laurent Alexandre (Vs 30 Md€ selon Cédric Villani) ou la bataille est perdue et il faut investir dans d'autres formes d'IA, explicables et qui nécessitent peu de données comme le préconise Bruno Maisonnier en mettant en avant sa startup Another Brain (puces d’IA n’utilisant pas des réseaux neuronaux).
Quelle stratégie IA devons-nous adopter ?
Aujourd'hui il y a beaucoup d'initiatives dans le domaine de l'IA, qui sont dispersées avec des visions disparates (car nous sommes au début de son explosion). Au-delà de ces discussions, l'enjeu est d'avoir une vraie stratégie industrielle (partenariats, standardisation des protocoles, structures de données, harmonisation législative) non seulement sur le plan français mais surtout sur le plan européen pour faire face aux plates-formes de sociétés américaines et chinoises.
La GDPR (RGPD / Règlement européen sur la protection des données) est à la fois un frein au développement de l'IA car il réduit la quantité de données utilisables néanmoins il peut être aussi un fort levier sur deux plans :
Un angle d’attaque serait que l’Europe ait une stratégie pour développer des technologies capables de réaliser de l’IA localement avec très peu de données (GDPR Compliant) Vs une IA engouffrant des quantités de données dans le cloud (IA des GAFA qui pose des problèmes de « privacy » et des risques de TechLash) à l’image du small data Vs big data. C’est une stratégie différenciante plus pertinente que d’adopter la même stratégie que les GAFA en les prenant de front.
Le plan proposé par Cédric Villani à ce sujet qui devrait sortir en mars donnera le ton et la vision souhaitée par la France. Sa présentation a été retardée afin d'être concomitante avec la présentation de la stratégie du gouvernement sur l'IA. La stratégie européenne devrait être présentée deux semaines après en coordination avec la stratégie française ce qui est de bon augure (cf interventions sur LCP notamment de Cédric Villani et Laurent Alexandre)
Libérer les données et la vie privée
Faut-il libérer les données de santé ou les protéger pour garder le peu de vie privée qui nous reste ? Est-ce possible d'avoir les deux en même temps ? (oui en agrégeant les données, en utilisant des IA capables de travailler sur des données cryptées et surtout si on explique pourquoi et comment on utilise les données et comment on respecte la vie privée en anonymisant ces données ).
Toutes ces questions et une foultitude d'autres, nous devons en débattre de manière constructive, pas uniquement entre nous dans le monde du digital où les hommes sont d'une écrasante majorité (alors que les femmes sont bien mieux armées que les hommes face à l'IA (cf. ce post FB).
A ce titre, une idée complètement iconoclaste serait de diffuser des interventions de Laurent Alexandre dans les écoles, collèges, lycées et enseignement supérieur et aussi dans les entreprises et organisations publiques pour débattre de ses idées.
Laurent est l'incarnation humaine de l'intelligence artificielle générale de demain, il a une aura liée à son parcours (chirurgien et urologue, diplômé de l’IEP Paris, d'HEC et de l'ENA), à son charisme et bagou qui nous fait facilement tomber dans ce fameux biais cognitif, le biais d’autorité. Peut-être qu’à l’occasion, tombe-t-il dans le « Curse of knowledge » ;)
Il peut en quelques secondes basculer des analyses les plus pertinentes aux conclusions les plus spécieuses bâties sur des raisonnements certes bien ficelés parfois séduisants mais faux (cf. mon point de vue ci-dessous et je reste ouvert aussi à la critique !).
Regarder ses interventions, nous oblige à apprendre à séparer le bon grain de l'ivraie, à avoir l’esprit critique et le maintenir en éveil. En discuter, en débattre, nous permet de l’affûter.
Aujourd'hui, nous avons un seul Laurent Alexandre, demain nous en aurons des millions dans nos smartphones, nos voitures, nos maisons, nos objets capables de nous donner les meilleurs conseils et nous sortir les plus grandes inepties (potentiellement crédibles !). Nous devons apprendre à savoir faire le tri et ce sera loin d'être évident car à l'image du GPS, nous aurons juste envie de nous reposer dessus quitte à perdre le sens de l'orientation. L'IA ne doit pas devenir une pensée magique sortie d’une black box, elle ne doit pas devenir un nouveau dieu capable de nous mener du jour au lendemain d’une Terre tant promise au royaume d'Hadès ou au terme d’une lente catabase.
Dernier point, l'IA fonctionne grâce à l'énergie, une coupure d'électricité et vous perdez l'IA, d'où la nécessité de ne pas se reposer uniquement dessus. Avec les catastrophes naturelles, ce type de situation risque de plus en plus d'arriver. C'est aussi une fragilité pour ceux qui croit prendre le pouvoir uniquement avec l'IA.
Mais cela ne dépend que de nous...
14 startups présentaient des cas d'usage de l’IA dans le domaine de
en plus de Startup Inside (développement de projets IA).
L'autre intérêt de cette soirée est celui des conférences et panels, le rythme, la durée, les conférences étaient bons ainsi que le pitch des start-up à la fin même si 30 minutes de moins auraient été bienvenues. À quelques exceptions près, les interventions étaient bonnes, voire excellentes. Il y a évidemment des partis pris et des personnes qui prêchent pour leur paroisse, pardon leur IA !, néanmoins le melting pot qui en résulte est très intéressant de par la variété des opinions comme j’en ai parlé en introduction.
Bien sûr, les objectifs des conférences étaient de montrer l'intérêt de l'IA, de manière générale et sur des secteurs en particulier comme la santé, la mobilité, le marketing avec des intervenants multiples et variés (Google, INRIA, Women in AI, Malakoff Médéric, RATP, Valeo, Easy Mile, Cardiologs et bien sûr Mounir Mahjoubi).
Vincent Luciani (Artefact) nous expliquait ses trois axes de développement de l’IA en B2B :
Il est essentiel de commencer dès maintenant car il y a une prime aux early adopters. Il faut compléter par le fait que les changements organisationnels et culturels sont majeurs, plus tôt on s'y prépare, moins la pente sera raide.
Il sera de plus en plus difficile de faire la distinction entre les « fake news » et les « true lies » (cf fausse vidéo de Barack Obama). Cette confusion était l’un des 3 mots (en plus d'inflexion et de confrontation) qui résumait mes prédictions pour 2018 et après : entre ce qui est vrai et faux, ce qui est humain ou pas, vivant ou artificiel, créations humaines ou d’IA, réel ou virtuel, nous allons perdre beaucoup de nos repères fondamentaux avec les nouvelles technologies comme l'IA, la VR/AR, les nanotechnologies ... et devrons apprendre à en trouver de nouveaux.
En retail, Guillaume de Roquemaurel précise aussi qu'on ne peut plus présenter sur un site e-commerce ou en rayon des centaines de marques sans distinction et qu’il est essentiel de personnaliser l'expérience en fonction de l'utilisateur.
Autre changement, Google prévoit que 50 % de ses recherches devraient passer par la voix d'ici 3 ans ce qui change fondamentalement la donne. Autant on accepte de voir des dizaines de résultats sur un écran, avec un assistant vocal, nous ne voulons qu’une réponse et si elle n'est pas pertinente, on l'abandonnera vite. Notre exigence est beaucoup plus élevée.
Pour l’anecdote, j’en avais parlé dans un petit ouvrage « Objets communicants au service des services » (cf. fin de la page 8, à ce moment-là, le terme objet connecté n'était pas encore consacré !) que j’avais écrit en septembre 2009 et de la nécessité d’intégrer une couche d’intelligence au-dessus ! Comme quoi, cela prend plus de temps qu’on ne croit …
Dans la mobilité, Valeo explique que la distinction entre le transport individuel et collectif se brouille avec le covoiturage le free-riding...
Au CES Las Vegas, j’avais vu que pour les constructeurs automobiles, le véhicule autonome était conçu dès le départ pour être partagé, ce qui paraît cohérent. Utiliser un véhicule autonome moins de 10% du temps par moins de 1,5 personne (moyenne actuelle) serait un non-sens. Le modèle économique de partage permet de fortement réduire son coût total (avec les revenus générés notamment) même si son coût initial sera beaucoup élevé que le coût actuel d’un véhicule non-autonome.
La conduite assistée est un préambule aux véhicules autonomes, Valeo a été pragmatique et a simplement demandé aux conducteurs ce qui les ennuyait le plus dans la conduite : se garer en ville les embouteillages et les autoroutes ennuyeuses. Ils en ont tiré leurs trois axes d’innovations et des solutions dans chaque cas.
Easymile serait la seule entreprise au monde avec Navya à commercialiser des navettes autonomes sans volant ni pédales.
Il est d'ailleurs possible de les tester dans le Bois de Vincennes sur un trajet déterminé et une voie dédiée. Le développement de ces véhicules se fera en parallèle et de manière complémentaire aux véhicules autonomes ayant un volant qui peuvent plus facilement être utilisés en route ouverte car un conducteur peut reprendre la main si nécessaire (ex : Rouen Normandy Autonomous Lab avec Transdev et Renault Zoé).
La cybersécurité a été abordée par Christopher Muffat de Dathena mais j'ai été déçu car j'étais persuadé qu'il nous parlerait de Generative Adversarial Networks (cf article sur GAN et sur les armes autonomes et la cyberguerre) pour contrer les cyberattaques et par exemple les utiliser lors de Bug Bounty pour détecter des failles de sécurité. Il n’en a rien été.
Jean-Philippe Desbiolles (IBM Watson) indique qu’il y a trois usages qui se développent très fortement pour Watson:
Il prédit la fin du code, le passage de la programmation à l’apprentissage, du déterminisme à l’adaptation du savoir, savoir-faire et du savoir-être.
Nous verrons de moins de codeurs et de plus en plus de développeurs voire de dompteurs d’IA (IA qui sera en charge de créer le code). A ce titre, autant il est nécessaire de savoir comment coder, autant il ne faut pas créer des armées de codeurs à la sortie des écoles car ils seront pour la plupart sans emploi dans une dizaine d’années (cf. article sur l’IA et l'éducation).
Il cite aussi l’excellente intervention de Jack Ma au forum de Davos sur la nécessité de changer notre manière d’enseigner en développant les « soft skills » (« Values, believing, independent thinking, teamwork, care for others » : avoir des valeurs, croire en quelque chose / quelqu’un, avoir un esprit critique, un esprit d’équipe, s’occuper des autres) sinon nous aurons de vrais problèmes dans 30 ans.
Il préconise de développer toutes les activités qui nous différenciera des machines pendant encore longtemps : sports, musique, peinture, art de manière générale.
Même s’il faut développer ses activités, il ne faut pas cesser d’apprendre les matières « dures » : maths, histoire, géographie, français et philo, SVT, physique/chimie … car ce sont des fondamentaux, des références qui nous seront indispensables pour bâtir notre créativité, créer des liens avec les autres et tout simplement pour ne pas être tout de suite larguées par les machines !
D'autre part, en plus d'apprendre, il est indispensable d'apprendre à apprendre, c'est dans ce sens que Cédric Villani préconise d'aller sur son rapport pour favoriser l'apprentissage des mathématiques.
L’homme a été et est toujours prolifique pour créer des lois, règlements, contrats…
L’IA pourra proposer des solutions qui y répondent car il aura tout ingurgité et sera capable de filtrer les solutions en fonction du respect ou non des contraintes légales, contractuelles...). L’IA pourrait certainement nous aider aussi à simplifier les lois et règlements en montrant toutes les aberrations, archaïsmes, contradictions, doublons que nous y avons laissés recouverts d’une grosse couche de poussière que personne n’a osé nettoyer vraiment depuis le code napoléonien. Cela pourrait être un challenge intéressant à relever pour des fournisseurs de solutions IA (en particulier s'ils sont dans le domaine juridique).
Pour l'anecdote, l'IA CaseCruncher a battu lors d'une compétition 100 des meilleurs avocats de Londres. Supervisée par deux juges, CaseCruncher Alpha et les avocats ont reçu les faits de bases concernant des centaines de cas de ventes abusives de PPI (Payment protection insurance, assurance emprunteur). Les deux entités étaient par la suite invitées à définir si l’Ombudsman financier autoriserait une réclamation ou non. Suite à la soumission des 775 prédictions, l’IA a finalement remporté la bataille avec un taux d’exactitude de 86,3% contre 66,3% pour les avocats. L'IA n'a pas pour vocation de remplacer les avocats mais plutôt l'assister, le guider dans ses choix.
Rentrons maintenant dans le vif du sujet sur des thèmes qui sont particulièrement polémiques dans domaine de l'intelligence artificielle :
Laurent Alexandre a été particulièrement beau joueur en acceptant pour la première fois d'avoir un discours positif sur l'intelligence artificielle à la demande de Damien. C'était un moment particulièrement émouvant ;) après avoir entendu un certain nombre de discours catastrophistes sur le devenir de l'homme face à l'intelligence artificielle qui ont néanmoins le mérite de nous réveiller et de nous bousculer.
Laurent égrène les progrès réalisés par la France, par son gouvernement, son administration en matière de compréhension de l'intelligence artificielle et de ses impacts, en termes d'action pour favoriser son développement.
Fini les investissements dans les canards boiteux à la sauce Plan Calcul, il rend hommage aussi à Mounir Mahjoubi d'avoir essayé de faire comprendre aux sénateurs ce qu’est le deep learning même si un certain nombre d’entre eux n’auront sans doute pas le temps de voir ce qu’est l'Intelligence Artificielle Générale ou AGI (53,7% ont plus de 60 ans or l’AGI devrait arriver dans 30 ans environ, - néanmoins, l’âge moyen des sénateurs a baissé de 5 ans entre 2014 et 2017 pour être à 61 ans aujourd’hui :). Ils se sentent peut-être moins concernés.
Laurent demande à ce que les chercheurs à l'INRIA (j’ai vérifié … cf. grille de salaire à l’INRIA – le maximum étant de 6000 € / mois pour un directeur de recherche de classe exceptionnelle, un chercheur peut gagner au maximum 3761 € brut /mois, selon Glassdoor sur un petit échantillon de chercheurs leur salaire moyen serait de 2600€/mois ce qui semble cohérent) soient payés plus que deux fois le salaire d'une femme de ménage chez AccorHotel (selon Indeed, le salaire moyen d’une femme de ménage est d’environ 1600€ / mois).
Laurent dit donc vrai, Isabelle Ryl (directrice de l’INRIA) confirme ses propos en regrettant amèrement de voir ses chercheurs partir en raison de la faiblesse des salaires au profit de nombreux GAFA.
Fidèle au credo qu'il avait quand il était à la tête d'Aldebaran, Bruno Maisonnier est encore plus affirmatif, trouve hérétique de laisser les GAFA installer en France des laboratoires d’intelligence artificielle où tous nos chercheurs sont aspirés et qu’il faut investir dans les entreprises françaises.
C’est sans doute un moindre mal que de les voir tous partir de France. D'une part, on aura beaucoup plus de chance de les revoir par la suite travailler sur des sujets qui ont un impact direct sur la société française ou européenne que s'ils partaient aux États-Unis (en particulier si on relève les salaires !), d'autre part leur expérience sera enrichie par toute la connaissance qu'ils ont eue chez ces entreprises.
En revanche, il est évident qu'il est indispensable de relever les salaires des chercheurs notamment dans le domaine de l'intelligence artificielle. La rémunération n’est pas leur première motivation dans bien des cas néanmoins si l'écart est trop grand et surtout s’ils tirent le diable par la queue tous les mois en raison de leur salaire, on peut comprendre qu'ils aillent voir ailleurs.
En valorisant mieux ces chercheurs, les entreprises et organisations françaises et notre pays en bénéficieront bien au-delà des coûts actuels.
Évidemment, Laurent ne saurait discourir sans manier le juron et l'hyperbole comme autrefois le scalpel en fustigeant les autorités européennes d'être ... trop mou (je vous laisse le soin de deviner ses termes exacts ;)
Il est à 100 % d'accord avec Cédric Villani concernant la stratégie sur l’IA a une petite exception près, ce n'est pas 30 milliards d'euros qu'il faudrait consacrer à l'intelligence artificielle mais 300 milliards, selon lui.
C'est, comme si au début du siècle, on préconisait d'investir la quasi-totalité des fonds sur les infrastructures ferroviaires en oubliant les routes et les avions. Oui il faut investir massivement, mais avec discernement et pas mettre tous ses œufs dans le même panier, L'IA ne représente pas toute la recherche ni toute la société.
Plus qu'une surenchère aux montants, il est indispensable d'avoir une stratégie industrielle. Plus que de partir d'un chiffre 300 ou 30 Md €, il est beaucoup plus judicieux de partir de la stratégie à adopter, d'en calculer le coût global et en fonction de prioriser pour arriver à un budget acceptable. Nous verrons mais certainement la stratégie préconisée par Cédric Villani dans son rapport sur l'IA.
Bruno Maisonnier dit même que ce montant d’investissement est absurde (ou un terme similaire). Il ne sert à rien d'investir des sommes phénoménales en deep learning car de toutes les manières, il est trop tard c'est foutu, car les GAFA ont déjà gagné cette guerre.
En revanche, il faut investir dans une IA explicable, nécessitant peu de données, comme la puce qu’il est en train de développer dans sa startup AnotherBrain ;)
J'ai une vision plus tempérée. D'une part, laisser complètement le champ libre dans le deep learning aux Américains et Chinois serait une erreur fondamentale, on ne sait jamais comment la roue peut tourner, les innovations majeures peuvent tout à fait provenir de la France dans ce domaine (rappelons notamment les contributions de Yann Le Cun, aujourd’hui chez Facebook à ce sujet). Enfin le deep learning (décrit en détail ici) pose un certain nombre de problématiques comme sa non-explicabilité (hors si on en fait la rétro-ingénierie cf. article), une grande quantité de données nécessaire, les biais de confirmation. La recherche dans ce domaine est essentielle pour bien les comprendre et aussi pour les réduire.
Tout le monde se pose la question : Qu’a de spécial la puce de Bruno ? Elle est de troisième génération ! Bruno fait référence aux trois vagues d'IA décrits par la Darpa dans la vidéo suivante.
La première vague est une IA créée à partir de la main/cerveau de l'Homme (Handcrafted Knowledge). Ce sont en général des algorithmes (sans apprentissage).
La deuxième vague est une IA supervisée où on va entraîner sur base de très nombreux cas, un réseau neuronal par exemple dans un cadre pré-déterminé. Ils sont bons pour percevoir/classifier et apprendre mais peu efficaces pour raisonner et conceptualiser (cf article).
La troisième vague est capable de s'adapter au contexte et de construire une représentation (ontologie) du monde. Il a surtout la capacité d'expliquer un raisonnement (à la différence d'un réseau neuronal) avec très peu de données. En revanche, il n'est pas précisé la nature de cette 3ème IA.
Sur le plan technologique, la première vague de puces est fondée sur des processeurs usuels, la deuxième vague utilise des processeurs GPU (multi-processeurs) et aujourd'hui des processeurs neuromorphiques qui sont en plein boom chez Intel et Nvidia qui permettent de simuler des réseaux neuronaux sur des puces de manière plus efficace que les cartes GPU actuelles.
Évidemment, j'ai questionné Bruno sur la nature de sa nouvelle intelligence artificielle et évidemment il ne m'a pas répondu. Néanmoins il nous a donné les indices en précisant que son intelligence artificielle était explicable et nécessite peu de données (caractéristique de la 3ème vague). A moins de créer un nouveau champ mathématique, il est probable que Bruno s'appuie sur l'IA symbolique qui nécessite beaucoup moins de données et est explicable.
Plusieurs candidats sont possibles, mais Bruno nous donne un coup de main, puisqu’il précise dans un article des Echos, qu’il s’inspire aussi « directement du fonctionnement élémentaire du cortex cérébral pour construire une IA forte », or selon pas mal d’études, l’IA qui reproduirait le mieux le fonctionnement du cerveau humain (en utilisant peu de données et en étant explicable) sont les réseaux bayésiens. Il a dû aussi utiliser des techniques qu’il a utilisées pour la marche de Nao lorsqu’il se redresse une fois tombé.
L’intérêt de la puce par rapport à une plateforme est de permettre de réduire les délais de latence, d’éviter les problèmes liés au GDPR en ne transmettant pas de données et en traitant tout en local.
A mon avis, la puce doit générer et tester un grand nombre de réseaux bayésiens sous forme d’arbres de décisions. On parle aussi de random forest, je dirai plutôt des smarts forests. J’ai parlé de cette technique pour rendre explicables des résultats de réseaux neuronaux mais on peut l’utiliser en direct sur des données brutes sans avoir des résultats préalables par des réseaux neuronaux. D’autre part, la puce doit avoir un système d’auto-apprentissage qui permet soit d’ajuster les poids sur chaque nœud de l’arbre de décision soit de générer de nouveaux arbres de décision. En revanche, elle doit être capable de fonctionner avec très peu d'éléments de départ. Un peu comme un poulian qui apprend à trotter. Réponse dans 18 mois ...
Quelque soit la méthode, c’est une très bonne approche car malgré ce que dit Laurent Alexandre l’IA n’est pas nécessairement une black box, au contraire c'est une période transitoire.
Laurent Alexandre fait un amalgame très gênant entre IA et deep learning qui effectivement n’est pas explicable. Il fait fi de cette IA de 3ème génération qui repose notamment sur l’IA symbolique qui est tout à fait explicable.
Deuxième point, Laurent dit qu’il faut accepter que l’IA ne soit pas explicable, et que les sénateurs commencent à le comprendre. Je m‘insurge contre cette position (Eh oui, ça m’arrive ;). Qu’on ne puisse expliquer pourquoi un réseau neuronal sait faire la distinction entre un chien et un chat dans une image n'est pas un problème.
En revanche, cela en est un dès lors que l'intelligence artificielle devient décisionnelle. Refuser un prêt, un emploi à quelqu’un voire le condamner à 20 ans de prison, sans lui expliquer pourquoi pose un petit souci (cf. vidéo) !
Ce n’est pas un caprice de député européen si la RGPD (GDPR en anglais) oblige à pouvoir expliquer à un consommateur la raison d’un refus dans le cadre d’un traitement automatisé.
Cela signifie d'ailleurs que toutes les techniques de profiling, de scoring… fondées sur du deep learning sont interdites par la RGPD (on peut l’utiliser a priori pour faire un pre-scoring mais la décision d’acceptation ou de refus doit être réalisée par un algorithme explicable ou par un être humain) – Lien direct vers l’article du RGPD (article 63)
« En conséquence, toute personne concernée devrait avoir le droit de connaître et de se faire communiquer, en particulier, les finalités du traitement des données à caractère personnel, si possible la durée du traitement de ces données à caractère personnel, l'identité des destinataires de ces données à caractère personnel, la logique qui sous-tend leur éventuel traitement automatisé et les conséquences que ce traitement pourrait avoir, au moins en cas de profilage. »
Accepter que l’IA de manière générale soit inexplicable est selon moi le pire des messages à faire passer. C’est la transformer en parole d'évangile. Ce qui fait progresser l'homme, c'est sa capacité à expliquer, à comprendre, à réfuter ses croyances initiales et à bâtir ses propres théories. Le lever du soleil, le mouvement des étoiles et la naissance d'un enfant furent il y a des milliers d’années des boites noires pour les êtres humains. Voulons-nous retourner dans cet obscurantisme naïf en croyant aveuglément ce que nous dira une AGI (intelligence artificielle générale) ou une ASI (super-intelligence artificielle) ?
Il faut à tout prix éviter que l'intelligence artificielle devienne magique et se transforme en religion, lui accorder le droit de devenir inexplicable est un pas dans cette direction.
Bien sûr, on ne va pas essayer de rendre explicable le deep learning, mais son utilisation doit être cadrée, elle peut contribuer à la prise de décision sans être le décisionnaire final qui doit revenir à un humain ou une IA compréhensible par un être humain.
Laurent Alexandre a balayé d’un revers de main la définition de son prédécesseur sur l’intelligence en disant que l'intelligence est la capacité de prendre le pouvoir sur autrui et rien d’autre. Pour moi, c’est une ineptie confirmée par l’histoire humaine.
Est-ce-que les nombreuses guerres gagnées par les Spartes contre les Athéniens sont dues à la supériorité de leur intelligence ? Non
Est-ce-que les peuples barbares ont vaincu les Romains grâce à la supériorité de leur intelligence ? Non
Est-ce-que la Révolution française résulte de l’intelligence accrue des bourgeois puis du peuple français sur la noblesse et le clergé ? Non
On pourrait multiplier les exemples, sans même évoquer le cas de la Seconde Guerre mondiale …
Ce n’est pas parce que l’on est plus intelligent qu’on prend le pouvoir, ce n’est pas parce que l’on prend le pouvoir qu’on est plus intelligent.
En période de paix ou lorsque les inégalités au sein d'une société restent tolérables, l'intelligence permet d’accéder à plus de pouvoir, c’est un facteur parmi d’autres. La relation entre l'intelligence et le pouvoir est similaire à celle d'un élastique, ceux qui auraient l'intelligence et le pouvoir tirent l'élastique d'un côté, face à eux, ceux qui ne les ont pas (la longueur de l'élastique représentant l'ampleur des inégalités). A force de tirer, un moment, il éclate et se transforme en révolution, en guerre... d'autant plus facilement que ceux qui auraient l'intelligence et le pouvoir font tout pour ne pas le diffuser et donc sont peu nombreux à la différence des autres beaucoup plus nombreux qui de par leur nombre peuvent par la force prendre le pouvoir.
Dès lors qu'un peuple à la volonté de prendre le pouvoir (lorsque les inégalités deviennent criantes et perçues comme telles ou parce qu'un dirigeant suivi par sa population veut envahir un autre pays) et que sa taille est suffisamment importante pour le faire par rapport au peuple à combattre, il le fera quelque soit son intelligence te dans un certain nombre de cas gagnera.
Le raisonnement de Laurent peut même mener même à des conclusions dangereuses. En affirmant que l'intelligence appartient à ceux qui prennent le pouvoir, cela inciterait ceux qui l’ont, à empêcher les autres d’accroître la leur voire la réduire afin qu’ils deviennent ignorants. Cela crée plus d'inégalités. Certains dirigeants de communautés ont d’ailleurs fait leur cette doctrine en plongeant leurs membres dans l’ignorance en détruisant des pans entiers de leur histoire. A l’inverse, si nous voulions avoir une société égalitaire où personne ne pourrait prendre le pouvoir, il faudrait niveler par le bas l’intelligence de tous, selon cette logique. C’est pourquoi ce raisonnement ne tient pas, selon moi.
Si la conclusion du raisonnement de Laurent mène vers de profondes inégalités, à l’inverse Mounir Majhoubi, prône dès le départ une position inclusive qui pousse à un nivellement par le haut et réduit les inégalités.
Mounir met aussi l'accent sur la première inégalité, le manque de femmes visibles dans l’audience (ce n’est certainement pas dû aux organisateurs mais à une trop représentation féminine générale).
Mounir l’avait déjà évoquée dans des discours précédents. Avant 13 ans, les vocations scientifiques sont équilibrées entre les garçons et les filles, il y a une forte réduction du pourcentage de vocation entre 13 et 19 ans qui est et ce n'est sans doute pas un hasard la période d'adolescence.
Sans être psychologue, voici une première idée de réponse : l'adolescence est une période où on construit son identité, on a souvent tendance à rejeter le modèle de ses parents et adopter de manière parfois grégaire le modèle de ses pairs. Cela signifie de manière caricaturale que si lors de l'adolescence, les « rôles modèles » pour les garçons c'est d'étudier les sciences et les technologies, beaucoup de garçons suivront cette voie.
Si pour les filles, il y a plus de rôles modèles, en littérature, en sciences humaines …, elles suivront plus ces voies. Une suggestion serait alors pour les filles entre 8 et 12 ans et durant l'adolescence , de les inciter à poursuivre leur voie dans les sciences et technologies et faciliter / encourager les rôles modèles féminins. C'est d'autant plus important, que les femmes sont mieux armées selon moi que les hommes face à l'IA (les hommes sont souvent trop experts, zone de prédilection de l'IA).
Le témoignage de Moojan Asghari, d'origine iranienne est à ce titre frappant. 70% des étudiants scientifiques et ingénieurs en Iran sont des femmes.
Il y a plusieurs raisons à cela, selon un article de Forbes, la révolution en 1979 et la crise économique en Iran qui a suivi n'ont donné d'autre choix aux hommes que de permettre à leur femme d'étudier et de travailler, d'autre part le gouvernement souhaitait rivaliser avec l'ouest et a mis en place une éducation gratuite à tous, ce qui l'a ouverte aux femmes. Khomeini a fait un discours qui disait à quel point il était fier d'avoir des femmes actives dans l'éducation et l'économie iranienne, qui a lancé de nombreuses vocations qu'il n'aurait sans doute pas imaginées.
La guerre Iran-Irak a aussi amené beaucoup de femmes sur le marché du travail de manière similaire à ce que les pays occidentaux ont vécu en particulier durant la Seconde Guerre mondiale.
Nous voyons deux choses, d'une part que ce n'est pas une fatalité d'avoir aussi peu de femmes dans la Tech, et qu'il faut certes agir sur beaucoup de leviers en même temps pour qu'elles accèdent à plus de responsabilités et mais qu'en agissant de concert nous parviendrons à changer la donne.
Petite digression, la lecture de l'article suivant est aussi éclairant, il montre que faciliter les périodes de congé maternité si cela accroît les différences de traitement entre hommes et femmes lors de la naissance d'un enfant a un impact négatif sur le travail et la promotion des femmes car les employeurs anticipant cela, proposent aux femmes des postes moins élevés et moins payés.
D'où la nécessité de fortement inciter les pères à prendre leurs congés parentaux et à rapprocher les droits et devoirs des congés paternité et des congés maternité, pour que les employeurs n'anticipent plus cet écart.
De manière plus globale, il y a un risque dans les pays occidentaux par rapport à la Chine d'un TechLash (dont je parle ici). Un quart des Français ("mainstream consumers" considèrent que l'IA sera bénéfique pour l'humanité) contre 60% en Chine et 30% aux Etats-Unis. Sur une courbe de Gauss, nous serions des late adopters versus des early adopters. (Etude iLIfe - BETC)
Même si la Chine a une position trop « Tech fan » (relatée d'ailleurs par un édito éclairant de Laurent Alexandre à ce sujet), le risque est de faire face à un TechLash où notre société serait vent debout contre la technologie alors que d'autres pays l'embrassent pleinement. Il faut un juste milieu.
Interdire les propos de Laurent serait absurde pour moi car heureusement nous avons la liberté d'expression.
Néanmoins, il y a deux raisons pour lesquelles certains pourraient vouloir réduire son exposition. La première est qu'il attise la peur qui certes réveille mais n'incite pas à l'action positive mais à une action défensive et de rejet. Au contraire il faut favoriser l'action positive (c'est sans doute l'objectif de Laurent aussi est-ce la raison pour laquelle peut-être adoucit-il son discours alarmiste).
Il a fait des amalgames gênants lors de l'AI Night, comme je l'ai précisé plus haut, (IA=pouvoir, IA=Blackbox), c'est vrai qu'il est plus facile de présenter une vision simple pour se faire comprendre de tous néanmoins je pense qu'il faut élever plus le débat au-delà des formules simples.
En revanche, est-ce que les discours de Laurent sont dangereux ? Non, à partir du moment où on fait appel à son sens critique. Il est même extrêmement utile car il casse avec virulence certains dogmes, nous oblige à réfléchir et à agir autrement (en accord ou contre ses idées) au lieu de nous endormir.
Laurent est aussi un vaccin contre la crédulité car il nous contraint à garder un esprit critique, à séparer le bon grain de l'ivraie. Cet esprit critique nous sera indispensable car ce sera des millions de Laurent Alexandre cachés dans nos smartphones, objets, maisons qui nous diront que faire et à qui nous serons capables de dire "Non, je ne suis pas d'accord, je choisis une autre voie" alors qu'il nous aura donné des conseils très pertinents juste avant.
Lors de ces talks, une demande est revenue en force : libérer les données. Une entreprise comme Cardiologs n’a pu commencer à utiliser l’IA pour détecter des problèmes cardiaques que lorsqu’ils ont eu accès à des données d’hôpitaux US, chinois… car ils ne pouvaient avoir des données de santé venant de France. Leur chance est qu’un coeur américain ou chinois est très proche d’un coeur français.
Cédric Villani parle très bien lors de son allocution à l’Assemblée nationale de cet équilibre à trouver entre donner accès aux données pour permettre aux entreprises françaises, startups mais pas uniquement de se développer et respect de la vie privée.
Le mot d’ordre à l'AI Night est de créer un cadre qui permet de libérer les données. Si on reste là, je reste néanmoins perplexe, car la meilleure façon de faire peur à tout le monde et de créer une résistance de tous est de dire qu’on libère les données. Le terme me semble beaucoup trop fort et pourrait être remplacé par des termes plus communs comme utiliser des données anonymisées.
Cela a été évoqué mais trop peu, qu'il est possible de libérer les données tout en préservant la confidentialité des données personnelles, en utilisant des IA et des algorithmes fonctionnant avec des données cryptées ou en agrégeant des données en empêchant un retour arrière sur des données personnelles.
Un exemple donné par David Giblas est saisissant. Le protocole d'utilisation de données dans la santé est celui utilisé pour les tests cliniques (donc sur des nombres beaucoup plus petits que le nombre généralement utilisé pour entraîner des algorithmes d'IA.) Ce cadre n'est pas du tout approprié pour des larges études épidémiologiques (aujourd'hui certes possibles, mais qui ne permet pas de croiser suffisamment de facteurs – vos retours sont bienvenus à ce sujet.)
Les débats sont nombreux et deviennent foisonnants. Assez rapidement, nous devons rentrer dans une première phase de synthèse de ces débats pour avoir une ligne directrice, une stratégie française et européenne.
Nous apprendrons en marchant afin que l'IA devienne un vrai levier pour l'ensemble des êtres humains et nous aide à faire face aux nombreux bouleversements que notre planète nous réserve tout en évitant les risques d'endormissement ou de diabète intellectuel si nous nous laissons faire l'IA sans esprit critique.
Dimitri Carbonnelle - Livosphere
Conseil en Internet of Things, Intelligence artificielle et Robots
Speaker / Modérateur
Avant de commencer mon debrief du CES Las Vegas (fin janvier), comme chaque année, je fais quelques prédictions sur les tendances, les événements, les ruptures que j’anticipe pour l’année qui suit.
For English Speakers - Google Translation
Je brosse un tableau très large car les nouvelles technologies (IoT, IA, robots, blockchain…) auront des impacts sociétaux et même civilisationnels de plus en plus majeurs.
2018 pourrait se résumer pour moi en trois mots : inflexion, confusion et confrontation … 2019 et après seront le début de la transformation dans le bon sens du terme 😉
Inflexion car nous sommes à un point où les nouvelles technologies accessibles au plus grand nombre vont profondément bouleverser notre quotidien en plus et aussi en mal (selon les intentions de ceux qui l’utilisent)
Confusion nous allons perdre beaucoup de nos repères fondamentaux : humain / non humain, réel/virtuel, vivant/inerte, créations humaines / créations d’IA, vrai/faux car les technologies brouilleront les frontières
Confrontation entre les États qui voudront reprendre la main face au GAFA, entre GAFA/BATX, nouveaux et anciens, individus et entreprises/acteurs publics, créateurs, diffuseurs de contenus et opérateurs télécoms.
Enfin, Confrontation avec notre société Formule 1 face à notre propre planète qui nous obligera à devenir une société tout-terrain pour que la technologie soit au service de la résilience et non seulement de la performance.
Voici les différents éléments de l’article (avec des liens directs), il est très long (plus de 12 h de vol jusqu’à Vegas, ça aide 😉
IA dans nos vies :
IoT - Internet des Objets
Intégration et assemblage des nouvelles technologies (IA, IoT, Blockchain, Robots)
La confrontation des plaques tectoniques : Etat, GAFA/BATX, Anciens/Nouveaux, individus, Notre Planète
Je vous l’avoue, je suis quelque peu bavard et verse souvent dans les digressions mais c'est l'occasion de mettre un peu de matière pour étayer mes prédictions.
Inflexion car nous vivons une période où les nouvelles technologies (Intelligence artificielle, IoT, programmation génétique avec CrispR, robots ) deviennent accessibles au plus grand nombre
L’enjeu pour beaucoup d’acteurs n’est pas tant l’accès aux technologies mais l’accès aux données qui utilisent ces technologies. La bataille pour être le premier point de contact de l’utilisateur sera féroce car celui-ci sera La Plateforme (ou ubérisera…) qui « dispatchera » les différents services mais aura la plus grande marge, légitimité auprès du consommateur et ne deviendra pas une commodité.
Confusion car nous perdrons des repères fondamentaux et millénaires pour l’être humain, les technologies vont brouiller les frontières :
Cette confusion créée pour beaucoup d’acteurs, une formidable opportunité de rebattre les cartes ou au contraire est une terrible menace de tout perdre. États, GAFA/BATX, entreprises, individus … vont se confronter, nous assisterons aux chocs de plaques tectoniques, de tremblements de terre digitaux, sociétaux et mêmes planétaires.
Nous sommes à un moment de crise au sens étymologique du terme (κρίσις, krisis – moment de choix, de décision ) où tout peut basculer dans un sens ou un autre mais où l’humanité devra faire ses choix.
Étant un éternel optimiste, ce n’est qu’une période de transition qui devrait aboutir à une profonde transformation de nos sociétés d’ici 3 à 5 ans. De toutes les manières, c’est notre planète qui au final sifflera la fin de la récré (11000 ans depuis les débuts de l’agriculture sur 4Md soit moins de 4 mn sur toute une scolarité, études supérieures incluses. ;)
Il y a de fortes chances que les États reprennent la main vis-à-vis des GAFA, entreprises, (Techlash via la réglementation …) soit de manière autoritaire comme cela se passe dans certains pays soit de manière concertée. Une Europe unie pourrait avoir un rôle majeur si nous ne voulons pas être écrasés par la Chine, l’Inde désormais 5ème puissance mondiale avant la GB et la France, les Etats-Unis, les autres BRICS (Brésil, Russie, Afrique du Sud) et l’Afrique (qui va connaître une très forte croissance), rien n’est joué…
Un des grands intérêts de l’IA est de transformer des données complexes en décisions simples ou en actions automatiques.
Le nerf de la guerre étant l’argent, les GAFA investissent massivement dans l’IA pour nous faire acheter plus en supprimant le maximum de frictions (en facilitant le choix et le paiement), en étant présent au bon moment (achats contextuels en fonction du lieu, du moment, des personnes avec qui vous êtes) et en s’adaptant à vous (personnalisation de services et même de produits, cf. fog manufacturing ci-dessous ) qu’on pourrait traduire par : Sell the personalized product, to the right person at the time.
Fini le temps des bannières publicitaires avec des taux de clics inférieurs à 0,1% (cf. article sur Amazon), on va chercher des taux de transformation et d’achat de 10%, 20%, 50% voire 99% (il y aura toujours des récalcitrants !) d’autant plus facilement que nous fournissons toutes les données nécessaires. Un "Do you want to buy X" se transformera en « Yes, you can » et même « now and forever » … si on tient compte des services comme Amazon Replenishment Service qui automatiquement vous commande votre lessive dès que vous n’en avez plus en détectant via votre machine à laver connectée que votre réservoir de 5 litres n’a plus qu’un litre dans le ventre.
L'intelligence artificielle fleurira dans un très grand nombre d'applications comme Facebook Messenger, WhatsApp et sur les sites web d’Amazon, Google (recherche, Youtube, photos...) pour nous pousser de la pub contextuelle, achetable en un clic. C’est devenu très commun avec WeChat (cf. intervention TED sur le futur du shopping en Chine) qui intègre tout – messagerie instantanée, services, paiement. Il y a juste un petit souci, nous pousser à surconsommer, est-ce vraiment raisonnable quand nos ressources planétaires viennent de plus en plus à manquer … La réponse d’Angela Wang à la fin de ce TED est éloquente à ce sujet !
Aujourd’hui, nous arrivons en très grande majorité à distinguer ce qui a été imaginé par l’homme de ce qui a été « imaginé » par une machine même si aujourd’hui, il est plus difficile de distinguer ce qui est fait par l’homme de ce qui est fabriqué par la machine.
En 2018, nous verrons de plus en plus de contenu « créatif » venant de l’IA, pas encore réellement original mais cela viendra. Aujourd’hui, les créations d’IA ressemblent plus à des mashups ou de l’interpolation d’images, sons, de vidéo. Des couches cachées d’un réseau neuronal extraient un style, les appliquent à des images, du texte ou des vidéos pour créer une nouvelle image dans le style d’un peintre, compositeur….
En 2018, nous verrons une explosion d’oeuvres d’IA créatives, dont nous serons incapables de distinguer des œuvres humaines. Vous en voulez un avant-goût …
Des scientifiques ont créé des œuvres en utilisant des réseaux neuronaux créatifs (CAN - Creative Adversarial Networks). À la différence des GAN (Generative Adversarial Network) qui font des « copies » d’œuvres existantes, les CAN produisent des oeuvres perçues comme nettement plus créatives. D’ailleurs, ils ont montré que des êtres humains n’étaient pas capables de faire la distinction entre ces créations et celles créées par des êtres humains (exposées à Art Basel 2016 et des œuvres d’expressionnisme abstrait).
Dans le même registre, Aiva est la première IA, compositrice enregistrée par la SACEM, comme vous l’entendrez, la musique conviendrait parfaitement pour des musiques de film... Vous avez sans doute entendu parler de Daddy’s Car composé sur base de chansons des Beatles il y a la version Bach pour les férus de classique. (projet Flow Machines de Sony CSL Research Lab avec un financement européen).
Pensez-vous qu’Alpha Go pourrait devenir créatif. Le fameux paradoxe du singe savant et la bibliothèque de Babel de Borges pourraient prendre tout son sens avec l’IA…
Il suffirait qu’elle soit capable de générer une quasi infinité de textes, de couper les branches non créatives et « absurdes », par exemple en mesurant l’entropie de Shannon (ni trop faible car peu originale, ni trop forte, car trop aléatoire et donc ayant trop peu de sens) ou faisant appel d’abord à des humains pour juger de la créativité puis en simulant via de l’Adversarial IA ce jugement. On applique grosso modo la méthode utilisée par Alpha Go Zéro (bottom-up) pour créer du contenu. La méthode top-down est plus proche du premier Alpha Go qui a battu Ke Jie, champion du monde de GO…) !
Pour un artiste, l’IA permet de démultiplier sa capacité créative mais aussi de béotiens. A partir d’une simple photo ou de quelques mots-clés, on pourrait créer un chef-d'œuvre digne de Degas ou de Van Gogh… enfin la plupart des gens le croiront.
On peut même imaginer d'ici quelques années que Spotify ou Deezer créent de vraies playlists personnalisées avec des musiques, des chansons créées de toute pièce et à la volée basée sur nos préférences avec des textes et mélodies qui nous sembleront complètement inédits. Sacré challenge à venir pour les artistes.
Petite question pour les juristes, à qui va les droits d’auteurs si un réseau neuronal utilise des chansons ou des œuvres protégées pour créer des chansons complètement originales, comment les répartit-on Est-ce toujours du plagiat Comment d’ailleurs pourrait-on le savoir dans le cas où un réseau neuronal puise dans des milliers d’artistes
La réponse viendra peut-être d’une IA qui déterminera si l’IA incriminée intègre ou non tel ou tel artiste (Cf. article sur les limites de l'IA…)...
Il aura une course à l’IA, entre une IA créant du faux contenu, et une IA cherchant à le détecter et l’éliminer, une surenchère incessante à l’intelligence en perspective … où Google, Facebook en particulier seront en première ligne.
Il y aura une recrudescence de fraudes où des personnes se font passer pour des amis ou des proches en reproduisant leur voix, en créant de fausses photos ou vidéos pour créer un faux sentiment de confiance.
Vous voulez le tester par vous-même, faites le test sur cette page vous me direz si vous distinguez la voix humaine de la voix d'une IA.
Bien sûr, le versant noir est la création de faux contenus pouvant se faire passer pour du vrai, la fausse vidéo de Barack Obama montre ce dont l’IA est capable. Il sera de plus en plus difficile de reconnaître ce qui est vrai, de ce qui est partiellement vrai et de ce qui a été créé de toute pièce. On arrive notamment à créer des voix qui ressemblent à celle d’êtres humains.
Il ne nous reste plus beaucoup de temps avant que toute création ne soit soupçonnée d’être au moins partiellement produite par l’IA. Je profite de ces derniers instants pour vous exposer une création 100% Human Inside…
Un jour, il n’y a pas si longtemps, une amie titillait mon imagination avec une photo et un commentaire "La terre est bleue comme une orange." ... "on doit être hors saison"...
Avant qu’une IA ne me pique l’idée, je choisis de prendre le poème d’Eluard et la chanson de Cabrel de les mixer avec un zeste de moi pour les deux dernières lignes.
La terre est bleue comme une orange
On doit être hors-saison
Sorti d'un rêve étrange
J'en garde le frisson
Dans les brouillards salés
L'aube se passe autour du cou
Que mon écharpe nouée
Du froid se joue
Les murs, les jardins, les rues
Un collier de fenêtres
on croit connaître
on se voit perdu
Ils ne vous donnent plus à chanter
Sa chanson vide "où es-tu "
Qu'une âme veuille l'entonner
Elle ne sera entendue
Tout mon courrier déborde
Tous les secrets tous les sourires
Si nos lettres s'accordent
pour nous les offrir
Les guêpes fleurissent vert
Au seuil de ton pavillon
Tout le soleil sur la terre
On doit être hors-saison
Combien de temps avant quelques étincelles créatives ne soient considérées comme d’une banalité confondante car tellement faciles à reproduire pour une IA
Bravo en tout cas à celle ou celui qui parviendra à créer la première IA mixant poèmes et chansons. Prévenez- moi quand vous l’avez réalisée !
Difficile de ne pas en parler, l’IA détruira des emplois (il en créera aussi bien sûr ;).
Les banques, les sociétés d’audit, les distributeurs (surtout en raison de la montée de l’e-commerce) devraient donner les premiers coups d’envoi aux plans de départs massifs dus à l’IA. Pour éviter que de trop nombreux ex-salariés restent sur le carreau, l’enjeu est non seulement de favoriser la formation professionnelle au sein des entreprises mais au-delà d'inciter et former ses salariés à apprendre à apprendre (cela commence d’ailleurs à l’école comme je le précise dans cet article).
Pour réduire l’impact d’une perte d’activité, il faut faciliter et encourager les activités rémunérées annexes ou connexes et le passage d’une activité à un autre (avec l’auto-entrepreneuriat, les revenus issus de l’économie du partage, l’autoconsommation, le troc de services …) .
L’entreprise deviendra de plus en plus une plateforme ouverte avec une vision et des projets réunissant internes et externes où le salariat exclusif diminuera au profit de formes flexibles de travail. Les couvertures sociales de chaque forme de travail devront se rapprocher du salariat pour faciliter le passage d’une forme à une autre.
Un exemple : favoriser les contrats de travail multi-entreprises où il serait très facile de basculer d’une entreprise à une autre en fonction de l’activité en particulier pour les bassins d’emploi restreints. Cela nécessite néanmoins une polyvalence et une flexibilité des salariés.
L’IA commence à devenir une aide précieuse pour les scientifiques, on devrait avoir une pluie d’avancées majeures en sciences :
L’IA pourrait faire son entrée en politique économique (de manière cachée au départ) pour étudier, simuler les impacts de décisions politiques mais aussi de manière pragmatique pour débusquer les fraudes fiscales.
L’AIpotism ou IApotisme n’est pas encore d’actualité mais qui sait dans 20 ans nous serons peut-être gouvernés par une forme de despotisme éclairé par l'IA (ci-contre Frédéric II de Prusse en exemple;) , nous n'aurons peut-être même plus le choix, car devant la complexité de notre monde et des répercussions que l’homme aura sur lui, seule une IA pourra vraiment y faire face ;)
Une des prochaines « frontiers » que l’IA va dépasser en 2018 est la « compréhension » du monde physique.
Comme l'expose très justement Yann Lecun, l'intelligence artificielle, pour être précis, les réseaux neuronaux nécessitent énormément de données or autant pour le GO, il est facile de jouer contre soi-même des millions et des millions de parties afin d’entraîner un réseau neuronal, autant reproduire et apprendre du monde physique à partir d'expériences réelles semble matériellement impossible.
Pour donner un exemple, apprendre à marcher avec un réseau neuronal semble impossible pour une intelligence artificielle car le temps d'apprentissage sera beaucoup trop long néanmoins il y a une solution qui pourrait pallier au moins en partie à ce problème : la simulation numérique.
Une entreprise comme Dassault Systèmes (3DS) est devenue spécialiste pour reproduire virtuellement les effets physiques et mécaniques (en intégrant la gravité, les effets de lumière…) d’un très grand nombre d'objets physiques, ainsi que de structures telles que des bâtiments et même des villes (reconstitution de Paris à travers les âges par 3DS). Même si ces simulations ne reproduisent pas à 100 %, la réalité, elles permettent néanmoins d'avoir une très bonne approximation qui pourrait être utilisée largement par les IA. L'apprentissage sur le terrain pourrait se faire dans un deuxième temps, il permettrait d'affiner le réseau neuronal tout en contournant la limitation physique initiale.
Les GAFA/BATX (équivalents chinois des GAFA : Baïdu Alibaba Tencent Xiaomi) useront et abuseront des simulations pour comprendre et modéliser le monde physique.
Aujourd'hui la plupart des développements d’IA tournent autour des réseaux neuronaux (IA connexionniste) et du deep learning. Ils sont parfaitement adaptés pour percevoir, classifier interpréter les images des sons, des vidéos.
Mais comme j'avais expliqué dans un récent article, ils ont des défauts intrinsèques. Le premier est la quantité de données nécessaires pour l’entraîner. Tout le monde s’affaire pour la réduire ou plutôt pour générer de nouvelles données à partir de données actuelles (forme de PCR quantitative, processus d'amplification exponentielle de l’ADN mais pour l’IA ;) En effet, il est plus simple de générer des données imaginaires (avec l’Adversarial IA) à partir d’un nombre réduit de données que d’utiliser directement un nombre réduit de données.
Néanmoins, il reste d’autres défauts tels que l'incapacité à expliquer leur raisonnement, le biais de confirmation … qui les rendent peu adaptées pour prendre des décisions. L’IA symbolique ou formelle (l’IA à la papa diront certains car un peu reléguée aux oubliettes face à la déferlante du Deep Learning) n’est pas adaptée pour traiter et classifier des très grands nombres d’images… en revanche, elle l’est beaucoup plus pour prendre des décisions car elles peuvent justifier leur choix ( obligatoire d’ailleurs dans le cadre de la RGPD / GDPR Règlement général sur la protection des données.)
Les réseaux bayésiens, les systèmes experts apprenants, les arbres de décisions et "random forest" sont quelques unes des techniques de l’IA symbolique qui devraient fortement se développer en 2018.
S’il fallait comparer l’IA symbolique avec les réseaux neuronaux, c’est un peu comme si vous compariez l’algèbre moderne à l’arithmétique ou la géométrie classique à la géométrie analytique (comparaison imparfaite néanmoins car l’algèbre moderne couvre aussi la diagonalisation des matrices utilisées dans les réseaux neuronaux …).
L’IA symbolique peut être utilisée pour des assistants de preuve mathématique qui ont servi à formaliser la démonstration pour le théorème des quatre couleurs, en 2005 et la conjecture de Kepler en 1999.
Comment choisir la bonne IA parmi cette foultitude d’IA avec des capacités différentes à traiter des problèmes de nature multiples et des contraintes différentes ? Il suffit de faire appel à notre ami magique, l’IA de nouveau !
Eh oui, une IA pourrait avoir le rôle de superviser de multiples IA, c’est d’ailleurs un des rôles de l’IA d’Alpha Go (pas Alpha Go Zéro qui n’a qu’un seul réseau neuronal ... qui est d’ailleurs plus performant… sauf si Alpha Go Zéro encapsule une forme d’IA régulatrice dans son réseau neuronal mais cachée dans l’une de ses couches neuronales …)
On peut imaginer une multitude de couches d'IA différentes composée d’un réseau neuronal générant des "randoms forests" (arbres de décision dont les noeuds seraient eux-mêmes composés de mini-réseaux neuronaux), le tout supervisé par une méta-IA symbolique ou un algorithme génétique.
On pourrait aussi inverser : un méta-réseau neuronal (adversarial IA, double système d’IA avec un générateur de données et un discriminateur) gérant une multitude de réseaux neuronaux, voire des IA mutants intégrant de multiples IA concurrentes et complémentaires à l’image d’un corps humain qui élimine les anti-corps et absorbe la nourriture. Nous ne sommes qu’aux prémices de l’IA, pas sûr d’ailleurs que nous soyons capables de bien comprendre leur évolution !
En 2018, nous verrons une chute d’usage des agents vocaux intelligents (en particulier Google Home).
À l'image des SmartWatch après un buzz et un succès commercial d'achat, la fort baisse des ventes risque de pointer son nez d'ici 6 mois. A l'image du lapin Nabaztag et de Mother de Sen.se, la fréquence d’usage de ces agents vocaux devrait fortement diminuer après quelques mois d’utilisation car aujourd'hui ils sont beaucoup trop génériques. Aujourd'hui, le premier usage (30%) est pour écouter la musique puis commander sa maison '20%), enfin réaliser des achats 10%)
Amazon Echo tirera son épingle du jeu pour la partie achat, le Home Pod d’Apple devrait avoir un destin similaire à l’Apple Watch, importantes ventes au début mais usage réel faible en dehors de la fonction enceinte.
En revanche, il devrait y avoir un développement des agents vocaux spécialisés au sein d'objets connectés comme dans l’électroménager, la télévision pour des usages spécifiques et simples comme j'en ai parlé dans l'article suivant.
De plus en plus d’industriels préféreront embarquer la puissance de calcul et l’« intelligence » dans des processeurs plutôt que la déporter dans le cloud pour de multiples raisons :
sachant que le coût des puces et leur consommation d’énergie se réduisent de plus en plus pour une puissance croissante.
Le rapport aujourd'hui entre les humains avec les objets est encore très utilitaire (moins le cas en Asie et Afrique qui ont des cultures animistes bien plus développées qu’en Occident).
On verra de plus en plus d’objets exprimer de fausses émotions et sentiments pour créer de l’empathie, de l‘attachement de la part de l’utilisateur. Même si c’est encore tôt, l’intelligence artificielle sera mise à contribution pour créer ces émotions et s’adapter à nous.
Je suis curieux de voir comment l’IA va apprendre à nous manipuler et si comme au GO, les techniques comme le pied dans la porte, la culpabilisation… seront découvertes toutes seules et les nouvelles techniques qu’elle va développer à l’image des coups imaginés par Alpha Go Zéro !
Pour info, la meilleure manière d’échapper à la manipulation, c’est d’en connaître les techniques ;)
Autre moyen pour développer les émotions, avoir un design se rapprochant d’êtres vivants. Aïbo, le premier robot de Sony, Nao avec sa tête plus grande que le corps pour nous faire penser aux bébés l’illustrent. Je pense notamment que les agents vocaux intelligents sous forme de cylindre feront place au fur à mesure à des robots ressemblant à des animaux pour susciter plus d’interactions.
Les interfaces naturelles comme la voix, le geste se développeront, ce qui sèmera de plus en plus la confusion entre le réel et virtuel, le physique et le digital.
Nous verrons de plus en plus d’objets écrans (avec des écrans souples), qui changent de couleur, de motif voire même de texture (comme le montre la startup française Hap2U qui modifie la texture d’un écran grâce à des ondes acoustiques.).
Au début, beaucoup de ces objets seront des gadgets néanmoins, quelques-uns devraient sortir du lot, ceux qui répondent à de vrais usages, où cela a du sens d’intégrer du digital à l’objet.
Des villes commenceront à n’autoriser que les véhicules électriques et autonomes dans leur centre-ville (mais cela pose des problèmes à la fois lors de recharges simultanées par exemple vers 19h, de la capacité à produire de l’électricité décarbonée et d’avoir des solutions de stockage massif d’électricité)
Les réseaux d'objets connectés en B2B se développeront de plus en plus massifs, le NB-IoT fera petit à petit son apparition, mais ce sont surtout des objets connectés en Lora et SigFox qui seront déployés en 2018.
La 5G (bas débit car il y a plusieurs 5G …) pour l'IoT ne devrait pas apparaître commercialement avant 2023 (en étant optimiste) même s'il y aura beaucoup de tapage médiatique de la part des fabricants de puces (comme Qualcomm et Intel) et d’infrastructures réseau (Huawei, Nokia, Ericsson).
Les raisons principales sont que les gains apportés sont très faibles par rapport aux autres technologies (Lora, Sigfox, NB-IoT et LTE-M), le gain financier pour les opérateurs ridiculement bas (un abonnement annuel inférieur à 10€ !) et un coût de déploiement et de maintenance en infrastructure beaucoup trop cher (fog /edge computing), avec une myriade de petites bases stations à maintenir pour réduire les délais de latence notamment. En revanche, la 5G à très faible délai de latence destinée aux véhicules autonomes devraient commencer à se déployer sur les autoroutes (là où c’est le plus intéressant d’avoir des véhicules autonomes :)
J’en ai parlé l’année dernière et cela tarde mais je crois que le Bluetooth 5.0 devrait mettre au rebut la plupart des protocoles propriétaires et plus ou moins ouverts dans la maison (Zigbee, Zwave, Enocean, Thread..) car d’une part les puces coûtent très peu chères, elles sont intégrées dans les smartphones, le BLE 5.0 est many-to-many (le BLE 4.0 était one-to-one – appairage seulement de deux devices) et il est mesh (réseau maillé).
À l'image du micro USB et USB-C, la norme QI va devenir un standard de fait dans la recharge.
Apple a intégré la recharge par induction QI sur iPhone X, iPhone 8, et iPhone 8 Plus et la norme devrait se diffuser de plus en plus pour simplifier la recharge.
Les nouvelles technologies s’intégreront et s’imbriqueront de plus en plus entre IA, IoT, robotique, Blockchain, génétique. Theranos a complètement échoué dans les tests sanguins automatisés mais d’autres startups prennent la relève. Eligo BioScience dirigé par Xavier Duportet n’utilise pas encore de robots associés à l’IA pour réaliser ces tests biologiques mais mon petit doigt me dit que d’ici 2, 3 ans, cela deviendra une évidence.
D'autre part, surviendra la première implantation de puce neuronale destinée à des malades d'Alzheimer pour augmenter leur mémoire. Une question se pose néanmoins autorisera-t-on les malades d'Alzheimer à avoir plus de mémoire que les autres êtres humains ?
Il devient possible de créer des entreprises autonomes générant du CA automatiquement. Un site e-commerce proposera de personnaliser votre produit, personnalisation qui aboutira directement à une mini-usine qui fabriquera et transmettra directement le produit au client via un logisticien avec un support dédié en cas de problème.
Il « suffit » de construire un mashup de briques logistiques, de production, d’e-commerce connectées via des API… En ajoutant de l’IA et de la DAO (Decentralized Autonomous Organization, une organisation fondée sur le blockchain fonctionnant grâce à un programme informatique qui fournit des règles de gouvernance à une communauté) , vous pouvez même créer une plateforme collaborative automatisée.
Cela pourrait même être un nouveau placement financier ! En revanche, une entreprise autonome peut aussi selon sa construction générer automatiquement du déficit !
Potentiellement, un point de vente peut devenir un lieu de production pour la personnalisation finale. Lancôme propose son fonds de teint fondé sur un scan en magasin de l’incarnation de votre peau sachant que trouver le bon fond de teint est extrêmement fastidieux (70€ ! ) bien sûr beaucoup plus élevé.
Le défi pour les entreprises est de livrer des produits personnalisés aux utilisateurs de manière quasi instantanée (tout en évitant une surconsommation des ressources by the way).
Pour résoudre cette quadrature du cercle, il y a plusieurs moyens :
Comme je le disais en introduction, 2018 sera l'année où de nombreuses plaques tectoniques (les États, les GAFA/BATX, les citoyens et utilisateurs, notre planète vont se percuter et provoquer des tremblements de terre numérique, sociétaux voire civilisationnels.
Evasion fiscale des grands groupes, bitcoin, collecte massive de données personnelles par les GAFA, influence des citoyens (via des médias concentrés , les fake news…), recherche et mise en œuvre de nouvelles technologies (blockchain, IoT, Intelligence artificielle, génétique …) menées par des sociétés privées alors qu’elles transformeront profondément nos sociétés : … montrent que les États ont nettement perdu de leur pouvoir et influence face aux entreprises en particulier les GAFA.
Mais les États ne vont pas se laisser faire … L’espérance de vie d’un Etat est nettement plus grande qu’une entreprise privée ce qui lui permet d’agir sur le long terme (certes, les élections influent sur un pays, mais il y a une inertie beaucoup plus grande ce qui a aussi ses avantages !), il peut agir de conserve avec d’autres États sur le plan international et mondial et actionner des leviers puissants en particulier la loi, sur lequel nul autre acteur ne peut agir directement.
Les États feront leur grand retour en 2018 via la réglementation (fiscalité et financement, travail, environnement, solidarité nationale, alimentation…), leurs prérogatives régaliennes (sécurité des individus, défense nationale, le contrôle des mouvements de population…). Le GDPR qui réglemente la protection des données personnelles et les premières amendes records aux GAFA. 100 Me à Facebook concernant son rachat de What’s App, 2,4 Md€ à Google pour abus de position dominante concernant Google Shopping et 1,1 Md € pour redressement fiscal (au final rejeté par le Tribinal administratif de Paris). Ce n’est que le début … 2018 sera l'année où des amendes supérieures à 5 Md$ seront infligées à des GAFA.
Je parie sur une réglementation sévère sur les bitcoins et autres monnaies virtuelles (je prédis qu’il devrait chuter à moins de 5000 USD, minimum ;) Je vois mal les États accepter de se faire piquer un de leurs prés carrés les plus chers : l’argent ! Les ICO (initial coin offering, levée de fonds en Bitcoin) sont déjà interdits en Chine, ce n’est qu’un début.
La nouvelle arme de dissuasion et potentiellement destruction massive est le hacking et la cyber-guerre. Chaque État va tester les défenses de ses ennemis et alliés.
Il est possible qu’on assiste à des pannes géantes en raison de ce type d’attaque. L’arrivée de l’IA à ce sujet va certainement accélérer cette course (cf article). Ce n’est pas anodin, si Vladimir Poutine a dit que l'Etat qui deviendra le leader en IA sera celui qui dominera le monde (cf article sur les risques des armes autonomes)
L’influence et les risques de déstabilisation via les divulgations d’informations secrètes, fausses… sont loin d’être terminés. Cela devrait avoir deux effets, accroissement de la protection mais aussi un effet positif : plus grande « honnêteté » des entreprises (moins de corruption, de travail d’enfants de discriminations..).
Comme les secrets ne le demeurent de moins en moins longtemps, que quelqu’un va fuiter l’information, tant qu’à faire, on évitera de prendre des risques qui peuvent mettre en péril votre entreprise parc qu’un conciurrent, un État a décidé de saborder votre entreprise. Cela n’empêche pas la divulgation de fausses informations mais il est toujours plus facile de se battre contre des calomnies que des vérités à cacher.
Il est aussi possible qu’on voit apparaître les premiers dopages intellectuels dans des États ayant des régimes dictatoriaux ou proches... Cela devrait d'ailleurs poser de très grands dilemmes éthiques pour les États démocratiques qui ne pourraient normalement lutter à armes égales ;)
2018, sera aussi le théâtre de combats homériques entre les GAFA et les BATX (GAFA chinois – Baïdu, AliBaba, Tencent (Wechat), et Xiaomi), d’une part les GAFA pour s’étendre doivent plus s’implanter en Chine et inversement pour les BATX (qui investissent de plus en plus dehors de la Chine : la tentative échouée de rachat de MoneyGram par Alibaba, les participations croisées entre Spotify et Tencent, les accords entre Baidu et QNX BlackBerry pour la voiture autonome.
On peut s’attendre à ce qu’un des 8 parmi les GAFA et BATX mette un genou à terre (forte chute des résultats, plan de départs massifs, rachat par un autre GAFA/BATX).
La première bataille entre les anciens et les nouveaux est celle de la Net Neutralité, assurée depuis toujours elle a permis le développement fantastique des GAFA. Mais la roue a tourné, puisque la FCC s'est prononcée mi-décembre pour la fin de ce principe obligeant les fournisseurs d'accès internet (FAI) à traiter tous les contenus en ligne de la même manière.
Cela signifie concrètement que les telcos vont faire payer les GAFA pour utiliser leurs tuyaux et leur assurer une bonne qualité de service alors qu’avant ils ne pouvaient le faire avant. Cela pose de nombreux problèmes, notamment que potentiellement n’importe quel site internet devra payer les telcos pour pouvoir être vu correctement par les internautes. La facture pourra alors être répercutée sur les clients ... sauf si vous prenez les services préconisés par votre opérateur ! Typiquement, les opérateurs pourraient proposer des forfaits intégrant les services/contenus avec qu'ils ont des partenariats commerciaux et un package plus cher si vous prenez d'autres services, contenus ... Voyez les risques de distorsion de concurrence et de "risque de "silotisation" d'Internet. Cela donne un pouvoir énorme aux opérateurs telcos au détriment des GAFA d’où d’ailleurs leur action légale contre le FCC pour empêcher l’abandon de la Net Neutralité
En 2018, cette bataille montrera la réussite triomphante ou la chute brutale des nouveaux face aux anciens qui font de plus en plus et de mieux en mieux la résistance (Tesla contre les offres constructeurs automobiles, Sigfox contre les opérateurs télécoms, Uber contre les taxis, AirBnB Vs les groupes hôteliers, GAFA / Telcos, producteurs de contenus…)
Certains disrupteurs ayant le vent en poupe passeront du Capitole à la Roche Tarpéienne, périront ou se feront avaler par un ancien et d’autres au contraire se renforceront. Les Etats et les acteurs publics via la réglementation en particulier sont de puissants arbitres de ces combats pour favoriser ou freiner (comme on l’a vu pour Sigfox, Uber, AirBnB…)
Comme des éléphants dans un magasin de porcelaine, il y aura aussi de la casse pour toutes les entreprises trop dépendantes des GAFA comme on l’a vu avec la forte des résultats de Criteo en raison de la politique anti-cookies d’Apple (chute de 22% de son CA). …
D'autre part, les startups en France vont de plus en plus s'associer voire être rachetées par des grands groupes en particulier dans l'IoT très consommateur de cash. Netatmo ainsi risque fortement d'être racheté par Legrand car il y a un réel intérêt pour Legrand qui est déjà actionnaire (minoritaire) de Netatmo et pour Netatmo qui comme pour toute startup IoT a besoin de cash et de circuits de distribution.
Autre question, est-ce que la marque Netatmo disparaîtra comme Withings après le rachat par Nokia ou pas si cela arrive ? Dans un premier temps, je pense que c'est préférable de la garder pour être garant des partenariats avec d'autres groupes. Legrand a intérêt à maintenir les partenariats de Netatmo avec d'autres entreprises comme Velux ou Muller (chaudières) et de développer un éco-système ouvert. Comme les frontières se brouillent entre les activités des acteurs dans le smart home (Legrand, Somfy, Delta Dore),
Les coups de butoir sur la net neutralité aux États-Unis fin 2017 sont un prélude aux combats de titans en 2018 entre contenant (Telcos), créateur de contenu et diffuseur.
Déjà, des méga-fusions commencent à avoir lieu au sein de chaque division ( Disney rachetant Fox dont 21st Century Fox), les telcos (gestionnaires de tuyaux ;) rachètent des producteurs de contenus (ex: ATT rachetant Time Warner-AOL , Comcast rachetant NBCUniversal, des diffuseurs sont convoités par des telcos et gestionnaire de contenus ( Yahoo racheté par Verizon, Hulu possédé par ComCast, Fox, Comcast et Time Warner) et les GAFA sont à l’affût des contenus emblématiques (Amazon rachète les droits de tennis en Grande-Bretagne, et les droits d’adaptation à la TV du « Seigneur des Anneaux « pour 200 M$, Youtube s’accord avec Universal Musics et Sony pour lancer son offre de musique en ligne, discussion entre la Ligue de Football et Facebook et Amazon).
Cela crée d’ailleurs de sacrés conflits d’intérêts (en particulier Disney et Comcast) qui peuvent aboutir à des cartels. Ce n’est pas pour rien que le Département de Justice US essaie de bloquer ou de revoir des rachats AT&T/Warner, Comcast / NBC Universal.
En revanche, je ne vois pas de telcos réussir à intégrer des créateurs de contenus car leur stratégie est profondément orthogonale avec celle des créateurs de contenus ( les résultats récents d’Altice plaident en ce sens et nous verrons ce qui résulte du rachat de Time Warner par ComCast).
L’objectif des producteurs de contenus est de le diffuser au maximum alors que celui des telcos, ayant une infrastructure limitée (bande passante, réseau fibre et ADSL) est de valoriser au maximum le contenu (avec une logique de Yield Management en évitant du contenu largement diffusé ailleurs et favorisant le contenu exclusif).
A moins d’être une entreprise assumant sa schizophrénie et donc de séparer complètement les deux entités productrices de contenus et gestionnaire de tuyaux, ça ne marche pas. La tentation est trop grande pour le gestionnaire de contenu de rendre son contenu exclusif. On pourrait voir en Netflix ou HBO, une exception. Ce n’est pas le cas.
D’abord, ils sont diffuseurs et ont une logique proche des créateurs contenus, être diffusés le plus possible pour pousser du contenu. Ensuite, ils ne rachètent pas des sociétés qui créent du contenu, ils créent du contenu exclusif pour leurs abonnés sachant qu’ils ont une base client suffisamment grande pour le faire. La logique est similaire aux chaînes comme TF1 et Canal Plus qui produisent du contenu propre en plus du contenu acheté par des droits (films, sports).
En 2018, on commencera à voir plus de Customer / Citizen Empowerment auprès des entreprises et acteurs publics. En agrégeant leurs données et leur voix, ils représentent un pouvoir d’achat et électif qui peut changer le comportement d’entreprises et d’acteurs publics.
Mais cela prend du temps d’agréger tout ce monde, qui sait en 2018, nous aurons peut-être droit à des class actions retentissantes visant des GAFA ou des marques célèbres.
Déjà, Intel doit faire face à des 3 class action à la suite du Failles Meltdown et Spectre car ils n'ont pas communiqué suffisamment rapidement dessus?
Nous sommes face à une montée des catastrophes naturelles en 2017 et des situations extrêmes sur le plan climatique liée ou amplifiée par l’Homme, nous faisons face à de plus en plus d’attaques de cybersécurité (WannaCry…), à des mouvements migratoires massifs qui peuvent impacter durablement notre « way of life ».
Nous avons créé une société Formule 1 avec des routes conçues pour la vitesse, le problème est qu’aujourd’hui nous créons massivement des nids de poule qu’il sera de plus en plus difficile à éviter, d’où la nécessité de passer à une société tout-terrain (électrique !), comme je l’avais proposé il y a quelques années dans cet article.
Concrètement, il y a de fortes chances malheureusement qu’en 2018, une grande capitale ou une ville de plus de 2 millions d’habitants n’aient plus accès à l’électricité, l’eau et/ou aux télécoms pendant 1 mois ou plus et que cela s’empire avec le temps.
La technologie a aujourd’hui un objectif de performance, d’efficacité, avec ce type de catastrophes, nous prendrons conscience qu’il faut basculer à une technologie de résilience pour surmonter ce type de crise , car nous serons au pied du mur (c’est déjà le cas néanmoins !).
Pour donner un exemple concret, si vous n’avez plus d’électricité dans votre maison et que vous avez un voisin avec un panneau solaire, il ne pourra vous dépanner au-delà d’une distance de quelques rallonges électriques, car le réseau électrique actuel est centralisé et ne permet pas de partager l’électricité dans un quartier (peer-to-peer trading) et encore moins en partageant les coûts. L’utilisation notamment de la blockchain est une des briques permettant le déploiement de ce type de réseau (nommé aussi mini-grid).
L’IA embarquée, les réseaux locaux maillés comme Lora sont aussi des technologies qui permettraient d’assurer un premier niveau de services associés à des solutions low tech (nous pourrions nous inspirer des pays en voie de développement et de l’innovation Jugaad ).
Autant nous savons faire face à des urgences mais actuellement, au-delà de quelques semaines, si nous ne parvenons pas à rétablir le réseau usuel, nous sommes fortement démunis, et cette situation devrait arriver de plus en plus souvent. Comme d’habitude, c’est une fois au pied du mur que nous réagissons, et en 2018, selon moi, nous serons massivement au pied du mur, voire le nez cassé contre la paroi.
Vu comme ça, 2018 ne semble pas une année des plus roses, je dirai que c’est une année où nous prendrons massivement conscience de la nécessité de modifier nos modes de vie.
Comme toujours, nous saurons surmonter ces crises même si on perdra quelques plumes. Il faut anticiper l’étape d’après ce bouleversement et faire en sorte que les chocs futurs soient plus amortis et que nous puissions nous relever plus rapidement par la suite.
N'hésitez pas à réagir à ce trop article sur les parties qui vont intéressent.
Dimitri Carbonnelle
Fondateur de Livosphere
Conseil en IoT, IA et Robots collaboratifs / Cobots
Après le Green Washing et l'IoT Washing, n'est-on pas face à du AI Washing. De nombreuses entreprises en particulier des startups se prévalent d'intégrer de l'intelligence artificielle, en font-elles vraiment et n'y a-t-il pas de fausses promesses derrière ?
For English Speakers - Google Translation
N'y a-t-il pas des risques à utiliser de l'IA sans comprendre les impacts ? Est-ce que les réseaux neuronaux sont la panacée pour résoudre tous les problèmes ou au contraire ne nous mènent-ils pas vers une impasse en étant une boîte noire ? Est-ce que l'IA est robuste ou au contraire un géant à pied d'argile ? Qu'en est-il de l'IA forte qui supplanterait les hommes ?
Il y a encore du chemin avant qu'une IA soit capable de rivaliser avec un être humain de manière complète. Le "Gift Test", test du cadeau (capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau) serait un bon indicateur de l'avancée de l'IA. On pourrait bien sûr inverser la situation de la photo, un homme à la place de la femme et un robot à l'apparence féminine et non masculine (ou encore homme/robot apparence homme ou femme, robot apparence femme), l'objectif de cette photo est d'illustrer le challenge pour un IA d'intégrer et d'anticiper la réaction de l'autre sans avoir la possibilité de la tester au préalable.
Cet article a pour but de couvrir ces différents thèmes, il sera décomposé en trois parties. Dans cette première, j’aborderai l’intelligence artificielle de manière générale et je ferai un focus sur les réseaux neuronaux, ses limites et comment rendre explicable les réseaux neuronaux...
(Pour avoir des sensibilisations, formations même à distance, sur l’IA, la "data", générales ou liées à votre secteur, vous pouvez me contacter ici : contact@livosphere.com ou ici ). Nous menons aussi des projets sur l'IA et la data, l'IoT notamment.)
Il y a aussi d'autres types d’IA (réseaux bayésiens, algorithmes génétiques, logique floue, systèmes multi-agents ...) et d'autres problèmes, interrogations posés par l’IA pour notre société (de l'ANI - IA faible à l"ASI - IA dépassant tous les hommes ("Singularity") en passant par l'AGI, équivalent à l'IH, intelligence humaine, les risques sur la perte de créativité et la normalisation...) .
En bref, cet article-ci couvre :
Entre nous, qu’une startup fasse ou pas de l’IA n’est pas ce qu’il y a plus important voire pire pourrait vous alerter, l’IA est un moyen et non une fin.
La question principale est pourquoi font-ils de l’IA ? Est-ce qu’ils sont plus rapides à répondre, plus fiables, capables de couvrir un champ plus large, de donner des données introuvables autrement ou d’intégrer plus de données ? Quels sont les biais potentiels lorsqu’ils utilisent leur IA ? Peut-on expliquer les choix réalisés par leur IA (Si une startup vous dit qu’ils utilisent des réseaux neuronaux pour leur IA et qu’ils sont capables d’expliquer les décisions prises par cette IA … Il y a un petit souci, soit ils ne font d’IA soit ils en utilisent, mais ne la comprennent pas ou pire … )
Souvent des algorithmes simples auditables sont beaucoup plus efficaces qu’un réseau neuronal boîte noire dont on ne peut prédire de manière certaine les résultats. Pour donner quelques exemples, les statisticiens connaissent des tests comme
Cela vous permet avec relativement peu de données comparées aux réseaux neuronaux de relever des différences significatives entre des groupes de données de les catégoriser, classifier, déterminer les principaux facteurs de variation et les corrélations, des relations de cause à effets... … Ces outils statistiques peuvent aussi servir de première base de travail pour l’IA (ex : pour créer un arbre de décision).
Il y a de multiples définitions de l'IA, selon Wikipedia, c’est « l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ». Certains illuminés diront que c’est une pensée magique hors de la compréhension humaine, que des mauvaises langues traduiront par un ensemble d’algorithmes et d’opérations que l’intelligence humaine ne peut pas comprendre. Nous ne sommes pas loin du transhumanisme ...
C'est John McCarthy qui l'a défini en premier en 1956, comme "the science and engineering of making intelligent machines". Grosso modo, John nous a sorti une définition de ce qui est artificiel, c’est-à-dire une machine et non une définition de l'intelligence artificielle ;)
L'IA est le Canada Dry de l'intelligence humaine, cela ressemble à de l'intelligence humaine, mais ça n'en est pas vraiment.
Opposer l’IA de l’intelligence humaine uniquement par son caractère non humain est pour moi, beaucoup trop réducteur.
A titre personnel, je pense que c'est une erreur de réduire la définition de l'IA à une IH (intelligence humaine) qui n'en est pas, car cela génère tous les biais, généralisations, anthropomorphismes erronés et en premier cela oppose IA à IH alors qu’elles peuvent être complémentaires.
D’autres définitions décrivent l’IA par ce qu’elle contient, des poupées russes, une grande intégrant des systèmes experts / de règles, une plus petite avec du machine learning (système apprenant par elle-même ses règles) puis du deep learning (lié aux réseaux neuronaux cf. ci-dessous).
On oublie sans doute de définir d'abord ce qu'est l'intelligence.
Selon les Définitions de Platon, l’intelligence est l' «activité qui permet d’acquérir la science»
Selon Wikipedia, l'intelligence est l'ensemble des processus de pensée d'un être vivant qui lui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. C'est une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins).
L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs. Le terme est dérivé du latin intelligentĭa, « faculté de comprendre », dont le préfixe ĭnter- (« entre »), et le radical legĕre (« choisir, cueillir ») ou ligāre (« lier ») suggèrent essentiellement l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif.
Pour ma part, j’ai aussi ma petite définition de l'IA
C’est la faculté d'apprendre à transformer des données complexes et variées en décisions simples et pertinentes… pour des êtres non-vivants.
Je préfère dire ici "faculté d'apprendre" que "faculté de s'adapter", on pourrait avoir un système qui s'adapte, mais qui n'apprend pas (pour pousser un peu le raisonnement, l'eau liquide s'adapte à toutes les formes, mais n'apprend pas ;)
D’autre part, selon moi, les êtres vivants se caractérisent par le fait qu'ils aient une finalité (consciente ou non) (par exemple survivre et se perpétuer).
Aujourd’hui, la finalité d’une IA vient de l’extérieur et non de l’intérieur, c’est l’homme qui la lui donne, mais on pourrait imaginer qu’un animal voire une plante transmette sa finalité à une IA (se perpétuer) et qu’elle l’aide à se nourrir, à se perpétuer … (exemple d'expérience : confronter une IA à une souris dans un labyrinthe géré par cette IA via des portes coulissantes donnant accès à de la nourriture. La survie de l'IA serait directement dépendante de celle de la souris. On pourrait même introduire plusieurs souris...).
Je pousse encore plus loin, une IA pourrait même tirer sa finalité et apprendre d’un environnement extérieur non vivant (observation des vagues de la mer, des transformations d’une montagne au cours des saisons, cycle d'un écosystème )… La survie de l'IA pourrait dépendre de la pérennité de l'écosystème (équilibre de la température, du taux de CO2...). En revanche, il y a au départ une intelligence humaine qui indiquera à l’IA d'où elle devra tirer sa finalité et apprendre à partir d’autres êtres vivants, de l’observation de la Nature…
J'ai une vision aristotélicienne à ce sujet : notre téléologie / finalité est intrinsèque (le "telos" est un principe de développement immanent et interne à tout être naturel).
Une IA n’a pas besoin de finalité pour survivre à la différence des êtres humains en revanche et des autres êtres vivants. Est-ce à dire qu’un homme qui deviendrait immortel perdrait sa finalité …
Après, rien ne nous empêche de revenir à Platon et de croire à une téléologie/finalité extrinsèque qui proviendrait d'un démiurge (une des idées de Elon Musk qui pense très probable et préférable que nous fassions partie d'une simulation et donc notre finalité pourrait être extrinsèque et non intrinsèque), mais alors qu'est-ce qui nous différencierait alors encore d'une IA ...
Bon, je vais arrêter de spéculer sinon je vais vous perdre définitivement ! (même si les thuriféraires et pourfendeurs de l'IA devraient se replonger dans la philosophie, un des rares métiers qui restera longtemps l'apanage des êtres humains ;)
Il y a aussi de nombreuses manières de classifier l'IA en fonction de sa finalité, de son fondement mathématique, de la taille de son spectre ....
Aujourd'hui, les principales applications massives de l'intelligence artificielle sont dans la perception de son environnement, les images, les vidéos, la reconnaissance vocale, d'écriture, de texte (text mining), mais ça pourrait s'appliquer aussi notamment avec l'Internet des Objets dans la perception de matériaux, d'aliments, d'odeurs... sur base de leur signature chimique, spectrale...
Les applications concrètes de l'IA dans la prise de décision sont comparativement encore peu visibles (mais cela évolue très rapidement). Son impact sur nos vies quotidiennes sera nettement plus important que l'IA perceptive, c'est là où résident toutes nos peurs et tous nos fantasmes (cf. article sur les armes autonomes, décisions juridiques...) avec cette peur ultime d'être mis au rebut par une IA supérieure...
Pour donner un exemple concret, un véhicule autonome utilisera l'IA perceptive pour visualiser les autres automobilistes, panneaux de signalisation, piétons ...C'est l'IA décisionnelle qui prendra la décision de freiner, de changer de voie et potentiellement de faire le choix de sauver la vie du conducteur ou de sauver la vie des deux enfants et trois mamies qui se trouvent face à lui.
Pour l'anecdote, j'ai vu une étude où on demandait aux personnes quelle devrait être la réaction d’une voiture autonome face à ce choix. La très grande majorité des personnes ont dit qu'il fallait que la voiture sauve les enfants et mamies, quand on leur a demandé juste après s'ils étaient prêts à acheter ce type de voiture, ils ont quasiment tous répondu non.
Cela nous amène à un énorme paradoxe, le véhicule autonome a priori devrait sauver un très grand nombre de vies humaines (rappelons, qu’il y a eu 3477 décès en 2016 en France en raison d’accidents de la route), mais en choisissant de ne pas protéger en premier lieu le conducteur, on n'achètera de véhicules autonomes et donc au final il y aura plus de personnes victimes d'accidents de la route, conducteurs, passagers, piétons ...
Cela a d'ailleurs certainement motivé Mercedes qui a indiqué qu'il protégerait en premier lieu le conducteur. Si cela vous dit, vous pouvez passer le test réalisé par le MIT, pour voir ce que vous feriez si vous étiez à la place de l'IA (privilégeriez-vous les personnes âgées, les enfants, les piétons, les passagers, les animaux ou vous-même ?)
Autre point, ce type de dilemmes insolubles sera à mon avis rarissime comparativement à tous les accidents que nous avons aujourd'hui, mais peut nous bloquer dans l'adoption de ce type de technologies. Il est certes essentiel de se poser ces questions. C'est à la fois une bonne chose de prendre un peu de temps, car cela nous donne plus de temps de les assimiler et de décider quelles sont les règles à appliquer. Néanmoins, à un moment il faut décider, car en restant bloqué trop longtemps sur ces sujets, c'est la vie de nombreuses personnes que nous mettons en péril. Le port de la ceinture, les limitations de vitesse ... ont permis de réduire les accidents (il y avait plus de 18000 tués sur les routes en 1972 soit 5 fois plus qu'aujourd'hui), le véhicule autonome le permettra aussi certainement.
Aujourd'hui, nous parlons beaucoup des réseaux neuronaux qui simulent très grossièrement le réseau de neurones humains. En gros, si vous vous rappelez vos cours de mathématiques de Terminale, les réseaux neuronaux reproduisent la multiplication de matrices.
En gros, vous avez des matrices d'entrée (par exemple une image de chat décomposée en points avec une valeur RGB) et des matrices intermédiaires (avec des coefficients pondérateurs) qui vont la réduire (en agrégeant et sommant plusieurs données avec ces coefficients) en une probabilité entre deux choix ce soit un chat ou ce n'est pas un chat.
Le machine learning couvre toutes les techniques d'apprentissage automatique. Il ne couvre pas uniquement les réseaux neuronaux mais d'autres types d'IA comme les resaeau xbayésiens, les algorithmes génétiques...
Ici, je ne couvrirai que le machine learning pour les réseaux neuronaux.
Au début, les réseaux neuronaux étaient créés manuellement, et l'apprentissage était réalisé par l'homme qui transformait ces réseaux neuronaux. Le machine learning intégré dans les réseaux neuronaux consiste à ce que cette phase d'apprentissage soit automatisée.
Pour réaliser du machine learning (sur des réseaux neuronaux), au départ, les coefficients dans les matrices/couches intermédiaires sont aléatoires. Le machine learning consiste à faire passer au crible une quantité d'images, par exemple avec un chat et d'autres sans à un réseau neuronal (donc des matrices ayant des coefficients aléatoires).
Au début, le résultat est complètement aléatoire. On peut alors comparer le résultat avec celui donné par des humains ayant qualifié auparavant ces images. Si le réseau neuronal qualifie bien l'image (au début c'est par pur hasard), un mécanisme de rétropropagation (backpropagation) qui va renforcer les "neurones" ou plus simplement les coefficients de la matrice en leur donnant plus de poids (par exemple un coefficient de 1 devient 1,5), inversement si le réseau neuronal considère que c'est un chat alors que ce n'en est pas un, il va réduire la valeur des coefficients. En faisant cela des millions de fois, on peut arriver à une matrice qui se stabilise sur des coefficients précis. La rétropropagation utilise une technique qui permet de modifier la matrice de chiffres afin de minimiser l'erreur (nommée la descente de gradient via des fonctions de dérivation partielles calculable. L'avantage de celles-ci est qu'elles sont calculables en un temps linéaire et non exponentiel). La backpropagation peut être encore optimisée en utilisant le SGD (Descente de gradient stochastique)
Néanmoins, il peut arriver que le réseau neuronal ne se stabilise pas ou atteigne des minimas locaux (il y a une meilleure solution, mais le réseau neuronal se stabilise sur une moins bonne solution). Si certains se rappellent d'autres cours de maths, c'est le même problème que les techniques de résolution d'équations et la recherche d'optima.
Le machine learning signifie que le réseau neuronal possède ce mécanisme de rétropropagation, car les coefficients vont au fur et à mesure évoluer pour se stabiliser (c'est ce qu'on appelle de l'apprentissage !).
Le deep learning (DL) est une technique utilisée dans le machine learning qui utilise plusieurs matrices ou couches qui vont "voir" différentes choses (cf. schéma), typiquement pour un chat cela pourra être la couleur, la forme, la position.... Yann Le Cun, nommé à la tête de FAIR (« Facebook Artificial Intelligence Research ») puis en charge de la recherche sur l'IA chez Facebook est l'origine du Deep Learning (et de quelques illustrations ci-dessous ;)
Le machine learning (avant le deep learning/DL) était initialement doté d'une seule couche, au départ c'était des hommes qui a la mano devaient créer ces matrices.
En gros, une image va passer chaque filtre (couleur, forme...), avec une probabilité d’appartenir à la catégorie "chat", en combinant les différents filtres. A la fin on sera à même de dire si c'est un chat ou pas (avec une probabilité).
De manière très schématique, c’est comme si vous aviez des tamis avec des formes différentes, des tailles différentes, seuls les objets passant l’ensemble des tamis seraient considérés comme exacts (modulo le fait qu'à la différence d'un tamis où ça passe ou pas, chaque tamis donne une probabilité de faire partie de la catégorie) .
Chaque filtre correspond à une abstraction différente de l’image (couleur, forme…). En revanche, cette abstraction n'est pas en général intelligible pour un être humain. Avant le deep learning, il y avait un seul filtre qui devait être créé manuellement et transformait une image en chat, avec le deep learning, les filtres (ou abstractions) se créent automatiquement grâce à l’apprentissage et permettent d’être beaucoup plus précis dans la détermination de l’image.
Pour citer Olivier Ezratty "le DL visuel de Google utilise 152 couches alors que l’Homme n’en utilise que 5 dans son cortex visuel. Il y a une divergence des méthodes entre l'Homme et le DL. L’Homme a un cortex visuel plat « large » et faiblement profond. Le DL de vision est plus profond que large. Par contre, l’explicabilité du DL est plus simple, en théorie, pour les réseaux récurrents et à mémoire, qui servent surtout au NLP (Natural Language Processing - reconnaissance vocale et traitement ), même si leur fonctionnement est très mal expliqué dans la littérature."
Pour l'illustrer, un extrait de wikipedia
"Leo Breiman donne l'exemple de 100 observations couvrant l'intervalle unidimensionnel [0,1] dans les réels : il est possible de dresser un histogramme des résultats et d'en tirer des inférences. En revanche, dans l'espace correspondant à 10 dimensions [0,1]10, les 100 observations sont des points isolés dans un vaste espace vide, et ne permettent pas l'analyse statistique3. Pour réaliser dans [0,1]10 une couverture équivalente à celle des 100 points dans [0,1], il ne faut pas moins de 1020 observations – entreprise gigantesque et souvent impraticable.
Le fléau de la dimension est un obstacle majeur dans l'apprentissage automatique, qui revient souvent à tirer des inférences d'un nombre réduit d'expériences dans un espace de possibilités de dimension élevée. Il devient alors souvent nécessaire d'injecter des informations a priori de manière à contraindre le système d'apprentissage pour obtenir des inférences. Il doit être préparé au type d'information à extraire. On parle alors d'inférence bayésienne."
Une des techniques pour y faire face est soit "d'aplatir" c'est-à-dire de réduire le nombre de dimensions (potentiellement en utilisant une autre IA pour identifier les dimensions les moins pertinentes et donc susceptibles d'être aplaties avec un impact réduit), soit de réduire la résolution/la précision de l'image.
Pour cela, on utilise couramment les réseaux neuronaux convolutifs (dont Yann Le Cun est à l'origine). qui est une forme de filtre d'image (utilisé dans Photoshop pour améliorer la netteté, voir les contours...). Elle va appliquer à chaque pixel une mini-matrice à chaque pixel qui va transformer l'image et réduire sa taille. C'est sur cette base que va s'entraîner le réseau neuronal (avec des images de quelques centaines de pixels de large et long plutôt que des images beaucoup plus grandes.
La dernière technique que je propose est la vectorisation des images, dont je parle ci-dessous dont à ma connaissance je n'ai pas entendu parler.
Je remercie beaucoup Olivier qui a lu ma première version d'article publiée et que j'ai corrigé grâce à ses retours (notamment distinction entre ML / DL, curse of dimensionality, DL visuel de l'homme et de Google). je vous conseille très fortement de lire son eBook sur l'IA (plus de 300 pages,que je vais de ce pas lire :)
Le premier problème est que nous n'avons aucune idée pourquoi un réseau neuronal va considérer une image comme un chat ou pas, plus largement on ne sait expliquer pourquoi il fait tel ou tel choix sur base des données qu’il reçoit ... C'est une boîte noire ou plutôt une boîte remplie de matrices de chiffres qui n'ont pas de sens pour nous.
La Chine a décidé récemment d'utiliser des robots dotés d'IA pour désengorger ses tribunaux ses décisions judiciaires. Il a été aussi utilisé pour revoir des décisions de justice, la moitié ont été corrigées et 541 condamnations ont été commuées ...
Imaginez que l'on condamne une personne à 20 ans de prison, mais qu'on soit incapable de lui dire pourquoi, juste parce que c'est fondé sur une IA surentraînée fondée sur des réseaux neuronaux. C’est un peu gênant …
Dans le même registre, Poutine a indiqué que le pays que l’IA apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui et que celui qui en deviendra le leader sera celui qui dominera le monde.». Il prône aussi la guerre préventive en disant « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. », ce qui comme je l’ai dit dans un autre article présente un risque de surenchère impossible à maîtriser …
… ce qui a fait dire à Elon Musk que le danger de l’IA est plus grand qu’une bombe nucléaire provenant de la Corée du Nord et serait sans doute à l’origine de la troisième guerre mondiale.
C’est une des raisons pour lesquelles, je pense, que le « buzz » autour des réseaux neuronaux devrait fort diminuer d’ici un ou deux ans pour laisser la place à l’ « Explainable IA » avec d’autres technologies d’IA comme les réseaux bayésiens, les algorithmes génétiques...
Même si, je propose ci-dessous une technique pour expliquer les réseaux neuronaux (je ne suis sans doute pas le premier à y avoir pensé ;)
Aujourd’hui, la création de réseaux neuronaux nécessite une quantité phénoménale de données et un temps d'apprentissage long (qui se réduit drastiquement néanmoins).
Une raison majeure de l’expansion des réseaux neuronaux est l’accès à des très grandes bases de données associées à la possibilité de réaliser des calculs massivement en parallèle (ex : architecture CUDA utilisée par NVidia pour ses puces GPU à la différence de puces CPU qui ont une architecture centralisée).
Lorsque les données sont accessibles ou générables automatiquement, cela n’est pas gênant. Le nouvel AlphaGo a joué contre lui-même 4,9 millions de parties et en 5 jours avant de dépasser le précédent AlphaGo qui a battu le champion du monde de Go, Ke Jie.
Il a appris par lui-même (sans historique préalable ou d’aide humaine).
Dans des domaines comme la santé, cela veut dire transmettre une quantité d'informations énormes qu'on ne souhaite pas particulièrement transmettre. Tous les cas exceptionnels comme les maladies orphelines ne pourront être traitées à ce jour par les réseaux neuronaux en raison du manque de données.
Les cygnes noirs (catastrophes climatiques, tremblements de terre inattendus, crises financières…) sont aussi très difficiles à prévoir. Un réseau neuronal n’aurait pas été entraîné pour les détecter comme ils ne sont jamais apparus auparavant et donc par définition ne pourra les prévoir.
Même si l’accès à de très nombreuses données devient de plus en plus facile (accéléré par l’IoT ;), il y a de nombreux cas où le jeu de données est très faible et où vous ne pouvez pas tester une multitude de situations automatiquement (comme l'a fait AlphaGo en jouant contre lui-même). Même si la robotique devrait permettre notamment dans la biologie, la génétique d'avoir accès à de plus en plus de données. Par exemple, Eligo Bioscience, fondé par Xavier Duportet n'utilise pas aujourd'hui l'IA pour développer des biothérapies programmables au monde pour le microbiome. Imaginez que vous utilisez des cobots (robots collaboratifs) pour réaliser des tests biologiques en intégrant de l'IA pour faire des plans d'expérience et identifier les biothérapies le plus adéquates... En revanche, vous ne construirez pas de réseau neuronal sur base de tests cliniques avec des patients humains !
Dans d'autres domaines, une négociation commerciale en gré à gré (hors transactions standardisées), comprendre les réactions et les émotions de quelqu’un, savoir ce qui est juste ou non (différent de ce qui est légal ou pas qui est codifié et relatif en fonction des cultures, histoires de chacun…) sont autant de domaines qui ne permettent un test massif de données.
Ce problème pourrait être partiellement résolu si l'on trouve des solutions pour réduire drastiquement le besoin de données (un des axes majeurs de recherche de Yann Le Cun de Facebook) pour créer des réseaux neuronaux, d’autre part il y a d’autres systèmes comme les réseaux bayésiens, les réseaux multi-agents ... qui alimentent l’IA et nécessitent beaucoup moins de données.
Néanmoins, pour faire une analogie quantique (on en revient toujours au chat ... de Schrödinger), un des challenges de l'IA est que le test d'une hypothèse peut nous empêcher de la retester dans les mêmes conditions ou comme dirait Coco Chanel "Vous n'aurez pas deux fois l'occasion de faire une première bonne impression".
Enfin, s'il résout déjà les problèmes concernant un grand nombre de personnes où les données sont nombreuses, cela est déjà utile !
Les réseaux neuronaux ont fortement évolué. Deep Blue a su battre Gary Kasparov aux échecs en 1997 qui est un jeu qui présentent un nombre élevé de possibilités mais accessible à l’époque (1,5^118 combinaisons – 30 possibilités de mouvement par joueur en moyenne et 40 coups par joueur) selon le mathématicien Claude Shannon.
En revanche ce n’était pas de l’IA mais de la « force brute», le super ordinateur calculait de 6 à 20 coups à l’avance ce qui lui a permis de prendre le dessus sur Kasparov.
Le go se joue sur un Goban de 19x19 (soit 361 cases au total), il est possible de jouer 361 combinaisons, soit 1,4 x 10^768 coups soit beaucoup plus que les échecs. Aujourd’hui, un ordinateur ne pourrait traiter l’ensemble des combinaisons.
AlphaGo développé par Deepmind (racheté par Google) utilise des techniques d’apprentissage supervisé (en intégrant des parties historiques, des conseils d’humains, et la méthode statistique de Monte-Carlo) et par renforcement (en jouant contre lui-même). En mars 2016, il bat Lee Sedol, un des meilleurs joueurs mondiaux (9e dan professionnel), le 27 mai 2017, il bat le champion du monde Ke Jie.
En octobre 2017, DeepMind dévoile AlphaGo Zero fondé sur une architecture simplifiée et n’utilisant plus ni la méthode de Monte-Carlo, ni des connaissances humaines. Il bat AlphaGo 100 à 0 après 21 jours à jouer contre lui-même.
Néanmoins, le jeu de Go et des échecs sont des jeux déterminés à informations complètes et parfaites (tous les joueurs disposent à tout moment des mêmes informations pour effectuer leurs choix, chaque joueur joue à tour de rôle (imparfaites si les joueurs jouent en même temps ce qui crée une incertitude).
Il y a une classification des jeux selon qu'il y ait un aspect combinatoire (joueur peut choisir parmi plusieurs options), le hasard et l'information.
Un jeu où un joueur n’a pas accès à la totalité des informations est un jeu à informations incomplètes. Un jeu intégrant du hasard est un jeu mixte (au lieu d'un jeu déterminé).
"Les lignes A et B correspondent aux jeux où le hasard n'intervient pas, ces jeux déterminés peuvent être à information complète ou non. Les lignes C et D correspondent aux jeux mixtes où le
hasard est associé à l'aspect purement combinatoire des jeux déterminés. Les lignes E et F n'ont pas de sens pratique dans le domaine des jeux. Les lignes G et H correspondent aux jeux de pur
hasard.
01 - Les jeux déterminés à information complète (dames, échecs, jeu de go)
02 - Les jeux déterminés à information incomplète (Attaque, bataille navale)
03 - Les jeux mixtes à information complète (Backgammon, Pachisi)
04 - Les jeux mixtes à information incomplète (Poker, Rami, Tantalus, mah-jong)
05 - Les jeux de pur hasard (jeu de l'oie, serpents et échelles)"
Michel Boutin, Le Livre des jeux de pions
Tout l’enjeu ( ;), maintenant est de qu’une IA soit capable de battre des humains sur des jeux mixtes à informations incomplètes … par exemple le Poker.
Ca ne s’est pas fait attendre puisqu’une IA (Libratus développé par une équipe de l’Université Carnegie Mellon) en janvier 2017 a fait face à quatre des meilleurs joueurs professionnels de Poker en No-Limit Hold’em, en terminant gagnante de 1,76 million de dollars (virtuels) et a renouvelé l’expérience. Pour réduire le facteur chance (et tester l'IA), deux règles ont été ajoutées : Les mains fonctionnaient en miroir, il n'y avait pas de tapis avant la fin.
D’autre part, la puissance de calcul nécessaire n’a pas coûté plus de 20 000 $.
Néanmoins, l'IA a un avantage car si elle n’a pas d’instinct, elle a appliqué une stratégie parfaite fondée sur l'équilibre de Nash (fameux mathématicien), qui a été vulgarisée dans le film "Un Homme d'exception" avec Russell Crowe.
"Pour tous les jeux dans lesquels le nombre de situations est fini, il existe un Équilibre de Nash."
L’équilibre de Nash est une stratégie qui garantit au joueur qui l’utilise, au minimum, de ne pas faire moins bien qu’un joueur utilisant toute autre stratégie.
Pour faire simple : en utilisant la stratégie de l’équilibre de Nash, vous ne pouvez perdre contre aucun joueur à long terme. L’existence de ces équilibres a été prouvée par John Nash en 1950, ce qui lui a permis d'obtenir le prix Nobel d’économie.
Cela signifie qu'en adoptant une stratégie parfaite dans le poker en appliquant l’équilibre de Nash, à long terme, ni l’instinct, ni les tells, ni l’intuition n’importent, ce que l'IA prouve ici. L'IA n'a donc aucun mérite ;)
Cela pose d'ailleurs un problème pour le poker en ligne qui doit évoluer car il est très difficile de distinguer un humain d'une IA.
Quelle est la prochaine étape ?
AlphaGo s’attelle à devenir le meilleur joueur à Starcraft II (jeu vidéo massivement multijoueurs) en tenant compte néanmoins des limites humaines (40 actions par minute maximum). Deepmind a réalisé un accord avec Blizzard pour lui permettre (via des API) à s’entraîner dessus.
La problématique pour DeepMind est de gérer une multiplicité d’objectifs annexes pour gagner (premier objectif) comme collecter des minéraux, la construction et l'évolution des infrastructures et des armes… alors qu’il y a plus de 300 actions de base possibles dans StarCraft II. Un premier challenge a été réalisé, Song, parmi les meilleurs mondiaux à Starcraft a gagné 4 à 0 en moins de 27 minutes contre quatre IA...
Quelques commentaires de sa part
"We professional gamers initiate combat only when we stand a chance of victory with our army and unit control skills. In contrast, the bots tried to keep their units alive without making any bold decisions." (In StarCraft, players have to destroy all of their competitors’ resources by scouting and patrolling opponents’ territory and implementing battle strategies.)
Song did find the bots impressive on some level. “The way they managed their units when they defended against my attacks was stunning at some points,” he said.
Il reste heureusement des jeux ou l’IA ne pourra jamais battre les humains systématiquement … les jeux de pur hasard. La bataille et le jeu de l’oie seront-ils nos planches de salut ;)
Pour tous ces jeux y compris Starcraft II, même si les moyens et sous-objectifs pour gagner sont extrêmement variés, il y a des règles du jeu claires avec un objectif final de gagner.
Qu'en est-il si les règles ne sont pas claires, varient avec le temps, les acteurs, que les objectifs sont variés, contradictoires ... est-ce que l'IA sera aussi bonne ?
Les réseaux neuronaux et la plupart des autres types d’IA ont besoin de règles strictes, d’un objectif clair à atteindre avec des données car l’IA apprend par rapport à cet objectif et doit calculer un écart entre ce qu’il a trouvé et l’objectif visé. Si cet objectif varie, n’est pas clairement défini, il est très difficile à l’IA de calculer un écart à réduire et donc d’apprendre.
Cela prendra encore un peu de temps pour l’IA de maîtriser des situations où il y a de nombreux objectifs à atteindre sans priorité claire entre elles, où les règles changent en cours de route ainsi que les objectifs.
Ces situations sont très nombreuses, réussir un partenariat commercial ou une négociation salariale en tenant compte des objectifs de l’entreprise, des objectifs des acteurs individuels qui peuvent être contradictoires (ex : chiffre d’affaires versus impact sur l’environnement, sur les salariés, impact à court terme versus long terme).
Faire plaisir à quelqu’un sur le long terme est d’une extraordinaire complexité pour une IA au-delà des cadeaux simples en fonction des goûts, de la culture, des valeurs, des liens que vous avez avec cette personne… Si une IA croit qu’en donnant le même cadeau à tous les anniversaires et fêtes, il fera plaisir, il se met le doigt dans l’œil ! On pourrait en faire un nouveau test de Turing, le "Gift Test" (ça sonne mieux en anglais ;) ! On mesurerait la capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau.
Enfin, aujourd’hui, l’IA ne choisit pas les sujets sur lesquels il va s’améliorer, c’est l’homme qui le décide et qui le programme en conséquence (on en revient à la question de finalité que j'évoque avant).
L’IA n’est pas encore au stade de se programmer elle-même pour s’attaquer à un nouveau problème qui sort de son champ ( mais ça viendra… impatient de rencontrer la première IA philosophe).
Aujourd’hui, les réseaux neuronaux ne voient pas en perspective mais à plat. Ils ne priorisent pas les données par elles-mêmes, au départ, chaque donnée unitaire a autant de valeur qu’une autre.
L’apprentissage / machine learning va donner du poids aux différentes valeurs en fonction d’un objectif.
Pour les humains, l’univers des données est vallonné voire montagneux et non un océan plat de données, nous accorderons beaucoup de valeur à des données venant de certaines personnes, même si elles sont rares (ex : ces paroles que nos parents, grands-parents.. nous disent une fois et dont on se souviendra toujours et qui peuvent marquer notre vie). L’IA moyennise, pas l’intelligence humaine (sauf si un humain dit à une IA qu’il faut pondérer certaines données en fonction de la source.) l’IA n’a pas de jugement propre, elle lui est externe (aujourd’hui en tout cas …).
L’IA n’a pas de bon sens. C’est d’ailleurs un risque important car en croyant en son infaillibilité répétée, nous pourrions être victimes d’erreurs flagrantes.
Un exemple amusant est de tracer une ligne mixte (continue et discontinue) en cercle, cela attirerait des véhicules autonomes comme un pot de miel dans le cercle mais elles seraient incapables d'en sortir ;). Dans le quotidien, il y a un exemple concret lorsqu'il y a un obstacle infranchissable sur notre voie (par exemple un véhicule en panne) et que la route est délimitée par une ligne continue. A un moment, il y a de fortes chances que nous transgressions la règle de la ligne continue ;) Nous pourrions intégrer dans l'IA qu'elle peut transgresser des règles mais c'est ouvrir la boîte de Pandore ...
Ce manque de priorisation favorise paradoxalement le biais de confirmation.
L’ IA est par essence biaisée par les données qui la nourrissent. Pour donner un exemple concret, si votre entreprise a l'habitude de recruter des hommes blancs de moins de 30 ans ayant fait une école de commerce et que vous nourrissez votre intelligence artificielle de ces éléments, il n'y a quasiment aucune chance pour que vous recrutiez une femme de plus de 30 ans ayant fait des études littéraires alors qu'elle correspondrait potentiellement beaucoup mieux à ce dont vous avez besoin.
C'est la raison pour laquelle il faut être extrêmement attentif aux start-ups qui intègrent de l'intelligence artificielle pour vous aider à recruter, car potentiellement cela pourrait favoriser un biais de confirmation et réduire vos chances d'augmenter la diversité dans vos équipes. En plus, vous seriez incapable de justifier le choix de l’IA. On appelle ça aussi le GIGO … Garbage In Garbage Out.
Un autre problème est que les réseaux neuronaux sont faillibles, il est très facile de les tromper et de les hacker comme le montrent quelques exemples ci-dessous.
Pour vous donner un exemple de risque potentiel, on pourrait imaginer que quelques panneaux de signalisation soient légèrement modifiés avec un filtre en plastique transparent invisible pour le commun de mortels, mais qui tromperait tous les véhicules autonomes. Cela pourrait être à l’origine d’une multitude d’accidents.
En plus comme ils agissent comme des boîtes noires il est quasi impossible de les déboguer comme un programme informatique traditionnel. De manière plus pernicieuse, on pourrait entraîner un réseau neuronal avec un lot de données correctes, mais en intégrant des exceptions qui pourraient servir de backdoor.
Prenons un exemple concret, imaginons que nous utilisions des réseaux neuronaux pour identifier des menaces de cyberattaque, vous présenterez d'un côté des exemples de cyberattaques et de l'autre des exemples qui ne seraient pas des cyberattaques pour entraîner le réseau neuronal à les distinguer.
Le problème est que si une personne / organisation malveillante ou qui veut se ménager une backdoor a introduit des exemples de cyberattaques durant la phase d'apprentissage en les faisant passer pour des actions normales, il sera quasi impossible de pouvoir le déterminer et celui qui a entraîné le réseau neuronal aura une backdoor pour infecter un système en dissimulant sa cyberattaque, car elle ne serait pas détectée par l'intelligence artificielle.
Cela signifie aussi que l’utilisation de réseaux neuronaux open source peut présenter un risque de contamination, car vous ne saurez pas avec quoi il a été entraîné et s’il cache des backdoors.
Dans le domaine des spams, c’est une technique nommée "poisoning" qui peut être utilisée a posteriori car une IA va continuer à apprendre sur base des attaques reçues. Si des mails sont envoyés avec des caractéristiques qui le font passer pour un non-spam ou inversement alors que c’est l’inverse, il peut contaminer l’apprentissage et cela crée une porte d’entrée. Ces techniques fonctionnent avec toutes les IA (qui apprennent). Dans le cas des spams, on utilise en général des réseaux bayésiens. Le problème des réseaux neuronaux est qu’ils sont très difficiles à auditer..
Les réseaux neuronaux sont très bien adaptés lorsqu'on a une très grande quantité de données et que les informations déduites par cette intelligence artificielle sont facilement vérifiables par un être humain (comme en cryptographie avec des clés publiques / privées où il est très long à déchiffrer un code si l'on n’a pas la clé et très rapide si l'on a la clé. Dans cette analogie, la clé est l’explication rationnelle de la décision )
En revanche, ils ne sont pas du tout adaptés lorsque nous devons utiliser ces données pour prendre une décision majeure et que le résultat est difficile à vérifier par l'être humain.
Pour faire face à ce problème, il y a plusieurs solutions (en dehors d’utiliser des « Explainable AI »).
La première approche est de les tester via les programmes type bug Bounty (des hackers "white hat" testent sous toutes les coutures l'intelligence artificielle).
Mais on peut aussi utiliser l’IA pour tester l’IA, c’est un champ nommé Adversarial AI, qui a pour objectif notamment de trouver les failles de cette IA et de l’améliorer. On crée alors des Generative Adversarial Networks (GANs), qui vont créer un nombre innombrable de simulations qui seront testées par le premier réseau neuronal.
Cela signifie néanmoins que le Generative Adversarial Networks soit à même de classifier de la bonne manière pour que son résultat puisse être comparé à celui du réseau neuronal initial. C’est la technique utilisée par AlphaGo en jouant contre soi-même.
On peut utiliser aussi le GAN (Generative Adversarial Networks) pour expliquer un réseau neuronal.
Cette technique permet d’entr’ouvrir la boîte noire en réalisant de la rétro-ingénierie.
La technique est d’intercaler une phase explicative entre la phase d'apprentissage et la phase d'exécution.
Pour cela, il faut partir d’une base classifiée par multi-critères, par exemple on va avoir une base qui sera classifiée selon des critères permettant de classifier si c’est un chat ou non, pour tenir compte des exceptions, on peut pour chaque critère donner une probabilité et utiliser des critères excluant la possibilité que c'est un chat.
Exemple :
- Critère 1 – a des poils ou pas (Si non : 90% de chances de ne pas être un chat)
- Critère 2 – est de couleur rose, bleue,… ( Si oui, 95% de chances de ne pas être un chat)
- Critère 3 – a une laisse ( Si oui, 80% de chances de ne pas être un chat)
Pour chaque branche, on a au moins un exemple d’image mais idéalement il en faudrait des milliers au minimum.
On fait passer chaque image dans le réseau neuronal, et cela nous permet de savoir quels critères sont utilisés par le réseau neuronal avec un niveau de probabilité. Si les critères sont divisés à 50% environ, cela signifie que ce n’est pas un critère utilisé par le réseau neuronal et on peut élaguer.
On a ainsi construit l’arbre de décision du réseau neuronal avec des critères qui ont du sens pour les humains.
Ayant une base classifiée, nous pouvons aussi un cran plus loin et apprendre au réseau neuronal sur base de ses erreurs et le retester avec une nouvelle base classifiée…
On peut même combiner cette méthode avec la technique des random forest (ou forêt d'arbres décisionnels), qui va créer un très grand nombre d'arbres décisionnels de manière aléatoire. Pour chaque feuille de l'arbre, il faut néanmoins avoir des images (ou une matrice de données) entrante dans le réseau neuronal.
En passant à travers le réseau neuronal on pourrait calculer l'écart entre un arbre (qui symboliserai les règles implicites du réseau neuronal) et le résultat du réseau neuronal. L'arbre se rapprochant le plus des outputs du réseau neuronal serait la meilleure représentation de réseau neuronal.
On peut même imaginer un système d'apprentissage par backpropagation, où de nouveau random forest seraient créés sur base des écarts entre la vague précédente de random forest et les résultats de réseaux neuronaux (ainsi que des écarts entre arbres).
Avec le GAN, la création d’images pourrait être issue directement de la classification. Les couches cachées de notre réseau neuronal (par exemple, la forme, la couleur, la taille relative entre les membres de son corps…) pourraient d’ailleurs coïncider avec un nœud sur l’arbre décisionnel.
Le GAN créerait alors des images « chimériques » ou « coquecigrue » par exemple en décomposant une image existante, la transformant, la détourant, cachant des parties (oreilles, pattes, face…) en caractérisant chaque image.
Il est déjà possible de faire ce type de test comme le montre le site Pix2Pix qui crée une image de chat à partir d’un dessin à la main (le dessin n'est pas mon fort ;).
Vous pourriez encore plus facilement créer cet arbre sur le plan décisionnel avec des données structurées, par exemple si vous utilisez un réseau neuronal pour scorer des dossiers de crédits.
a. Vous pouvez prendre un dossier et vous faites varier (en utilisant un GAN par exemple) une multitude d’informations, ex : Banque, prénom, âge, ville …
b. En fonction des variations des décisions de crédit données par le réseau neuronal initial, vous pouvez reconstituer un arbre de décision (pas nécessairement exhaustif, mais avec l’IA vous avez la possibilité de prévoir beaucoup de cas).
c. Cela vous permet aussi de calculer des effets de seuil, de basculement et de vérifier les biais (ex : sur le prénom ou nom, l’adresse…).
Dans le cas où le pourcentage de chaque option correspond de manière significative sur le plan statistique à l'équiprobabilité (donc s'il y a deux options, à 50% +/- marge d'erreur liée à la taille de la population testée), cela signifie que cette branche n'est pas un critère et peut être éliminé de l'arbre de décision.
La limite néanmoins est que les règles que vous allez tester sont une approximation des règles dans le réseau neuronal. Si le réseau neuronal utilise les trois premières lettres d’un prénom, pour faire un calcul de scoring et que vous ne le testez pas, vous ne pourrez pas le décrire dans les règles. D’autre part, vous n’allez pas tester a priori des critères qui n’ont aucun sens pour vous (ex : la 3ème lettre du prénom, le numéro de l’adresse et le 4ème chiffre du code postal)
Je propose aussi une autre démarche (c’est hardi, il y a de fortes chances que quelqu’un y ait déjà pensé depuis des lustres mais ne sait-on jamais). Je serai heureux d’avoir le retour de celles et ceux qui connaissent les réseaux neuronaux.
Aujourd’hui, le réseau de neurones entrant (image d’un chat par exemple) est une image matricielle comme une image bitmap décomposée en pixels RGB (Red Green Blue). C’est une image qui pèse bien plus lourd (à l’image des Bitmap) que d’autres images jpg qui utilisent notamment des algorithmes pour compresser l’image (avec perte pour jpg).
L’objectif est de transformer cette image composée de points en image vectorielle. L’image vectorielle est composée d'objets géométriques individuels, des primitives géométriques (segments de droite, arcs de cercle, courbes de Béziers, polygones, etc.). Chaque point dans une image est calculé par des fonctions de manière continue et non discrète. Ainsi la qualité de l’image n’est pas affectée si l'on agrandit une image à la différence d’une image fondée sur des pixels.
Imaginons pour simplifier que j’ai une image représentant une partie de courbe sinusoïdale soit la fonction y=sin(x). On peut la représenter par une courbe (x entre -1,4 et 1,3) dans une matrice 28*28 points.
Comme toute fonction, il est possible d’en réaliser un développement limité qui transforme une fonction quelconque en une fonction polynomiale (du type y= a+bx+cx^2+dx^3+…) qui approxime la fonction au voisinage d’une valeur, ici 0.
Les développements limités sont d’ailleurs utilisés par les calculatrices depuis la nuit des temps car ils sont beaucoup plus simples à calculer que la fonction elle-même.
Ici, le développement limité (dl) d’ordre n de sinus est de y=x-x^3/(2*3)+x^5/(2*3*4*5)-…(-1)^n*(X^(2n+1)/(2n+1)! + ε ( sachant que ε = epsilon, valeur négligeable = x^n * ε(x))
soit pour un dl d'ordre 3 de la fonction sinus au voisinage de 0 : y= x- x^3/(2*3) + ε
Avec cette solution on passe d’une matrice de 784 points à une matrice de 4 points (les facteurs de x).
Je fais ici bien sûr quelques raccourcis car d’une part, il y a des calculs à réaliser pour utiliser cette matrice de 4 points (élever chaque chiffre à une puissance de x) et toutes les images ne sont pas facilement vectorisables et leur poids peut être supérieur à celui de l’image initiale non vectorisée en fonction de la complexité de l'image (son entropie de Shannon).
L'intérêt de réduire la taille de cette matrice est d’accélérer les calculs et aussi de créer de nouvelles structures de réseaux neuronaux.
Dans l’exemple ci-dessous, je suis parti d’une image jpg que j’ai vectorisée (sous format SVG). La qualité est moins bonne, et le poids beaucoup plus élevé (10 fois – 1,5 MB). Néanmoins, si l'on réduit la qualité et on le met en deux couleurs, la taille est de 40k (et si l"on agrandit cette image, on ne perd plus en qualité).
On pourrait utiliser des traitements pour simplifier l’image de départ afin de réduire le nombre de points. D’autre part, si l'on part d’une image vectorielle, le poids est bien inférieur à une image bitmap voire jpg (en fonction de la complexité de l’image et de sa représentation sous forme de formules).
Image Initiale en JPG (133ko)
Pour des données qui ne constituent pas des images, on peut utiliser d’autres formules mathématiques qui peuvent être similaires à celles utilisées pour compresser des données (Zip, RAR...).
Plus l'entropie de Shannon d'une matrice de données est faible (moins les données sont aléatoires), plus la taille de la matrice de fonctions sera réduite (comme la matrice 4*1 correspondant au développement limité du sinus) et donc plus li est intéressant d'utiliser cette méthode plutôt que la matrice originelle.
Nous verrons quel sera l'avenir des réseaux neuronaux vectoriels et s'ils complètent utilement les nombreux autres réseaux neuronaux dont convolutionnels.
Image en SVG (1,5 MB)
et en 2 couleurs - 40 Ko
Les réseaux neuronaux existent depuis belle lurette, mais la puissance de calcul et la parallélisation massive des ordinateurs et la disponibilité de nombreuses données ont permis l'explosion de ces usages (qui a aussi permis le développement du deep learning).
Dans des domaines comme la perception (reconnaissance vocale, d'images...) ou pour donner des "insights" non explicatifs (ex: pour signaler qu'il y a des anomalies mais sans pouvoir expliquer lesquelles, analysées dans un second temps par une intelligence humaine ou un autre type d'IA), les réseaux neuronaux sont extrêmement puissants dès lorsque le nombre de données sont massives.
Néanmoins il est essentiel de ne pas oublier leurs failles et faiblesses (quantité de données nécessaires, inexplicablité intrinsèque, faillibilité avec l'existence potentielle de backdoors indétectables, biais de confirmation ...).
La combinaison de plusieurs IA (dans l'Adverserial IA) pour tester une autre IA ou comme je le proposais pour créer un arbre de décision sont des possibilités qu'ils offrent pour réduire ces problèmes.
Enfin, il faut toujours garder un esprit critique dans l'utilisation des IA car comme pour le GPS, si l'on se repose trop dessus, on en perd le sens de l'orientation au risque de se perdre définitivement ...
Si vous souhaitez que je réalise une conference, workshop spécifique à vos métiers sur ce sujets (ainsi que IoT, Blockchain, Innovations...) n'hésitez pas à me contacter :)
Dimitri Carbonnelle - Fondateur de Livosphere - Contact
Conseil en Innovation (IA, IoT, Blockchain, Robots)
Conférences, Formation, Architecte et réalisation de projets innovants : De la recherche d'innovations, de startups à leur déploiement
Blockchain : Révolution ou Bulle? Facebook Coin / Libra,
CES Las Vegas 2020 : Retours IA, Robots, Résilience, transport, 5G
Innovations
Énergie,Eau, Biodiversité
J'ai été ravi d'intervenir à une conférence sur l'IA , intelligence artificielle avec Florence Guthfreund Roland (avocate) et Patrice Slupowski en présence d'André Santini, maire d'Issy-les-Moulineaux.
Nous avons abordé beaucoup de thèmes différents :
J'ai écrit ausi un article sur le futur de l'éducation et du travail face à l'IA et les robots, si vous êtes intéressés :
http://bit.ly/livo_IA
Dimitri Carbonnelle Fondateur de Livosphere
Agence Conseil en Nouvelles technologies IoT, IA ...
For English Speakers - Google Translation Nous sommes à l'aube d'une nouvelle ère, après avoir démultiplié notre force physique grâce aux moteurs thermiques, électriques, nous avons la capacité de démultiplier notre force intellectuelle avec l'intelligence artificielle associée pot aux robots.
For English Speakers - Google Translation
Cela bouleversera profondément notre manière de travailler, de vivre et aussi d'éduquer. A l'image des luddites, il serait vain et contre-productif d'interdire IA et robots. Il faut que nous apprenions à les comprendre, à prendre appui sur eux mais aussi à les critiquer, y faire face en gardant et en cultivant nos différences tout en apprenant ne pas se reposer systématiquement
Il y a en particulier une proposition que je souhaite mettre en avant pour favoriser nos différences en particulier la créativité :
En plus de favoriser la créativité, cela favorisera le goût de l'effort pour tous les enfants qui ne se contentent pas de ce qu'on leur apprend mais qui veulent aller plus loin. C'est un premier vers l'esprit d'entreprendre, oser prendre des risques.
Aussi, c'est un signe fort pour montrer que nous les femmes et les hommes sommes capables d'avoir 21 sur 20 ce qui restera inaccessible pour l'intelligence artificielle très longtemps, espérons jamais.
Pour paraphraser une phrase très connue c'est un petit point pour les enfants aujourd'hui, ce sera un Grand Point pour l'Humanité demain
Sommaire
Aujourd'hui nous sommes confrontés à un monde de plus en plus chaotique, incertain où les catastrophes climatiques se succèdent aux menaces terroristes, où les mouvements de population deviennent de plus en plus difficiles à contenir face aux inégalités criantes, où les ressources se raréfient dramatiquement alors que les besoins explosent et que nous sommes de moins en moins d'actifs à pouvoir y répondre.
Il n'y a pas de solutions complètes à tous ces problèmes qui nécessitent des changements massifs de comportements, d'habitudes, nous demandent de revoir nos modes de pensées et vont bouleverser nos civilisations.
Face à la complexité, à la nécessité de pouvoir répondre en temps réel, l'être humain est souvent démuni car il ne peut traiter toutes ces informations en tenant compte de tous les impacts potentiels.
L'intelligence artificielle, sans être une panacée, peut apporter des réponses car elle a cette capacité. Les robots peuvent eux aussi pallier au manque cruel de bras que nous avons, sachant qu'il n'aura plus que 2 actifs (20-65 ans) pour un senior (>65 ans) à partir de 2040 au lieu de 4 dans les année 1990
Les applications de l'IA sont extrêmement nombreuses et pour donner quelques exemples peuvent fortement réduire la mortalité en réduisant le nombre d'accidents mortels grâce au véhicule autonome ou de malades et de décès de dus au cancer grâce à un diagnostic précoce qu'un médecin serait incapable de réaliser seul.
Les robots peuvent dans les pays occidentaux réduire la désindustrialisation voire même permettre une réindustrialisation partielle (très difficile de connaître la balance positive ou négative à ce sujet) car une main d'oeuvre peu qualifiée située dans des pays en voie de développement peut être remplacée par des robots pilotés par des hommes situés dans les pays consommateurs.
Le coût de la main d'oeuvre devenant moins important dans le coût total de production alors qu'une relocalisation près des lieux de consommation permet d'accroître la flexibilité, de réduire les fuites de technologies comme le fait Devialet avec ses usines françaises parmi les plus robotisées.
Enfin, les robots permettent aussi de réduire les tâches répétitives causant notamment des troubles musculo-squelettiques (TMS).
Evidemment, tout n'est pas rose dans le monde de l'intelligence artificielle et des robots. Un des grands problèmes qu'ils soulèvent est le risque massif de perte d'emploi pour de nombreux salariés.
Les trois domaines qui risquent le plus de perdre des emplois sont liés à la vente de produits (en raison de distributeurs automatiques, de la réduction du nombre de magasins devenant des showrooms et remplacés par des sites Internet...), les emplois industriels et toutes les tâches administratives ( comptabilité, finance, support client de premier niveau...).
Il est très difficile d'évaluer la balance entre les emplois gagnés et perdus. Un très grand nombre d'emplois dont nous n'aurions jamais imaginé l'existence il y a 20 ans sont apparus. Nous avons vécu une situation similaire quand les tracteurs sont arrivés au début du siècle.
Aux États-Unis, c'est posé une vraie question sur tous les emplois perdus en raison des tracteurs. Les États-Unis ont alors décidé d'accroître l'âge de la scolarité obligatoire de 13 ans à 16 ans qui leur a permis de former des hommes et femmes pour les emplois de demain.
Des études anticipent que seulement 10 % des emplois seront quasiment totalement automatisés et donc détruits par l'intelligence artificielle (ex: les comptables qui appliquent à la lettre les règles comptables sans apporter de conseil additionnel). 40 % des emplois seraient faiblement touchés par l'automatisation comme le métier d'infirmière en raison notamment du lien humain indispensable.
En revanche, 50% des emplois seront fortement automatisés de l'ordre de la moitié des tâches ce qui signifie que les métiers seront profondément modifiés mais que les emplois ne sont pas détruits si les personnes concernées s'adaptent à ce bouleversement. Cela signifie aussi qu'il y a une vraie nécessité d'apprendre à travailler avec les robots.
Il y a parfois une vision simplifiée de l'intelligence artificielle assimile à une intelligence monolithique qui croit progressivement. Il serait donc facile que l'intelligence artificielle dépasse un jour ou l'autre l'homme grâce aux capacités de calcul qui croissent exponentiellement.Il serait donc facile pour l'intelligence artificielle de dépasser celle d'un homme.
C'est une vision complètement erronée de l'intelligence qui est réduite alors à un chiffre, le quotient intellectuel qui certes mesure une partie d'intelligence mais n'est pas représentative du toute l'intelligence d'un être humain ou d'une machine. L'intelligence est multiple que ça soit sur la perception, la compréhension, l'analyse des images, des sons, des émotions, les capacités de synthétiser de faire des analogies, la créativité ...
Aujourd'hui l'intelligence artificielle est surtout très bonne pour percevoir des images des sons, analyser des données dans un champ réduit. C'est une intelligence artificielle spécifique, l'IA qui a battu le champion du monde de Go est bien incapable de lire la moindre mammographie pour détecter un cancer.
Même si aujourd'hui il doit pas y avoir beaucoup de cancérologues qui sont champions du monde de Go en revanche l'être humain a la capacité de comprendre un très grand nombre de sujets et de domaines avec très peu de données.
Le mythe de l'intelligence artificielle forte ("High level machine intelligence " (HLMI), capable de rivaliser avec un humain qui est d'ailleurs le vecteur de communication du transhumanisme est loin d'arriver (mais ça arrive vite...).
Même si les prévisions dans ce domaine sont extrêmement difficiles à faire actuellement 50 % des experts pensent que cela devrait arriver dans une cinquantaine d'années au plus tôt. En résumé, nous avons entre une et deux générations pour nous y préparer.
L'autre élément essentiel est que l'intelligence artificielle n'est pas infaillible au contraire, elle est faillible.
L'intelligence artificielle est directement dépendante des informations qu'on lui donne et dans bien des cas a beaucoup de difficultés à voir des incohérences qui sauteraient aux yeux de n'importe quel humain.
Pour l'anecdote lors de la finale de Jeopardy sur le thème de villes aux Etats-Unis, Watson, l'intelligence artificielle d'IBM a certes gagné contre les humains en revanche elle a fait des erreurs manifestes que nous n'aurions pas faites.
Elle a situé la ville de Toronto comme une ville américaine (thème des questions) et non comme une ville canadienne. La raison probable est que Toronto fait partie d'un certain nombre d'associations, organisations américaines (Hockey, civils...) et que l'intelligence artificielle a conclu qu'elle faisait partie des États-Unis.
Parlons maintenant de l'impact de l'intelligence artificielle sur l'éducation, déjà aujourd'hui un certain nombre d'études montreraient qu'il y a une baisse de QI (qui bien que ne représentant pas l'intelligence totale est un indicateur intéressant à suivre) sur le plan mondial qui serait notamment lié à l'utilisation massive d'écrans par les enfants en bas âge et qui pour cette raison aurait beaucoup moins d'interactions avec leurs proches et l'extérieur et empêcherait ainsi le développement normal de leur cerveau.
Un des premiers risques est celui de "diabète intellectuel", cela signifie que les enfants et les adultes se reposent de plus en plus sur l'intelligence artificielle pour prendre leurs décisions, lui fasse confiance de plus en plus aveuglément sans esprit critique et perdant en cela leur créativité, leur esprit critique, leur capacité à transgresser les règles et les inventer car prescrits par les robots avec le consentement le consentement passif des humains.
L'arrivée de l'intelligence artificielle et de robots me semble inexorable mais aussi indispensable compte tenu des défis à surmonter sur notre planète (réduire et optimiser les consommations énergétiques et des ressources comme l'eau potable, réduire la mortalité sur les routes, les cancers...).
Vouloir l'interdire me semble contre-productif en revanche il faut apprendre à vivre avec et empêcher ses dérives.
Si on se focalise sur l'éducation, la clé est que les enfants apprennent à apprendre en plus d'apprendre. Apprendre la démarche pour résoudre un exercice est aussi voire plus importante que de savoir appliquer strictement une démarche aboutissant au bon résultat sans la comprendre.
Les principes qui me semblent essentiels à appliquer dans l'éducation c'est tout d'abord apprendre à travailler avec l'intelligence artificielle et les robots plutôt que de s'y opposer. Cela peut se matérialiser par des cours de codage où les cours pour programmer des robots en revanche l'objectif n'est pas que tous les élèves deviennent des super développeurs comme ce n'est pas l'objectif du sport à l'école que tous les élèves deviennent des sportifs de haut niveau, d'autant que l'intelligence artificielle va automatiser et rendre caduc beaucoup de programmation.
Un autre principe essentiel est de comprendre les limites, les failles de l'intelligence artificielle, ne pas se reposer sur lui aveuglément et gardez toujours l'esprit critique.
Il est important qu'ils apprennent la résilience, la capacité à se passer d'IA, de robots (séance sans ordinateur, smartphone…)
L'homme se distingue par sa créativité, ses capacités à créer de nouvelles règles pour les adapter, à avoir l'esprit critique et curieux, apprendre sur un très peu nombre d'exemples ou sur de bases informations dans structure et avoir un esprit et l'intelligence généraliste qui tient compte de l'humain qui a des valeurs qui s'est croisé les informations qui sait aussi sortir des sentiers battus transgresser s'insurger.
Il faut cultiver ce qui nous différencie comme la créativité, la relation humaine, le travail en équipe, l'ouverture sur des domaines extrêmement variés, la capacité à transposer des expériences, pratiques dans des domaines très différents
L'école doit aussi faciliter l’expérimentation / le travail par projet d’équipe ("hands-on experience") y compris pour des matières telles que la géographie / histoire en renforçant les « serious game », les simulations et la découverte et l’expérimentation sur le terrain (aller chez un agriculteur pour servir de complément aux cours sur la géographie française, ) sont quelques pistes aussi pour apprendre aux enfants à sortir du cadre.
L'objectif est que les enfants d'aujourd'hui puissent créer et développer les métiers de demain sans les connaître à l'avance.
J'ai une dernière proposition ajouter un point de bonus à un élève qui aura une démarche particulièrement créative audacieuse inventive indépendamment du résultat final.
Ce point est essentiel car il va inciter les enfants à être créatif, à oser, à être curieux, à entreprendre, à prendre des risques.
Il symbolise aussi le fait que seul l'homme peut atteindre 21 sur 20 à la différence de l'intelligence artificielle et des machines.
C'est un petit point pour les enfants aujourd'hui et ce sera un grand point pour l'humanité demain.
Dimitri Carbonnelle - Fondateur de Livosphere
(Mise en place de Nouvelles technologies - IoT, IA...)
Les robots associés à l’intelligence artificielle promettent de révolutionner notre monde en simplifiant notre vie en s’occupant de tout ce qui est "Dirty, Dangerous, Dull" ( Sale, Dangereux et Ennuyeux) parfois trop d’ailleurs…
For English Speakers - Google Translation
En ces temps, où guerres larvées ou déclarées, terrorisme, attentats percutent notre quotidien, Elon Musk avec 115 autres experts redemandent à interdire les robots tueurs alors que l’ONU vient de reporter sa réunion sur le sujet (novembre 2017, initiée en 2013).
En parallèle, la Russie a annoncé le développement de missiles capables de choisir leur propre cible (« À ce jour, certains succès sont disponibles, mais il faudra plusieurs années de développement pour obtenir un résultat précis. » dixit Boris Obsonov PDG de Tactical Missiles Corp.)
Je suis extrêmement inquiet des risques de surenchère et de propagation incontrôlée qui risquent d’advenir avec les armes autonomes et robots tueurs car ils risquent de donner à un individu lambda la capacité de tuer une multitude de personnes extrêmement facilement sans se faire prendre. Si on se réfère à l’anneau de Gygès, une vieille fable de Platon (République, Livre II - Wikipedia), ce n’est pas bon signe.
Ce sont des milliers voire des millions de Kim Jong-un en puissance qui risquent d’apparaître. On voit à quel point il est difficile de contrôler quelqu’un qui joue à balancer des allumettes dans la poudrière mondiale, imaginez si vous multipliez leur nombre ... Et nous n’avons que quelques années avant d’éteindre la mèche car il sera très difficile de revenir en arrière une fois que les armes autonomes commenceront à apparaître.
.
Plutôt que d’attendre de voir les missiles et armes autonomes passer, je préfère réfléchir, faire réfléchir et dire
Je n’ai aucune compétence et expérience dans le domaine de l'armement, j'ai juste souhaité anticiper ce qui peut nous arriver comme je le fais sur d'autres sujets (e-santé, ville - smart city, futur du travail et de l'éducation…) qui impliquent des nouvelles technologies.
Alors si quelques idées germent et permettent de prévenir certains risques et de réduire le développement de ces armes, ce sera cela de gagné.
N’hésitez pas à partager et commenter cet article pour faire avancer ces idées complétées avec les vôtres.
Elon Musk avec 115 autres experts veulent interdire les robots tueurs (un premier appel avait déjà été lancé en 2015, par Elon Musk, Stephen Hawking, Noam Chomsky et Steve Wozniak, cofondateur d’Apple.. ) alors que l’ONU vient de reporter sa réunion sur le sujet (initiée en 2013).
L’objectif est d’interdire les armes autonomes capables de prendre la décision de choisir et de tuer des cibles sans intervention humaine (ex : armes automatiques, drones, tanks…).
Avec la baisse drastique des coûts des technologies robots, IA / intelligence artificielle, Internet des Objets/IoT…), cela entraîne aussi la baisse dramatique des coûts et une facilité accrue pour tuer un être humain. Nous fournissons un accès quasiment libre à des poudrières. Beaucoup s’en empareront et volontairement ou pas allumeront la mèche … déclenchant une réaction en chaîne avec des explosions dévastatrices, sans même qu’ils aient toujours imaginé l’impact de leur geste.
Certains contradicteurs chantonneront sur l’air de John Lennon « Imagine a war with no dead people ...with no wounded people too » en imaginant une guerre propre avec une armée d’assbots. N’est-ce pas le rêve de tout général, de toute famille de soldat et d'une opinion publique de gagner une guerre sans verser le sang de ses compatriotes.
Aussi, une guerre sans victimes serait plus accessible, plus facile à déclarer, moins gênante vis-à-vis de l'opinion publique. En plus, remplacer un robot détruit par un nouveau robot ferait tourner l'industrie manufacturière, alimenterait des armées de data scientists, d’experts en IA …
D’autre part, avec les armes autonomes, la prime reviendrait à l'attaquant et non à la défense, nous pourrions ainsi assister à une multiplication des guerres préventives comme nous en avons connu avec la 2e Guerre en Irak, afin de détruire toutes les capacités offensives de nos rivaux potentiels.
Malheureusement, le risque est une surenchère à la guerre préventive où chaque Etat aurait intérêt à attaquer l'autre juste pour réduire le risque d'être attaqué.
Imaginons deux Etats qui s'affronteraient avec une armée d’Assbots chacun, face à l’autre. Nous pourrions faire une analogie avec deux soldats sous morphine (les assbots étant la morphine car leur perte n’entraîne pas de douleur) qui ne sentant plus la douleur se battraient jusqu'au bout, l'un contre l'autre .
Jusqu'au bout mais jusqu'au bout de quoi ?
Jusqu'à ce que le seuil de douleur devienne inacceptable par la perte d’êtres humains ou jusqu'à ce que l'Etat prenne conscience qu'il a beaucoup plus à perdre en poursuivant la guerre qu'en acceptant d'être vaincu aux conditions de l'adversaire.
Oui mais si votre adversaire a déjà détruit tant que vous n'ayez plus grand-chose à perdre, ne seriez-vous pas tenté d'emmener votre adversaire dans votre chute vers une guerre totale ?
Après deux bombes atomiques, les Japonais ont accepté de cesser la guerre. Que faudrait-il pour faire cesser une guerre de robots. Si a priori vos robots ne tuent pas pas hommes, femmes et enfants, les robots de vos adversaires risquent de passer à la vitesse supérieure pour vous faire céder, ils ne se contenteront pas de briser de la belle mécanique et électronique.
A l'image de ces deux soldats sous morphine, le seuil de douleur devient plus élevé alors que leurs blessures seront nettement plus profondes. La douleur est une limite à franchir avant de poursuivre l’escalade, s'il n'y a plus de douleur, il n'y a plus de limites.
Les robots tueurs accélèrent l’escalade guerrière vers le point de non-retour et poussent à la guerre totale, à l’anéantissement de l’adversaire et … le sien. La différence entre les guerres passées et les guerres avec des robots tueurs est que les premières ont mis à genoux de nombreux pays, la France, l’Angleterre, l’Allemagne, le Japon … mais ne les ont pas anéantis, les deuxièmes ne permettront pas à ces nations voire nos civilisations de se relever.
C’est une hérésie de croire à une guerre propre avec des robots tueurs car ce qui dissuade des pays de déclarer la guerre à d’autres ou les inciteraient à capituler et empêcher la guerre totale est l’insupportable douleur de sa population et ses pertes humaines.
Alors oui, il est d’une absolue nécessité de les interdire mais est-ce possible ?
Nous sommes face à ce choix cornélien : pour nous protéger vaut-il mieux être armé avec le risque d’armer nos adversaires ou que nous soyons tous désarmés sachant qu’il est de plus en plus facile de créer des armes autonomes, de les utiliser sans risquer de se faire détruire.
Nous pouvons faire le parallèle avec la convention sur l’interdiction et la destruction des armes chimiques (1997) et le récent traité d’interdiction des armes nucléaires adopté à l’ONU, voté par 122 Etats mais aucun des neuf pays détenteurs de la bombe, à savoir les six Etats « dotés » au sens des traités internationaux (Etats-Unis, Russie, France, Royaume-Uni, Chine et Inde), auxquels s’ajoutent les Etats non déclarés (Pakistan, Israël et Corée du Nord) ne l’ont signé ..).
Cela vide quasiment de toute sa substance le traité, c’est comme si tous les citoyens n’ayant jamais porté d’arme s’engageaient à ne porter d’armes ! (même si cela n’influence les autres …)
La position de la France dans ce dernier cas est très instructive :
Mettant en avant la force dissuasive de l’arme nucléaire encadrée par le traité de non-prolifération, mais aussi ses efforts en matière de désarmement, Paris estime que « le désarmement nucléaire ne se décrète pas ». Selon le communiqué du ministère des Affaires étrangères, « un traité d’interdiction des armes nucléaires risque d’affecter la sécurité de la région euro-atlantique et la stabilité internationale », et il est « susceptible de fragiliser le traité sur la non-prolifération des armes nucléaires, pierre angulaire du régime de non-prolifération ».
Nous sommes face à un dilemme du prisonnier sauf qu’au lieu d’avoir deux prisonniers vous en avez des milliers voire des millions (Etats, organisations terroristes, individus isolés…) si un seul trahit, il peut mettre en danger tous les autres. C’est à l’image d’un O.K. Corral mondialisé réunissant Etats, organisations, individus main sur le revolver, prêts à dégainer sur un malentendu ou un cliquetis suspect.
Personne n’ayant confiance en personne, cela risque de se traduire sous forme de guerre froide démultipliée où chaque Etat et organisation se gardent la possibilité d’utiliser ces armes de manière défensive … voire préventive en surveillant les autres, en essayant de réduire leur accès de technologies sensibles et en se donnant les moyens de les saboter (via des virus ou chevaux de Troie dormants activés si la menace se précise).
La cyberguerre collabore étroitement avec la guerre par les robots tueurs. Le robot tueur est le prolongement physique de la cyberguerre. Les nombreuses attaques récentes comme WannaCry ou Stuxnet peuvent être un moyen de tester et d’infiltrer des systèmes informatiques tiers pour devenir une arme de dissuasion ou saboter les systèmes adverses.
Grosso modo, tout le monde se tient par la barbichette jusqu’au jour l’un d’eux n'ayant pas grand-chose à perdre et beaucoup à gagner fasse craquer l’allumette.
Il y a un intérêt additionnel d’avoir une armée de cyberguerriers. Autant retourner une armée de soldats, n'est guère aisée, vous trouverez toujours une backdoor comme on l’a vu dernièrement pour retourner une armée d'assbots contre son Etat d’origine. Le Brain Washing est bien plus efficace et facile sur des robots que sur des humains.
Il ne reste plus qu’à mettre en œuvre le projet d’Elon Musk (Neuralink … le même qui est contre les robots tueurs … il a dû certainement comprendre les risques de son projet dans ce domaine …) pour intégrer des puces dans le cerveau afin de l’augmenter.
Un petit court-circuit ou DDOS et vous pourriez éradiquer une armée entière d’humains augmentés. Cela rend les possibilités de destruction pardon d'auto- destruction quasi illimitées et surtout aussi faciles à déclencher qu'un jeu vidéo comme Call of Duty.
On voit donc que même s’il sera extraordinairement difficile d’interdire à tous les Etats d’utiliser des armes autonomes, il y a quelques arguments qui pourraient, je le souhaite, les faire réfléchir.
On pourrait se demander pourquoi une arme autonome est si dangereuse par rapport à une arme traditionnelle ?
Une arme conventionnelle
ce qui peut réduire le nombre de victimes
Une arme autonome
Donc, OUI je me répète, les armes autonomes sont un danger absolu pour le futur des hommes.
D’autres questions se posent aussi :
On veut interdire aux robots de prendre la décision de tuer, de quelle décision parle-t-on ? de tuer un individu, un groupe d’individus, un groupe d’individus ayant certaines caractéristiques … et quelle part délègue-t-on à la machine ?
Les bombes ou missiles lancées d’un avion après qu’un homme appuie sur un bouton ne sont pas considérés comme des robots tueurs même s’ils ont un dispositif qui détecte la chaleur ou un signal (ex : smartphone) et poursuivent leur cible en conséquence.
Un homme a pris la décision d’appuyer sur un bouton, donc on pourrait dire que ces armes ne sont pas autonomes car c’est lui qui l’a décidé et non l’arme de tuer…
En réalité, l’homme a délégué aux robots tueurs le choix de tuer. Celui qui décide de tuer peut avoir l’impression d’être dans un jeu vidéo et oublier que celui qui meurt n’a pas de deuxième vie après Game Over.
D’autre part, à partir de quel moment on considère un appareil comme un robot ou une arme autonome, un pistolet intégrant de l’IA pour ajuster un tir à l’image des systèmes de stabilisation pour appareil photo, est-ce un robot tueur ?
Imaginons, un gilet pare-balle capable de tirer et tuer un assaillant s’il a été touché. Est-ce que cette arme défensive et autonome aurait le droit de tuer en cas de légitime défense de son propriétaire ?
Le débat ne s’arrête pas aux robots tueurs mais aussi aux robots de guerre en général (et tueurs indirects) qui peuvent transmettre des maladies, détruire toute une infrastructure d’énergie, d’accès à l’eau, à la santé, aux communications qui peuvent entraîner par impact une multitude de décès par maladie, faim, froid, déshydratation …
Il y a beaucoup de questions qui se posent, il est essentiel qu’en premier lieu le maximum de questions et de problématiques soient clairement posées afin de pouvoir prendre des décisions dessus. Il faut aussi inclure les licenciés de tir sportifs et chasseurs dans cette réflexion.
Même si cela semble une gageure d’interdire des armes autonomes aux Etats (d’autant qu’elles commencent à exister comme le montre la récente déclaration de la Russie pour développer leurs missiles capables de choisir leur propre cible lors du salon aérien moscovite MAKS 2017… ), on peut avoir une approche pour restreindre au maximum leurs conception, vente, utilisation et propagation et au final parvenir à les interdire avant qu’il ne soit trop tard.
Pour cela, il faut augmenter au maximum la barrière à l’entrée pour accéder à ce type d’équipement afin de la rendre inaccessible.
Un des problèmes des armes autonomes, est qu’à la différence des armes nucléaires ou d’armes chimiques, nul besoin de s'approvisionner en uranium et de l'enrichir, ou de souches de virus et
d’usines chimiques pour obtenir une arme de destruction massive
La technologie peut se diffuser suffisamment rapidement pour qu’un Etat ou une organisation non terroriste ne puisse empêcher sa propagation vers des organisations criminelles ou terroristes. La
guerre ne sera plus réservée aux Etats mais se démocratisera aux terroristes de toute confession et aux organisations criminelles de tout poil, voire même aux individus, hackers solitaires ou
anonymes.
La réglementation pourrait a minima être nationale afin de servir d’exemple et proposer à nos partenaires européens et pousser sur le plan international, en particulier les Nations Unies. Je sais, certains d’entre vous, me taperont sur l’épaule, en m’indiquant que l’industrie de l’armement française est fortement exportatrice et il ne faut pas la brider. Le point n’est pas d’interdire la recherche sur l’intelligence artificielle mais d’éviter d’atteindre ce fameux dilemme du prisonnier où on aura à choisir entre anéantir l’adversaire et être anéanti grâce à l’IA et être anéanti car nous n’aurons pas utilisé l’IA.
Il faut distinguer deux types d’armes,
Pour les armes en général possédées par des Etats (avions de combat, missiles, tanks…)
Idéalement, on pourrait interdire toute arme autonome dans le monde, le problème est qu’il faut être un peu réaliste et tenir compte que c’est plus facile d’interdire ce qui n’existe pas encore que ce qui existe, d’où l’urgence de la réglementation internationale compte tenu des avancées des fabricants d’armes.
D’autre part, il vaut mieux été concret, avoir des définitions précises quitte à les modifier plutôt que de partir sur des bonnes volontés qui sont inapplicables sur le terrain.
J’exclus dans mes recommandations ci-dessous les armes autonomes qui ont pour seul objectif de détruire une arme lancée par un adversaire (ex : batterie anti-missile dotée d’IA), celle-ci ayant un but uniquement défensif et n’ayant pas d’impact sur des personnes ou du matériel.
J’utilise à escient le mot cible plutôt que victime, car la cible peut être aussi une cible en carton … pour les armes utilisées par des tireurs sportifs par exemple.
Cela signifie que toute action de mise à feu doit obligatoirement déclencher la mise à feu instantanément.
Par exemple, si on appuie sur le bouton Fire, le missile ne doit pas partir dans les 10 minutes qui suivent ou être programmé mardi matin à 8h45. De même, il ne doit pas y avoir un IFTTT (If This Then That) de mise à feu, style si la Corée du Nord a envoyé un missile, je tire automatiquement sans intervention humaine un missile visant la Corée du Nord. Comme je dis plus haut, en revanche, une arme anti-missile peut détruire le missile nord-coréen !
Se pose la question des combats par exemple un avion de chasse, un tank peut-il déclencher le feu automatiquement sans l’intervention d’un être humain s’il combat un avion de chasse ou tank adverse ? Difficile d’interdire cela à un avion de combat s’il est attaqué. Je pense que l’IA pourrait être utilisé que de manière défensive.
Mais qu’est-ce que défensif ? Si nous sommes plusieurs avions de combat, mon voisin est attaqué, est-ce que l’IA de mon avion peut attaquer les avions adverses. Plus largement, si mon pays est attaqué, est-ce que tous mes avions pourraient utiliser l’IA …
Et dans l’exemple précédent si les Etats-Unis sont attaqués, est ce interdit ou autorisé qu’une IA envoie un missile directement sur la base qui a lancé le missile voire d’autres qui pourraient menacer … même s’il y des populations civiles …
L’esprit est d’avoir une réponse proportionnée à l’attaque, l’IA ne doit jamais être capable de surenchérir.
Seul l’homme doit avoir le pouvoir de le faire sinon le risque est l’escalade jusqu’au double anéantissement total (cf. un vieux film Wargames de 1983 qui l’évite car l’IA comprend qu’il fait face au même problème que pour le Tic-Tac-Toe (« A strange game. The only winning move is not to play ;), et une version alternative où l’IA ne le comprend pas …)
L’homme a montré à quel point il était capable de bafouer les règles aux dépens de l’humanité lors des guerres, espérons qu’il ne l’enseigne jamais à l’IA.
L’objectif est d’empêcher qu’une arme / une munition intégrant par exemple une caméra avec reconnaissance visuelle ou un autre signal puisse « choisir » sa cible. Il faut que le tireur prenne conscience qu’il peut tirer sur des innocents, des personnes à préserver afin de le dissuader de tirer.
Il existe déjà des missiles qui se dirigent en fonction du signal d’un smartphone (utilisés par les Etats-Unis notamment, la Russie travaille sur des missiles avec IA…).
Ce sera difficile d’interdire ces missiles néanmoins on peut au minimum interdire des armes et munitions qui visent des cibles non identifiées individuellement mais caractérisées ( ex : sur base d’habits, caractéristiques …)
A l'image des avions actuels, les armes types missiles, tanks … ont des systèmes de commande résilients et redondants mais propriétaires.
L’objectif est d’ajouter un système de commande additionnel en open source strictement séparé du système propriétaire. Si deux ordres sont contradictoires entre les deux systèmes, cela empêche la mise à feu. Cela peut sembler contre-intuitif, néanmoins le code open source étant très challengé par des « bug bounty », des hackers… les failles peuvent être identifiées très rapidement à la différence de systèmes propriétaires (plus difficiles d’accès mais moins challengés et corrigées dans la foulée).
J’avais décrit aussi un système pour sécuriser les objets connectés en utilisant la blockchain et le hashage dans un article spécifique.
Interdire l’intégration de microprocesseurs dans le cerveau ou dans d’autres parties du corps hormis les cas médicaux spécifiques (épileptiques, malades d’Alzheimer, tétraplégiques…) et à condition que cela n’augmente pas la capacité de la personne au-delà des capacités normales humaines (ex : intégrer des chips dans le cerveau qui donnent à un malade d’Alzheimer, une mémoire dépassant celle d’un être humain normal, permettre à un aveugle de voir de l’infrarouge via des yeux électroniques).
Tout dispositif qui permet d’augmenter les capacités d’un être humain (un smartphone, des lunettes infrarouges, un véhicule …) doit être externe au corps humain et non relié directement au système nerveux ou au cerveau.
L’objectif est d’éviter qu’un jour quelqu’un puisse prendre la main sur des êtres humains (soldats ou non) et les transformer en robots tueurs ou les tuer.
II y a une réglementation en place qui scindent les armes en plusieurs catégories (de A à D) elle interdit, autorise sous condition, nécessite une déclaration et pour certaines autorise la vente libre (bombes aérosol, certaines armes à impulsion électrique…).
Il est indispensable d’intervenir auprès des fabricants d’armes pour leur interdire de connecter à Internet (directement ou via Smartphone) ou d’intégrer de l’intelligence artificielle, du code logiciel dans ces armes, au pire obliger ces fabricants à dissocier totalement le code intégré dans l’arme (par exemple pour identifier son utilisateur, et empêcher qu’un autre utilise son arme) de la partie mise à feu de l’arme (à l’image des systèmes critiques d’un véhicule) qui doit être exempte de tout logiciel et ne peut être déclenchée que manuellement.
L’objectif est d’interdire une mise à feu à distance sans la présence de son propriétaire ou d’un hacking des pistolets qui permettent de tirer sans la décision expresse de son propriétaire.
Ce sera aussi difficile d’imposer aux fabricants d’armes ces restrictions d’autant que les lobbys d’armes comme la NRA sont très puissants (cf. article ici) et les objets connectés sont pour eux une nouvelle source de revenus.
Il est nécessaire d’interdire l’intégration de code dans les armes et munitions permettant de stabiliser une arme (armes A à D) en fonction d’une cible.
L’objectif est d’éviter que l’arme facilite mécaniquement l’atteinte de la cible. La réglementation peut interdire la vente de ces armes en Union Européenne puis sur le plan international.
Il est en revanche difficile d’interdire des lunettes de visée stabilisées qui existent déjà.
Est-ce possible d’interdire des robots tueurs alors qu’on pourrait imaginer un drone associé à des objectifs a priori inoffensifs et accessibles dans le commerce pour tuer, blesser … ?
Il est possible de limiter certains risques sans éliminer totalement les risques.
Tout objet
Cela concernerait les robots, drones, véhicules télécommandés avec potentiellement des spécificités pour chacun. On le fait déjà pour acheter une carte Sim et dans le cas des drones cela va devenir obligatoire si le poids dépasse 800 grammes. Ces drones « lourds » devront être équipés de signaux lumineux et sonores afin d’être facilement identifiables dans le ciel.
Il est nécessaire que les véhicules autonomes ne puissent perpétrer des attentats comme à Nice ou à Barcelone. Pour cela, on peut intégrer du code non modifiable qui réduit la vitesse puis met à l’arrêt un véhicule si un piéton, un obstacle est détecté dans une zone inférieure ou égale à la distance de sécurité de freinage. (voir l’article sur sécurisation des objets connectés)
Il y a d’autres risques à tenir compte comme le risque que des engins explosifs soit situés dans le coffre d’une voiture autonome.
Mais comment faire la distinction avec des bagages ? Cela me paraît difficile de demander aux constructeurs de mettre des capteurs d’explosifs dans les coffres ! Ce serait complètement disproportionné par rapport à la probabilité qu’un coffre contienne des explosifs. Compliqué aussi de pister chaque véhicule en temps réel, gardons encore les quelques libertés qu’ils nous restent.
Néanmoins, on peut imaginer des boites noires pour les véhicules autonomes (ou pour ceux qui sont utilisés par plusieurs utilisateurs comme les VTC), idéalement intégrées dans le véhicule (et ne transmettant pas les données sur un serveur) ou virtuelles (sur un serveur sécurisé, mais qui l’est vraiment ?). Ces données ne seraient accessibles que sur réquisition judiciaire (comme sur les appels téléphoniques).
Sans traumatiser tout le monde, c’est important que la population soit au fait des risques et soit vigilante par rapport à ceux-ci.
Cela peut se faire par des campagnes de presse, des ateliers dans les écoles… à l’image ce que se fait dans le domaine de la sécurité routière mais ici pour la sécurité de tous en expliquant aussi bien comment se protéger et protéger ses objets connectés (mots de passe, bases de sécurité informatique, les risques de certains appareils comme les drones…).
Il est nécessaire de sécuriser les objets connectés qui sont aujourd’hui des passoires pour la plupart. Dans ce cadre, il est nécessaire d’intégrer dans la norme de certification CE (nécessaire pour vendre des produits en Union Européenne), avec des principes tels que la Privacy by Design et Security by default. J’ai écrit un article donnant les principaux principes pour sécuriser un objet connecté.
La sécurité devrait être encore plus accrue pour les équipements médicaux comme les pompes à insuline qui peuvent devenir des armes par destination en injectant des doses mortelles.
L’objectif est de réduire les risques d’un hacking massif de drones, robots, objets connectés qui se transforment en armes par destination
Beaucoup d'autres recommandations pourraient être faites, ce ne sont que quelques idées, certaines sont applicables rapidement d’autres à long terme enfin d’autres ne le seront jamais pour de bonnes et mauvaises raisons.
L’objectif est de participer à ce débat qui nous concerne tous (alors que je n’ai aucune expertise sur le sujet de l’armement) et de faire bouger le slignes avant qu'il ne soit trop tard.
Sans doute est-ce idéaliste de croire que ce type d'article puisse changer la donne, mais sans idéal il n'y a plus d'espoir.
Dimitri Carbonnelle - Fondateur de Livosphere
Agence Conseil en Nouvelles technologies : Internet des Objets, Intelligence artificielle
Je souhaitais écrire cet article sur les moyens de sécuriser l’Internet des Objets avec la blockchain et le hashage de données. L’objectif est de montrer comment déployer des solutions clés en main pour les fabricants et les entreprises utilisant des objets connectés (banques, assureurs, services à la personne…), les opérateurs télécoms …
For English Speakers - Google Translation
Pour sécuriser complètement un objet connecté ou une plateforme, il y a trois étapes : prévenir et réduire les risques de hacking d’un objet, le détecter et empêcher / réduire les conséquences d’un hacking (sur l’appareil et en termes de propagation).
(If you want to see this article in English click here)
J’avais parlé de la partie prévention dans l’article suivant : Sécuriser l'IoT après l'attaque DDos par des objets connectés sur Twitter, Netflix, Amazon via le service DNS Dyn qui relate aussi les mesures telles que Privacy by Design et Security by Default.
Cet article décrit la partie détection d’un hacking (dès lors qu’il y a une modification). Il faudra compléter par des moyens pour détecter des hacking sans modification. Dès lors qu’une attaque est détectée, on peut à distance bloquer ou réduire les fonctionnalités de l’appareil, alerter…
Il y a trois éléments à sécuriser dans la chaîne reliant un objet connecté à une plateforme digitale en utilisant la blockchain et les techniques de hashage.
1. Sécuriser l’intégrité d’un objet connecté (pas de hacking de celui-ci)
2. Sécuriser l’envoi de données d’un objet connecté vers une plateforme
3. Sécuriser la réception de données provenant d’une plateforme vers un objet connecté
J'aborde aussi d'autres notions comme le hashage des données, le Hard Fork d'Ethereum,
Il y a un grand nombre d'usages possibles pour la Blockchain dans l'Internet des Objets :
Le plus évident est de permettre la création de plateformes décentralisées et collaboratives pour partager ses biens connectés avec des coûts de transactions très réduits ne nécessitant pas d'intermédiaire (hors création de la blockchain).
En effet, en connectant un produit, on facilite son partage, car on peut donner / retirer son accès/usage via des clés virtuelles (comme InBlue de Valeo ou les serrures connectées d'Opendoors de Somfy, ex-Okidokeys ...).
D’autre part, en plus de gérer l’accès, on a des informations sur l'usage, la localisation, facteurs, cela permet d’accroître la confiance d’un propriétaire d’un bien envers des utilisateurs potentiels (grosso modo, il sait ce qu’il sera fait de ses objets dans le respect bien sûr de la confidentialité des données personnelles). En plus de sa maison via une serrure connectée et des solutions de Smart Home, sa voiture via des clés virtuelles reconnues par le véhicule connecté, tous les objets qu'on utilise qu'occasionnellement, comme des perceuses, des échelles, des outils de bricolage pourraient aussi être partagés facilement.
On peut aussi imaginer des Smarts contracts tels que proposent Slock.it sur Ethereum pour déclencher le paiement dès que la personne ouvre l'appartement, la voiture ou utilise un appareil partagé.
Ces plateformes, comme je l'évoquais dans mes prédictions 2017, pourraient d’ailleurs "blockchainiser" (et non "ubériser" qui serait un oxymoron car par définition, ubériser centralise le pouvoir sur un seul acteur à la différence de la blockchain) les plateformes collaboratives actuelles et remplacer les acteurs connus tels que AirBnB, Blablcar ou Uber. En revanche, la blockchain ne remplacerait que la partie transactionnelle et non tout le reste, service client, innovation en terme de services, de plateforme, Marketing et commercial, animation de la communauté …
Je vais évoquer un autre usage : la sécurisation des objets connectés qui est un sujet de plus en plus critique. Imaginez juste un ransomware sur des pompes à insuline connectées qui ferait un chantage auprès d'un fabricant sur la vie de ses utilisateurs en les menaçant d'une overdose mortelle…
Une des grandes faiblesses des objets connectés par rapport à la sécurisation de plateformes digitales est la sécurisation de la transmission et de l'objet lui-même. (Schéma). (cf aussi article sur la prévention)
Les trois étapes à sécuriser sont
Pour s'assurer de cela, l'idée est simple : comparer une version originale non modifiable (d’un code intégré dans un objet connecté par exemple d'où l'utilisation de la blockchain) et sa version actuelle sur ces trois étapes (la sécurisation des trois étapes est essentielle sinon il y a une brèche). S'il y a une différence (en tenant compte des évolutions logicielles et matérielles et en sortant les données utilisateurs), cela signifie que le code a été hacké.
Pour le faire, on utilise un élément simple de la blockchain l'ancrage combiné au hashage de données.
Qu'est-ce le hachage ?
Le hachage (hashing) est une technique qui permet de créer une signature (ou hash) quasi-unique à partir de n'importe quelles données. Si l'on modifie une des données d'origine (même infime grâce à l'effet avalanche), on modifie totalement la signature. Il y a des similarités à la technique de compression de données mais avec une différence fondamentale, deux images proches pourraient avoir un fichier compressé identique, ce qui n'est pas le cas du hachage. Dans l'image ici, la Déclaration universelle des droits de l'homme ont été hashées (fichier sous format texte via un outil en ligne en SHA 256) en deux versions avec et sans le H ! Les deux hashs sont complètement différents.
L'intérêt est ici de vérifier si le programme ou les données d'origines sont modifiés. Pour cela, on peut hasher la totalité du programme (OS, code embarqué…), un numéro de série unique et des données qui seront incluses dans un objet connecté juste avant l’injection du code embarqué dans le produit (à la chaîne de fabrication).
Pour prévenir un hack combiné de la plateforme et de l’objet connecté, on peut mettre ce hash dans une blockchain publique en plus d’une plateforme du fabricant (ou autre entreprise en charge de l’objet connecté). Ce hash initial sera le hash officiel du produit auquel on pourra comparer les hashs calculés par la suite de l’objet. Toute différence signifie qu’il y a une modification non voulue, et donc potentiellement un hack du produit et peut même interdire l’utilisation du produit (définitive ou temporaire car les bugs sont toujours possibles), ou une alerte vers l’utilisateur et le fabricant.
Cela signifie néanmoins qu’il faut gérer des bases de données avec des versions multiples pour un même objet connecté en cas d’évolution/upgrade logicielle du produit. Les données modifiables, elles ne seraient pas a priori hashées pour vérifier l’intégrité de l’appareil (sauf potentiellement la structure des données si elle est suffisamment pérenne).
On peut utiliser une fonction de hashage publique (et open source) car il sera très long et difficile de passer du hash aux données d'origine ou de créer un même hash à partir de données falsifiées (problème NP-complet donc pour calculer le hash à partir de données c’est très rapide (temps polynomial) mais pour retrouver les données qui correspond à un hash c’est très long si la taille du hash est suffisamment long (temps exponentiel ex : cryptage AES 256bits)).
Pour l'anecdote (Guardtime), le gouvernement estonien hasherait la totalité de ses données et imprimerait le hash sur des journaux papiers ce qui permettrait de s'assurer que les données n'ont pas été modifiées par des hackers (en gardant bien sûr un log quotidien des hashs de chaque jour et un hash des modifications apportées entre deux jours consécutifs ainsi que les journaux papier !)
Sans rentrer dans une description détaillée sur ce qu'est la Blockchain, voici une rapide définition en très simplifié.
La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle.
Par extension, une blockchain constitue une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaires, ce qui permet à chacun de vérifier la validité de la chaîne.
La blockchain permet d'enregistrer ainsi des transactions, des signatures ... dans un registre partagé parmi tous ses utilisateurs. L'objectif est de s'assurer que personne ne modifie après coup le registre de transactions.
Il n'est pas possible de modifier ce registre sauf si plus de 50% de la puissance de calcul des serveurs (les mineurs) reliés à la blockchain l’acceptent (d’où l’importance d’avoir des blockchains publics avec un très grand d’utilisateurs et d’éviter des concentrations autour de quelques utilisateurs). Une blockchain avec un seul utilisateur (!) est l'équivalent d'une plateforme centralisée. On pourrait aussi faire un parallèle avec une assemblée générale d’actionnaires où le nombre de votes correspond à la puissance de calcul.
D’autre part, s’il y a une modification, tout le monde le saura. Donc, plus il y a d'utilisateurs indépendants dans la blockchain, plus il sera sécurisé. Ainsi une blockchain public est donc plus sécurisé normalement qu'une blockchain privée. Enfin, en fonction des règles de la blockchain, une partie des utilisateurs peuvent faire un "fork" (crée un deuxième registre identique au premier sur une première partie et qui devient indépendant par la suite.
C‘est ce qui s’est passé le 20 juillet 2016 avec Ethereum. Il ne faut pas s’en étonner … on en a vécu quelques forks dans d’autres domaines … En 1204 entre l’Église catholique romaine et l'Église orthodoxe et 1517 entre l’Eglise catholique et protestante (nommé schisme mais ce n’est pas reconnu par les protestants, qui gardent la Bible comme Grand Livre Commun et sans parler des autres religions … pardon pour la digression ;).
L'ancrage associé à l'horodatage est une des composantes de la blockchain et permet de créer une transaction dans la blockchain en indiquant la date. Ici, ce sera le hash qui sera enregistré dans la blockchain.
Rentrons dans les principes sur les 3 étapes :
1. Pour sécuriser le code d'origine et le matériel
Afin de s'assurer de l'intégrité du matériel et que celui-ci n'a pas été corrompu ou modifié entre sa version originale et la version effective reçue par l'utilisateur, on peut associer à chaque version du code à embarquer (OS, programme, numéro de série…) dans l'objet un hash code, potentiellement il pourrait y avoir plusieurs hash codes par type de code pour faciliter le traçage d'une corruption (quelle partie du code a été corrompue). Le hash serait intégré dans une blockchain publique, en plus d’une plateforme du fabricant pour s'assurer qu’il ne puisse être corrompu en accédant aux serveurs de l'entreprise.
Il est même possible de faire un hash du matériel lui-même en photographiant l’intérieur du matériel (avec des fonctions de « perceptual image hashing » ou « image fingerprinting » qui maintiennent un hash similaire pour des images similaires). Le SAV pourrait photographier le matériel et s’assurer que celui n’a pas été modifié par rapport à la version photographiée à la sortie d'usine (via la comparaison des deux hash).
D’autre part, la fonction de hashage sera aussi intégrée au code. Celui-ci doit être open-source, accessible à l’utilisateur (averti ou via des applications) qui pourra vérifier son authenticité en le comparant avec la version originale open-source, accessible en ligne.
Lors de la fabrication, le code, le hash (caché dans le code) et la fonction de hashage sont injectés dans la mémoire du processeur. On peut pour sécuriser encore plus, l’intégrer dans la ROM (Read Only Memory ou mémoire morte) pour empêcher toute écriture ultérieure (y compris par flashage). En revanche, pour tenir compte des upgrades du produit, il faudra aussi l’intégrer dans une RAM (Random Access Memory ou mémoire vive) afin d’intégrer de nouveaux hashs. Si nécessaire, une réinitialisation complète du produit pourrait être réalisée avec l’installation des évolutions si un objet a été corrompu.
Lors du premier démarrage de l'objet connecté, d'une part, la fonction de hashage va sur base de la totalité du code, calculer le hash et le comparer au hash intégré dans l'objet.
Si ce n'est pas le cas, on pourrait demander à réinitialiser l'appareil car il aurait été corrompu. Il n’y a pas besoin de connecter le produit à ce stade.
D'autre part, en se connectant à la plateforme, ce même hash ainsi que la fonction de hashage (ou le hash de la fonction de hashage) pourraient être comparés à la base de données du fabricant ainsi qu'à la blockchain, s'il y a une différence, cela bloquerait le produit et demanderait une réinitialisation.
On pourrait imaginer qu’un hacker remplace complètement le code d’un produit pour renvoyer le bon hash du code à la plateforme (indépendamment de son calcul), le problème est que comme la fonction de hashage est publique, on pourra facilement voir que même si le hash transmis correspond à la blockchain, en revanche la fonction de hashage ou le hash de la fonction de hashage ne correspond pas à la blockchain.
L'intérêt en deux étapes (hors connexion) et avec connexion est de s'assurer que le code n'est pas corrompu même s'il n'y a pas de connexion (hors remplacement complet du code) et de s’assurer ensuite que le code complet n’a pas été complètement remplacé.
L'objectif est de s'assurer que ce qui est transmis n'est pas modifié par un tiers (ex: via la technique du "middle man" même si cela ne permet pas de savoir si cela a été intercepté )
L'objet connecté transmet dans son mode usuel (WiFi, Bluetooth via Smartphone, GPRS/3G) les données plus un hash calculé par l'algorithme de hashage dans le code embarqué.
Ce même hash est transmis via un réseau bas débit type Sigfox ou Lora, enfin le hash du code embarqué est aussi transmis par les deux moyens.
Les deux hash de données sont comparés aux données (en hashant de nouveau les données) et entre eux pour s'assurer qu'elles ne sont pas corrompues ainsi que le hash du code pour s'assurer de l'intégrité de la machine.
L'intérêt d'utiliser deux modes de transmission est de créer de la redondance et de la résilience. Cela complique la tâche du hacker qui doit hacker les deux modes de transmission en plus de trouver l'algorithme de hashage. Cela utilise vraiment le rôle de backup d’un réseau bas débit en intégrant ses contraintes (très peu de données transmises via le hash).
Les hashs de données pourraient être intégrés dans la blockchain (potentiellement agrégés par jour et re-hashés pour réduire les accès à la blockchain) afin aussi de sécuriser le relevé de données.
Pour éviter aussi que des ordres soient transmis malicieusement vers l'objet connecté, de la même manière, il faut à la fois hasher les données constituant l'ordre et le transmettre idéalement via deux modes de transmissions (WiFi, Bluetooth via Smartphone, GPRS/3G) et Sigfox (dans la fenêtre de réception qui peut être ouverte lors d'une transmission de l'objet connecté vers le serveur) ou Lora.
Cela permet d'assurer la résilience et la redondance des modes de transmission. De la même manière, il est nécessaire aussi de transmettre le hash de l'appareil et de la fonction de hashage pour s’assurer de l’intégrité de l’appareil. Si le hash envoyé ne correspond à celui dans l’appareil, il pourrait être bloqué automatiquement ou alerter l’utilisateur, le fabricant ...
Les hashs de données pourraient être intégrés dans la blockchain (potentiellement agrégés par jour et re-hashés pour réduire les accès à la blockchain) pour s’assurer de leur non-modification.
Même si cela peut paraître compliqué ces solutions sont en réalité beaucoup plus faciles à mettre en œuvre qu’on ne pourrait le croire pour sécuriser les données. Le minimum étant d’intégrer un algorithme de hashage open source dans l’équipement et de s’assurer de l’intégrité des données en interne et lors des transmissions.
Si cela vous intéresse de réaliser un projet sur ces sujets, n’hésitez pas à me contacter.
Dimitri Carbonnelle
Fondateur de Livosphere
Conseil en Innovation, et nouvelles technologies : Internet des Objets, intelligence artificielle, Blockchain ...
What I wanted to do is to take all the sessions I have been to and create a story that drives you through what could be our potential futures. I didn't respect the order of the conferences I went to, but like notes of a song, I tried to put them together in a special order ... I hope you'll like the song(s) ;).
To summarize, our world is going through major challenges and trends, that Mark Esposito has coined into a keyword DRIVE :
As Tim Urban, in his personal life, human beings are the best in procrastinating and we are waiting for the Panic Monster to get out of our lazy bed. It starts to really scare us after the little (instant gratification) monkey fooled us (a rational-decision maker) by luring us that we have a planet full of resources, technology will always save us).
John Maeda show we have moved from people around a table to people with their nose glued to their smartphones which won't help us to face this situation.
Punishment would certainly be one of the solutions for Emmanuel Jaffelin but I am not sure it will create much enthusiasm ;)
Our challenge is not put wings on a caterpillar as would say Eddie Obeng but become a butterfly which means being able to break our usual barriers, stranglehold and deploy our wings Kevin Kelly would certainly say AI is a good thing because it would solve some major issues.
For me, artificial intelligence is a way to transform complex information into simple decisions. AI will become a commodity and flow like electricity or internet access for Kevin Kelly. It is powering objects with intelligence as electricity powered before objects.
However, there is a long way before, the arrival of strong AI. Today, there are many intelligences that we can already observe in nature (humans, animals and in a way vegetals), AI might be better than us in certain fields (especially perception) but it is certainly not better than us as a whole and not before a few decades. That's why he recommends that humans work together with AI to become centaurs (preferred to the word cyborg to express that we are taking the best of the two worlds) ... I think it's better than doing nothing and delegating eveything to AI ;)
Moran Cerf would even go further to enhance the human being : human with wings, or people seeing from gamma and x rays to radio waves. As blinds develop new senses, our brain could embrace new functionalities according to him. Sure, it would create some ethics issues ! We could even reach immortality, but who wants to live forever ? It gives me the shivers... Not sure, I'd like to have chips under my skin :) In AI, we are absolute beginners.
As Nick Bostrom, describes it, AI can go much quicker than we think. When facing AlphaGo, Lee Sedol went from "winning by a near landslide" to "powerless" in 6 months, one year later AlphaGo defeated Ke Jie, the best Go player in the world, 3 to null.
AI starts even fooling us, making us thinks they could become creative artists, by applying well-known painter styles to pictures. Are we doomed to become contemplative and passive beings, letting AI become our guide ?
Voice is the New UI : June 15th 10:45 to 11:15 with Facebook, Snips, Livosphere
I was really happy to moderate the following session on the voice is the new UI.
Here are the introduction and questions I asked
- Alex Lebrun Facebook AI and Co-founder of Wit.AI
- Yann Lechelle COO Snips - lien image :
- Dimitri Carbonnelle Livosphere
Here is the audio file :
Introduction by Dimitri Carbonnelle - Livosphere
Voice - quickest and most natural way for humans to transmit complex information
When I went to the CES Las Vegas in January Voice was everywhere, to be accurate Alexa, Amazon intelligent Voice control system. was everywhere in alarms, fridge, cars. I haven’t seen it in a toothbrush, but it should soon come ?...
The question is Why ?
Voice is the quickest and most natural way for humans to transmit complex information, compared to any other UX like typing or gesture. Voice recognition and voice understanding is a major shift because you don't need anymore a screen, our usual digital interface. You can cut the umbilical cord between a connected device and a smartphone and have a natural interaction with it.
The biggest challenge isn’t anymore transforming speech to text which became today a commodity as told me Alex. It is to understand, answer and react which means integrate artificial intelligence after voice recognition, we call it natural language processing. Of course, there are some issues about voice : one of them is privacy
Facebook intelligent speaker - Voice versus text - Question to Alex Lebrun - Facebook
Hello Alex,
There is a lot happening around Voice recognition, and natural language processing.
On one side, we see Apple that will launch Homepod , after Amazon Echo and Google Home
on the other side, Facebook made some major moves in AI and vocal understanding, by buying for instance Wit.ai, from which you are the founder.
Everyone is asking the question : « What is the next move of Facebook to make voice as the new UX, are you gonna show your muscles and not be the only one among the GAFA to not have an intelligent. » But i won’t ask this question, as you wouldn’t be able to disclose this type of information here.
So, what I would I like to know is what are the specific uses cases for Voice recognition compared with text use cases ?
Pivot of Snips, value-added of Snips Question to Yann Lechelle - Snips
Hello Yann,
Snips really made a real pivot from making mobile assistants including AI to Natural Language processing, which is good move as you just raised 12M€ recently.
First point, why did you make this pivot ?
In addition, what is the value added by Snips compared to Amazon Echo, Google Home and Apple Homepod ?
General uses Vs Specific uses - Question to Alex Lebrun - Facebook
Facebook recently refocused its application of "artificial intelligence", intelligent chatbot didn't work so well and unveiled a bot API for its Messenger. With all the components you have and combined this with Wit.Ai, you could make an intelligent voice platform that could even be sold in B2B and compete with the Amazon Alexa plateform.
Without revealing any secrets, do you think voice recognition will be used for general purpose devices or limited first to specific tasks.(dishwasher, coffee machines) ?In this last case, manufacturers could rely on an intelligent voice plateform.
Alexa - Key witness of murder - Privacy - Question to Yann Lechelle - Snips
You might have heard of this story :James Bates, in Arkansas has been recently accused of murder of his friend Victor Collins. You would ask ? What the heck ?
Well, James has an Amazon Echo that overheard a certain number of conversations so Amazon Echo could become a key witness in this murder investigation. This raise the question, of Privacy, because my conversations are sent to the cloud, accessible potentially to anybody. Yann, how Snips are you dealing with this issue ?
Question to Alex and Yann
Other interactions like gesture
We are talking about Voice, but there are other ways to interact naturally with objects. Will you include them in your solutions ?
I must admit I have a terrible handwriting, and it's getting worse and worse as I type more than I hand write . In the same way, do you think that voice will outdate writing ? Are we going back to an oral civilization enriched with plenty of videos ?
They are many languages to tackle , what strategy do you use ? Are you translating each language one to one or are you using pivotal language like English ?
Introduction by Dimitri Carbonnelle - Livosphere
"More for more" no more sense - Emmanuel Macron, pionner in Frugal Innovation ;)
Here is the audio file:
Today when we innovate, we usually do more with more. Just to give an example to build a new factory of chips it costs over 1 billion USD and often 3,4 billion USD.
The next generation of factory that will make 450mm wafers would cost 10 / 15 billion USD. Does it really make sense ?
Today we are no more in a world plenty of resources but of scarcity. Often human beings starts being creative when they got a knife under their throat.
Frugal innovation is all about anticipating this moment to avoid it. It is doing more and better with less.
One of the first step to push people towards being creative is by reducing their resources.
Well I have got good news, because the French President Emmanuel Macron is pioneering Frugal Innovation to drive France. One of its first decision was to drastically reduce the number of collaborators in the Ministries cabinet (between 5 and 10). So, I am pretty sure, Ministries are now putting in place Frugal innovation strategies to do more and better with less people. In fact it compells them also to be open, to work with others.
Frugal Innovation and Europe - Question to Navi Radjou
Navi, Often we make the link between frugal innovation and emerging countries. You pointed out that the European Commission made a study on how to use Frugal Innovation as a leverage for Europe ?
Could you tell us why Frugal innovation is key in Europe and how we can become a forerunner in front of the Silicon Valley in that field ?
Reduction of CO2 emission - Question to Christophe de Maistre - Siemens
One main goal of Frugal innovation is making our world sustainable. However, industry and construction is a big contributor to climate warming, it's responsible for about 20% CO2 emissions in the world.
Siemens has decided to reduce by 50% its CO2 emission and to zero carbon emission by 2030. Can you tell us how you making this possible through innovation and can you give us some examples ?
Question to Stéphane Lannuzel - L'Oreal
One problem with Mass production is that One size fits all. As Henry Ford says, you can choose any color for your car as long as it is black. At the end, it doesn't fit so many people which means waste of time, money, resources
One principle of Frugal Innovation is mass customization and to be make it possibleyou need to flex your assets, which means being able to transform your production line to adapt to the demand.. And L'Oréal has exactly done that on its ines of production can you tell us more about it and why did you dit it ?
Products - Question to Navi Radjou
You came up with a few products. They may that comes from Frugal Innovation can you show them and explain us in what they are different ?
Co-creation - Question to Christophe de Maistre - Siemens
On of the key of frugal innovation, is co-creation, and this goes from building proof of concept, prototype and solutions. I have heard the cornerstone of co-creation in Siemens with your customers but also startups is your platform Mindsphere. Can you tell us what it is and how it works ?
Customization and Production in shop - Question to Stéphane Lannuzel - L'Oreal
The next step is that the customers would be able to directly customize at the shop their product and buy it directly ?
I have understood you are doing this for foundations (fond de teit for french speakers) ?
Is it a big trend for you, that distributors, produce directly in their shop ?
Question to all speakers
Often we may think that Frugal innovation means low tech. How do you integrate new technologies like Iai? As we need less resources, Does Frugal innovation means also less Growth for companies? Is it an issue or a good thing?
Dimitri Carbonnelle - Livosphere
Apple vient de lancer son Home Pod, assistant intelligent incarné dans une enceinte concurrençant ainsi Amazon Echo et Google Home.
On pourrait se demander si pour compléter le tableau du GAFA (voire GAFAM), Facebook ne va pas s'y mettre aussi ainsi que Microsoft. [UPDATE 4/8/2017] : Il va le faire ;)
Pour moi, les assistants intelligents sont comme des cellules souches (cellules plénipotentiaires), pas bien différenciées, dont on ne sait pas encore la place qu’elles prendront . Elles peuvent tout faire mais ne savent rien faire (ou presque). En revanche, ces assistants vont donner naissance à de nombreuses cellules différenciées et seront le départ d'une révolution beaucoup plus profonde : l'intégration de la reconnaissance vocale et l'IA dans un très grand nombre d'objets avec un usage beaucoup plus clair qu'aujourd'hui et peut-être un jour une trajectoire similaire au Smartphone.
J'aborderai plusieurs points :
Les mauvaises langues diront que ces HomePod, Google Home et Amazon Echo ne sont que des lapins Nabaztag ou des home box cylindriques à qui on a offert le don de la parole. D'autres se demanderont quel est leur intérêt face à un smartphone présent dans la poche qui nous évite d'acheter un assistant par pièce (même réduit comme l'Amazon Dot ou une télécommande intelligente).
Pour moi, l'assistant intelligent est comme une cellule souche, pas bien différenciée, dont on ne sait pas encore la place qu’il prendra dans la maison mais qui va donner naissance à de nombreuses cellules différenciées avec un usage clair. Ces assistants sont le départ d'une révolution beaucoup plus profonde de l'intégration de la reconnaissance vocale et l'IA dans un très grand nombre d'objets.
Mais pour revenir à ce premier assistant, quels seraient ses usages ?
Aujourd'hui, le premier usage est celui d'une enceinte audio d'où sa forme quasi cylindrique. Hormis le HomePod d'Apple à 349 USD, les prix sont très abordables : Amazon Echo pour 180 USD , Google Home 109$ (129$ avant) et il est dans la même gamme de prix voire moins cher que d'autres enceintes de même acabit (l'enceinte Sonos Play 1 est à 230 €).
Elles ont toutes des fonctions "Nice to Have" identiques (donne les nouvelles, le trafic, la météo, diffuse de la musique de Spotify, Deezer..., aider à contrôler la maison si vous avez des objets connectés compatibles...)
Mais pour revenir à ce premier assistant, quels seraient ses usages ?
Aujourd'hui, le premier usage est celui d'une enceinte audio d'où sa forme quasi cylindrique. Hormis le HomePod d'Apple à 349 USD, les prix sont très abordables : Amazon Echo pour 140 USD (180 USD avant l'annonce Apple), Google Home 109$ (129$ avant) et il est dans la même gamme de prix voire moins cher que d'autres enceintes de même acabit (l'enceinte Sonos Play 1 est à 230 €).
Elles ont toutes des fonctions "Nice to Have" identiques (donne les nouvelles, le trafic, la météo, diffuse de la musique de Spotify, Deezer..., aider à contrôler la maison si vous avez des objets connectés compatibles...)
Différent positionnement entre les 3 assistants
Néanmoins les positionnements marketing des 3 enceintes sont radicalement différents : HomePod se positionne clairement sur la musique avec iTunes et concurrence Sonos, Google Home se positionne comme le majordome de la maison, un assistant multi-tâches intelligent de la maison et Amazon Echo, qui en plus d'être une enceinte, facilite les achats en étant directement intégré avec sa Marketplace.
Amazon Echo - Ecosystème et achat facilité
Un petit comparatif entre Amazon Echo et Google Home, montre que le premier se différencie par son éco-système et son intégration avec de nombreux partenaires et des applications tierces (y compris Google) en particulier pour acheter, Google Home est meilleur pour le son, et moins cher, d'autre part c'est celui qui répond le mieux( aux questions devant Cortana, loin devant Echo et Siri (étude de StoneTemple avant la nouvelle release de iOS 11:)
Google Home - Majordome de la maison
Google Home a un problème de positionnement car il fait un compromis entre de multiples choses, enceinte, recherches simples utilisant Google Assistant, alertes sur ses vols, le trafic. capacité à s'intégrer avec le smart home, ...
La promesse n'est pas suffisamment claire pour le client final , les usages sont trop larges un peu comme le Mother de Rafi (plus ou moins abandonné depuis, hormis les peanuts). La baisse de prix récente des Google Home (à 109$ au lieu de 129$) est d'ailleurs peut-être un signe.
Enfin à la différence d'Amazon Echo, il n'y a pas de modèle économique récurrent avec Google Home actuellement. Vous me direz, qu'elle peut diffuser de la publicité sauf que cela sera vite considéré comme très intrusif et Google n'est pas comme Amazon une plateforme de vente avec une logistique pour livrer, ce n'est pas son métier,
Apple Homepod - La Musique puis Homekit
Apple est totalement légitime sur la musique, il devra montrer qu’il est capable d'être le meilleur en acoustique pour concurrencer les Sonos voire gratouiller les doigts de pied de Devialet.
Le problème est qu'en dehors de la musique, HomePod n'a pas de réel élément différenciateur avec les autres (commander sa maison avec des équipements compatibles HomeKit...) et que la valeur additionnelle de la voix n'est pas énorme par rapport à une enceinte usuelle.
Apple réduit beaucoup moins les frictions qu'Amazon Echo car à la base il y en a assez peu (il suffit d'appuyer sr un bouton pour passer d'une musique à l'autre et la recherche de nouvelles musiques est un Nice to have pas un Must Have) .
Pour Google et Apple, il y a un risque majeur, que ces produits soient soit des succès en demi-teinte ou pire des fours commerciaux. Ce ne serait pas une catastrophe pour eux (actuellement, seul Amazon Echo a fait ses preuves avec 8M de ventes même s'il faut s'assurer du taux d'activité de ceux-ci.), mais si c'est le cas que faire ?
Facebook - Est-ce vraiment nécessaire ?
Pour Facebook, au-delà de montrer ses muscles en disant "Moi aussi, je sais faire un assistant personnel comme les autres GAF", je vois assez peu d'intérêt car la vocation de FB est de partager des moments, images, vidéos avec sa communauté d'amis et ce n'est guère évident avec une enceinte !
On peut échanger avec des amis par la voix, mais il paraît que les smartphones ont déjà cette fonction : l'appel téléphonique; (ou de la VoIP sur FB via Messenger), donc l'intérêt additionnel me semble très faible. Le jour où Messenger intégrera massivement des agents intelligents et qu'ils seront utilisés de manière pluri-quotidienne, cela aurait plus d'intérêt. Néanmoins, il y aura déjà pas mal de concurrence.
Là-dessus, je pense que Facebook fera soit du Wait and See ou sortira un agent intelligent type Proof of Concept / POC qui ne sera pas commercialisé avant longtemps. Enfin, le hardware n'est pas vraiment la spécialité de Facebook (hors Oculus qui est un rachat). En revanche, à la suite du rachat de Wit.AI, il est probable qu'ils intègrent la reconnaissance vocale dans l'Oculus pour faciliter la navigation, la recherché d'informations...
Ce sera l'occasion pour moi de poser la question à Alexandre Lebrun, fondateur de Wit.Ai racheté par Facebook en janvier 2015 lors de Viva Tech (Conférence que j'anime jeudi 15 sur "Voice is the new UI" avec aussi Yann Lechelle de Snips) ;)
Après les 3 autres gaillards du GAFA et plus récemment Alibaba, Facebook pourrait commercialiser pour le premier trimestre 2018 son premier "Smart Speaker".
A priori, il serait composé d'un écran tactile de 15 pouces (environ 40 cm), serait sans doute utilisé pour un usage type "Call Vidéos" notamment (ci-contre une déclinaison d'Amazon Echo avec un écran et une caméra).
D'autres usages, comme celui de bloc-notes, achat simplifié, "vidéo-surveillance" pourraient être mis en avant. On retrouvera certainement des usages similaires au Triby d'Invoxia.
Le produit devrait être fabriqué par Pegatron Technology (en Chine)
Néanmoins, je reste circonspect sur ce type de produit car ce sont des produits très multi-usages à l'image des smartphones et surtout qui sont concurrencés par la multitude d'écrans déjà existants dans la maison avec des fonctions similaires (smartphones, tablettes, TV, versons aussi une petite larme pour feu les cadres photo numériques). La vraie question est quelle est la valeur additionnelle apportée par les Smart Speakers ou Smart Screens par rapport à ce qui existe déjà.
Le marché devrait être de 5,5 milliards de dollars de revenus en 2022, ce qui est un chiffre très hypothétique et très faible vu que c'est dans 5 ans (le marché mondial des smartphones est de 430Md$).
Pour être caricatural, je pourrais créer un Smart Speaker Livosphere (et pourquoi pas ;) en intégrant une tablette achetée sur Alibaba dans un support avec un joli design.
Pour moi, il s'agit plus pour Facebook d'occuper le terrain que d'un lancement massif, ce que je comprends aisément.
La suite dans moins d'un an ...
Microsoft - Cortana in the car
Concernant Microsoft, il se pourrait qu'ils sortent pas un agent intelligent ou enceinte intelligente (ils ont eu un projet H... , d'enceinte avec Cortana il y a 7 ans qui a été enterré depuis), cela permettrait de matérialiser Cortana très peu utilisé à l'exception des derniers mohicans utilisant des Windows Phone et de quelques happy few qui l'utilisent dans Windows 10. Ils pourraient aussi l'intégrer dans leur Xbox et dans HoloLens.
Mais encore une fois, pour quel usage ? L'approche de Microsoft est sans doute la plus pragmatique car il se concentre sur Cortana in the Car avec des constructeurs automobiles où d'une part il y a de vrais uses cases (éviter d'utiliser son smartphone) et un angle d'attaque pertinent auprès des constructeurs en étant un acteur nettement plus neutre face à Apple Car Play et Android Auto qui sont devenus des partenaires contraints des constructeurs.
Les deux prochaines évolutions de ces agents intelligents sont d'abord leur dissolution dans d'autres objets connectés. Typiquement, dans une machine à laver, une machine à café, une TV, un réveil.
L'objectif n'est pas qu’ils deviennent des assistants omniscients mais des assistants qui répondent à des ordres simples dans leur domaine par la voix type "OK Réveil, pourrais-tu mettre l'alarme pour mon rdv demain ?", "OK, Machal (petit surnom donné à la machine à laver), pourrais-tu recommander de la lessive et m'indiquer si je peux mettre mon vêtement en lin avec les vêtements que j'ai déjà mis ?"
Les coûts d'un micro, des puces, transmetteurs ont fortement chuté, une startup comme Snips, propose déjà d'intégrer ce type de fonction dans les équipements et à l'image d'Alexa et Cortana, Facebook propose via Wit.AI (racheté) de transformer de la voix en langage structuré.
L'arrivée des robots comme assistants
D'autre part, parler à un cylindre (forme la plus commune notamment pour avoir un son 360°) n'est pas ce qui a de plus funky. Je dirai même que cela pourrait en laisser un certain nombre de marbre et n'engage pas à la discussion.
Quelques LEDs peuvent agrémenter le dispositif comme sur Amazon mais je crois beaucoup plus à une évolution vers des "robots" ou des objets qui incitent à communiquer (forme d'animaux, écran pour exprimer des "émotions" simples ...).
En plus de notre Buddy national, j'apprécie beaucoup iJini qui pour 600$ vous donne de vraies fausses émotions (on écrasera une larme sur AIbo de Sony qui fut leur ancêtre à tous) .
Les autres interactions : les gestes en particulier
Autre point, on parle de la voix mais il y a aussi d'autres interactions naturelles qui se développeront, en particulier le geste. Bixi, startup française a notamment montré au CES Las Vegas un dispositif qui intègre Alexa en plus de la commande par geste (avec un capteur STM). Ijini l'illustre aussi car il faut le caresser pour qu'il tombe en pâmoison devant nous !
Dystopie personnelle sur les assistants intelligents ... écrite en 2011 ...
Cela vous donne un retour avec une vision très personnelle des assistants intelligents. Il y a quelqu'un temps, j'avais écrit une mini dystopie sur l'arrivée des agents intelligents (iLad d'Apple ;) avec les impacts sociétaux des assistants intelligents, alias Life Advisor si cela vous intéresse.
Vous y découvrirez plein d'assistants "Take care of my money", "Take care of my Car" et le fameux "Take Care of my life"... autant de nouvelle applis avec les opportunités et les risques ...
Dimitri Carbonnelle
Fondateur de Livosphere Conseil en Open Innovation (Internet des Objets, IA ... et startups)
Si vous êtes victimes d'une cyberattaque / cybermalveillance, à qui faut-il s'adresser alors que les attaques sont de plus en plus nombreuses ?
ANSSI Agence Nationale de la sécurité des SI (cybersécurité) apporte une réponse nationale en lançant la plateforme ACYMA pour que les entreprises, les particuliers et les administrations puissent remonter les cyberattaques dont elles ont été victimes et surtout trouver des professionnels locaux permettant de les aider à y faire face.
Elle est en test sur la région Hauts de France avant un déploiement dans toute la France en octobre 2017. Les professionnels de cybersécurité inscrits sur la plateforme doivent à la fois remonter, qualifier les attaques auprès de l'ANSSI et sont notés (comme toute plateforme collaborative ;) par leurs clients.
A l'image de ce qui existe pour la santé, la prévention et le soin en particulier de maladies comme la grippe, cela permet de recenser et de cartographier les "épidémies" de cyberattaque, réduire les risques de propagation.
C'est aussi l'occasion de créer des nouveaux types d'emplois avec le développement et la structuration d'une nouvelle profession : les experts en cybersécurité en utilisant les techniques de plateforme collaborative pour les évaluer.
C'est aussi un signe très encourageant de la démarche de l'Etat d'avoir un rôle d'Etat Plateforme, qui aide facilite la vie de ses citoyens, entreprises et administrations en apportant des solutions tout en gardant sa neutralité.
Le site est : https://www.cybermalveillance.gouv.fr/
Concernant la sécurisation de l'Internet des Objets, j'ai écris un article sur les moyens de les prévenir et d'y faire face ici : Sécuriser l'IoT après l'attaque DDos par des objets connectés sur Twitter, Netflix, Amazon via le service DNS Dyn
J'étais ravi de retrouver Luc Belot, député du Maine et Loire à l'Assemblée nationale dans le cadre de sa mission auprès du Premier ministre sur la Smart City / Ville Intelligente.
Nous avons couvert plusieurs sujets :
Une des problématiques rencontrées par les collectivités territoriales dans le déploiement de solutions Smart City est que peu de projets dépassent le stade du Proof of concept / prototype.
Avec Luc Belot, nous avons échangé sur les raisons de cela :
Le premier point est lié au recours au partenariat d’innovation (Fiche PDF ici) dans le cadre d'un marché public. C'est méconnu mais il permet de déroger à l'appel d'offres classique avec une mise en concurrence classique (notamment des achats publics avant commercialisation (APAC) et des marchés de R&D) à l'issue de la phase R&D (cf schéma ci-dessus)
Quelques éléments techniques :
Issu des nouvelles directives européennes, (introduit dans le droit interne par le décret n° 2014-1097 du 26 septembre 2014 puis prévu aux articles 94 et suivants du décret n° 2016-360 du 25 mars 2016), il a pour objectif de faciliter la passation de marchés publics à visée innovante et d’aider les acheteurs publics à faire une meilleure utilisation stratégique de leurs marchés pour stimuler l’innovation. Le partenariat d’innovation est un nouveau type de marché public. Il vise à pallier les difficultés structurelles des marchés de recherche et de développement (R&D) qui imposent une remise en concurrence à l’issue de la phase de R&D pour pouvoir acquérir les produits, services ou travaux innovants qui en sont le résultat.
Point essentiel : Un partenariat d’innovation ne peut donc être conclu qu’à la condition qu’il n’existe aucune solution disponible sur le marché susceptible de répondre au besoin de l’acheteur.
Cela signifie que l’acheteur doit vérifier, par une étude approfondie et précise, que son besoin ne peut être couvert par des solutions déjà existantes sur le marché.
Les solutions innovantes sont non seulement les travaux, fournitures ou services nouveaux mais également ces mêmes prestations sensiblement améliorées. Le caractère innovant d’une
solution peut également résider dans les méthodes utilisées. Il peut ainsi s’agir de nouveaux procédés de production ou de construction, d’une nouvelle méthode de commercialisation ou d’une nouvelle méthode organisationnelle dans les pratiques, améliorant par exemple l’organisation du lieu de travail ou les relations
extérieures de l’entreprise.
- Incertitude juridique
Il y a un risque qu'un concurrent potentiel vienne attaquer ce dispositif en indiquant que l'innovation de la startup apportant la solution à la ville n'est pas innovante. Les services juridiques doivent donc être très frileux à déployer ce type de solutions d'autant qu'elle nécessite une étude approfondie des solutions existantes au préalable ce qui fait perdre autant de temps.
- Effet pervers : création d'une innovation usine à gaz
Comme il faut créer une innovation qui ne trouve pas d'équivalent, il faut que la solution soit innovante indépendamment du fait qu'elle réponde mieux ou pas aux besoins de la ville.
En simplifiant, si une ville veut pousser une startup innovante, il vaut mieux créer une innovation compliquée (et donc souvent difficile à déployer largement) plutôt que d'utiliser une innovation simple qui existe déjà et répond aux besoins de la ville.
- 2ème effet pervers : la complexité à dépasser le cap du proof of concept
Comme la solution est très innovante, c'est nettement plus compliqué de passer à l'échelle d'une ville voire impossible. Entre le proof of concept sur un quartier et la mise à l'échelle sur toute une ville, il y a la phase industrialisation qui est un peu la vallée de la mort de la startup et de l'innovation. C'est un peu comme si vous testiez une voiture autonome dans un parking avec peu de circulation et que souhaitiez tout à coup qu'elle puisse être utilisée dans la circulation normale dans toute la ville. Entre les deux il y a un fossé énorme.
Le temps nécessaire pour la ville et la startup d'essuyer les plâtres et d'éprouver suffisamment la solution s'étend souvent sur plusieurs années, or les ressources et la volonté d'une collectivité territoriale se sont fortement étiolées voire éteintes en particulier s'il y a un changement à la tête de la collectivité.
- 3ème effet pervers : Sur-mesure à outrance, dépendance et non scalabité
Vu la dépendance de la startup à la collectivité territoriale et que c'est son premier client (puisque c'est une innovation !), elle est contrainte que sa solution réponde parfaitement à son besoin. La solution proposée par la startup devient du sur-mesure pour cette ville et il devient impossible celle-ci d'étendre à d'autres villes (car la startup n'a aucun autre point de repère pour savoir ce qui est standard de ce qui est spécifique). La startup devient une société de services sur-mesure pour une ville et est non scalable.
Caractère innovant facilité dans le partenariat d'innovation
Concernant le partenariat d'innovation, il faut, je pense, assouplir les règles (et donc au niveau européen ;) pour permettre de tester des solutions sans passer par une étude approfondie des solutions existantes.
Pour éviter les abus, on pourrait se baser sur des critères existants déjà qui confirment le caractère innovant de la solution (ex: JEI, Crédit d'Impôt Recherche accordé, accompagnement par des incubateurs type Cap Digital, Scientipôle ).
On peut même imaginer labelliser des startups ou des solutions innovantes sur le plan national et même européen qui permettent à celles-ci de concourir à tous les marchés publics en Euportrope dans le cadre d'un partenariat d'innovation. Cela permet aussi d'éviter que chaque ville fasse sa propre étude pour s'assurer que la solution est innovante.
Se fonder sur des briques existantes comme Fiware, plateforme open-source et programme portés par l'UE
Plutôt que de réinventer la poudre pour chaque ville, il est essentiel de se fonder en premier lieu sur des briques existantes si possible open-source qui permettent d'avoir des solutions scalables et déployables dans un grand nombre de villes.
A cet effet, l'Union Européenne a porté FIWARE, qui est un programme destiné à créer et accélérer un écosystème européen autour du développement d’applications pour l’internet du futur. Il vise notamment des domaines telles que les villes intelligentes, les transports durables, la logistique, les énergies renouvelables et la développement durable. Le programme Horizon 2020 s'intègre dans FIWARE.
Dans ce cadre, FIWARE fournit des aides au financement, des briques logicielles génériques orientées internet du futur et une plateforme commune d’expérimentation avec des API communes.
Ces projets innovants peuvent s'étendre sur de longues périodes. il est donc essentiel que plutôt que de faire du startup washing (pour montrer qu'on travaille avec des startups même si au final on les laisse tomber à l'issue de l'expérimentation, le projet adresse une problématique majeure de la collectivité territoriale, pour être plus précis, il faut même tenir compte de l'agenda politique et des attentes des citoyens.
Si celui ou celle qui est à la tête de la collectivité territoriale et si les attentes des administrés est de renforcer la sécurité, il vaut mieux que le projet innovant soit dans ce domaine, si c'est la prévention des risques d'inondations, idem ... Il faut que celui ou celle qui porte le projet ait un intérêt même électoral à ce que le projet réussisse en plus de l'intérêt des citoyens.
Concernant le pilotage de l'initiative, il est essentiel aussi de s'associer avec les différentes strates et organisations concernées par ce projet, une fois que les grandes lignes directrices sont dessinées (au moins de les informer et de s'assurer s'ils veulent s'y associer et en intégrant ceux qui s'y opposent pour éviter les effets boomerang après).
En termes de coordination, il est vraiment judicieux de travailler avec la préfecture et l'ensemble de ses services car d'une part, elle a
En termes de coordination, il est vraiment judicieux de travailler avec la préfecture et l'ensemble de ses services car d'une part, elle a
Il existe de nombreuses technologies potentielles pour connecter ses équipements avec des usages très différents.
Voici deux tableaux récapitulatifs des différents réseaux bas débits / hauts débits dans une ville (Sigfox, Lora, NB-IoT, LTE-M, Bluetooth 5.0, WiFi, 3G/ 4G, 5G).
Je préciserai les différences entre ces technologies dans un second temps.
Cet article sera enrichi au fur et à mesure.
Dimitri Carbonnelle - Fondateur de Livosphere
Conseil en Internet des Objets et Open Innovation (recherche, sélection et déploiement d'innovations et solutions de startups / entreprises innovantes)
Après quelques heures au CES Unveiled (événement presse pour présenter les innovations avant le CES Las Vegas), voici mon top 6 :
- Ekko de Miliboo, miroir connecté et avec écran OLED avec détection de mouvements pour ne pas faire de traces de doigts ;)
- Mister Gaspard, tapis à positionner sur le siège de fauteuils roulants intégrant des capteurs de pression qui permet de connaître son poids (pas facile avec une balance traditionnelle), si on a une bonne position (évite escarres)...
- IO, Camera 360¨de Giroptic à mettre sur smartphone by Richard Ollier, son CEO himself
- Memoo par C-Way, assistant connecté pour enfants de 3 à 10 ans avec interface tactile intégrant enceintes et mini-écran
- Bixi qui intègre la reconnaissance vocale d'Alexa en plus de la reconnaissance gestuelle de Bixi (utile pour éviter d'utiliser son smartphone quand on conduit !)
Et maintenant le top des innovations les plus farfelues ou surprenantes du CES Unveiled Las Vegas :
- Le talon rétractile de Digitsole commandable par smartphone, utile pour ajuster sa taille selon la personne qui vous accompagne ;)
En revanche, importable, en effet, la cambrure d'une chaussure doit s'adapter à la hauteur du talon sinon c'est douloureux et difficile à porter, or ici seul la hauteur du talon varie !
- Taclim, les chaussures à retour haptique pour les personnes qui veulent aller plus loin dans l'immersion de la réalité virtuelle
- Xenoma enfin un vêtement pour faire de la musique corporelle !
- l'imprimante à post-its de Mangoslab (issu de Samsung) , un peu trop limitatif selon moi d'autant qu'il faut payer les rouleaux à post-its !
- Hypersuit pour se transformer en Superman dans la réalité virtuelle (mais déjà vu à Viva Tech)
- Crazbaby, un speaker bluetooth à lévitation magnétique (LG en présentera un aussi)
Je poursuis sur le CES Unveiled avec le résultat des meilleures innovations issues de collaborations entre startups et grands groupes :
Poursuivons sur le CES Unveiled avec les nouveaux ou évolutions de produits de Startups de la FrenchTech.
Quelques bonnes idées vues au CES Unveiled :
Et enfin avant de terminer, quelques nouvelles startups de la FrenchTech au CES Unveiled avant l'ouverture officielle du CES Las Vegas
Comme chaque année, je me lance dans les prédictions pour 2017 pour l’Internet des Objets mais aussi d’autres sujets d’innovation tels que l’intelligence artificielle, le blockchain, les robots... juste avant le début du CES Las Vegas et les écrit durant la longue période de vol entre Paris et Las Vegas via Montréal ;).
Comme toujours je prends quelques paris hardis, c’est nettement plus fun que des prédictions type « ce que l’on sait déjà, va se développer encore plus demain » !
Les prédictions pour 2016 sont dans l'article ici.
Mes prévisions pour 2017 tournent autour de 6 axes :
(cliquez sur les premiers mots pour accéder directement au contenu)
1. Réseau bas débits (Sigfox, Lora, NB-IoT) et réseau local standard Bluetooth 5
2. Nouvelles technologies : IA, robots
3. Le modèle économique des objets connectés et le développement du contenu personnalisé pour IoT
4. Rachats par Google et Apple
5. L’arrivée de la blockchain en IoT et les prémisses de disruption sur les plateformes type Uber...
6. Développement du rôle de l’IoT sur les citoyens, la réglementation et notre planète
7. Réalité virtuelle portative
Pourquoi une telle prédiction ?
Elle issue d’une convergence d’intérêts et de la stratégie de deux entreprises : Sigfox et Amazon.
Commençons par Sigfox. Certains diront qu’avec le développement du NB-IoT et Lora, Sigfox est en fort danger d’ici quelques années (cf. ci-dessous sur les problématiques des 3 réseaux). Je pense que chaque réseau est complémentaire dans ses usages et en fonction des technologies, de plus les besoins sont énormes, donc rien n'écrit.
Néanmoins, il y a un point qui me semble beaucoup plus important que le protocole utilisé, l’infrastructure créée par Sigfox en direct (France mais surtout USA…) ou via des SNO (Sigfox Network Operator comme IotNet Mexico.Arqiva pour le Royaume Uni, CELLNEX pour l’Espagne...)
En effet, aujourd’hui un seul opérateur a une couverture massive dans le monde (25 pays couverts) permettant de remonter pour un coût réduit des données : Sigfox.
Autre point, il y a un élément de la stratégie de Sigfox que j’avais beaucoup de mal à comprendre. Sigfox a un un effet de levier incroyable pour remonter des données et réduire très fortement les coûts ou développer les ventes d’une entreprise. Le gain donc pour une entreprise peut être extrêmement élevé, pourtant Sigfox depuis le début, récupère une infime partie du gain généré par ses clients (de quelques euros à une dizaine d’euros pour un produit connecté, soit pour un million d’objets connectés, 10 M€).
À la différence des opérateurs télécoms, il ne vend pas d’hébergement, de traitement de données, de PAAS, IAAS ou SAAS et garde une stratégie visant exclusivement à augmenter sa couverture et à utiliser son réseau. La raison évoquée de cette stratégie est de ne pas empiéter sur le domaine de ses clients et de rester focalisé. Le problème est qu’à long terme, cette stratégie risque de ne pas générer suffisamment de chiffres d’affaires par rapport aux coûts d’infrastructure notamment.
Une très belle option serait d’être vendu à une entreprise qui a un intérêt vital à bénéficier d’un moyen de communication pour faire communiquer ses produits ou celui de ses clients. Il est vrai que Samsung notamment a déjà des participations dans Sigfox comme Intel, et pourraient être des acquéreurs potentiels néanmoins une entreprise a aujourd’hui un besoin vital de cette communication, Amazon.
Petit bémol, néanmoins sur le modèle économique qui serait en risque à long terme hors revente, Sigfox peut aussi avoir une stratégie similaire à la Facebook des débuts, créer un réseau et une couverture mondiale pour dans un deuxième temps proposer de l'hébergement, de traitement de données ... En revanche, si c'est le cas, il est important de commencer, selon moi, à mettre en place ce type de solutions sans nécessairement communiquer dessus à ce stade car c'est un métier à part entière, très différent de celui d'un opérateur pur de réseau télécom.
Amazon via son bouton Dash, est déjà intégré directement dans les machines comme Whirpool et aurait un intérêt majeur à racheter Sigfox.
Aujourd’hui, il est nécessaire de passer par du WiFi ou Bluetooth intégré dans l’appareil pour transmettre des commandes d’achat. Cela nécessite un appairage, potentiellement d’entrer des codes WiFi … rarement fait par les clients.
Avec Sigfox, c’est Plug and Play, votre appareil est connecté sans aucune intervention humaine et permet de commander des produits directement sur Amazon. Ainsi Amazon pourrait vendre un service complet aux fabricants intégrant la communication pour qu’ils puissent proposer aux clients finaux de racheter des consommables tels que la lessive, des filtres, ou de remplacer ou « upgrader » leurs produits…
Amazon rentabiliserait très facilement le coût de communication (quelques euros par an) grâce aux commissions sur les achats des utilisateurs finaux. D’autre part Sigfox est aussi un Amazon Web Services Partner.
Et le protocole Sigfox (non pleinement bidirectionnel) me direz-vous ?
Tout d’abord, en termes d’usage, Amazon a surtout besoin que le produit communique vers Internet, Amazon peut ensuite confirmer la commande directement sur le smartphone sans retour sur l’appareil même.
D’autre part, rien n’interdit Sigfox d’utiliser son infrastructure actuelle pour intégrer d’autres technologies comme Lora ou NB-IoT via des bases stations adéquates ...
Pour la valorisation de 1,2 Md $, c’est un "wild guess" ;)
Petite précision : il y a certainement des erreurs factuelles sur plusieurs points ci-dessus et juste ci-dessous, je les corrigerai dès que j'ai un retour avisé sur ces points d'ici demain.
Un industriel qui veut connecter ses produits et qui fabrique des produits dans une usine pour les vendre sur un plan mondial a plusieurs problèmes à résoudre :
Aujourd’hui, que ce soit via Sigfox, Lora ou NB-IoT, il y a toujours des éléments qui peuvent freiner un industriel pour connecter son produit en utilisant un réseau bas débit plutôt qu’un composant Bluetooth ou WiFi ( qui ne permet un accès à Internet qu’indirectement via le smartphone ou une passerelle)
Sans rentrer dans tous les débats où une grande littérature et moult polémiques ont déjà eu lieu ;), voici quelques points de repère sur les différentes technologies.
Sigfox est un opérateur donc pas de portabilité possible. Il ne permet pas de vrai bidirectionnel (on ne peut pas appeler un device via Sigfox en direct, c’est le device qui peut contacter une plateforme et ouvrir une fenêtre de réception de données dans les quelques secondes qui suivent).
Enfin il ne peut être utilisé en mobilité (s’il est situé dans un véhicule qui dépasse les 15 km/h en raison de l’effet Doppler).
NB-IoT
Concernant Lora, c’est vrai qu’il y a du vrai bidirectionnel, qu’il est possible dans une rame de TGV à 300 km/h de communiquer via Lora (impossible pour Sigfox en raison de l’effet Doppler qui communique en Ultra-Narrow Band (UNB) à la différence de Lora en Ultra Wide Band qui utilise l’étalement de spectre radio).
Néanmoins il reste encore à finaliser les accords de Roaming (a priori cette année) et à avoir une couverture similaire ou supérieure à Sigfox sur le plan mondial pour qu’un fabricant n’ait qu’un opérateur avec lequel conclure et non un par pays.
Pour le NB-IOT, il faut intégrer une carte Sim soudée (format microprocesseur). Si l’upgrade du réseau pour les opérateurs telcos est relativement simple, pour les fabricants, c’est une autre histoire.
Il faut intégrer cette carte Sim et le transmetteur (> 5€ aujourd’hui au lieu de quelques euros voire moins pour un transmetteur Sigfox ou Lora) sur la carte électronique (PCB). La carte Sim aujourd’hui est rattachée à un opérateur telco et non remplaçable par une carte Sim d’un concurrent. L’e-Sim ne permet pas aujourd’hui la portabilité entre opérateurs comme aujourd’hui avec une carte Sim standard (néanmoins il faut le faire manuellement ce qui coûte un bras car il faut déplacer un technicien ou il faut passer par un MVNO multi opérateurs.).
Autre problème, aujourd’hui même si c’est en cours, les accords de roaming ne sont pas encore fixés pour le NB-IoT, donc si vous produisez des produits pour le monde entier, je ne crois pas les fabricants chauds à l’idée d’intégrer des cartes Sim soudées (sous forme de bande de puces) différentes en fonction du pays où le produit doit atterrir.
Enfin, même si cela prendra du temps, a priori 2022, 2023, il y a la 5G qui va apparaître et rendre potentiellement obsolète la NB-IoT … ce qui refroidira certains fabricants qui s’empresseront d’attendre.
Bien sûr, vous pouvez passer par un opérateur virtuel comme Matooma ou Mobiquithings qui vous fournit leur carte Sim propre mais qui est capable de faire du roaming national et de se connecter aux différents opérateurs nationaux (Orange, SFR, Bouygues Télécom …) mais je ne pense que ces opérateurs virtuels puissent déjà proposer ces offres car ils doivent passer des accords spécifiques avec les telcos.
Le Bluetooth 5 devient le protocole standard de la maison (à courte portée) au détriment de Thread, AllJoyn (Qualcomm) et des protocoles défendus par l’ Open Connectivity Foundation (qui réunit désormais notamment Cisco, Electrolux, GE Digital, Intel, Microsoft, Qualcomm).
Aujourd’hui, il y a une foultitude de protocoles existants dans la maison (cf. article Prédictions 2016), j’étais persuadé d’ailleurs que ce serait Thread avec Google derrière qui gagnerait face aux autres protocoles AllJoyn, d’OCF ....
Errare humanum est, je me suis planté et tourne ma veste mais pas encore mon pantalon (ce sera pour l’année prochaine ;)
Le Bluetooth 5 vient d’être adopté début décembre et je pense qu’il va rafler la mise pour plusieurs raisons. D’abord, il garde son avantage d’avant, il est sur tous les smartphones et sa puce coûte moins d’un dollar.
Mais il n’a plus les gros inconvénients des versions précédentes :
Awox a d’ailleurs présenté à l’IFA ses lampes connectées en Bluetooth 5.
Après les applis qui ont grignoté tout l’espace de votre smartphone, voici l’arrivée des agents intelligents qui vont les remplacer soit directement en add-on sur votre messagerie instantanée (Messenger, WhatsApp, Snapchat et consorts) ou sur votre moteur de recherche (cf. Google Assistant qui a ouvert reçoit sa plateforme de développement en décision et s’intègre dans Google Now et Google Home) et bien sûr intégrés dans votre objet connecté en utilisant la reconnaissance vocale (avec Alexa, Cortana et celle de Google).
A l’image du développement de chatbots et roboadvisor, on pourra acheter des agents spécifiques pour gérer ses finances, faire ses courses et même trouver l’âme sœur, avant que n’arrive un agent intégrant tout : l’iLad !
Pour ceux qui sont intéressés par un peu de prospective et en savoir plus sur l’iLad - intelligent Life Advisor , voici un article que j’ai écrit en 2011 sur les agents intelligents et quelques effets bénéfiques mais aussi pervers de ceux-ci (en particulier, une uniformisation des décisions et une réduction des initiatives out of the box…)
D’autre part, comme pour Alexa d’Amazon tous les composants d’intelligence artificielle développés par Google, Facebook, Amazon et Microsoft comme la reconnaissance vocale, l’IA décisionnaire… seront accessibles à tous gratuitement car la meilleure façon d’améliorer son IA est de le nourrir de données et en le rendant gratuit, cela facilite grandement son alimentation en nombre incalculable de données.
Enfin, nous allons de plus en plus faire appel à l’intelligence artificielle embarquée directement dans le produit qui sera régulièrement mis à jour via une plateforme d’apprentissage IA (Machine Learning).
Les formes cylindriques d’Amazon Echo et de Google Home, c’est « design » mais franchement cela ne donne pas envie de leur parler et de converser
Un peu d’humanité (fake bien sûr) nous donnera plus envie de discuter avec eux. A l’image des prototypes très basiques de Sony et Bosch présentés à l’IFA (cf. article), Amazon, Google et Microsoft vont proposer des robots avec une petite bouille et des expressions simplifiées.
Ils intégreront de la reconnaissance vocale, de l’IA notamment et deviendront l’interface usuelle dans la maison avec quelques répéteurs (type mini hauts-parleurs comme JBL) pour pouvoir communiquer avec eux dans toute la maison.
Oui, le smartphone pourrait servir mais c’est tellement plus simple de parler sans avoir à sortir son smartphone, apposer son doigt pour le déverrouiller et rechercher la bonne appli pour lui donner un ordre ou discuter avec lui.
Comme je l’ai souvent écrit, le modèle économique d’un objet connecté seul n’est pas pérenne (cf. article sur les différents modèles économiques possibles ) car vous recevez un revenu une fois pour toutes lors de l’achat (car personne n’achète de services en B2C) et vous avez des coûts récurrents (hébergement, support, mise à jour d’applications…) qui vous mange votre marge à vitesse grand V.
Ceux qui disent avoir un modèle économique fondé principalement sur la revente de leurs données à d’autres entreprises, sont des doux rêveurs pour la plupart.
La valorisation de données d’un objet connecté n’a un vrai intérêt économique que s’il est conçu dès le départ dans une solution complète intégrant non seulement des objets connectés mais aussi des produits et services. Il s’intègre dans un modèle économique plus vaste que ce seul objet connecté.
Si je reprends deux exemples, une entreprise qui vend un boitier connecté à la voiture (par prise OBD - On-Board Diagnostics, prise qui se situe dans chaque véhicule et permet de diagnostiquer un véhicule ou Bus CAN, Controller Area Network, colonne vertébrale d'un véhicule où toutes les données du véhicule transitent) à un particulier et qui espère vendre ses données à un assureur a selon moi toutes les chances de se planter (car en plus le particulier n’aura pas envie que ses données soient vendues).
En revanche (attention aux nuances) un assureur qui propose une assurance modulant la prime d’assurance (pour les conducteurs à fort risque comme les jeunes conducteurs) en fonction de la conduite de ses clients (comme Direct Assurance avec Youdrive) et qui propose un boitier connecté gratuitement y compris l’installation a bien plus de chances de réussir. C’est surtout vrai si le boitier connecté a été conçu pour remonter toutes les données pertinentes pour déterminer les facteurs déterminants dans le taux de sinistralité et le coût du sinistre en collaboration avec les actuaires et par ricochet permet de prévenir les clients et de moduler les primes.
Pour une entreprise fabriquant un boitier connecté (car ce n’est pas le métier d’un assureur), il peut vendre son boitier en B2B (marque blanche) potentiellement en co-branding à un assureur, s’il travaille dès le départ avec l’assureur pour remonter les données pertinentes. Deux startups françaises sont sur ce créneau avec d’ailleurs des approches différentes Drust et Eliocity avec Xee ;)
Pour ceux intéressés, j’ai réalisé une étude sur le véhicule connecté et autonome (marché, acteurs dans la chaîne de valeur, disruptions et stratégies pour y faire face) avec Les Echos.
Pour poursuivre sur le modèle économique, non seulement les objets connectés s’intègreront dans des solutions et modèles économiques plus vastes mais aussi ils se vendront dans une gamme plus complète intégrant des objets non connectés.
L’exemple le plus frappant est celui de Terraillon qui vend des ustensiles de cuisine en plus de sa balance connectée (cf. article sur le nouveau modèle économique de Terraillon) mais aussi de Holî qui vend son GoodVibes pour faciliter l’endormissement intégré dans une gamme complète avec des objets connectés (l’ampoule connectée et le réveil Bonjour.
Cela a d’autant plus de sens que les marges pour ces accessoires et leur coût (en SAV, récurrent…) sont bien plus faibles qu’un objet connecté. Il a un mix de ventes à trouver pour avoir un modèle économique pérenne.
Les objets connectés permettent de connaître le contexte d’utilisation d’un produit, les habitudes et les envies des clients. Pour offrir une expérience unique à l’utilisateur, il est nécessaire de créer massivement du contenu personnalisé. Cela peut paraître paradoxal mais c’est possible
Ce contenu personnalisé sera au minimum un facteur essentiel de différenciation et de fidélisation mais aussi un facteur de revenus additionnels.
Un tout premier niveau est proposé par Lunii et sa boîte à musique pour enfants qui à partir de plusieurs choix, raconte une histoire différente (aujourd’hui 48 de base). Avec l’IA, l’intégration d’informations comme le prénom de l’enfant qui écoute et de ses goûts notamment, nombre d’histoires pourraient être infinies (néanmoins, il faut que la création de ce contenu soit rémunératrice pour Lunii).
En 2017, on verra dans l’apparition de plateforme de contenus destinés aux objets connectés qui intégreront au fur et à mesure IA, personnalisation en temps réel.
Le problème de Google et d’Apple est qu’ils n’ont accès avec Android Auto et Carplay qu’aux données du smartphone dont la géolocalisation.
Pour avoir une vision globale du véhicule, il est nécessaire de récupérer les données du véhicule directement via la prise OBD ou mieux par le bus CAN (mais nécessite l’intervention d’un garagiste. Une bonne façon d'avoir cette expertise associée à la connaissance métier de ces données est de racheter des entreprises spécialisées dans ce domaine.comme Automatic, Eliocity, Drust et plus récemment Pearl qui regroupe 70 personnes dont 50 d’anciens d’Apple.
Bis repetita placent … L’année dernière (article), j’ai dit que Apple rachèterait Tesla et Fitbit et que Elon Musk serait à la tête d’Apple, c’était audacieux ;) Je me suis trompé mais peut-être que d’une année …
Pour Elon Musk à la tête d’Apple, beaucoup de personnes m’ont dit que ce ne serait pas possible pour de multiples raisons, soit on verra !
En revanche vu que Donald Trump veut rapatrier des milliers de milliards de dollars amassés par les entreprises américaines à l’étranger (pour éviter leur imposition à 35% aux Etats-Unis qui taxent sur base des bénéfices mondiaux rapatriés aux USA– article Les Echos) en faisant bénéficier les entreprises acceptant de le faire d’un fort régime de faveur (10% d’imposition), il y a de très fortes chances qu’on assiste à des rachats massifs d’entreprises US par des Apple, Google, Microsoft et Amazon et consorts.
Mon raisonnement sur Tesla tient donc toujours d’autant que malgré l’arrêt du projet Titan de voiture autonome d’Apple, il a confirmé son intérêt dans les voitures autonomes auprès de la NHTSA administration responsable de la sécurité (et des systèmes de conduite autonome).
Suivez mon regard …
On va déjà voir beaucoup d’objets connectés intégrant la reconnaissance vocale et l’intelligence artificielle au CES, mais on va voirapparaître les premiers objets connectés intégrant aussi nativement le blockchain.
Pourquoi me direz-vous ?
Le blockchain a de multiples usages, mais il y en a un qui devrait émerger pour les objets connectés au-delà du micro-paiement, le partage …
On peut bien sûr, partager sa perceuse connectée, son escabeau connecté mais il y a deux usages en particulier où je vois un fort intérêt au blockchain, le partage de véhicule et les échanges énergétiques dans un périmètre local.
Voiture partagée
Dans le premier cas, une entreprise comme Drivy (mais ne le fera pas tout de suite car cela briserait son modèle économique actuel cf. ci-dessous) créerait un blockchain pour le partage de véhicules qu’il mettrait à disposition des fabricants de prise OBD et bus CAN et aux constructeurs automobiles en association avec des assureurs. Toutes les personnes qui utiliseraient ce blockchain pourraient partager leurs véhicules en bénéficiant d’une assurance adéquate (via des smart contracts avec Ethereum par exemple)
On pourrait aussi imaginer que Google ou même Apple crée une blockchain intégrée dans Android Auto / Carplay pour disrupter complètement le marché de l’auto-partage, du covoiturage et même du VTC. Avis à Uber !
Energie
Pour l’énergie, c’est le même principe sauf que ce sont des producteurs d’énergie solaire, des stockeurs d’énergie (via leurs batteries notamment de véhicule) et les consommateurs qui vont grâce à leur véhicule, maison, batterie connectés pouvoir échanger dans un périmètre au départ local puis plus vaste leur énergie pour un coût de transaction quasi nul (hors potentiellement acheminement entre les différents logements et un coût très réduit potentiellement fixe pour accéder au blockchain crée par l’entreprise) .
Les premières startups vont commencer à disrupter les plateformes comme Uber, Blablacar, AirBnb en créant des blockchain concurrentes avec un succès modeste cette année mais en forte croissance en 2018 et potentiellement un raz de marée en 2019.
Pour aller plus loin, le blockchain représente une très grande menace pour les plateformes type Uber, Blablacar et AirBnb.
Pour rappel et en très bref, le blockchain permet de distribuer parmi un très grand nombre d’acteurs le tiers de confiance. Aujourd’hui, la raison pour laquelle vous passez par Blablacar ou Airbnb est qu’il agit comme tiers de confiance entre possesseurs de logements et occupants occasionnels ou conducteurs et voyageurs. Il garde en mémoire un « registre centralisé » de toutes les transactions entre chacun de ses membres et prélève une commission à chaque transaction.
Le blockchain permet que ce registre soit partagé par tous ses membres au lieu d’être centralisé (ce qui assure en plus sa quasi inviolabilité, sa transparence…). L’effet collatéral est qu’il n’y a plus de commission versée à chaque transaction (ou beaucoup plus faible car le registre et les données sont distribués et non plus centralisés)
Demain, une startup ou même un acteur n’étant pas du secteur comme Google ou Apple peuvent créer une blockchain qui réunirait une communauté grandissante et disrupterait les plateformes existantes. Il y a du boulot pour créer une communauté mais comme Facebook ou d’autres plateformes, ça peut aller très vite.
A l’image des constructeurs automobiles qui transforment de plus en plus leur modèle économique, les plateformes comme Airbnb, Uber, Blablacar intégreront la blockchainpour éviter de se faire blockchainer par de nouveaux entrants, dès qu’ils verront qu’il y a une fuite fortement croissante de leurs membres (je dirais 2019 …).
D’ici là ils seront en phase test secret:;)
Détecteurs de fumée
Pour 70% des incendies aux USA, il y avait un détecteur de fumée qui ne fonctionnait pas en raison d’un problème de l’appareil ou d’une batterie morte.Cela signifie que les détecteurs d’incendie ne servent à rien dans 70% des cas aux USA …
Normes de pollution pour les véhicules
Volkswagen et quelques autres ont manipulé leurs logiciels pour truquer les tests d’émissions polluantes (révélé par l’EPA sur bases de test de l’ONG International Council on Clean Transportation). Effectivement, les tests se durcissent et se rapprochent des conditions réelles d’utilisation.
La Commission Européenne mettra en place un nouveau dispositif de tests « WorldWide harmonized Light Vehicules Test Procedures » (WLTP ) en 2017) et veut renforcer ses pouvoirs de contrôle notamment a posteriori sur les véhicules mis en circulation (amendes de 30 000€ par véhicule en cas de non conformité).
En premier lieu, la baisse drastique des prix des objets et capteurs connectés et la collecte via des plateformes de crowdsourcing de données, va fortement faciliter le contrôle par les consommateurs de la véracité et la fiabilité des infos données par les constructeurs sur la consommation et des émissions polluantes atmosphériques de leur véhicule. Ça leur permettra aussi de les partager de manière anonyme (indépendamment du régulateur).
L’éthylomètre deviendra un jour nécessairement connecté au bénéfice… des autorités et des victimes évitées d’accidents de la route.
D’autre part, pour éviter des absurdités (détecteur de fumée non fonctionnel) ou tromperies, le régulateur va de plus en plus imposer aux fabricants de connecter leurs produits (surtout s’ils sont liés à la sécurité, la pollution, la consommation d’énergie… ).
Ils devront remonter de manière anonyme leurs données de consommation et de pollution réelles auprès du régulateur à l’image de ce qui se passe avec l’Arcep, régulateur des télécoms qui demandent aux opérateurs télécoms de fournir des données détaillées sur leur réseau et sa qualité. Chaque individu deviendrait potentiellement un agent de la répression des fraudes.
En 2018, l’eCall (bouton et système d’alerte en cas d’accident utilisant le réseau télécom ) devient obligatoire en Europe sur tous les véhicules.
En 2017, je prédis donc que ces premières réglementations vont apparaître.
Les objets connectés posent de nombreuses problématiques pour l’environnement, pour donner quelques exemples :
Pour ces raisons, les nouveaux objets connectés vont intégrer les caractéristiques suivantes :
Ces nouveaux produits commenceront à faire leur entrée commerciale en 2017.
Aujourd'hui, la réalité virtuelle en HD n'est possible que si on est rattaché à un ordinateur par un fil en raison de la quantité de données vidéo à transmettre.
Certains comme XMG résolvent partiellement le problème en utilisant un sac à dos, néanmoins c'est un pis-aller.
En 2017, les premiers casques HTC Vive sans fil devraient apparaîitre.
D'autre part, il y aura une intégration de plus en plus simplifiée et rapide entre la caméra 360° et le casque pournous faciliter la capture puis la visualisation.
J’ajoute aussi deux prédictions que j’avais faites pour 2017 en janvier 2016 :
Voici une revue des prédictions de 2016 :
La note totale est de 5 sur 10 (sur base de 8 sur 16), pas terrible par rapport à l’année dernière (7/10) ;)
Et voilà c'est tout pour cette année qui sera très chargée ...
Pour le fun, petite prédiction sur les résultats de l'élection présidentielle ... Si je fais le quarté dans l'ordre, je me donne un bonus de 1 point + 1 point si je devine le nouveau président correctement ! J'ai un avis un peu biaisé ;)
1er tour : François: 27%, Emmanuel : 19%, Marine :17%, Jean-Luc: 14%, Manuel :12%, François (vous devinez lequel;) : 6%, leurs collègues mais néanmoins amis : 5%
2ème tour : Emmanuel : 52%, François : 48 % !!!!
Je vous souhaite à tous ceux qui lisent cet article en janvier, une très bonne année 2017 ;)
Dimitri Carbonnelle, fondateur de Livosphere
Agence conseil en Open Innovation (startups) et Internet des Objets
L'IFA de Berlin s'est achévé. C'est l'occasion ici de vous faire un retour sur cet événement.
Vous trouverez toutes les vidéos ici : https://youtu.be/YWkU5Rx4UE0
dont Mix Fader (Dj Connecté), Balance Terraillon intégrant Scio (détection de l'aliment), Awox et BlueTooth Smart, HTC Vive avec un sac à dos XMG, Logitech sur la voiture connectée comparé à Google Now, Sony, Rétro-projecteur tactile, Piano Yamaha connecté
Après une rapide comparaison avec le CES Las Vegas et MWC, je donnerai des tendances, des réflexions et curiosités que j'ai trouvées au salon.
Parfois assimilé au CES européen, l'IFA s'en distingue sur de nombreux points. D'autre part, par sa date, début septembre, il a lieu quelques mois avant les fêtes, et permet en particulier aux distributeurs de voir ou commander les produits avant la période de Noël. Ce sont donc en très grande majorité des produits commercialisés ou d'ici peu qui sont présentés. Le revers est à qu'il y a peu d'innovations par rapport au CES. A l'IFA, on verra grosso modo, les produits commercialisés et annoncés au CES. Ceux qui étaient l'année dernière m'ont indiqué que cette année était décevante et que c'est innovant une année sur deux !
Le brun (TV, multimedia) et le blanc (l'électroménager) font la part belle à l'IFA mais d'autres domaines émergent comme le Smart Home avec la volonté d'intégrer les différents univers (éléctroménager, TV, smart home) comme ici avec LG. Toujours amusant de voir Windows 10 sur un réfrigérateur !
Pour l'anecdote, je connaissais les French Fries, les French Beans (haricots verts), les French Kiss mais pas les French Doors (doubles portes) qui à ma connaissance ne sont pas ce qui est de plus commun en France ;)
A l'inverse, on a l'impression que d'autres sont des startups. Le stand de Qualcomm est plus petit que celui d'Awox alors que c'est parmi les plus grands au CES !
Beaucoup de distributeurs sont présents pour visiter (souvent pour une journée combinée avec un retail tour, visite de vrais magasins à Berlin). Axelle Lemaire est venue aussi le lundi et a d'ailleurs fait la une du journal de l'IFA.
Le "Tech Watch" , tout petit frère de l'Eurêka Park, est assez décevant.
Deux stands regroupent des startups, en particulier celui du Hardware Club (fonds d'investissement dirigée par Barbara et Alexis, qui accompagne les startups de bout en bout, conception, prototypage, industrialisation, commercialisation et à vocation mondiale - SevenHugs, SensorWake, Plume Labs, MixFader sont quelques-unes des startups françaises accompagnées) sont intéressants.
J'ai joint une petite vidéo de MixFader pour ceux qui ne l'avaient pas vue au CES. Ici, en plus il est devenu compatible avec Windows 10 (utile pour les MS Surface) ainsi qu'avec n'importe quelle source Midi. J'ai demandé s'il pouvait me remixer "She" d'Aznavour, malheureusement pas de bol ce n'était pas dans sa playlist ;)
Autres startups, Aurora propose des dalles lumineuses commandées par smartphone et Curio propose des jeux éducatifs pour programmer des mini objets connectés avec des capteurs (on en voit régulièrement, ici la programmation est facile et les capteurs sont reliés en Bluetooth sans connexion filaire).
C'est un avantage (plus de liberté) mais aussi un handicap car visualiser une liaison sur ordinateur qui n'existe pas physiquement n'est pas nécessairement à la portée du premier gamin venu.
D'autres Français y sont dont Homido, Bell & Wyson (qui présentait sa lampe anti-moustique), Nodon (fait partie du groupe Altyor).
Dans les autres halls, on trouve les usual suspects des objets connectés français, Withings (pardon ex-Français pour lui;), Netatmo, Parrot, Myfox (racheté par Somfy), Archos ...
Quelques innovations : Pour Netatmo, la vanne thermostatique à poser sur votre radiateur (69€ ou pour le starter pack 179€ TTC),
On voit aussi que Netatmo se fait copier à deux reprises, pour sa vanne par Tado et sa caméra par Buddyguard qui réalise (en embarqué sans passer par une plateforme Internet) de la reconnaissance faciale.
Concernant Tado, il embarque de la reconnaissance vocale et s'intègre comme Netatmo avec IFTTT et Apple Home Kit notamment, plus Amazon Echo.
Withings a bien agencé son espace en donnant une cohérence sur ses produits (pas évident quand votre message est autour du bien-être et de la santé et que vous vendez des caméras vidéos Home qui intègre un capteur de CO2 pour votre santé mais qui pour l'utilisateur n'est pas un critère d'achat d'une caméra).
La deuxième Tagline ("Connect with a healthier you") est selon moi est un peu compliquée et longue. Gardez juste "Inspire Health", c'est plus inspirant ;)
Withings a aussi lancé une montre connectée avec un mini-écran (pour la version blanche, je ne trouve pas que cela se marie bien mais son célèbre designer Pierre m'a dit que certains aimaient. Les goûts et les couleurs ...)
De manière générale, je suis dubitatif sur les entre-deux, soit on met un écran digital complet soit on n'en met pas, même si cela a une utilité d'avoir une combinaison des deux pour des notifications, sur le plan design, je suis moins fan même si cela s'intègre mieux avec une montre noire.
D'autre part, un des problèmes est que la police de caractères est très carrée ce qui ne s'associe pas bien avec la forme ronde de la montre. Pourquoi ne pas avoir rendu cette police plus cursive ?
Tout simplement parce que cela nécessite un microcontrôleur plus gourmand en énergie et plus cher car il y a plus de pixels à afficher pour donner cette impression de rondeur tout en gardant une bonne lisibilité. Ce sont les limites et contraintes du design produit !
Merci Pierre pour tes explications ;)
Aujourd'hui, le principal problème dans l'électroménager est que la plupart des personnes utilisent le même programme (four, lave-linge, lave-vaisselle...) quelque soit le vêtement, aliment utilisé ou sa quantité car personne ne prend le temps de sélectionner manuellement le programme optimal.
Avec la baisse du prix des capteurs et des processeurs permettant d'identifier la quantité et le type de vêtements utilisés, d'aliments... l'utilisateur n'a plus à prendre la peine de choisir son programme, la machine le fait par elle-même sur base des informations recueillies et l'intégration d'algorithmes (qui intègrent petit à petit de l'intelligence artificielle comme on le voit ici avec Bosch). Cela permet de décider du bon programme sans faire intervenir l'utilisateur. La complexité est gérée par les algorithmes et pour certains l'intelligence artificielle.
L'intérêt, au-delà d'une meilleure qualité de cuisson, de lavage est aussi environnementale et financière, on va beaucoup moins gaspiller de produits, d'énergie ... et c'est le message qui est bombardé un peu partout.
Dans le cas des machines à laver et lave-vaisselle, il y a aussi un intérêt financier pour les fabricants prescrivant des détergents ... car comme on le voit ci-dessous, au lieu de mettre juste une dose par lavage, on met toute la bouteille, Au CES Las Vegas, certains fabricants avaient prévu des réservoirs de 5 litres ou 10 litres (ou en gallons ...) sur leurs machines, ce qui permet de proposer des commandes automatiques de lessive dès qu'il en manque pour des quantités importantes ce qui réduit les coûts de transport et logistique ... CQFD .
Le problème du modèle économique des objets connectés est qu'à terme il se vendra au maximum 20% plus cher que le même produit non connecté. Pour aller plus loin, la connectivité, vue du client, est secondaire, il n'est pas prêt à payer plus pour cela.
Alors qu'il y a de nombreux coûts récurrents pour maintenir l'application (hébergement, mise à jour), réaliser le support client... comment résoudre ce casse-tête ?
La technique la plus courante est de mettre en avant le service apporté par la connectivité (ex: des recettes pour Nutricook, un suivi du poids pour une balance connectée mais sur lequel le client n'est pas prêt à payer un abonnement) et de les packager avec d'autres fonctionnalités non liées à la connectivité. Cela accroît la perception de qualité du produit (design, fonctions exclusivement réservées aux produits connectés...) et donc le prix. Pour résumer, vous achetez un produit haut de gamme plus cher qui, by the way, intègre de la connectivité qui donne accès à certains services.
Néanmoins, cela ne résout pas le problème de tout modèle économique : aligner le modèle de revenus au modèle de coûts (ici avoir des revenus récurrents pour faire face à des coûts récurrents).
La première solution trouvée par les fabricants de matériel (électroménager...) est de développer de plus en plus les services (Terraillon l'a fait notamment avec des conseils de nutritionniste facturé environ 150€ pour 3 mois de suivi). Le problème est que le client particulier n'est pas prêt à payer le service (conseils, accompagnement ...).
La deuxième solution est de vendre des accessoires au produit avec des fortes marges et faibles coûts ce que fait Terraillon. La troisième est de devenir prescripteur de consommables (lessive pour un fabricant de machine à laver ) utilisés par ses produits voire devenir fabricant de consommables.
Actuellement, à de rares exceptions, les fabricants de produits électroniques ne vendent pas directement de consommables à l'exception notable de Philips qui vend une solution pour l'hygiène buccale pour rincer la bouche en plus de ses produits de soins buccaux (cf. article CES). Dans le sens inverse, P&G vend lui des consommables (dentifrices Fluocaril, Crest) et des produits électroniques après sa fusion avec Gillette (qui intègre Oral-B fabricant notamment une brosse à dents électrique et connectée). Unilever a suivi en 2013 le même chemin avec sa brosse à dents électrique Signal Sonic Pro Sensitive.
A l'IFA, on rase gratis ;) Eh oui, après Dyson qui proposait de vous coiffer avec son Dyson Supersonic, Panasonic proposait de vous tondre ... ou de vous raser gratis au choix ;)
Les dames pouvaient bénéficier de soins de peau en utilisant des appareils permettant de mieux faire pénétrer la crème (utilisant notamment des micro-courants comme le fait la startup Feeligreen) ou avec un sauna facial
L'intérêt pour des fabricants est de tester eux-mêmes leurs produits en condition réels avec de vrais utilisateurs.
Je ne pense pas que Panasonic crée une chaîne de salons de soins ou de rasage, aujourd'hui des marques s'associent avec des salons de coiffure ou de soins pour tester leurs produits de manière extensive, mais elles pourraient aller plus loin en ayant un ou deux vrais salons en propre pour tester leurs produits, pour mieux appréhender les problèmes rencontrés par les coiffeurs et utilisateurs, en combinant leurs produits avec des marques de soins, coiffure, pour mieux connaître leurs concurrents (en utilisant aussi leurs produits) ...
Autre innovation, ce sont les écrans transparents. Comme les hottes mobiles qui se cachent sous la table de cuisine, il y a une tendance qui grandit de cacher la technologie, de la rendre invisible pour n'apporter la fonction que lorsqu'on en a besoin.
Un des problèmes des casques de réalité virtuelle est que pour avoir une synchronisation en temps réel entre nos déplacements et le retour visuel dans le casque, il est nécessaire d'avoir une très grande puissance de calcul.
HTC Vive, qui est un des meilleurs casques dans ce domaine est néanmoins relié à une "béte de course" en terme d'ordinateur capable avec sa carte graphique de donner un rendu immersif et sans délai de latence perceptible.
Vu la taille du flux vidéo à transmettre, la bande passante du WiFi est insuffisante et donc nécessite d'avoir un cordon physique entre le casque et le PC ce qui gêne les mouvements. Le nouveau casque Sony PlayStation VR ne fait pas exception à ce problème. Le casque Oculus qui est sans fil n'a pas la même qualité d'image que le HTC Vive c'est pourquoi il est sans fil.
XMG a été malin et propose un ordinateur "portable" qui se porte comme un sac à dos ce qui gêne beaucoup moins dans les mouvements comme vous le verrez dans la vidéo (with myself ;).
Néanmoins, avec la miniaturisation et l'intégration d'une puisssance de calcul, on peut s'attendre à ce que d'ici un ou deux ans, tout soit intégré dans le casque.
Il y a aussi un autre type de robots qui apparaît aujourd'hui sous forme de prototype. C'est le majordome de la maison comme le mini-robot Sony (qui est surtout un écran surmonté d'une boule mécanisée !), il commande la machine à café ... ou Mykie de Bosch qui est relié à Home Connect mais l'intérêt reste limité aujourd'hui.
En revanche, l'idée de donner une forme de robot plutôt qu'une forme géométrique simple comme Amazon Echo ou Google Home devrait inciter à plus d'interactions avec l'homme.
En revanche, il ne faut pas non plus pousser le bouchon trop loin, utiliser une tablette pour commander son lave-vaisselle alors que les boutons sont accessibles facilement me semble inutile à 99,9% même pour des hommes !
Je ferai néanmoins une concession à ce sujet, c'est la possibilité de paramétrer ses achats de lessives avec un service type Amazon Dash Replenishment Service (cf article) ou d'avoir des données de diagnostic en cas de panne ou d'éléments en fin de vie.
D'ici là, il nous reste encore quelques années, alors remercions Laurastar, d'avoir trouvé une solution pour inciter plus d'hommes à repasser avec le premier fer à repasser connecté. Je vois bien la scène au pied du sapin de Noël, 'Mon Chéri, je t'ai offert un objet connecté pour Noël ! Génial, c'est quoi ... Regarde par toi-même ... "
Pour la suite, cela variera en fonction de chacun mais vu l'investissement, il a intérêt à s'y mettre et il n'a aucune excuse vu le tutorial dédié aux hommes !
Même si c'est un peu réducteur de penser que tous les hommes ne savent pas repasser ( ;-), ont besoin d'un tutoriel sur smartphone pour s'y mettre, et que je suis un peu sceptique sur le réel bénéfice de connecter son fer à repasser, si c'est un pas pour rééquilibrer les tâches ménagères entre hommes et femmes, ce sera toujours ça de gagné !
Adidas aussi présentait son ballon connecté (déjà présenté avant pour un coût de 200€) qui permet de mesurer le spin (rotation) speed (vitesse) curve (courbe) de la balle, visible directement sur son smartphone.
Le poids de la balle est quasi équivalent à un ballon normal (et équilibré en poids) mais il n'est pas autorisé aujourd'hui en compétition et aujourd'hui a surtout un usage dans le cadre d'entraînement pour améliorer ses tirs.
La batterie tient sur 2000 tirs et se recharge par la base à induction.
Yamaha aussi présentait son piano connecté permettant ainsi de faire le lien entre plusieurs de ses métiers. Il enregistre la pression sur les touches, les marteaux, les pédales grâce à des capteurs optoélectroniques placés sur chacun. Par un servo-moteur (DSP Servo), il est capable de restituer la même pression sur tous ces éléments.
Cela signifie qu'il est possible de restituer exactement le même son (avec des touches et pédales mobiles comme sur les pianos mécaniques dans la maison hantée à Disneyland ;)
Ainsi récemment, Elton John avait réalisé un concert à Las Vegas avec ce piano qui a été restitué aux quatre coins du monde sur des pianos connectés.
Enfin, il est possible même de modifier sa partition après coup et de rejouer ce qui donne une liberté encore plus grande aux compositeurs et aux pianistes et simplifie les répétitions si le pianiste n'est pas là dans un orchestre ;)
Logitech fait une première incursion dans le monde de l'automobile afin de proposer une expérience avec le smartphone beaucoup plus fluide que celle existante aujourd'hui.
Le clin d'oeil à la 4L montre que leur technologie s"adapte aux plus vieux véhicules ;)
Selon Logitech, la perte d'attention pour utiliser son smartphone (quand on reçoit une notification ou un message, on change de musique ..) est de 5 sec contre 0,3 sec en utilisant leur solution. D'autant qu'aux Etats-Unis, ce serait devenu la première cause de décès pour les accidents en voiture. Leur solution est aussi adaptée en fonction du pays ( GB, Etats-Unis, Allemagne pour l'instant).
Le principe est le suivant : Logitech vend un clipse aimanté intégrant du NFC (et donc pas compatible iOS) qui une fois approché lance une application Logitech. Celle-ci intègre la reconnaissance vocale de Nuance et pilote naturellement le smartphone quand il lui est demandé de lire un SMS, de trouver un restaurant ...
L'exemple typique est la recherche d'un restaurant qui aujourd'hui dans Google Now nécessite de toucher l'écran plusieurs fois pour qu'il affiche la navigation jusqu'à lui. Logitech au contraire propose une expérience sans toucher le smartphone et par commande vocale lance directement Google Maps.
S'il est vrai que c'est malin d'utiliser un clipse dans la voiture pour lancer le mode "Voiture" de Logitech, ou faciliter l'expérience client, il me semble que c'est un business à court terme car je pense que via Android Auto ou Carplay, l'intégration de la reconnaissance vocale et la simplification du parcours utilisateur devrait nettement s'améliorer d'ici un ou deux ans et la valeur de Logitech sera plus faible.
Sony avait présenté ce rétroprojecteur tactile au CES mais c'est intéressant de le voir commercialiser avec la possibilité de l'utiliser sur une table ou un mur avec de nouveaux usages.
Ce sera intéressant de voir comment les usages se développent autour de cela (éducation, jeu..)
On l'a peut-être oublié mais Toyota est un conglomérat qui a des activités qui vont bien au-delà de la voiture (aérospatiale, université, biotechnologie, robotique) au pays du Soleil Levant et notamment des machines à coudre. Cela peut paraître étonnant sous la marque Toyota et pourtant ...
Pour la petite histoire, l'entreprise Toyota a tout d'abord été une usine de textile basée dans la ville de Koromo spécialisée dans la soie. La baisse de la demande de soie brute au Japon et à l'étranger, entraina la ville dans un déclin progressif et encouragea Kiichiro Toyoda et son cousin Eiji Toyoda à chercher des alternatives industrielles à l'entreprise familiale de métiers à tisser automatiques. C'est ce qui mena à la fondation de ce qui devint plus tard Toyota Motor Corporation. (Source Wikipédia).
Pourquoi ne pas verdir les appartements en facilitant la culture des herbes ?
J'ai vu à l'IFA quelques appareils pour cultiver son propre potager dans son appartement. Par facilité, les fabricants ici Grundig commencent par les herbes aromatiques (car cela nécessite peu de profondeur pour les racines).
Vu la place que celui-ci prend et son coût, je vois mal une personne mettre cela dans son appartement, juste pour cultiver des herbes. Ca me paraît franchement singulier, cela facilite surtout la culture de l'h ... plutôt que des herbes ;)
C'est ainsi s'achève ce tour de piste de l'IFA. Je remercie aussi le Hardware Club pour la très belle soirée #Rooftop avec une vue superbe sur Berlin !
Dimitri Carbonnelle - Fondateur de Livosphere - Agence Conseil en Open Innovation et Internet des Objets
Le CES Unveiled est une manifestation qui est un préambule au CES Las Vegas et a lieu aussi à Prague et à New York.
Il a commencé par une présentation de Gary Shapiro puis Shawn DuBravac qui présente les tendances du CES qui sont au nombre de cinq :
D'ailleurs son utilisation s'étend à celui du Hub numérique de la maison avec Amazon Echo et Google Home ainsi que pour les robots qui vont se développer fortement.
La reconnaissance vocale a réalisé d'énormes progrès et sera la nouvelle interface homme machine remplaçant de nombreux écrans devenant superflus (au moins pour la saisie), notamment sur les Wearables.
Aujourd'hui, nous avons mis en place les connexions (accès Internet fixe et mobile, WiFi, Bluetooth...) et l'infrastructure (web, plateforme digitale) permettant d"avoir un large déploiement des objets connectés à l'image du déploiement de la machine à laver qui a nécessité une démocratisation et standardisation du réseau électrique et de la plomberie (et de la formation des plombiers).
L'objet (hardware) et son logiciel, ses applications, sa plateforme (software) fusionnent et deviennent indissociables : "Software is eating Hardware, Hardware is eating Software".
Les objets en particulier les wearables fusionnent un nombre croissant de données sur nous et de l'extérieur permettant une agrégation et un traitement massif de données qui ont un impact direct et concret sur notre environnement et vie au quotidien.
Au fur et à mesure, les objets deviennent autonomes et peuvent agir à notre place, ce qui a un impact énorme sur l'e-Commerce Aujourd'hui 8% des ventes totales aux Etats-Unis, 7% en France sont réalisées en ligne, elles peuvent d'après plusieurs études monter à 15% sans nouveau canal de vente.
En revanche, en intégrant les objets connectés comme canal de vente cela pourrait monter à 30 à 40%.
L'exemple typique est la machine à laver intégrant un bouton Achat qui commande votre lessive voire même qui le commande automatiquement en fonction de la réserve restante (pour info, au CES on voyait des machines avec des réservoirs des capacités de 5 à 10 litres) (cf. article détaillé sur Amazon Dash Button) .
Le CES devient le salon de la nouvelle voiture car elle réunit tous les acteurs de la chaîne de valeur : SIlicon, Middleware, hardware, fournisseurs de services, OEMs ... avec les technologies d'assistance à la conduite et les voitures autonomes
L'intelligence artificielle devient "pervasive", ubiquitaire dans tous les objets. On verra des assistants intégrés dans un grand nombre d'appareils au CES avec qui nous chatterons (grâce aux chatbots qui s'intégreront directement dans les produits).
Pour avoir une vision de ce que pourrait être notre vie avec des agents intelligents, j'ai écrit un article prospectiviste il y a quelques années ... à ce sujet : Jamais sans mon iLad - intelligent Life Advisor !
Il y a quelques impacts sociaux majeurs comme le risque de normalisation de notre société et de réduction de créativité car nous serions assistés et on se rendrait compte que les décisions de nos agents intelligents seraient meilleures que les nôtres. J'ai écrit aussi un article sur les risques et les solutions pour intégrer l'IA dans nos objets connectés via des chatbots (ex: imaginer les dérives du chatbot Tay de Microsoft sur la poupée Barbie récemment hackée ...).
L'expérience client va devenir de plus en plus immersive en intégrant la réalité mixte qui combine réalité augmentée (ce sont des images qui se superposent sur des images réelles filmées par caméras ou en vision directe comme pour les lunettes HoloLens de Microsoft.) et réalité virtuelle (environnement virtuel recréé complètement avec des casques comme HTC Vive, Oculus ou en utilisant votre smartphone et un casque type Homido...).
La réalité virtuelle et la réalité augmentée vont profondément transformer l'expérience client dans des domaines comme la vente de voyages, l'hôtellerie, la vente et location immobilière, l'achat de mobilier et décoration, mais aussi pour des marques de luxe ou ayant des identités fortes qui veulent immerger leurs clients dans l'univers de leur marque.
Last but not least ... en plus de grands stands attendus pour Docapost et Engie notamment déjà là l'année dernière ainsi que d'autres comme Legrand, les grands groupes français sont mis en avant lors d'une Keynote pour Carlos Ghosn, PDG de Renault-Nissan et ...Mitsubishi et d'une "supersession" avec Stéphane Richard, PDG d'Orange
Je vous laisse lire les quelques éléments chiffrés dans la présentation. Quelques éléments remarquables sur le CES 2016 :
Cela montre un dynamisme énorme des startups (qui se poursuit avec 202 inscrites pour Eurêka Park pour le CES 2017 ) mais aussi montre que les entreprises françaises hors startups dépassent en exposants largement les autres pays européens (France : 5,4% et Allemagne: 1% et UK,:1%). Nous sommes le 3ème pays après les Etats-Unis et la Chine !
Quelques photos des entreprises et startups innovantes françaises et nominées aux CES Innovation Awards : Hydrao et 3DRudder étaient déjà présentes au CES 2016, mais CT Band est un nouveau venu avec son bracelet connecté.
Sur Eurêka Park, les startups peuvent venir deux années de suite, ici, je n'aborderai pas donc les startups déjà vues au CES 2016 comme 10-Vins, 3DRudder, InMotion, Bell & Wyson, Ubiant, Bixi, Digitsole, Seven Hugs... que vous pouvez retrouver dans l'article sur le CES 2016, mais je fais un retour sur les nouvelles startups et produits.
Tout d'abord, après le buzz des objets connectés, je vais vous parler de la vague des objets non connectés !
Eh oui, c'est comme les produits alimentaires sans OGM, sans gluten, sans huile de palme ... ce sont des produits sans ondes.
Pour être honnête, je trouve cela très sain (je me tire une balle dans le pied car je suis en expert en objets connectés mais l'honnêteté paie ... un jour !).
On avait tendance à tout connecter : boîte à oeufs, biberon, fourchette, glacière et barrette de cheveux ... et on avait oublié une personne le client et ses besoins.
D'une part, il est inutile de connecter des produits si la valeur apportée pour le client est faible par rapport à un produit non connecté (ou connecté via USB), d'autre part, la connectivité peut même être un frein à l'achat (peur parfois irraisonné pour des fréquences sub-giga hertz par exemple).
C'est l'exemple de Lunii (60€ qui d'après ce que je sais fait un carton) qui propose une boîte à histoires pour enfants et permet aux enfants de "créer" leur histoire ou pour être précis de choisir leur histoire sur base de 4 critères : le personnage, garçon ou fille, le lieu (4 possibles, océan, château...), 3 objets secondaires et deux objets ( soit au total 48 histoires =2*4*3*2 ;) )
Ils utilisent même la non-connectivité comme argument de vente "Sans ondes" en grand sur leur packaging ! Ils répondent ainsi à la crainte potentielle d'impact des ondes sur les enfants. Même mieux, ils ont créé un business modèle récurrent pour un produit non connecté (connecté par prise USB en fait...) avec la possibilité de racheter un pack de 18 histoires pour 9 € .. C'est très fort !
L'intérêt de créer un produit non connecté est multiple : vous ne risquez pas de vous faire hacker vos produits, les batteries durent plus longtemps, la conception est beaucoup plus simple, le coût de fabrication est bien plus faible, vous n'avez pas de coûts récurrents pour stocker vos données et mettre à jour votre appli, le SAV est nien moins sollicité et enfin les marges sont nettement plus élevées.
Le marché des objets non connectés est en pleine explosion !!!!
Holî a lui aussi créé son premier objet non connecté !
C'est un galet (très agréable au toucher ! ) qui projette plusieurs lumières au plafond qui vous donne le rythme d'inspiration, expiration ... et vous fait tomber dans les bras de Morphée ou de la personne à vos côtés ;)
Il fait penser à Dodow qui a été pionnier en France dans ce domaine mais Holî l'intègre dans une gamme complète de l'endormissement au réveil (avec son réveil Bonjour).
Au départ, Holî s'était spécialisé autour des objets connectés dans la lumière, son pivot vers le monde du sommeil a beaucoup de sens avec une cohérence dans ses produits et le design de ses produits.
Cela manque, selon moi, à une entreprise comme Withings qui a beaucoup étendu sa gamme de produits (balance, montre, caméra, traqueur, baby-phone, thermomètre ...) mais a perdu en cohérence et en sens pour le consommateur (périmètre très large autour du bien-être et de la santé)
Rool'in a présenté sa roue motrice (environ 600€) pour vélo pour transformer un velo en VAE (vélo à assistance électrique) et qui au CES sera aussi équipé de cellules photovoltaïques pour alimenter la batterie (1 journée à l'extérieur pour 10 km d'assistance).
Petit détail amusant, il y a une réglementation particulière pour le VAE pour le distinguer d'un cyclomoteur. La mise en route du moteur est conditionnée uniquement par le pédalage et doit se couper dès que l'on arrête de pédaler. Il faut donc obligatoirement un capteur de pédalage (d'autre part, l'assistance doit se couper à 25 km/h, la puissance nominale du moteur doit être de 250 watts maximum)
Un capteur qui sert uniquement à contrôler me semble être un surcoût inutile car cela n'apporte rien à l'utilisateur sauf s'assurer qu'il respecte la réglementation VAE. La loi étant la loi, imposant cela aussi pour de très bonnes raisons (nécessité d'une plaque d'immatriculation, port d'un casque obligatoire, assurance obligatoire, brevet de sécurité routière.).
Une autre approche intéressante serait que Rool'in se rapproche d'entreprises comme Connected Cycle qui font des pédales connectées (avec anti-vol, géolocalisation que ne fait pas encore Rool'in) pour que ce capteur s'intègre dans un élément ayant de la valeur pour l'utilisateur.
Autre innovation intéressante, My Jomo qui présente un badge connecté. La cible est principalement événementielle où un badge en plastique coûterait en coût unitaire tout compris 10€ (avec le logiciel, gestion des badges en plus de la fabrication et des appareils pour les réaliser sur place, cela me semble un peu cher néanmoins). Ils louent leur badge connecté pour 19,99€ par jour pour deux jours mais descendent à 2€ sur de plus longues périodes. Il se porte avec un aimant derrière le vêtement.
Comme la cible est l'événementiel, cela ne me choque pas (pour les hôtes et hôtesses en particulier) et cela permet de réduire la fabrication inutile de badges, néanmoins vu le prix, ce n'est pas destiné aux visiteurs de salons car le prix unitaire du badge plastique ou papier devrait être nettement inférieur à 10€ ! L'intérêt est d'animer le badge (100 images stockées) et de faire tourner des GIF.
Potentiellement, ils pourraient le vendre (300€ a priori) ce qui me semble exorbitant sauf si c'est à des intermédiaires qui le louent.
Seven Hugs présentait ses produits et est commandable avec Amazon Echo.
CT Band a lui montré son bracelet connecté qui permet de garder son cadran de montre (si ce n'est pas une Swatch ou une montre qui empêche le remplacement de bracelets ou qui a des bracelets spécifiques).
L'accroche au bout du bracelet permet d'alimenter la batterie avec la deuxième partie (en revanche il faut un adaptateur pour alimenter le bracelet).
MyOeno aussi présentait son capteur de caractéristiques du vin (puissance, vivacité et tanins). La prise de mesure s'effectue sans prélèvement et sans interaction chimique pour ne pas altérer le vin..
La solution vise les particuliers mais me paraît plutôt destinée aux sommeliers car s'il est possible d'avoir une mesure précise de certains éléments de goût, les informations sur le vin peuvent être obtenues directement à partir de l'étiquette de vin et de sites Internet d'oenologie sans avoir à acheter MyOeno.
Sowee présentait une très belle télécommande avec des icônes, néanmoins elle est connectée en X3D (protocole propriétaire de Delta Dore). Le protocole propriétaire à moins de s'appeler Google ou Apple, ce n'est plus trop la mode ... [Modification] Je suis un féru partisan de l'interopérabilité, néanmoins comme le faisait justement remarquer Loïc, les résultats de Delta Dore (près de 50 000 boxes vendus en 2016, et anticipe une forte progression en 2017) montre que l'interopérabilité n'est pas la première préoccupation des clients, et que les deux voies peuvent coexister. D'autre part, Delta Dore a développé des partenariats qui vont dans le sens de plus d'interopérabilité entre partenaires déjà.
Wair, projet que j'avais découvert à Futur en Seine, est devenu réalité car il permet de mesurer la pollution atmosphérique et la filtre via son foulard. Je vois surtout son potentiel en Chine ...
Enfin Ondilo présentait son capteur Ico pour piscine et alerte si l'analyse de l'eau est mauvaise et donne des conseils sur son traitement.
Un certain nombre de grands groupes étaient aussi présents tels qu'Air Liquide avec son iLab qui présentait une solution combinant reconnaissance d'image et réalité augmentée pour faire des relevés de compteur de gaz.
Engie était aussi là avec sa OpenInnov ainsi que Legrand qui présentait des produits sous Eliot (protocole Legrand). Enfin Confluens, qui est une couche permettant à des protocoles propriétaires de communiquer entre eux et qui réunit notamment CDVI, Delta Dore, Hager, Legrand, Schneider Electric et Somfy. C'est une STAC qui s'intègre soit dans une gateway voire potentiellement un capteur (s'il asufft de mémoire et de processeur).
Enfin Parrot et Bewell (Visiomed) étaient aussi présents mais ni Withings ou Netatmo.
C'en est fini poir les CES Unveiled Paris qui augure de bonnes surprise pour les CES 2017. Comme dit Gary Shapiro, Expect the unexpected.
Dimitri Carbonnelle - Livosphere - Agence Conseil en Open innovation (objets connectés, IA, startups...)
Vendredi 21 octobre, une attaque massive d'objets connectés (caméras ou netcam) a paralysé les sites de Twitter, Netflix, Amazon, New York Times, CNN.
La technique utilisée est le DDOS (distributed denial of service attack ), une attaque de déni de service distribuée sur le serveur Dyn ( gestionnaire de zone DNS) qui redirige le trafic entre une requête d'un internaute et le serveur de du site web recherché. Ne faisant pas la distinction entre une requéte d'un être humain et d'un botnet, l'internaute est incapable d'accéder au site car il est noyé parmi des milliards de requêtes et qu'il y a un goulot d'étranglement énorme pour accéder au site recherché.
Dans l'interview qui suit, j'expose dans le cadre d'un interview avec Digital Security quels sont les éléments et une démarche pour sécuriser un objet connecté. Cela réduit les risques d'être utilisé comme "bot" par un hacker pour envoyer des requêtes utilisées pour un DDOS.
Ici, l'attaque utilise des objets connectés pour être précis des caméras connectées. La raison est triple :
Cela signifie qu'il y a peu de chances aujourd'hui qu'une balance connectée en Bluetooth ou que votre Flower Power, capteur pour plantes de Parrot participe à une attaque DDOS.
Voici donc mes réponses à quelques questions sur la sécurité de l'Internet des Objets :
Nous sommes aujourd'hui encore au tout début du développement de l'Internet des Objets d'abord il y a eu une phase de création d'objets connectés dans le domaine du grand public sans qu'il y ait toujours une utilité, puis une étape où les fabricants d'objets connectés ont dû proposer des objets connectés utiles à après les gadgets connectés du début et doivent construire un modèle économique pérenne.
La sécurité même si elle est cruciale est un sujet peu abordée pour des raisons de complexité et de coûts additionnels qui auraient été un frein à la rapide émergence des objets connectés dans le grand public. Nous rentrons aujourd'hui dans une phase où il est crucial de sécuriser tous les flux de données. Le client n’acceptera plus d’acheter des objets connectés avec une sécurité insuffisante.
Le niveau de criticitë du service apporté par l’objet connecté et la sensibilité des données collectées par celui-ci ont un impact direct sur le niveau de sécurité exigée.
Néanmoins, on le voit avec des services comme Shodan qui montre et donne accès à tous les objets connectés non sécurisés que nous sommes encore loin du compte ...
1. La première vulnérabilité est liée à l'objet lui-même. En désossant un objet connecté,l’analyse d’une carte sd,des mémoires,des processeurs sont autant de moyens d’une part de collecter des données sur l’objet même mais aussi sur tous les autres.En révélant une faille majeure sur la totalité des objets de même conception,il peut obliger un fabricant à rappeler ses produits s’il ne peut mettre à jour ses produits à distance.
En réduisant la sécurité de l’objet on facilite aussi son rétro engineering et sa copie par des concurrents.
2. La deuxième vulnérabilité est la transmission des données.C’est l’une des plus critiques, car il permet d’accéder à distance à un grand nombre d’objets connectés sans que leur utilisateur le sache.
3. La troisième est similaire à tous les sites Web, c’est la plateforme Internet où toutes les données sont remontées à la différence que les conséquences d’un déni de service ou d’une collecte de données en particulier sur la santé peuvent être désastreuses.Imaginez une pompe à insuline, dont la plate-forme enverrait l’ordre d’un surdosage d’insuline…
4. La quatrième vulnérabilité est l’application sur smartphone qui sert souvent d’écran de paramétrage et de contrôle de l’objet connecté.
5. La cinquième, souvent oubliée est l’utilisateur,qui peut oublier de changer le mot de passe initial,négliger de mettre à l’abri ses objets connectés des convoitises…
Aujourd’hui,dans la plupart des cas, c’est encore le Far West comme le montre le site web Shodan qui répertorie ainsi un nombre gigantesque d’objets connectés non sécurisés auxquels on peut se connecter directement par le Web et collecter les données à l’insu de l’utilisateur.
Les hackers peuvent donc facilement utiliser toutes les vulnérabilités précisées avant.
La manière la plus simple est similaire au spam, en attaquant une très grande quantité d’objets connectés. Un certain nombre seront non sécurisés,et permettent non seulement de collecter des données ou de modifier leur comportement mais aussi de diffuser des ransomware qui auraient un impact bien plus critiques que le cryptage de données.La mise hors service d’un véhicule connecté,la désactivation d’un système d’alarme combinée à un cambriolage voire le risque létale sur des objets comme des pacemakers,des dialyseurs… peuvent exercer une pression énorme auprès de victimes,s’ils ne paient pas immédiatement en Bitcoin une rançon élevée.
Une approche aussi particulièrement novatrice est l’utilisation de drones programmés pour quadriller un quartier résidentiel avec un sniffer en wifi et Bluetooth, qui permet de détecter rapidement les maisons ayant des serrures connectées mal sécurisées et d’y associer des personnes mal intentionnées.
Tout d'abord il y a des recommandations simples telles que ne capturer que les informations dont on a besoin, les traiter localement plutôt que de les transmettre sur Internet, transmettre des infos que sur des périodes très courtes, plutôt que de laisser ouvert le bluetooth le wifi par exemple, ne pas stocker de données critiques complètes localement et notamment des informations nominatives comme l’adresse, l’ identité, les numéros de carte de crédit…
L’information peut notamment être décomposée en deux une locale et une à distance tant que cela ne bloque pas l’usage local.
L’objet connecté doit non seulement être capable d’agir localement sans connexion internet mais aussi capable de rejeter des ordres incohérents (ex doubler la dose d’insuline) .
Le privacy by design comme l’illustre la caméra de surveillance Myfox dont le clapet se ferme automatiquement quand on rentre dans la maison et s'ouvre quand on sort afin de ne capter que les informations en cas d’intrusion.
Pour aller plus loin, un audit de la sécurité de la chaîne complète du flux de données pour identifier l’ensemble des vulnérabilités est essentiel pour bien comprendre les risques et les solutions à mettre en place.
Ensuite, c’est un choix stratégique à réaliser entre le coût de sécuriser, le risque d’être hacké sur cette vulnérabilité et l’impact si cela arrive pour l’utilisateur final et l’entreprise. Le FMEA (Failure mode and effects analysis) est un bon outil pour analyser ces risques.
Dans certains cas, il peut être même préférable de supprimer certaines fonctionnalités en raison des risques potentiels ou des coûts
Dernier point, il est aussi essentiel d’éduquer ses clients, qu’ils comprennent les limites de la sécurisation afin d’éviter qu’ils se reposent entièrement sur l’objet connecté même si à court terme. Cela peut paraître peu vendeur, mais la confiance à long terme est à ce prix.
La sécurité dans l’IoT devient une question centrale, car elle a un impact qui va au-delà de l’objet et de l’utilisateur, c’est l’ effet tâche d’huile.
Pour donner un exemple, une entreprise qui mettrait sur le marché un objet connecté insuffisamment sécurisé pourrait perdre sa crédibilité sur la qualité de tous ses produits connectés ou pas et pourrait fortement ternir l’image de l’entreprise, comme l'illustre l'exemple de Hello Barbie qui a été hacké permettant aux hackeurs d'entendre les conversations des filles jouant avec leur poupée ou toute conversation aux alentours.
En particulier, une entreprise établie doit être particulièrement attentive à diagnostiquer la sécurité de bout en bout si elle rachète une startup fabricant des objets connectés.
D’autre part, nous assisterons comme pour Internet, à la fois à une standardisation de la sécurité pour l’IoT et donc une réduction des coûts mais aussi à un perfectionnement des attaques.
C’est une course inévitable à laquelle il est nécessaire de participer en sécurisant de mieux en mieux ses produits.
Néanmoins il faut garder à l’esprit qu’il ne faut pas que la sécurité tue le produit en terme de coûts ou d’expérience utilisateur.
Des solutions et principes simples, un design bien conçu en amont intégrant la sécurité permettent de réduire nettement la facture s’ils sont bien challengés par un audit de sécurité.
Dimitri Carbonnelle, Fondateur de Livosphere - Expert en IoT et technologies innovantes
C'est la première fois que j'écris ici un article en dehors des startups, objets connectés, stratégie d'innovations, mais au-delà du témoignage, je souhaitais ici aborder un autre point l'innovation politique qui peut devenir un formidable levier pour toutes les autres innovations et faire évoluer notre monde face aux très nombreux bouleversements qui font face à nous dans les prochaines années.
En quelques mots, il propose de changer de paradigme, l'Etat "empower", donne du pouvoir aux individus d'agir à sa place, il devient facilitateur, et "cadreur", plutôt que l'empêcheur de tourner en rond avec des normes, lois, prés carrés, dogmatismes qui nous empêchent de changer quoi que ce soit. Il a pour rôle de donner le pouvoir à chacun de résoudre de manière adaptée ses problèmes en fixant un cadre stable et sûr, et non comme aujourd'hui pour rôle de vouloir régler vos problèmes à votre place sans les connaître en appliquant des solutions standards et éculées et qui, au final, coûte énormément et gaspille temps, argent et ressources aujourd'hui tous trois très limités.
Quand on lit les premiers retours de la presse de ce matin, on voit des titres comme "Emmanuel Macron entretient le flou sur le contenu de ses propositions" (Le Monde 12/10), "Cela ne fait pas encore un programme" (Le Figaro 12/10).
Je ne vais pas rentrer sur ces débats mais un travers que l'on a est souvent de juger des solutions sans connaître le problème. Proposer de créer une usine à gaz pour tuer une mouche est une habitude politique française qui faisait illusion, il y a quelque temps mais qui ne fait plus du tout recette aujourd'hui et même pire qui effraie car cela implique des coûts, des gaspillages, des impôts additionnels pour des résultats souvent nuls voire catastrophiques.
Elle se décompose en quatre principes de bon sens, (qu'on retrouve dans des méthodologies comme Six Sigma - DMAIC - Define Measure Analyze Improve and Control , j'étais Master Black Belt chez General Electric ;) ou PDCA (Plan Do Check Act - roue de Deming)
2. Mesurer et analyser le problème - C'est l'objet de trois meetings mais en particulier du Mans : le Diagnostic
3) Améliorer - Pistes de réflexion - Démarche: J'apporte des solutions différenciées à chaque problème au lieu d'une réponse unique à tous les problèmes
La fête est finie, ce n'est plus possible, nous n'avons plus les moyens de continuer à agir ainsi mais la politique et les politiciens dans la majorité des cas ont gardé le même OS (système d'exploitation), ils sont sous MS-Dos ( qui date de 1981 !) alors que nous sommes à l'heure du smartphone et des objets connectés. Ils gardent les mêmes réflexes d'il y a vingt ou trente ans et il faut les comprendre c'est difficile de changer d'OS cérébral quand cela fait entre 20 et 40 ans qu'on est dans la politique et que cela a toujours fonctionné de la même manière et pour eux, plutôt bien fonctionné.
La seule solution est d'adapter les solutions aux problèmes ce qui évite des dépenses inutiles. Le problème est que l'Etat n'a pas la capacité de résoudre lui-même chaque problème avec une solution adaptée. Compte tenu de tous les cas particuliers, il faudrait des règles infinies, une administration beaucoup plus pléthorique pour des résultats ridicules car en plus les cas particuliers évolueraient tout le temps.
La seule solution est que ce soit les acteurs sur le terrain qui connaissent le problème qui résolvent le problème. L'Etat n'a alors plus le même rôle, au lieu de donner des règles inflexibles, il donne un cadre, au lieu d'obliger les acteurs à se conformer à des lignes de budget rigides, il doit donner une enveloppe avec des objectifs clairs. Il ne doit plus contraindre mais encourager les initiatives, donner les moyens aux acteurs d'agir plutôt qu'agir à leur place. Il ne doit plus supprimer les libertés de chacun pour assurer une sécurité digne d'un Etat policier mais donner les moyens à chacun d'avoir la possibilité de choisir sa vie, de lui donner du sens et de partager avec les autres.
La répression totale sans discernement qui est une tendance dangereuse et préconisée par de plus en plus de politiques (en France, aux Etats-Unis et ailleurs) est un pis-aller alors que favoriser le développement de la coopération entre individus, entreprises, acteurs publics ... en leur donnant les moyens, la liberté de coopérer, en permettant que les meilleures initiatives se propagent sans avoir le couperet de l'Etat tuant dans l'oeuf toutes les bonnes initiatives dès lors qu'elles ne rentrent pas dans le rang est une voie qui nous permettra de pouvoir mieux surmonter les nombreux obstacles face à nous (climat, terrorisme, raréfaction des ressources, migrations...). Cela signifie que l'Etat sache accepter de lâcher son pouvoir central colbertiste et avoir confiance dans les acteurs locaux et leur donner le pouvoir d'agir.
La régionalisation notamment va dans ce sens, mais les "pistes de réflexion" d'Emmanuel Macron vont toutes dans ce sens, plus de flexibilité donnée aux enseignants pour l'Education plutôt qu'un programme rigide dressé par le Ministère de l'Education Nationale, des accords entreprises plutôt que des accords nationaux inflexibles, des associations entre médecins et hôpitaux dans des zones rurales plutôt que des combats corporatistes et nationaux entre hôpitaux et ordre des médecins ...
Pour l'individu, le message derrière Choisir plutôt que Subir, c'est de donner à tous la capacité de choisir dans leur éducation, leur travail, leur santé. Après soit ils choisissent de faire des efforts et sont récompensés, soit ils choisissent de ne pas en faire mais c'est leur responsabilité et non plus celle de l'Etat (hormis un filet de sécurité pour les plus démunis ou sur des périodes transitoires le temps de rebondir). Car aujourd'hui, nous sommes dans un monde où pour beaucoup de personnes, quel que soit ses efforts, on reste à la même place en fonction de là où on est né, de ses origines de son éducation.
Last but not least - Contrôler
Pour tous les acteurs publics, les régions, les administrations, les départements, les communes, ils devraient tous avoir leurs principaux indicateurs (enseignement, transport, criminalité ..) sur lesquels ils sont missionnés par leurs électeurs visibles en sur leur home page avec la possibilité de voir leur évolution dans le temps en intégrant le nom des élus et les dates auxquelles ils l'ont été afin de voir leur vrai impact.
Incididunt
Lorem ipsum dolor sit amet, consectetu.
Consectetur
Ut suscipit imperdiet Nisl, non vitae blandit.
Simsalabim
Ut suscipit imperdiet nisl hest tempor.
Name
Street
City/ZIP
Email: info@email.com
Telephone: XXXXX / XX XX XX
La première partie est une présentation de Nell Watson sur l'intelligence artificielle, qui a été à la Singularity University et qui y enseigne aujourd'hui.
Conférence audio disponible ici :
La deuxième partie est un panel que j'anime avec Alexandra Ruez d'IBM Watson, Julien Seret d'Aldebaran (créateur de Nao et de Pepper racheté par SoftBank), de Clodéric Mars de Craft.AI (IA en B2B) et Nell Watson. La panel est disponible sous format audio ici :
Avant de commencer le panel, j'ai fait une petite introduction sur l'intelligence artificielle qui couvre les principaux points que nous verrons lors du débat : Rôle de l'IA pour simplifier les usages, l'embarqué Vs le cloud, IA spécialisée Vs généraliste et évolution de l'IA qui risque plus de parler avec nos enfants que nous et donc vont jouer un rôle dans leur éducation...
Un petit duo initié avec Pepper, nous a permis de nous mettre en jambe !
Ces Barbies, robots, objets vont jouer un rôle dans l'éducation des enfants, sachant qu'il y a des dérives possibles comme ça a eu lieu avec le chatbot Tay de Microsoft.
Il a été confronté à des adolescents et des groupes de pression qui ont facilement réussi à le détourner et ce qu'il tweet des thèses conspirationnistes notamment .... cf. article dans Le Monde
L'arrivée de l'IA est inéluctable comme l'a été l'électricité, l'informatique, Internet, le smartphone auparavant. Pour éviter ces dérapages qui peuvent être dramatiques, peut-être faudra-t-il se mettre éduquer ses agents intelligents comme pour les enfants et les mettre à la crèche pour qu'ils fassent la différence entre le bien et le mal !
Mais comme l'a dit récemment Yann LeCun à la tête du labo d'intelligence artificielle de Facebook, avant d'avoir un IA capable de répondre de manière générale à toutes nos questions, il faudra encore du temps ...
Conférence complète est ici :
Dimitri Carbonnelle
Fondateur de Livosphere
Agence IoT, Internet of Things
Recherche de solutions innovantes et startups (conseil, accompagnement dans la conception et le déploiement de votre stratégie Internet des Objets, transformation digitale) et Conférencier
Le CES Las Vegas est passé il y a deux mois et le MWC s’est achevé récemment. C’est ici l’occasion de présenter les principaux produits et évolutions que j'ai remarqués dans ces deux salons.
En bref, concernant le CES, j’ai vu l’évolution des startups et l’arrivée de grands groupes qui adoptent soit des stratégies de startups (notamment le prototype fonctionnel présenté au CES à l’image d’Eram et La Poste) soit les accueillent (La Poste et Engie). Les startups ont mûries, les plus anciennes Withings, Netatmo, Parrot sont « plus sages » et commencent à être rejointes par de nouvelles (Giroptic, Hexo+) dont certaines tout juste sorties d’Eurêka Park (Lima).
Enfin, les tendances de fonds au CES sont
MWC - Mobile World Congress Barcelone
S’agissant souvent de technologies sous-jacentes au mobile et objets connectés, le MWC est moins spectaculaire (hormis les smartphones) que le CES en revanche, il permet d’anticiper sur les technologies qui seront largement répandues dans les prochaines années au CES et dans les produits.
Pour le MWC, les principales tendances que j’ai identifiées sont :
Quelques autres points :
La France était particulièrement bien représentée avec ses start-ups qui représentaient près de 30 % des start-ups (128 dans l’Eurêka Park contre 32 % pour les Américains).
Il y avait de très nombreuses nouvelles start-ups donc Sensorwake, un réveil olfactif, Romy (machine capable de concevoir des crèmes personnalisées en fonction de ses habitudes… et données remontées par les objets connectés de l'utilisatrice (montre et bracelet connecté, par exemple), B-sensory (sextoy connecté à des lectures érotiques), 10-Vins ( machine permettant de carafer le vin en quelques minutes), Oliba (tracker pour ne pas perdre le doudou), Bubbles ( Bulles de rechargement intégrant des beacons en B2B mais aussi en B2C avec le PSG notamment)
Le nouveau modèle économique : le consommable
La plupart des startups ont tiré la leçon de l’un des affres liés aux objets connectés, leur modèle économique.
L’effet ciseaux peut être fatal entre la baisse des prix des produits et la hausse des coûts des services liés aux objets connectés (support, hébergement, sécurisation…) qui ne peut être compensé par des ventes de services qu’un nombre marginal de consommateurs sont prêts à payer. La seule solution en B2C (hors B2B comme marque blanche, OEM, co-branding..) est la vente de consommables qui a été la vache à lait de fabricants comme HP pour les imprimantes ou Nespresso.
Sensorwake vend des capsules de parfum créées par Givaudan, société suisse, leader mondial de l’industrie de la parfumerie et des arômes, 10-Vins vend des flacons de vin spécifiques à D-Vine (la machine) et authentifiés par NFC (un flacon par verre), Romy vend ses dosettes de cosmétiques, B-Sensory vend les livres électroniques. Bubbles a lui un modèle économique fondé sur le B2B soit la location à des CHR Cafés Hotels Restaurants, magasins soit des partenariats avec des marques qui peuvent proposer leurs produits via des notifications push (ex : produits L’Oréal chez des coiffeurs ou des produits licenciés du PSG pour des Bubbles vendus au grand public), Breazit devenu Lumière pour le diffuseur connecté d’huiles essentielles.
Prynt (Polaroid pour smartphones) et encore avant Kolibree (avec ses brossettes) avaient initié le mouvement (cf debrief du CES 2015)
Les startups deviennent des scale-ups.
L’Eurêka Park, Mecque de l’innovation n’accueille les startups normalement que deux ans de suite ce qui présente un double intérêt : un prix pour un stand nu d’environ 1000 USD et la certitude d’avoir tous les médias, politiques, distributeurs passer près de votre stand.
L'année d'après il est possible d'aller à l’Eureka Park Next, plus cher environ 6000 USD mais moins couru (Holî y était après quelques années sur Eurêka Park ;)
Le grand saut, ce sont les autres Halls, pour beaucoup South Hall où sont notamment les Parrot, Withings, Netatmo et consorts … Giroptic (Caméra 360¨) et Hexo+ (drone suiveur avec caméra) étaient déjà en dehors de l’Eurêka Park l’année dernière. En revanche, c'était une première pour Lima (NAS / stockage de données) et le coût supérieur (10 000 USD pour le stand nu aux alentours de 30 000 USD pour l’installation …)
L’année prochaine ce sera très intéressant de voir les startups françaises qui ont réussi à rentrer dans le grand bain sachant qu’en 2014, il y avait une trentaine de startups de la FrenchTech à Eurêka Park, en 2015, 67 et 128 en 2016.
En reprenant le debrief que j’avais fait du CES 2014, j’ai retrouvé parmi les nouvelles startups Kolibree (brosse à dents), Mother de Sen.se (racheté), Medissimo (chez La Poste) dans les grands halls du CES 2016.
Ceux qui n’étaient pas au CES sont Okidokeys (racheté par Somfy), Cityzen Science, ISKN (stylo), Meg (pot de fleurs), BodyCap (thermomètre sous forme de pilule à ingérer). Signée (boîte aux lettres connectée) n’était pas lui à Eurêka.
Il y aura certainement un gros taux de chute l’année prochaine ce qui est normal pour des startups mais aussi beaucoup de scale-ups.
Les Usual Suspects : Parrot, Withings, Netatmo (ci-contre photo des produits CES 2015)
Les Usual Suspects des objets connectés au CES sont Parrot, Withings et Netatmo et ils ont été nettement plus sages que l’année dernière
L’année dernière, les Withings et Netatmo avaient fait feu de tout bois en matière d’innovation en lançant chacun une caméra Home et Welcome en même temps que Myfox et Awox. Cela constituait une vraie rupture en ouvrant une nouvelle catégorie de produits pour eux sur un marché, il est vrai, en très forte croissance mais très concurrentiel (cf Nest Cam ex DropCam, Logitech, Xiaomi…). Withings a en plus lancé sa montre connectée Activité et Pop, aussi un nouveau marché pour Withings.
Pour Withings, cette course à l’innovation qui s’est traduite en multiplication de produits et catégorie de produits a dû représenter un vrai challenge. Cela s’est sans doute répercuté sur les produits qui ont eu pas mal de défauts de jeunesse (Aura, Pop et Home) et sur un risque de brouiller l’image de la marque centrée sur le bien-être et la santé et qui s’étend sur le « lifestyle » avec sa montre Activité et la sécurité (caméra qui intégrait un capteur de CO2 …)
Netatmo créait aussi une nouvelle catégorie avec sa caméra Welcome en intégrant une fonction de reconnaissance faciale embarquée (et non dans le cloud).
Parrot l’année dernière lui avait lancé H2O, son pot de fleurs connecté (plus une version avec bouteille d’eau après son Flower Power du CES 2014) et ses mini-drones Bebop. (cf Article sur mes prédictions sur Parrot en 2016)
En 2016, restons sages
Cette année, tout le monde a été plus sage. Netatmo a décliné sa caméra intérieure en une version extérieure capable de reconnaître si un animal, un véhicule ou une personne est passé devant. C’est une bonne extension de gamme tout en gardant une cohérence dans les produits (avec la reconnaissance visuelle)
Withings revient à ses premières amours le bien-être et la santé avec des produits nettement plus simples que les années précédentes : un thermomètre connecté et un tracker d'activité utilisant l(e-Ink pour accroître fortement l’autonomie.
Parrot a lui choisi de développer Disco, une aile volante, première du genre mais dans la continuité de ses drones (avec des sensations différentes comme un planeur versus un hélicoptère).
Même si Mother de Sen.se n’est au CES que depuis 2 ans et a été racheté, de par sa figure emblématique, Rafi, il est intéressant de voir son évolution.
J’avais été très sceptique sur le succès de Mother à son lancement où je disais que vendre Mother était un peu comme vouloir grimper l’Annapurna par la face Nord et que Rafi était le Michel Herzog des objets connectés (ce qui rétrospectivement a du vrai) (cf CES 2014). Il est très difficile de vendre un produit générique quand un marché commence à décoller. C‘est un peu comme vendre un couteau-suisse à quelqu’un qui n’a jamais vu de couteaux et de miser sur le fait que le marché des couteaux suisses dépassera celui des couteaux normaux.
Cette année, Sen.se a fait deux pivots majeurs, il a créé des Peanuts (ex Motion cookies en couleur) spécifiques à des usages et il a permis d’utiliser le Peanut sans passer par la Mother (communication en 868 Mhz propriétaire avant, remplacé sur le Peanut par une connexion Bluetooth).
Il a aussi créé une catégorie d’usages pour les seniors avec la Silver Mother. Je devine que la prochaine version intégrera du Sigfox pour se débarrasser complètement du fil à la patte du smartphone afin de savoir si Mamie a bien pris ses médicaments sans qu’elle ait nécessairement le Bluetooth activé sur son iPhone 6s ou Samsung G7 !
On verra si cela sera suffisant pour attirer les clients...
Les grands groupes et marques
Accueil des startups
De nombreux groupes et marques ont fait leur premier pas au CES avec différentes stratégies.
Au préalable, saluons La Poste qui était déjà fortement présente l’année dernière et a fait coup double en présentant Domino, son premier objet connecté et en invitant startups ( dont Medissimo, Netwyse Labs avec le Gablys, Sensing Labs…) et groupes (Atol, Malakoff Médéric, Legrand) et en créant des scénarios et applications combinant les différentes solutions de chaque entreprise via son Hub domotique.
En plus de leurs solutions, Engie accueillait aussi de nombreuses start-ups (installé à l'Eurêka Park ! ce qui était assez inhabituel),
Dassault Systèmes a fait son premier CES ainsi que Airbus qui, vu son stand ressemble à une jeune startup inexpérimentée qui n'a pas réussie à se caser à Eurêka Park (c'est une des divisions allemande qui y était).
Legrand n'avait aucun stand mais était une peu partout (La Poste, Zigbee Alliance...),
Les partenariats grands groupes et startups
Engie a aussi développé une stratégie de partenariat avec Netatmo. Il distribue son thermostat connecté mais a développé un thermostat propre (qui a gagné un Award) et qui ressemble très fortement à celui de Netatmo (forme, e-ink, taille...)
Domino Pizza a aussi fait son bouton connecté par Flic qui permet d’acheter sa Pizza directement.
C'est une tendance de plus en plus forte que les partenariats entre grands groupes et startups qui généralement se font à trois niveaux :
C'est une vraie opportunité pour les startups d'objets connectés car elles peuvent s'appuyer sur un partenaire qui a déjà des clients et qui cherche à travailler avec des startups pour commencer à se transformer et intégrer la vague digitale.
Parmi Parrot, Netatmo et Withings, seul Withings a très peu utilisé ce levier B2B. Parrot l'a fait dès son origine depuis longtemps dans sur le marché OEM de l'automobile et se développe de plus en plus en B2B avec ses drones, sur des secteurs comme l'agriculture (cf article sur Prédictions 2016 pour Parrot). Netatmo en plus de son partenariat avec Engie, s'est aussi associé avec EDF (filiale Luminus en Belgique, filiale Cham, spécialisée dans la maintenance des chaudières gaz ou fioul), a Legrand parmi ses investisseurs.
Withings a fait une "opération commerciale" avec Axa, il propose aussi aux entreprises d'utiliser leur Pulse pour faire des challenges intra-entreprise pour stimuler l'activité de leurs employés, travaille avec des hôpitaux français (comme Georges Pompidou) et étrangers et réalise des projets de recherche avec eux.
A ma connaissance, Withings a pris le parti de ni faire de marque blanche ou co-branding ni de faire de partenariat industriel ou commercial avec un acteur.
Selon moi, il y a deux opportunités que Withings auraient pu poursuivre,
Nous verrons dans les mois et années prochaines pour voir comment le modèle économique de Withings évolue car aujourd'hui il est bâti sur la vente en B2C de produits alors que
En revanche, il ne faut pas oublier que la priorité de Withings n'est pas le marché français qui doit représenter moins de 15% de leur CA, mais les Etats-Unis sur lesquels ils ont un fort potentiel de croissance.
Les grands groupes deviennent de plus en plus "Startup-friendly". Elles acceptent que les startups puissent collaborer avec leurs concurrents voire les y incitent (sinon cela réduirait d'autant leur marché).
Swarovski et Misfit
Néanmoins, la collaboration qui m’a le plus frappé est entre Swarovski et Misfit.
Ils ont crée ensemble un capteur d'activité sans batterie et avec une surface tactile qui a une autonomie d’une journée après être exposé à de lumière artificielle pendant 5 minutes. Le métier de base de Swarovski est de couper du cristal avec une extrême précision.
Grâce à son expertise, il a été capable non seulement faire un bijou, capteur d’activité à base de cristal, mais surtout de couper un cristal qui quel que soit son orientation est capable de concentrer la lumière reçue sur le cristal sur un point où est situé une cellule photovoltaïque qui génère l’énergie nécessaire au capteur. Misfit fournit la partie électronique.
Enfin, petit souvenir, voici un dernier usage qui rappellera à certains les prestations musicales de Jean-Michel Jarre il y a quelques années mais pour un prix nettement inférieur ;) ainsi que le premier instrument électronique datant de 1919 par Léon Theremin (inventeur aussi du système d'écoute Bourane, (précurseur du micro espion laser). |
Grandes Marques - Prototypes et Services
Les marques ont aussi compris que l’intérêt du CES était celui de tester des prototypes qui peuvent ensuite être déployés durant l'année.
Les avantages sont multiples, cela permet de tester l’appétence des clients, distributeurs sur un produit sans nécessiter à ce stade de l’industrialiser. C’est aussi un très fort vecteur de communication en externe et en interne en matière d’innovation.
Les deux exemples majeurs sont Domino, le bouton connecté de la Poste et Eram, la chaussure multicolore connectée. Il est encore en phase de prototype (le prototype est fonctionnel avec une application pour les clients et les facteurs. Il est connecté en Sigfox (avec une antenne (base station) dédiée pour le CES !). Il devrait être testé avant juin. Coup de chapeau à Pierre, son designer, il a réussi le tour de force de garder le logo de la Poste ovale plutôt que de le rendre rond. La pression du doigt n'est pas également répartie sur une surface ovale ce qui crée à la longue des contraintes fortes qui peuvent déchirer l’enveloppe du bouton.
Eram lui a présenté ses chaussures connectées capables de changer la couleur directement en pointant son smartphone vers la couleur de son choix pour qu’elle s'applique instantanément sur la chaussure. Ce n'est qu'un prototype néanmoins cela permet à Eram de tester le concept de créer un nouveau lien avec les distributeurs, de se faire connaître des medias et grand public dans le domaine de l'innovation et de développer un vrai produit répondant à des nouvelles attentes de ses clients après avoir bénéficié de toute l’expérience liée à la conception du produit …
Stabilo, situé dans la zone allemande d’Eurêka a aussi créé un stylo connecté avec la reconnaissance de caractères. Il était entraîné malheureusement sur deux, trois écritures. Orée design, connue pour ses objets de bureau en bois a aussi créé un stylo connecté. Il ne possède pas d’OCR mais semble avoir plus de chances d’être commercialisé que celui de Stabilo.
Les grandes marques et les services
Enfin les grands groupes ont mis en avant les services qu'il pouvait apporter au-delà de leurs produits. Terraillon présentait sa solution de coaching avec un nutritionniste pour 150€ pour 3 mois. Visiomed avec sa marque Bewell lui a mis en place, à la suite de son rachat de M.I.S., spécialisé en intelligence artificielle dans le diagnostic médical, un « Virtual Doctor » capable d’établir un pré-diagnostic médical. Vous trouverez plus d’informations à ce sujet dans l’article suivant dans le cadre de l’émission sur la santé et les objets connectés sur France Culture.
Philips a lui proposé à la fois des services, de la vente de consommables et présenté des partenariats avec des start-ups. Il propose une solution complète d’hygiène buccale. Il intègre en marque blanche, le Breathometer pour détecter la mauvaise haleine, une brosse à dents connectée avec un racleur de langue. Philips vend même des flacons de solution liquide sous sa marque pour aseptiser votre bouche !
Créer plutôt que copier le design
En revanche, il y a un point que Visiomed / BeWell aurait pu éviter c'est de copier autant la balance Withings (les deux premières). A l'exception de la couleur, il y a de très fortes ressemblances entre les deux (cercle central, croix, localisation du logo).
Tant qu'à faire Bewell a plus intérêt à créer son propre design (troisième balance par exemple) plutôt que reprendre celui d'un concurrent.
Spalding, le basket connecté
Dans un domaine très différent, Spalding, fabt de ballons de basket a intégré une multitude de capteurs dans les chaussures, le ballon, le terrain pour fournir une vision complète et fournir les conseils adéquats.
Les startups doivent d’ailleurs faire très attention car les grandes marques se positionnent beaucoup plus sur les services et des solutions complètes qui prennent en main un problème (surpoids, mauvaise haleine…) plutôt que sur un produit.
En revanche, une startup peut choisir de s’associer avec elles pour devenir un levier de développement. |
Grandes tendances : Interfaces naturelles : reconnaissance vocale, visuelle et intelligence artificielle
Les grandes tendances du CES confirmées par le MWC (Mobile World Congress à Barcelone) sont la reconnaissance vocale, visuelle et l’intelligence artificielle
Des startups comme des grands groupes utilisent la reconnaissance vocale qui permet avantageusement de remplacer pour un coût bien moindre qu'un écran et le lien avec un smartphone et ouvre une palette d’interactions bien plus grandes et naturelles qu’un écran.
Le réveil Bonjour d’Holî est commandable à distance comme le réfrigérateur de Samsung (utilisant Nuance). Amazon est présent partout avec Alexa aujourd'hui disponible aux États-Unis.
Intégré dans Triby d’Invoxia, il permet de créer très facilement sa liste de courses comme le montre la vidéo et évidemment ce n’est pas anodin, c’est même un cheval de Troie qu’Amazon offre gratuitement. Ford l’a aussi intégré dans ses véhicules en combinaison avec Nest. |
La reconnaissance gestuelle se développe aussi.
La télécommande Smart Remote de Seven Hugs est contextuelle en fonction du lieu et de la direction vers où on la dirige.
Bixit devient un accessoire à reconnaissance gestuelle grâce à une bonne de 4 capteurs de STM.
Awox utilise aussi le geste pour commander ses ampoules. Dans le domaine de la réalité virtuelle, 3DRudder permet de se déplacer dans un environnement virtuel en ayant les mains libres.
Enfin Delphi détecte le mouvement des yeux pour sélectionner les menus dans la voiture.
Enfin, petit souvenir, voici un dernier usage qui rappellera à certains les prestations musicales de Jean-Michel Jarre il y a quelques années mais pour un prix nettement inférieur ;) ainsi que le premier instrument électronique datant de 1919 par Léon Theremin (inventeur aussi du système d'écoute Bourane, (précurseur du micro espion laser). |
Pour le plaisir : Oxygen avec un Thérémine, petit concert de Mozart et un Thérémine géant à Melbourne.
Reconnaissance visuelle
La reconnaissance visuelle a fait l’apparition l'année dernière avec la caméra Welcome de Netatmo qui identifie une quinzaine de visages et déclinées avec sa version extérieure les véhicules les animaux les personnes.
La solution d’Aipoly permet d'identifier les différents types d'objets comme un nounours, un billet de banque … SmartMeUp, présent l’année dernière permet d’identifier les émotions, le sexe, l'âge approximatif. Au MWC, cette technologie s’est largement répandue parmi les entreprises et permet à un annonceur de qualifier les types de personnes intéressées par leur publicité en fonction de leurs expressions, de leur âge, sexe …. et ainsi de mieux cibler leurs publicités notamment dans pour l'affichage en extérieur (abribus, métro…).
Intel Realsense qui intègre une caméra HD 1080p, une caméra infrarouge et un projecteur laser infrarouge permet de détecter la profondeur et suivre les mouvements. Il est ainsi capable de scanner un objet ou votre visage en 3D et de le replacer comme le montrait le stand d’Intel (mis en œuvre par une startup française Uraniom). Petite digression, Intel préfère l’androgyne à la feuille de vigne. ;)
Panasonic présentait une version améliorée de son miroir connecté et Homido montrait ses binocles VR mini- « lunettes VR » .
Intelligence Artificielle
L'intelligence artificielle en dehors de son application dans la reconnaissance visuelle et vocale commence à faire ses premiers pas mais devrait être largement présent au prochain CES. Les objets connectés deviennent smart ou « intelligents ». Ils apprennent à s’adapter au contexte, à nos habitudes pour proposer les meilleures solutions.
Craft.ai présent sur le stand de La Poste se veut notamment devenir un des moteurs d’intelligence artificielle dans l’Internet des Objets.
Des objets connectés comme Ween, thermostat connecté, qui se programme automatiquement sans nécessiter votre intervention et en apprenant sur vos comportements. Ubiant lui présentait sa plateforme cloud Hemis construite sur de l’intelligence artificielle en associant trois objets connectés : le Luminion communautaire, le Room Manager multi-facteurs, et l’Eco Thermostat.
Les plus gros développements en intelligence artificielle ont lieu dans le domaine de la voiture autonome comme l'a montré Toyota avec son démonstrateur où des mini-véhicules apprennent à s’éviter au fur et à mesure.
Enfin, petit souvenir, voici un dernier usage qui rappellera à certains les prestations musicales de Jean-Michel Jarre il y a quelques années mais pour un prix nettement inférieur ;) ainsi que le premier instrument électronique datant de 1919 par Léon Theremin (inventeur aussi du système d'écoute Bourane, (précurseur du micro espion laser). |
Très récemment, Dji l’a intégré commercialement sur son DJI Phantom 4 qui offre trois solutions : Obstacle Avoidance, ActiveTrack et TapFly, qui évite les obstacles, suit un sujet en mouvement (sans capteur ou smartphone sur l’objet en question) ou permet de programmer une destination en évitant les obstacles.
Vidéo
Embarqué ou Cloud (déporté)
Comme on le voit dans ce dernier exemple, se pose la question d’embarquer ou non l’intelligence artificielle, la reconnaissance vocale…
Il est évidemment plus simple qu’un serveur à distance concentre la puissance de calcul mais rapidement on voit les limites d’une solution fondée exclusivement sur des plateformes Internet.
Que se passe-t-il si on perd la connexion ou la connexion est mauvaise ? Acceptera-t-on de transmettre des flux vidéos bruts ou juste des informations anonymisées sur Internet indiquant si la personne en face de la caméra est un homme, une femme, sourit ou pas…
La 5G réduira fortement le délai de latence mais cela ne suffit pas pour justifier d’abandonner les calculs embarqués, c’est d’ailleurs l’option choisie par Netatmo. En revanche, il est bien sûr judicieux de transmettre certaines données sur une plateforme centralisatrice sur Internet notamment pour accélérer la courbe d’apprentissage et mettre à jour régulièrement le firmware embarqué du produit.
SmartMeUp lui propose d'ailleurs une solution à la fois embarquée et sur plateforme, ce qui montre bien qu'il y a une complémentarité
Modularité
Il y a d’autres tendances comme le produit qui se modularise. Cela permet de le rendre évolutif, de le réparer plus facilement si une pièce ne fonctionne plus.
Le projet Ara de Google présentait le concept de smartphone modulable, Nexpaq propose la coque modulaire avec une quantité d’accessoires : un flash, un laser, des touches de raccourcis, une batterie de 400 mAh, un lecteur de cartes SD, un éthylomètre, un haut-parleur, un combo thermomètre/hygromètre, un analyseur de qualité d'air et 32 Go de mémoire flash (avec et sans port USB).
La modularité permet aussi de faciliter la vente de consommables en séparant l’électronique chère et le consommable, par exemple ici la pile connectée Roost, ou la table de DJ modulable, Aria wearable qui est un bracelet modulaire (avec des capteurs, batterie additionnelle, cameras…), Petrone, jouet qui ressemble très fortement au Jumping Sumo de Parrot et peut se transformer en mini-drone.
Au MWC, LG montrait avec son LG G5 un premier niveau de modularité qui permet d’ajouter une batterie additionnelle, une CAM Plus qui prend la forme d'un grip permettant de mieux tenir le smartphone en mains pour prendre des photos, un module audio haut de gamme, le Hi-Fi Plus B&O Play … qui seront complétés par d’autres.
L’intérêt est aussi évident sur le plan économique, on garde de plus en plus longtemps son smartphone alors entre chaque renouvellement, pourquoi ne pas inciter ses utilisateurs à acheter des extensions, modules… pour un prix nettement inférieur (100€ au lieu de 700€ pour le smartphone), en plus les marges sont nettement supérieures pour ces accessoires !
Cette tendance va certainement se renforcer pour les objets connectés qui ainsi vont pouvoir avoir un modèle économique plus proche du modèle récurrent.
Robots et les objets robotisés
Dernier point, les robots, il y avait un certain nombre, dont bien sûr Buddy de Blue Frog Robotics capable de vous suivre sans intervention d’un opérateur, le BB-8 de Sphero, des robots gadgets comme Grillbot qui nettoie votre grille de barbecue (indispensable aux Etats-Unis ;) présent aussi l'année dernière ou le robot qui déplace votre plante pour être ou pas à la lumière.
Le Tennibot, robot ramasseur de balle pourrait faire des malheureux parmi les jeunes licenciés de la FFT (Fédération Française de Tennis) qui ramassent les balles à Roland-Garros. Un signal faible intéressant est l’apparition des objets connectés robotisés : ils intègrent la robotique dans des objets beaucoup plus simples.
Le premier étant la serrure connectée comme Okidokeys racheté récemment par Somfy, ou le bouton pressoir Microbot qui se commande à distance. L'intérêt est de pouvoir agir sur des objets non connectés par l'intermédiaire d’un mini robot. Enfin, Cellrobot, mélange modularité et robot. |
Voiture connectée et autonome
S’il y a un produit qui concentre toutes ces tendances, c’est le véhicule connecté et/ou autonome, c’est aussi l’une des raisons pour laquelle les voitures ont été parmi les stars du salon car elles réunissaient toutes ces technologies.
Comme l’année dernière, il communique avec les autres environnements comme le montre Ford avec Alexa et Works with Nest, devient multi-OS et s'ouvre à des écosystèmes externes (Ford Sync, CarPlay et Android Auto). Elle se bardent de capteurs, et de Lidars (encore très chers aujourd’hui mais qui devraient fortement baisser de prix et donc se démocratiser ce qui réduira leur prix…). Elle intègre la reconnaissance gestuelle et vocale (avec Alexa, Nuance Mix). Il réunit une puissance de calcul phénoménale (150 MacBook sur son unique puce selon NVidia) pour pouvoir intégrer l’intelligence artificielle (embarqué et déportée sur Internet).
La voiture est robotisée non seulement en étant capable de stationner ou de conduire de manière autonome mais aussi comme BUDDe (concept car de VW) d’ouvrir automatiquement le coffre ou la porte à votre approche (utile si vous avez les bras remplis avec vos courses !)
La voiture commence à devenir modulaire comme le prétend Faraday Future. Son châssis et le nombre de batteries sont modulables en fonction du besoin d’énergie (s’appuie sur une plateforme baptisée VPA ,Variable plateform Architecture pourra aussi bien servir de base à des berlines, SUV, voire pick-up). Faraday Future, ovni comme l’a été Tesla, a été financée par un milliardaire chinois Jia Yueting, le fondateur de Leshi TV, un site de vidéo sur Internet, équivalent de Netflix en Chine.
Voiture connectée "oxymore technologique"
La modularité avec la mise à jour à distance est les deux solutions à cet « oxymore technologique » qu’est la voiture connectée et autonome. Le cycle de développement d’un véhicule est très long (de 3 à 8 ans selon les fonctions et évolutions par rapport au véhicule antérieur) comparé au cycle de développement d’un smartphone ( aujourd’hui moins d’un an) et même des besoins clients : instantané.
A l’image des ordinateurs et smartphones, mis à jour quotidiennement et même plus en temps réel, le software mais aussi le hardware du véhicule connecté doit pouvoir être mis à jour immédiatement pour le premier cas ou dans les quelques jours pour le deuxième, pour éviter les rappels massifs de véhicule, pour contrer les attaques de hackers via des patches software et hardware et proposer directement tous les derniers services à l’ensemble de ses clients et pas uniquement à ceux qui achètent un nouveau véhicule.
Tesla le fait aujourd’hui en faisant bénéficier une grande partie de ses clients de l’Auto-Pilot via une mise à jour software. Il a aussi mis à jour son logiciel pour piloter la suspension pour anticiper et s’adapter aux nids de poule en fonction de la localisation du véhicule (amortisseurs à air Bilstein, ajustables). C’est aussi par ce biais, que les constructeurs automobiles peuvent transformer leur modèle économique en développant beaucoup plus fortement l’aftermarket (forte marge mais CA proportionnellement faible aujourd’hui ) par rapport à la vente initiale de véhicules neufs (faible marge mais CA élevé).
Qualcomm l’a bien compris en proposant un module télécoms (appelé en interne Agave) et intégrant un modèle 3G et 4G/LTE, facile à interchanger. Il permettra au propriétaire d’un véhicule d’aujourd’hui de pouvoir bénéficier de la 5G sans devoir racheter un nouveau véhicule !
Aujourd’hui, Qualcomm propose cette solution aux équipementiers et aux constructeurs. C’est un changement majeur de paradigme car aujourd’hui, le constructeur ne voulait justement pas donner la possibilité à ses clients de faire évoluer son véhicule pour le contraindre à acheter une nouvelle voiture avec toutes les nouvelles technologies.
Cette position n’est aujourd’hui plus tenable
France Craft, une startup française illustre très bien ce profond changement de modèle. Je pense même que ce type de modèle va profondément bouleverser d’ici 4 à 8 ans l’industrie automobile.
Il commercialise un véhicule électrique ou hybride complètement modulaire et homologué pour la circulation. Le parti pris est un véhicule qui ne dépasse pas les 100 Km/h, personnalisable, évolutif et ainsi multi-usages.
Il est fondé sur un châssis que les clients peuvent compléter par des modules adaptés à leurs besoins mais peuvent même les créer ou les faire créer. Il est particulièrement adapté pour les professionnels qui peuvent avoir des modules dédiés à leur activité (utilitaire, taxi…). Pour réduire les nombreux intermédiaires, l’assemblage est réalisé par les garagistes qui reçoivent les pièces directement auprès des équipementiers. Ces pièces sont soit conçues, soit homologuées via France Craft.
France Craft va même plus loin en se présentant comme une plateforme industrielle, digitale et locale. Elle fournit un MdK (Mobility Development Kit) permettant à chacun de créer ses propres modules sur base d’un canevas afin qu’ils soient conformes à l’homologation M1 pour la circulation sur les routes et ensuite validés par France Craft.
Ces modules peuvent être utilisés à titre personnel mais aussi potentiellement peuvent être revendus à d’autres. Pour prendre un exemple, un boulanger, un opticien, un coiffeur technophile pourraient concevoir leur propre module pour vendre leurs produits et services et revendre leur module à d’autres commerçants (ou plutôt sa conception car il serait fabriqué par un industriel et assemblé par un garagiste afin de toucher des royalties sur ces ventes).
Energie
L’énergie était assez peu abordée au CES malgré son importance critique si nous voulons ne pas que nos placards deviennent des cimetières à objets connectés car nous ne souhaitons pas les recharger sans cesse. Quelques exceptions notables sont Hydrao, avec son pommeau de douche connecté (change de couleur pour inciter à réduire sa consommation) est alimenté en énergie grâce à sa dynamo utilisant le jet d’eau, ou Enerbee qui montrait un variateur sans piles utilisant aussi une dynamo.
Elle l’était plus au MWC, Booken présentait une housse qui recharge ses liseuses électroniques en partenariat avec SunPartner Technologies. Elle intègre un film transparent ayant des cellules photovoltaïques (avec la technologie Wysips) qui permet d’accroître l’autonomie des équipements. Ce film est aussi utilisable pour les cadrans des montres, écrans des smartphones…
Au MWC, AirFuel Alliance (180 membres) qui a réuni les consortiums Power Matters Alliance (PMA) et Alliance for Wireless Power (AW4P) ont uni leurs forces dans pour contrer QI de Wireless Power Consortium (WPC - 221 membres). Pour la petite histoire, plus de 40% des membres de chaque consortium appartient aux deux consortiums dont Qualcomm, Microsoft, Samsung, LG...
Les plus gros étant uniquement dans QI Power sont Nokia, Hitachi, Dell, les plus gros étant uniquement dans AirFuel sont Intel, HP, Duracell, Legrand, NTT DoCoMo. Il y a de fortes chances que une fusion entre les deux consortiums se réunissent cette annéee avec une tel nombre de membres communs.
L'impression 3D
L'impression 3D était aussi très présente. Cette année de nouvelle smatières, une vitesse plus rapide, une meilleur précision sont les avancées principales de cette année. Il y avait aussi une innovation très intéressante l'impression de circuits imprimés en 3D par une société israëlienn Nano Dimension qui permettrait de réduire fortement les cours de fabrication du PCB. La machine n'est pas pour toutes les bourses (> 200 k€) mais est vite rentabilisée pour celui qui a des volumes.
Quelques curiosités au CES
C’est peu connu en Occident, mais Samsung fabrique aussi des vêtements pour les marchés asiatiques (n'oublions que ce sont à l'origine un chaebol, conglomérat sud-coréen, à l'image des Keiretsu, ex- zaibatsu au Japon). Ils en ont profité pour intégrer de l’électronique dans leurs vêtements, un bouton NFC pour la veste et une ceinture connectée (concurrente de Belty d’Emiota).
D'ailleurs Carine d'Emiota ne laisse pas impressionner par eux :)
Une voiture oxymoron (enfin je l’espère)
(Audi e-tron)
La voiture quadropter volante en espérant qu’ils arrivent à trouver les autorisations !
L’étrange ressemblance des noms des protocoles Smart Home des frères ennemis LG (SmartThinq) et Samsung (SmartThings).
Une petite photo qui sera d'anthologie avec Olivier Ezratty et Rafi Haladjian (Papa du NAbaztag et Mother de Sen.se)
Comment LeTv utilise notre article préféré à toutes les sauces : LeCloud, LeMovie, LeSearch, LeSports, LeStore, LeCar … (le fondateur est celui qui a investi dans Faraday Future)
Le Camion de NXP qui présente les principaux produits où ses composants sont.
Quelques événements au CES :
Il y avait quelques événements au CES dont la très réussie soirée FrenchTech avec Emmanuel Macron (sans Axelle Lemaire qui allait accoucher quelques semaines plus tard) suivi de près par Martin du Petit Journal de Canal + sur tout son périple sur la côté Ouest
D’ailleurs, faites attention, le Petit Journal a fait un sujet sur le CES en épinglant une malheureuse startup (non française !) qui avait oublier qu’il faut toujours venir avec un prototype fonctionnel (cf vidéo « Behind the Scenes » que j’ai tourné de Martin, son caméraman et de la malheureuse victime du Petit Journal ) ! |
Il y a encore beaucoup d'autres nouveautés et innovations, mais cela donne un aperçu des grandes tendances du CES et d'innovations que j'ai complété avec des éléments du MWC Barcelone (Mobile World Congress).
Dans quelques jours, je compléterai par un nouvel article sur le MWC sera accessible qui inétgérera plus d'éléments sur la 5G, NB-IoT, NB-LTE, l'utilisation combinée des réseaux licenciés et non licenciés.
Dimitri Carbonnelle
Fondateur de Livosphere
Agence IoT, Transformation Digitale (conseil, accompagnement dans la conception et le déploiement de votre stratégie Internet des Objets, transformation digitale)
Le 29 janvier dernier, Alexis Normand (Withings), Virginie Fauvel (Kiwatch), Cédric Williamson (Kiwatch) et Dimitri Carbonnelle (Livosphere) avons participé à l'émission France Culture, Science Publique accessible en Podcast.
"Grâce au numérique et aux réseaux de téléphonie mobile, de plus en plus d’objets sont capables d’enregistrer des informations sur notre activité physique et notre santé (rythme cardiaque, alimentation, prise de médicaments…). Quel impact sur notre santé, notre bien-être et notre prime d'assurance ? "
L'article suivant complète cette émission abordant notamment les retours du CES Las Vegas sur la santé, le nouveau pouvoir acquis par les clients sur les marques grâce aux objets connectés et les risques du manque de sécurisation des objets connectés et la stratégie à adopter.
Assurance et objets connectés
Un des principaux thèmes de l'émission était l'utilisation des données de santé par les assureurs avec le risque d'une personnalisation forte des primes d'assurance en fonction du risque réel.
Cela pourrait être tentant pour certains assureurs de le faire mais tous les intervenants et en particulier Virginie Fauvel d'Allianz a clairement affirmé que c'était contre leurs intérêts d'individualiser le risque car cela remettrait en question leur modèle économique fondée sur la mutualisation du risque.
En effet si un assureur sait que vous avez de fortes chances d'avoir un accident, la prime d'assurance risque de dépasser le coût du sinistre ce qui ne présente aucun intérêt pour vous et pour lui. Inversement, si vous avez de très faibles chances d'avoir un accident, vous serez moins susceptible de prendre une assurance. Au final, des objets connectés qui permettraient d'avoir une forte certitude sur la survenance ou la non-survenance d'un risque est une menace sur le modèle économique actuel des assureurs .
C'est ce qui s'est passé pour l'assurance vol de véhicule dont le marché a fortement reculé en raison de toutes les mesures poussées par les assureurs pour réduire ce risque et de leur connaissance des véhicules et contextes d'utilisation où le risque de vol est très élevé (et ce qui n'incite pas le propriétaire à s'assurer contre le vol vu le montant de la prime).
Comment cela se traduit pour les assureurs ?
Leur modèle économique devrait basculer de la collecte de primes d'assurance à la collecte de primes de prévention.
La prime à la prévention du risque se substituera en très grande majorité à la prime d'assurance qui sert à couvrir les coûts en cas d'accident ou de maladie en raison du risque et du coût de sinistre de plus en plus réduit. Le rôle des assureurs ne sera plus tant de couvrir un risque mais surtout d’éviter qu'il arrive (cf. article le monde). Les assureurs utiliseront donc les objets connectés pour réduire ce risque et le coût des sinistres.
Il est vrai que cela peut poser question sur l'ingérence des assureurs dans notre vie privée. Les objets connectés associés à de l’analyse de données ou « Big Data » permettent d’avoir une analyse très fine et en temps réel des comportements à risque. Un comportement risqué ou qu’un utilisateur refusera de faire monitorer (et donc suspect d’être à risques) risque très fortement d'être pénalisé par une prime d'assurance accrue.
Le lancement de l'assurance Youdrive par AXA qui utilise un objet connecté branché sur la prise OBD de la voiture permet d'identifier les accélérations et le comportement de conduite et ainsi permet de moduler la prime d'assurance en fonction du comportement du conducteur.
L’aspect très positif est que cela réduit fortement les accidents et aide les conducteurs à être responsabilisé sur les risques, de l’autre côté, cela normalise les comportements et réduit l’envie de prendre des risques, de prendre des initiatives si elle ne rentre pas dans le cadre défini par les assureurs.
Dans le domaine de la voiture, cela peut se comprendre, mais appliqué dans d’autres domaines, cela peut avoir des effets pervers : cela peut inciter à réaliser moins de travaux dans son logement, à faire des sports moins risqués, à partir dans des lieux de villégiature plus sécurisés… L’assurance ne doit pas non plus nous dissuader de prendre des risques et ainsi d’oser, d’être créatifs quitte à se faire mal, à échouer, à avoir des accidents. L’accroissement de la sécurité a pour corollaire la réduction des libertés et de l’initiative. Il faut trouver un juste milieu.
Innovations au CES Las Vegas dans le domaine de la santé
Les principales innovations que j'ai trouvées au CES de Las Vegas dans le domaine de la santé tournent autour de trois axes :
1. L’apport de services en complément des objets connectés
2. Les capteurs biologiques qui deviennent connectés
3. L'arrivée de nouveaux acteurs dans le domaine de la santé.
J’avais couvert le premier point dans l’émission, j’élabore en plus les deux autres points ici.
L’apport de services en complément des objets connectés
Auparavant les objets connectés servaient surtout à capter, à mesurer et à collecter les informations aujourd'hui ils ont pour rôle d'agir et dans le cas de la santé 2 de nous aider à rester en forme voire de nous guérir ce qui se traduit par l'arrivée de nouveaux services.
Avant grâce aux objets connectés je savais que j'étais malade ou mal portant maintenant on me donne les moyens de guérir
Voici deux exemples.
Tout d'abord Terraillon en plus de ses balances de salle de bain et de cuisine, de ces trackers, propose un accompagnement personnalisé par une nutritionniste 150 € par trimestre.
Visiomed va encore plus loin en investissant en octobre 2015 dans la société M.I.S. (Medical Intelligence Service) qui a réalisé un système d'intelligence artificielle d'aide à la décision médicale.
Il a été testé à l'hôpital Lariboisière à Paris et permet de faire un pré-diagnostic correct dans 83 % des cas grâce à son « Symptom Checker » au lieu de 34 % qui est la moyenne de solutions concurrentes selon une étude Harvard Medical Schools.
Grâce à cette solution, Visiomed a développé un service nommé Bewell Check-up, qui est un assistant personnel de santé. Il utilise les données provenant des objets connectés de Visiomed et d’un questionnaire sur vos symptômes.
Il vous donne un diagnostic avec un degré d'urgence et vous indique si vous êtes proche d'un médecin, le chemin et le temps pour y aller. Il peut même envoyer un compte-rendu à votre médecin traitant.Enfin il vous donne la possibilité d'accéder à une plate-forme médicale composée de docteur 24 heures sur 24, 7 jours sur 7.
Il vous donne un diagnostic avec un degré d'urgence et vous indique si vous êtes proche d'un médecin, le chemin et le temps pour y aller. Il peut même envoyer un compte-rendu à votre médecin traitant.
Enfin il vous donne la possibilité d'accéder à une plate-forme médicale composée de docteur 24 heures sur 24, 7 jours sur 7.
Capteurs biologiques connectés
L'autre innovation au CES est l'arrivée d'objets connectés utilisant des capteurs biologiques.
Un premier est LSee, une start-up corse qui réalise une micro piqûre (indolore) et est capable d'analyser une minuscule goutte de sang. Le produit peut mesurer la quantité des biomarqueurs représentatifs de la dégradation de la masse graisseuse et musculaire.
Typiquement, après un effort il est ainsi possible de savoir si celui-ci nous a permis de perdre de la masse graisseuse ou de la masse musculaire. L’objectif est bien sûr de savoir quels exercices permettent de réduire la masse graisseuse. LSee utilise une bandelette électrochimique et fait passer un micro-courant qui mesure la quantité de ces biomarqueurs.
Plus le courant est élevé entre les deux électrodes (séparées par la bandelette à tester), plus le biomarqueur est présent. C'est ainsi qu'on peut mesurer l'impact de l'effort sur la masse graisseuse
Nima est un produit développé par la startu 6SensorLabs, une startup américaine qui permet de tester si un aliment a du gluten ou pas.
Cela facilite la vie des personnes allergiques et permet de vérifier si un aliment a du gluten même si on n’a pas d’emballage, on est chez des amis, au restaurant ou il n'y a aucune indication sur l’emballage de son absence. On doit mettre une petite partie de l’aliment dans la capsule qui se dissout dans la capsule intégrant une solution liquide (coût 4 dollars).
S'il y a moins de 20 ppm (parties par million - normes OMS), le capteur vous indique par un sourire que l'aliment est sans gluten sinon c'est l'inverse.
Nima coûte 249 dollars et sera disponible au milieu 2016. L'objectif est d'étendre cela à d'autres allergènes tels que les cacahuètes (important pour le marché américain qui utilise beaucoup de beurre de cacahuètes) et le lait.
Dernière innovation, la start-up française Diet Sensor qui utilise le capteur SCIO (premier prototype montré il y a deux ans et dont j’avais parlé dans mes prédictions 2015 ) pour avoir la signature chimique d'un aliment.
La technologie utilisée par SCIO est fondée sur la spectrométrie à proche infrarouge. Il envoie des rayons lumineux sur l'aliment, les molécules composant l’aliment vibrent naturellement interagissant de manière unique avec la lumière et la réfléchissant de manière unique (selon l’absorption de la lumière notamment).
Un capteur optique (nommé spectromètre) dans Scio traduit cette signature unique de réflexion en composant chimiques. Sur la base de cette composition, Diet Sensor est capable de donner la quantité de glucides, protéines, graisses, calories et alcool … Il permet d’accompagner l’utilisateur dans son alimentation.
De manière globale, ces objets connectés permettent d’avoir une information venant directement du produit, liquide… sans intermédiaire, en temps réel (emballage, site internet, fournie ou pas par le fabricant) et de fournir un conseil en conséquence (produit allergisant, trop de glucides…)
Dernier point, il y a de plus en plus d'entreprises traditionnelles qui ne viennent pas du domaine de la santé ou du bien-être qui aujourd'hui proposent des objets connectés.
Par exemple, Under Armour connu pour ses vêtements et chaussures destinés aux sportifs propose la Health Box qui intègre notamment une offre complète d’objets connectés avec une balance connectée, un capteur d'activité, un capteur cardiaque et propose de vous coacher sur le plan sportif.
Il y avait aussi de nombreux autres objets connectés qui simplifie l’usage tels que le thermomètre connecté de Withings, des purificateurs d'air connectés (Conway, Sprimo…) , des piluliers connectés qui font concurrence à Medissimo, des produits qui rendent accessibles des matériels professionnels comme BeWell myECG, ou qui assistent les femmes enceintes de bout en bout : test de grossesse connectée, haut-parleur intra-utérin, suivi de la grossesse, biberon, cuillère capteur connectés pour bébés ….
Enfin, ils n'étaient pas présents au CES mais sont très intéressants à suivre la société Auxivia qui développe un verre connecté destiné aux personnes âgées dans les EHPAD, maison de retraite.
Ce verre permet de s'assurer que la personne âgée a suffisamment bu en mesurant le poids du liquide entre chaque gorgée. Elle alerte le personnel soignant par une indication lumineuse dessus.
Il permet non seulement grâce à son accéléromètre intégré de voir quand la personne a bu mais aussi si elle a des problèmes de déglutition voire commence à avoir des troubles liés à la maladie d'Alzheimer car on peut le déterminer à partir des tremblements détectés par l'accéléromètre du verre.
Le pouvoir pris par les consommateurs grâce aux objets connectés
Un autre point que j'ai abordé dans l'émission est comment l'utilisateur et le consommateur prennent le pouvoir sur les grandes marques et industriels grâce aux objets connectés (ou "Customer Empowerment through IoT").
Aujourd’hui, des capteurs tels que Scio décrit ci-dessus permettent pour moins de 300 € (et demain encore moins cher) de tester la composition des aliments, médicaments, cosmétiques.
Demain, on trouvera ces capteurs sur les balances de cuisine, le petit électroménager, les thermomètres pour enfants pour vérifier la température des aliments. On pourra ainsi tester si un yaourt est vraiment allégé ou pas, s'il a 25% de moins de matière grasse comme indiqué sur l’emballage ou par rapport à son concurrent.
Il devient facile grâce à des capteurs de moins en moins chers pour les consommateurs de vérifier la véracité des informations données par les industriels.
En quelque sorte tout consommateur devient un agent de la répression des fraudes en puissance car il devient possible de crowdsourcer massivement les tests qu’il réalise et d’avoir une vision en temps réel de la qualité et composition réelle des produits.
Cela devrait bouleverser l’industrie agroalimentaire, pharmaceutique et cosmétique car les clients seront de plus en plus sensibles à la vraie qualité des produits plus qu’aux discours publicitaires qui sont souvent difficiles à vérifier.
Il y aura certainement des scandales alimentaires qui attendent les entreprises qui ne joueront pas franc-jeu avec leurs clients, comme l’a été Volkswagen et qui risquent d’être lourdement sanctionnées, sachant qu’il sera de plus en plus difficile de passer entre les mailles du filet. A l'inverse, les entreprises qui seront honnêtes avec eux, bénéficieront à plein des objets connectés car la confiance de leurs consommateurs en sera renforcée.
BYOD - Objets connectés Pollution de l'air ...
Cette prise de pouvoir s’appliquera aussi aux employés qui après la vague du BYOD (Bring Your Own Device) pour les smartphones verra le BYOD pour les objets connectés avec une application concrète concernant la qualité de l’air. Le développement des bâtiments basse consommation (BBC) qui ont tendance à réduire fortement les échanges d’air avec l’extérieur s’est accompagné d’une dégradation de la qualité de l’air. Avec les capteurs connectés comme Foobot, Plume Labs..., on peut imaginer que les employés viennent avec leur capteur de CO2 ou de COV dans leur entreprise, mesurent la qualité de l'air, constatent dans un certain nombre de cas qu’elle est insuffisante et fassent en groupe pression sur leur employeur pour l'améliorer.
La sécurisation des objets connectés
Dernier point, que je n’ai pas eu le temps d’ aborder lors de l'émission est la sécurisation des objets connectés qui est un véritable enjeu.
L’ANSSI, Agence Nationale de la Sécurité des Systèmes d'Information a récemment dit lors du Forum international de la cybercriminalité SIC 2016 que « Demain, il y aura des morts à cause des objets connectés. »
Il y a plusieurs remarques à faire à ce sujet, tout d'abord les objets connectés sauveront aussi des vies, deuxièmement d'autres objets non connectés font malheureusement des morts ce n'est pas pour autant qu'on les interdit, typiquement la voiture qui fait encore plusieurs milliers de morts en France. Néanmoins l’ANSSI a tout à fait raison de mettre l'accent sur le manque de sécurisation de manière aussi alarmiste.
Prenons un exemple, un bug peut rendre une pompe à insuline connectée inutilisable indépendamment d'un hacking de cette pompe.
Cela est arrivé en octobre 2015 pour un autre produit, le pèse-personne de Terraillon qui ne pouvait plus se connecter au smartphone à la suite de la mise à jour iOS 9.0. Leur balance connectée n'a pas fonctionné pendant un mois.
Après de nombreux commentaires et retours de clients notamment sur les réseaux sociaux, Terraillon a réagi et a demandé à son agence de développement mobile conceptrice des applications de résoudre le bug. Si cela arrivait pour une pompe à son insuline connectée, l'effet sera nettement plus grave et potentiellement pourrait mettre en danger la vie de personnes. Cela induit plusieurs enseignements :