Liste des articles - Lien vers version plus détaillée

Viva Tech - Tech for Good, AfricaTech, Blockchain,AI, RGPD / GDPR

Viva Technology était foisonnant cette année, beaucoup plus international, avec une scène Stage X pour la DeepTech inspirée de Hello Tomorrow...

 

For English Speakers - Google Translation

 

Les points à améliorer : il faut savoir chercher pour trouver les startups en fonction de verticales métiers ou de secteurs. Si vous recherchez d'ailleurs des startups ou des innovations présentes à Viva Tech, CES Las Vegas ou MWC Barcelone dans vos métiers, n’hésitez pas à m’en faire part :)

 

Les mots-clés de cette édition sont : 

  • Tech for Good (mis en exergue par Emmanuel Macron, Mark Zuckerberg ...). J'ai animé un panel à VivaTech à ce sujet avec Frédéric Bardeau Simplon.co, Joséphine Bouchez Ticket for Change, Paul Duan Bayes Impact et Adama Sawadogo iCivil). Il y avait aussi beaucoup de projets pour aider les personnes handicapées 
  • RGPD#GDPR (avec une incroyable coïncidence entre son début et VivaTech qui lui a donné une forte couverture médiatique)
  • AfricaTech qui permet de mettre en valeur de nombreuses startups locales

Concernant les technologies, en plus de l’IA (plus tournée vers les besoins internes) et l'IoT, les startups se sont déchaînées sur … la blockchain, le jeu était de trouver le mot avant chain pour créer le nom de son entreprise. Son usage principal : la traçabilité des produits.

 

Les robots avec un usage industriel étaient à l’honneur (Vitirover notamment pour s’occuper de ses vignobles). La VR plus exactement la XR (eXtended Reality qui recouvre la Virtual Reality, Mixed Reality, Augmented Reality) faisait le bonheur des marques de cosmétiques avec leurs miroirs qui transformaient vos lèvres et cheveux en objets à colorier.

 

Des voix se sont aussi élevées car les startups se feraient phagocyter par les grands groupes. Pour ma part, je dirais que la plupart des grands groupes sont bien plus bienveillants qu’avant vis-à-vis des startups, qu'aujourd’hui les startups ne sont plus nées de la dernière pluie ,elles peuvent chacune y trouver leur compte dans cet événement avec les groupes qui les hébergent mais aussi ailleurs. Il suffit souvent de sortir de son stand et de parcourir quelques mètres !

En bref :

  • Viva Tech - Mix de Davos et du Web Summit ?
  • IA : Accessibilité et B2B (industrie, métiers)
  • XR (VR,AR,MR): eXtended Reality - Miroir connecté et Cosmétiques
  • Robots en B2B : vignobles, terrains dangereux, exo-squelettes …
  • Drones autonomes - Airbus et Audi

Viva Tech - Mix de Davos et du Web Summit ? 

Avant de rentrer dans le détail de l'événement, Viva Tech a concentré en très peu de temps des personnalités souvent inaccessibles.

 

Cela lui donne des airs de mini-Davos compte tenu de la journée "Tech for Good" qu'Emmanuel Macron avait organisé pour réunir un grand nombre de "géants du numérique"  à l'Elysée.

 

Avec le nombre de startups, on peut aussi le rapprocher du Web Summit (plus que du CES Las Vegas qui reste ancré sur le Consumer Electronics).

 

C'était aussi l'occasion pour Mounir Mahjoubi de présenter Kat Borlongan, la nouvelle directrice de la FrenchTech.


IA : Accessibilité et B2B (industrie, métiers)

L’IA était encore à l’honneur cette année parmi les startups même si cela s’assagit un peu après le « AI Washing » de l’année dernière. Cette année c'est la vague de Chain Washing.

 

Microsoft présentait les startups utilisant ses briques d’IA en détaillant le type d’IA utilisée (normal !). C’est plus crédible que d’avoir .AI comme extension de nom de domaine.

 

Ils ont aussi mis l'accent sur l'accessibilité avec AI Accessibility afin d’aider les personnes en situation de handicap.

 

En plus des solutions connues dans le domaine de l’analyse d'image (Heuritech…), des vidéos (Angus.AI), pour augmenter le taux de transformation (AB Tasty,..), et de la création de chatbots (Smartly.AI), l’IA est mis en avant pour les besoins internes de l’entreprise. 

 

Quelques exemples sont l'analyse des contrats (CaseLaw Analytics, Hyperlex) et des processus industriels (Fieldbox.AI) mais aussi métiers (Makigami, Sagacify, Prevision.Io).

 

Un grand nombre de startups à VivaTech qui se prévalaient de faire de l'IA font juste de l’analyse de données avec de l’IA saupoudrée à droite et à gauche (ou pas du tout !), Deux/trois questions suffisaient pour s'assurer que l'IA boîte noire l'est autant pour eux que pour nous ! Néanmoins c’est la première étape avant une utilisation poussée de l’IA. 


L’IA était bien sûr au cœur des discussions de Stage X qui reprenait des thèmes DeepTech chers à Hello Tomorrow avec des débats sur l’arrivée ou non de l’IA forte entre Luc Julia de Samsung et Bruno Maisonnier à la tête d’AnotherBrain.

 

Si d'ailleurs vous avez des startups DeepTech à me recommander, contactez- moi car en tant que Hello Tomorrow Curator, je recherche les startups intéressées par le Hello Tomorrow Challenge (100k€ pour le premier prix).

XR (VR,AR,MR): eXtended Reality - Miroir connecté et Cosmétiques

La réalité mixte (Intégration de réalité virtuelle sur des objets réels) était particulièrement prisée des entreprises de cosmétique comme Guerlain ou L'Oréal.

 

Comme j’en parle dans mon article sur la disruption du retail, l’objectif est que le client / la cliente voit quel sera l’effet des produits avant leur application ce qui réduit les risques de se tromper ! Aussi, il y a un jeu à tester des combinaisons improbables ;)


Robots en B2B : vignobles, terrains dangereux, exo-squelettes ...

Les robots ont des applications de plus en plus B2B : la logistique (Unsupervised.AI), les zones difficiles ou dangereuses d’accès (Rovenso), l'agriculture (Vitrirover, Robot pour désherber les vignobles).

 

Associé avec des capteurs connectés, Vitirover permet en plus de réaliser une cartographie précise des maladies, pucerons, températures, et pour Rovenso de la radioactivité …

 

Ergo Santé présentait aussi son exosquelette, mais cela me semble encore tôt pour un déploiement massif…


Drones autonomes - Airbus et Audi

Les drones autonomes étaient la coqueluche du CES Las Vegas 2018 (cf. article). Ils étaient moins nombreux à Viva Tech, néanmoins Airbus et Audi se sont associés pour présenter un drone commun.

 

Est-ce à dire que les industries aéronautiques et automobiles vont unir leurs forces comme à leurs débuts (ex: Rolls Royce, Saab) ? Sans doute, est ce un peu tôt pour le dire mais l'industrialisation de grandes séries et la maîtrise du vol ne sont sans doute pas étrangères à ses associations.

 

RGPD / GDPR (Règlement Général sur la Protection des Données)

La date d'application de RGPD ou GDPR était par une étrange coïncidence au beau milieu de VivaTech (27 mai) ce qui en a fait le buzzword en concurrence avec TechForGood. 

 

C’est d’ailleurs presque au pied levé que Isabelle Falque-Perrotin a été invité à venir pour un FireSide sur le RGPD.

 

Le RGPD montre à la fois l’influence du marché européen et donc par ricochet de ses principes

 

Néanmoins l’application de ses principes peut favoriser des acteurs extra-européens, GAFA au détriment de plus petites entreprises dépendantes de celles-ci (ex : Criteo ou des entreprises dépendant de Google, Amazon, Facebook, Apple).

 

Le RGPD donne aux citoyens européens un droit nettement supérieur sur leurs données qu’auparavant ce qui répond à des valeurs ancrées dans l’histoire de l’Europe face à la violence à laquelle nous avons été frappés par les dérives d’un fichage systématique.

Facebook a choisi de l’étendre au monde entier (GDPR like), après avoir déclaré au départ que ce serait réservé à l’Europe. Ne doutons pas de l’éthique de Mark  mais je pense que son département juridique a dû aussi lui indiquer que cela aurait été un cauchemar de ne l’appliquer à l’Europe … Imaginez que vous ayez des amis Facebook à l’extérieur de l’UE, comment les données, relations, photos, likes… sont traitées …

 

La Californie a d'ailleurs récemment fait passé une loi reprenant certains principes du RGPD (sans aller aussi loin - cf. Article NY Times) applicable à toutes les entreprises résidant dans l'Etat et ainsi la Silicon Valley ;)

 

Snips, à raison, a fêté l’événement lors d’une Private Party  mené tambour battant par Rand Hindi et Yann Lechelle car il y a une vraie problématique concernant les enceintes intelligentes (cf. article) qui uploadent de très nombreuses conversations pas toujours avec le consentement éclairé de leurs utilisateurs … que Snips résout en embarquant en local l’analyse et compréhension de la voix (Speech to text et NLP).

Est-ce que la Blockchain est soluble dans le RGPD ?

RGPD a aussi des implications inattendues sur la blockchain. La DG Trésor avait d’ailleurs bien anticipé ces problématiques en lançant une consultation sur la régulation de la blockchain avec un focus sur le RGPD.

 

Côté face : La blockchain permet d’assurer la transparence (et l’inviolabilité) des données personnelles (art. 12) en permettant de tracer tous ses traitements.

 

La blockchain permet de certifier du consentement de la personne (art 7)

Le « Privacy by design » (art 25 - Protection des données dès la conception et protection des données par défaut) est directement intégré dans la blockchain car les données sont chiffrées et hashées.

 

Côté pile :

La possibilité de rectification (art 16)  ou d’effacement de données, la durée de conservation et durée n’excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées  (art 17) est impossible par définition pour la blockchain …

 

Au sujet de la désignation du responsable de traitement (art 24 du RGPD) et d’un délégué à la protection des données (art 37), pour la blockchain privée, cela n’est pas gênant (la plupart des cas B2B hors crypto-monnaies) car il y a une entité qui assure sa responsabilité en revanche il en est tout autrement pour la blockchain publique où la responsabilité est difficilement applicable aux mineurs (qui fournisse la puissance de traitement).

 

La protection suffisante en cas de transfert hors UE ((art 44 et suivants ) est difficile à garantir dans le cas d’une blockchain publique où l’information peut être disséminée mondialement.

 

Conclusion : …

La blockchain est compatible avec le RGPD si elle est soit privée soit ne contient aucune information personnelle (!) directe ou reconstituable (ex : hash d’une identité). La seule solution aujourd’hui est que les informations personnelles soient sur une plateforme qui respectent le RGPD (potentiellement décentralisée si elle respecte le RGPD). Il serait imaginable que la CNIL sous réserve d’un hashage et d’un cryptage suffisant des données personnelles dans une blockchain pourrait accepter que celles-ci ne soient pas des données personnelles.

 

L’effacement des clés privées reconstituant les données personnelles  de la blockchain seraient considérées comme équivalentes à un effacement. Si un petit malin met en place plus tard un système de décryptage grâce à l’informatique quantique, il y a un risque mais je pense qu’on aura d’autres soucis bien plus importants à se faire ...C’est toute la sécurisation des données qui seraient bouleversées avec l'informatique quantique puisque le cryptage de nos données est fondée sur pour résoudre la factorisation d’un entier qui se réalise en un temps exponentiel  (problème NP-Complet - cf. article sur la blockchain ) et potentiellement résolu en un temps polynomial avec l'informatique quantique.

 

Dernier point, le règlement e-Privacy de l’UE risque de poser des problèmes bien plus considérables à la blockchain et sur bien d’autres plateformes car elles concernent toutes les données non personnelles … Good Luck !

La ruée vers la Blockchain ...

Il y avait une pléthore de startups qui se prévalaient des solutions fondées sur la Blockchain : leur signe de reconnaissance : elles terminent par … chain : Vechain, Scorechain, Sunchain.

 

La Blockchain permet de décentraliser la confiance (et les données ;) au lieu qu'elle soit concentrée par un seul acteur (modulo RGPD cité ci-dessus).

 

La différence par rapport à une plateforme centralisée est que les données n’appartiennent pas à une entité (qui peut ne pas exister ou en qui on n’a pas confiance) mais sont partagées par l’ensemble des acteurs (qui n’ont pas nécessairement confiance en les autres). 

 

Attention, souvent on utilise une blockchain en conjonction avec une plateforme centralisée ou décentralisée. La blockchain ne conserve dans ce cas que les hashs des données sur la plateforme ce qui garantit son intégrité mais pas sa sécurité.


Confusion entre Ubérisation et Blockchain par Raphël Enthoven

Il y a parfois une confusion entre ubérisation et blockchain faite notamment par Raphaël Enthoven dans une émission sur Europe 1, le Fin mot de l'Info que je me permets gentiment de tacler par le texte suivant ;)

 

Il y a peu de temps, j'ai participé à une conférence de Raphaël Enthoven à la Fondation Jean Jaurès. Face au feu d'artifice intellectuel, je tentais de capter désespérément chaque éclat, alors que le précédent m'échappait déjà. Etre sur le qui-vive ne suffit pas !

 

 

Ubériser ne supprime pas les couches intermédiaires mais au contraire les crée (certes plus efficacement qu’avant) entre des individus ou des entreprises, les uns cherchant des services et les autres les fournissant (hébergement, trajets véhiculés…).

 

Ubériser consiste à créer une plateforme pour les mettre en relation très facilement tout en ne possédant pas d’infrastructure en propre (chambre, véhicule …).

 

 

 

Si un doigt pointait la lune et que je regardais le doigt 

Mon fin mot de la philo serait « Banalisez pour mieux vous camoufler »

Mais je préfère regarder la lune et mon fin mot de la philo sera donc « Banalisez pour que l’inaccessible soit à portée de main. »

 

Revenons toutefois sur votre contresens. Vous sous-estimez Luther car il avait une vision bien plus puissante que l'ubérisation, mot vieillissant à la vitesse d'un mauvais rosé.

 

Pourtant, du haut de mes quatre consonnes et trois voyelles, je choisis, Raphaël de ne pas succomber à votre ensorcellement, quitte à devenir l'avocat du diable,

 

Mais ne serais-je pas aussi un peu le vôtre car vous vous cachez dans les détails. Illustration ...

 

 

Quand vous dites, je cite "Luther, le père du protestantisme n'a pas besoin d'être éclairé par tous ces intermédiaires que sont les Pères de l'Eglise, on assiste à de l'ubérisation théologique... ", vous vous fourvoyez, Professeur.

 

Ubériser la philosophie reviendrait par exemple à créer un intermédiaire facilitant l'accès de tous aux pensées des philosophes et écrivains en tissant un lien entre elles et des faits d'actualité afin qu’elles soient compréhensibles par le plus grand nombre.

 

Mais, n'est-ce pas ce que vous faites, n'ubérisez-vous pas la philosophie (en y apportant votre propre matière première bien sûr !)

 

 

En banalisant le mot ubérisation, ne légitimez-vous pas votre propre action d'ubérisateur


Il a initié une révolution au départ religieuse qui se propage 500 ans après … la Blockchain. Elle a le pouvoir de dissoudre les corps intermédiaires en étant partagée par tous. Je vous propose donc de troquer votre mot Ubérisation pour Blockchain.

 

 

Si Dieu était une blockchain, nous aurions tous une part de lui en nous et il n'existerait parmi les humains que par la communauté qui l'anime / la mine ;) 

Premier usage de la blockchain, la traçabilité

Revenons à nos chaînons ...

 

La blockchain permet la traçabilité de toute transaction (immobilier, sharing economy, prestation commerciale, logistique ... ), information personnelle (parcours professionnel et de formation, santé...)...

 

GS1, un organisme mondial qui normalise notamment les codes-barres a lancé une blockchain (en démo) qui permettra à ses entreprises adhérentes de tracer leurs produits à travers son projet ScaleChain.

 

Les premières entreprises « blockchainisées » sont ironiquement les premiers "uberisateurs" comme Uber, Airbnb mais aussi BlablaCar et dans un second temps les GAFA. Potentiellement, on peut voir apparaître l’émergence de blockchains massivement utilisées à l’image du nombre d’utilisateurs de plateformes comme Facebook sur des thématiques telles que le partage d’appartements (concurrent d’AirBnB), de véhicules (concurrent de BlaBlacar) (cf. article sur mes prédictions de l'année).

 

Autre exemple d’utilisation, nous pourrions accorder des bonus/malus en fonction de la pollution ou des émissions de carbone (pour le calcul de la taxe carbone) tracées par des capteurs certifiées par la blockchain (intégrité et données transmises – cf article), ou pour suivre le respect des obligations.

 

La Blockchain permet de s’assurer de l’intégrité des données sans les révéler, en les gardant anonymes par leur hashage.

L'Afrique, eldorado de la Blockchain ?

Cela prendra un peu de temps avant que la blockchain ne se généralise et que les acteurs comprennent les cas d’usages et déploient des solutions l’utilisant. Sur un continent comme l’Afrique, la blockchain sera un vaste terrain d’expérimentation.

 

Il y a notamment des projets facilitant les transactions d'énergie (comme Ubuntu Energy Leader) ou de biens  alors qu’il n’y a pas toujours de titres de propriété. La propriété pourrait être « certifiée » par les habitants d’un même village par exemple tous adhérents à une blockchain. Si la communauté est suffisamment importante, pourquoi ne pas imaginer que l’Etat accepte cette blockchain comme preuve de propriété à défaut de ne rien avoir et surtout de ne pas percevoir de taxes à chaque transaction.

AfricaTech, un nouvel Eden ?

La ruée vers l’Afrique s’est accélérée cette année en raison à la fois du formidable potentiel économique de la région.

  • la population va passer de 1,2 Md aujourd’hui à 1,6 Md en 2030, 70% de la population a moins de 25 ans mais dépendant à 80% d’adultes actifs ;
  • d’ici 2030, l’Afrique a besoin de plus de 5 millions de personnels médicaux et de nouveaux professeurs selon une étude Unicef ;
  • concentre 30 % des réserves mondiales en minerais surtout dans quelques pays Afrique du Sud, RD du Congo et Zambie), 
  • une démocratisation progressive des pays (par hoquets … cf. Niger, Burkina Faso).

L'Afrique est un « Greenfield », champ sans infrastructure initiale ce qui permet de construire sans avoir à intégrer un historique.

Europe : Approche « Teach to fish rather than give the fish »

En plus de startups africaines disséminées dans le hall, un certain nombre d’entre elles étaient concentrées autour de l’AFD (Agence Française de Développement) et quelques acteurs bien impliqués en Afrique : Total, Vinci, Sanofi ;)

 

Le développement de startups locales est crucial pour le développement du pays lui-même car à l’image de la FrenchTech, cela crée une dynamique vertueuse et celles-ci ont une bien meilleure connaissance terrain que les entreprises occidentales. Leurs solutions sont pragmatiques et tiennent compte des ressources et contraintes actuelles.

 

L’Europe a appris de sa période colonisatrice alors que la Chine et les Etats-Unis n’ont jamais connu de période de décolonisation. Elle a de vraies cartes à jouer avec une approche « Teach to fish rather than give the fish ». Les entreprises américaines et chinoises sont plus friandes du « Sell their fish and get the money », « Take the Fish for yourself » !

 

Startups africaines

La logistique est un point d’achoppement majeur en Afrique (à l’image de la distribution commerciale en Inde !). Plutôt que de recréer une logistique complète, les startups comme  Keyopstech s’appuient sur le réseau de personnes pouvant délivrer en Afrique. (30% du continent africain sont des « zones blanches » de livraison).

 

Délivrer un paquet pour une famille alors qu’il n’y a pas d’adresse précise dans un village est une gageure pour un logisticien classique beaucoup moins pour des livreurs ayant une connaissance locale. Ce serait d’ailleurs un très bon cas d’usage pour la blockchain pour suivre l’ensemble des échanges et livraisons locales.

Enfin, iCivil Africa (Burkina Faso) s’attaque à un autre problème majeur : 50% des naissances ne sont pas déclarées en Afrique Subsaharienne (cf. Panel ci dessous).

 

Africa … Tech … for Good, le lien est tout trouvé entre les deux.

Lono (Côte d’Ivoire) a développé des unités de biogaz sur base de déchets agricoles.

 

MyJouleBox (startup française) fournit elle une batterie solaire à base de cellules photovoltaïques pour €1 par mois en Afrique.


Tech for Good - Vidéo avec Simplon, Ticket for change, iCivil, Bayes Impact

J’ai animé à Viva Tech un panel sur Tech for Good à Viva Tech. Pour reprendre mon introduction et mes questions lors du panel :

 

Tech for Good, tout le monde parle de Tech for Good, Emmanuel Macron (CEO France ;), Mark Zuckerberg (CEO de quoi encore ?), Satya Nadella (CEO Microsoft), Eric Schmidt (CEO Google). La vraie question est pour le bien de qui ?

 


Introduction - La Tech, Baguette Magique de Harry Potter entre nos mains

Est-ce pour quelques-uns, pour le plus grand nombre, pour ceux qui ont le plus besoin ? Est-ce que cela atténuera les inégalités ou les renforcera ? Est-ce que cela nous libérera ou nous rendra plus dépendants d’elle ? Est-ce que l’intelligence artificielle, les robots sont des menaces qu’il faut éviter ou des opportunités qu’il faut saisir ?

 

La technologie n’est ni bonne ni mauvaise, la différence entre aujourd’hui et avant et que nous avons une incroyable baguette magique entre les mains et que comme apprenti sorcier nous devons apprendre à bien l’utiliser. Évidemment, si on joue trop à Voldemort avec, un jour ou l’autre, soit on finit mal soit comme Harry Potter on casse la baguette.de peur de ce qu’il peut arriver avec.

 

Pourtant, face aux enjeux climatiques, aux inégalités sociales, à la pollution, au vieillissement de la population et de sa taille. Nous avons besoin de cette baguette. Que faire alors ? Rien de tel que l’exemple en montrant en quoi la technologie peut réellement nous aider et c’est ce que nous avons montré aujourd’hui à travers 4 startups Bayes Impact, Simplon, Ticket for Change et iCivil.

Bayes Impact - Paul Duan

Il y a en France 3 millions de chômeurs, de l’autre près de 300 000 emplois non pourvus dont 70% seraient pour des raisons de manque de compétence.

 

Sur cette base, Paul Duan, fondateur de l'ONG, Bayes Impact a travaillé avec Pôle Emploi avec son initiative Bob Emploi pour utiliser leurs données anonymisées avec ses algorithmes afin de fluidifier la recherche d'emploi.

 

Il parle de ses derniers résultats ici dans La Tribune.

Simplon.co - Frédéric Bardeau

Crédit : Viva Technology - Sipa Press
Crédit : Viva Technology - Sipa Press

Simplon s’est attaqué à l’emploi sous un autre angle celui de la formation.

En un an, plus de 95% des chômeurs longue durée, des réfugiés, des personnes sans diplômes qui passent par Simplon trouvent un emploi alors qu'ils sont situés souvent dans des zones difficiles ou rurales grâce à des formations de codage alors que tant d'acteurs publics se cassent les dents sur ce problème. Simplon est financé par 30% de ressources publiques (en réalité plus me précisait Mounir Majhoubi car les formations sont financées par Pôle Emploi ;)


On parle aussi du manque cruel de femmes dans la Tech.
Simplon a 38 % de femmes dans ses promotions ( l’Ecole 42 qu'a fondé Xavier Niel peine à dépasser les 8%) en instaurant en sas de 6 semaines pour éviter l’auto-censure et faciliter les échanges entre pairs sans regard extérieur.

 

J’ai eu un rapide échange avec Xavier Niel à Station F à ce sujet la semaine dernière qui m’a indiqué que dans ses autres initiatives (formations au digital et fondatrices de startups à Station F), il arrivait à 30% / 40% de femmes mais qu’il avait beaucoup de mal à avoir des femmes à écrire du code brut (cœur d’activité de l’Ecole 42). Est-ce qu’une approche low-coding ou l’utilisation de l’IA pour coder en dur aiderait ou le événement de startups fondées par des femmes ? A suivre …

Ticket for Change - Joséphine Bouchez

Trouvez un emploi, certes mais lui donner un sens, un sens solidaire c’est la mission que s’est fixé TicketforChange illustré par un très bel exemple avec l’application Yuka.

 

Vous avez vu pulluler les NutriScore à la télé, sur vos produits, vous savez désormais si vous mangez vert, jaune ou rouge. En un coup d'oeil, vous saurez la qualité nutritive du produit mais rapidement vous voudrez en savoir plus : y a-t-il trop de graisses, de sucres, des allergènes, des additifs à éviter ? Aujourd'hui, vous n'en saurez pas plus ...

Mais d'où vient Yuka ?


Heureusement, il y a Ticket for Change ! Il transmute les "y'a qu'à" en Yuka  ;)   Après la formation Parcours Entrepreneur de Ticket for Change en 2016, Julie Chapon et François Simon ont fondé Yuka qui donne aujourd'hui à plus de 2 millions de personnes toutes les informations nécessaires pour prendre leur alimentation et donc leur santé en main.

Crédit : Viva Technology - Sipa Press
Crédit : Viva Technology - Sipa Press

Heureusement, il y a Yuka ! Vous scannez le code-barre de votre produit avec le smartphone et savez en quoi il est bon ou mauvais, s'il intègre des additifs cancérigènes et même quels produits équivalents sont mieux notés que lui. Je l'ai testé et mon ex-marque de yaourts préférée est passée à la trappe pour une nouvelle bien meilleure après avoir scanné celles présentes en rayon !

 

Ca va chauffer dans les rayons ... avec de belles opportunités pour les entreprises qui se soucient de la bonne alimentation de leurs clients  :)


Et des Yuka, il y en a déjà 1300 en puissance, 1300 personnes qui ont créé leur entreprise avec un impact social positif grâce à Ticket for Change . Si vous n'avez pas l'âme d'entrepreneur, que vous fassiez partie d'un grand groupe ou d'une PME vous pouvez aussi avoir un impact social et apporter un nouveau sens à votre vie professionnelle en offrant par exemple du mécénat de compétences vers les entrepreneurs sociaux (cf. nouvelles Entreprises Solidaires d'Utilité Sociale (ESUS)).

Icivil Africa - Adama Sawadogo CEO

Crédit : Viva Technology - Sipa Press
Crédit : Viva Technology - Sipa Press

Mais tout cela est vain, si nous n’existons pas, si nous n’existons pas légalement.

 

Cela peut nous paraître tellement facile dans nos contrées mais quand il faut faire des dizaines de kilomètres à pied ou à vélo sur des routes souvent impraticables sous une pluie torrentielle ou le cagnard pour déclarer la naissance de son enfant sur des formulaires alors qu’on ne sait ni lire ni écrire, ça devient un vrai chemin de croix que d’exister légalement et d’avoir accès aux soins, à l’emploi, à la nationalité…

 

iCivil Africa a mis en place une solution en association avec ProofTag, une entreprise française située à Montauban (identifiant unique utilisant les codes à bulles). Les enfants sont déclarés dès leur naissance dans le centre de soins où ils sont nés même si les parents sont analphabètes grâce à la sage femme pour qu’en Afrique, être humain soit synonyme de citoyen.

 

iCivil Africa a déjà permis à 2900 enfants d'avoir une existence légale dès leur naissance au Burkina Faso,


Handicap

"Le sommet de la reconnaissance c'est l'indifférence à ce que nous sommes."

Il y avait beaucoup de startups et de projets pour faciliter la vie de ceux qui ont un handicap et alléger son poids.

 

Comme le met en exergue Raphaël Enthoven dans une de ces chroniques le Fin Mot de l'Info « le sommet de la reconnaissance c'est l'indifférence à ce que nous sommes » faisant référence à Galia Wolloch, présidente de l'organisation de défense des droits des femmes Naamat qui félicitait le général de division Sharon Afek pour sa promotion. (1ere  nomination d’un général gay israëlien) en précisant « J'aimerais que nous arrivions au jour où une telle nouvelle ne serait plus une nouvelle . »

 

Le droit à l’indifférence vis-à-vis de son handicap (le handicap ne devient plus discriminatoire en termes d’emploi, d’accès au logement … ) est un enjeu majeur dans l’utilisation des technologies face au handicap. L’objectif serait qu’une personne handicapée puisse avoir des capacités analogues à n’importe qui avec un minimum de contraintes additionnelles à un coût acceptable (si elle le souhaite évidemment.)

Startups dans le handicap

Pour les déficients visuels et malvoyants, Virtuoz créé par Feelobject leur permet de se repérer dans un espace public comme un musée grâce à une carte imprimée en 3D.

 

Une fois posée sur un petit appareil, la carte est identifiée et permet de savoir l'emplacement des accès, boutique, toilettes via les écouteurs. En appuyant sur chaque icône, l'appareil donne un descriptif sonore.

Microsoft Seeing AI permet de transformer toute image avec son smartphone en une description auditive, reconnaître les visages (identifiés auparavant avec leur consentement), de lire le texte (documents, carte de visite, panneaux), reconnaître les billets, les produits à partir du code-barre vu par la caméra ou les descriptions de scènes.

 


Project Ray propose initialement un smartphone destiné aux personnes malvoyantes et développé une application qui simplifie l'accès aux fonctions du smartphone, ils utilisent aussi deux stickers sous forme de bouton NFC pour faciliter la navigation.

Google a sorti dernièrement Google Lens avec des applications similaires.

 

Pour les malentendants Roger Voice sous-titre les appels et donc réalise du speech to text en bilatéral (sans que son interlocuteur n'ait à télécharger une application quand il reçoit un coup de fil d'un malentendant).

 

Helpicto lui est dédié aux personnes ayant un trouble du langage lié à des pathologies de type autisme, dysphasie, ou encore Alzheimer et utilise l’IA pour faciliter la communication avec l’entourage.

Solutions pour le Handicap, cheval de Troie de l’homme augmenté ?

Nous en sommes encore  loin, mais l’homme et la femme augmentées commenceront par aider les personnes ayant un handicap à avoir des aptitudes similaires à ceux qui n'ont pas d'handicap..

 

Se pose la question de savoir s’il faut limiter ou non la capacité de ces augmentations.

 

Plusieurs exemples, ne pas avoir d'avant-bras et avoir une prothèse qui décuple la force de ses bras et les rendre modulaires (perçeuse, tronçonneuse, arme ce qui m'évoque un personnage de dessin animé … Cobra) , être non voyant et voir en UV et infrarouge (cf. L'homme qui valait trois milliards ...), avoir Alzeihmer et avoir une mémoire bien supérieure au commun des mortels, est-ce souhaitable, à éviter ou à interdire ?


Dans le cas où il n’y a pas d’interface entre l’intérieur du corps (ex : un nerf) et cette prothèse externe, la question ne se pose pas, car cette prothèse peut être considérée comme n’importe quel outil et peut pour la plupart être utilisée par des personnes valides.

 

C’est le cas de David Aguilar qui a crée sa prothèse en Légo (cf vidéo). Il me disait qu’il n’avait pas envie de la brancher à son cerveau directement car il craignait de se faire hacker.


Le cas du médicament « robot » qui s’avale et se rejette via les voies naturelles rentre selon moi dans le périmètre du médicament ou de la drogue (s’il a un des impacts délétères sévères sur le corps humain, il est préférable de les interdire !.) Un exemple e-Celsius de BodyCap qui donne la température interne corporelle utile pour le suivi des opérations chirurgicales.

 

S’il y a une interface entre l’intérieur et l’extérieur (entre un nerf et un capteur électronique par exemple) nécessitant une altération pérenne du corps humain (ex : via une intervention chirurgicale), c’est plus compliqué …

 

D’un côté, on pourrait dire que ce serait qu’un juste retour des choses que les personnes handicapées puissent à leur tour largement dépasser les capacités des personnes valides. De l’autre, c’est prendre le risque d’inciter chacun à potentiellement se mutiler pour bénéficier de cet avantage. Dans le BTP, une personne ayant perdu son bras pourrait être bien plus efficace qu’une personne valide dans quelques décennies.

Que ferait une personne valide qui a un travail manuel dans le BTP toute sa vie et veux y poursuivre sa carrière ?

 

A priori, je pencherai pour que dans le cas d’une « prothèse » qui nécessite une altération pérenne du corps humain, on ne puisse pas dépasser les limités humaines. (cf article, j'avais une position encore plus tranchée d'interdire l'intégration de puces dans le corps humain hors cas médicaux et sans augmentation, mais ça semble illusoire vu le développement certes encore marginal d'Implant Party où pour 21€, on peut se faire implanter une puce NFC ! )

 

Mais est-ce réaliste ? Peut-on brider les capacités de ces prothèses et qu’est ce qui définit les limites des capacités humaines ? Est-ce une moyenne, médiane, le Top 10%, le maximum possible ?

Dernier point, comment éviter le hacking électronique en particulier si cela touche le cerveau ?

 

A ce stade, il est très difficile d’avoir une position figée car certainement notre société va évoluer et accepter ce qui semblait inacceptable auparavant mais potentiellement l’inverse aussi.

 

En revanche, je suis contre la position de Moran Cerf qui incite à cette augmentation humaine en se fondant sur la plasticité du cerveaux qui permettrait d'atteindre les rêves ... et cauchemars les plus fous  (cf article sur USI - Future professionnel Humanity). Il parle notamment de la capacité du cerveau à intégrer des ailes pour voler.. ce qui sur le plan physique et sans assistance d'un moteur est absurde compte tenu des muscles nécessaires pour décoller ... 

Autres innovations : Lidar, CrowdInvesting dans des sacs de livraison

J’ai vu beaucoup d’autres innovations intéressantes dont Jarriquez qui est un Lidar mobile et permet de cartographier quel que soit la luminosité avec une précision de 2, 3 cm sur 60m.

 

J’ai aperçu rapidement quelques personnalités du Ministère des Armées intéressées par cette innovation 

 

 

Golbriak Space lui permet grâce à des micro-satellites de communiquer par voie optique en peer-to-peer et de gagner un temps précieux pour les communications entre deux parties très éloignées ou n’ayant pas accès à un réseau télécom terrestre.


Living Pack est une innovation d’usage et de modèle économique en proposant aux voyageurs entre deux gares de transporter des sacs certifiés par les douanes de recevoir 10 euros à chaque trajet.

 

Pour éviter le transport de matières interdites, vous voyez ce que vous transportez, le sac est géolocalisé et les coordonnées de l’envoyeur (qui paye 18€ pour une livraison dans les 3h), destinataire et transporteur. Vous pouvez même investir dans un sac (80€) à chaque voyage, vous gagnez 2€ !

 

C’est de l’investissement direct dans la sharing economy ;)

Une startup dans le domaine des transports pour les matheux :  dY/dX (formule de la dérivée pour calculer la vitesse ;) en espérant que leur dY/dX2 ne tombe pas à zéro (l'accélération) !

Startups et Grands groupes

Petite digression, un des retours négatifs de Viva Technology est le startup washing de certains grands groupes au détriment de startups.

 

Oui bien sûr il y a des start-up washing comme il y a eu du greenwashing du AI washing et aujourd’hui du blockchainwashing. Il vaut mieux du start-up washing que pas de startup du tout et c'est souvent la première phase d'une intégration plus importante comme on le voit dans le domaine du green et plus récemment de l'AI.

 

Il ne faut pas oublier que les grands groupes n'ont pas une vocation philanthropique, et que ce tremplin médiatique pour les start-ups fait place au fur et à mesure à une sélection beaucoup plus rigoureuse en choisissant des startups ayant en une vraie valeur pour les entreprises.  A l’image de l’explosion cambrienne des espèces animales, il y a 530 million d’années, après une phase de pullulement, il va y avoir une sélection croissante des startups les plus aptes à prospérer ce qui leur permettra de les transformer en scale-up.

 

Il est beaucoup plus facile de créer sa start-up qu'avant. Si on est dans un domaine un peu « trendy », ce n'est pas trop compliqué d’avoir du « buzz ». En revanche, c'est nettement plus compliqué de réaliser des partenariats commerciaux pérennes avec des entreprises. La marche pour créer son entreprise est plus basse, ce qui fait mécaniquement que la marche suivante est plus haute pour avoir un modèle économique pérenne toutes choses égales par ailleurs.

Alors certes les startups ne vont pas avoir le tapis rouge devant elles, mais si elles ont la niaque, qu’elles vont à la rencontre de leurs clients potentiels, écouter et chercher à leur apporter une vraie valeur, elles auront plus de chances de réussir que si elles restent planqués sur leur 2 x 2 m.

 

 

 

 


Evidemment, si vous imitez ce jeune startupper (2mn33) face au micro de Guillaume Meurisse (qui a fait un spécial Viva Tech !!) croyant que le pitch est à l'image de la fameuse Brioche Pasquier doit être fourrée de termes indigestes, il y a de fortes chances que vous vous preniez rapidement une tôle, voire y finissiez car ça frise la pub mensongère.

 

A force de jouer du pipeau, on risque d’être mis au violon ;) 

 

Lorenzo Croati s'en sort beaucoup mieux à cet exercice :)

Conclusion

Pour finir, plutôt que de résumer ce que j'ai dit avant, je vous propose un moment rock à la fin de Viva Tech avec le groupe Alb qui a l'art de combiner le rythme à la vidéo ... Je vous laisse découvrir !

 

Et un petit baby foot .. enfin petit ...

 

Merci aussi à Hugo Artman qui est stagiaire chez Livosphere, m'a accompagné à Viva Tech et travaille avec moi sur de nombreux projets :)

 

Si vous souhaitez avoir plus d'informations sur des startups, découvrir les autres innovations que j'ai trouvées, ou savoir comment celles-ci s'appliquent à votre domaine, n'hésitez pas à me contacter  :)

 

Dimitri Carbonnelle 

Agence conseil en Innovation - IoT, IA , Robots Collaboratifs - Contact


Disruptions dans le Retail (Grab and go, immersion, personnalisation, logistique) et Smart City (véhicule autonome, dépolluant, données personnelles, Lidar)

Le retail, magasin physique et la ville vont vivre de profondes mutations dans les prochaines années.

 

For English SpeakersGoogle Translation

 

Le Retail vit une convergence du digital et du magasin physique (nommé aussi phygital) en facilitant la vie de ses clients (« Grab and go », l'automatisation de la logistique, la robotisation de la livraison à domicile). Le magasin physique se différenciera aussi de la vente en ligne en apportant aussi une  expérience plus immersive, personnalisée et participative.

 

La transformation du magasin reflète une convergence de tendances individuelles et de notre société :

  • simplifier la vie du client en éliminant les tâches ennuyeuses ou pénibles (transport, paiement...),
  • lui redonner confiance (transparence sur l'origine de ses produits, son mode de fabrication )
  • pour lui proposer une expérience personnalisée mais aussi sociale où il peux agir au lieu d'être spectateur (ateliers DIY en magasin plutôt qu'acheteur passif).

Le véhicule autonome est un trait d'union entre le retail et la smart city. Il fera la tournée des magasins pour récupérer vos courses voire avec le "store-to-home", amène le magasin jusqu'à vous mais apporte aussi bien d'autres services (l'e-santé, la Poste, des hôtels mobiles) qui peuvent profondément transformer la ville en particulier ses flux.

 

La Smart City ou la ville intelligente va apprendre à s'adapter à ses habitants communicant avec ses véhicules, ses piétons, son infrastructure  alors qu'aujourd'hui c'est généralement l'inverse.

 

Bien sûr, la question des données, sa centralisation via des plateformes et l'utilisation respectueuse des données personnelles restent centrales pour que ces usages puissent se développer et être acceptés. De nombreux exemples provenant du CES Las Vegas 2018 et le Mobile World Congress à Barcelone l'illustrent

 

La décision récente de faire payer l'utilisation Google Maps par les développeurs montre aussi la nécessité de ne pas s'appuyer sur un seul fournisseur qui fournit ses services gratuitement ...

 

 

Les principaux sujets abordés sont :

Retail

Smart Car to Smart City

  • Smart Car : Véhicule autonome sans volant et par vocation
    • Véhicule autonome, partagé et nouvelle source de revenus
    • Expérimentations avec Rouen Normandie et Transdev - Véhicules autonomes électriques à la demande sur routes ouvertes
  • Ford et la plateforme d’usages dans la ville
  • Arrêter le sur-mesure pour les territoires et passer à des solutions standards - Fiware
  • Toyota – Véhicule Autonome multi-services – Magasin, hôtel, FabLab
  • Voiture anti-pollution et Coût total environnemental d’un véhicule électrique
  • 5G – V2V (Vehicle to Vehicle)
  • Réduction des coûts du Lidar
  • Last but not least: Comment va-t-on respecter la vie privée ?

 

Conclusion

Retail

Le retail est en train de vivre un profond bouleversement, la frontière entre l'e-commerce et le commerce physique s'estompe fortement, les deux univers se nourrissent l'un l'autre.

 

Les 3 axes majeurs de transformation dans les points de vente sont la réduction des frictions qui mène à l'achat (en particulier le paiement), l'expérience immersive, la personnalisation de masse.

 

Un des problèmes de l'e-commerce est le très faible taux de transformation en achat (< 0,2% de clics sur des bannières de pubs pas converties en achat !) qui est bien supérieur dans le commerce physique. Un des problèmes du commerce physique est que sa zone de chalandise est bien inférieure à celle d'un site d'e-commerce et que nous avons nettement moins d'informations sur les clients que sur un site e-commerce (les deux sont certainement liés .

 

C'est sans doute l'une des raisons pour lesquelles, la tendance est à l'hybridation des deux mondes. De plus en plus d'acteurs issus du digital investissent dans le commerce physique ou réalisent des partenariats avec des acteurs majeurs. Amazon a racheté Whole Food Market et a réalisé un accord avec Monoprix, Google a réalisé un partenariat avec Walmart en particulier pour contrer Amazon Echo, Alibaba a réalisé un partenariat stratégique avec Auchan, Tencent avec Carrefour (pour le marché chinois). 

Réduire la friction en transformant un magasin avec le "Grab and Go"

Évidemment la raison pour laquelle nous souhaitons réduire les frictions du client c'est pour qu'il achète plus facilement et donc plus.

 

Amazon a créé Amazon Go son premier magasin Grab and Go (vidéo) à Seattle. A partir du moment où vous avez scanné pour rentrer, vous pouvez prendre (et remettre si nécessaire) les produits qui vous intéressent, et partir sans passer par la caisse. Attention, néanmoins, si vous prenez un produit pour quelqu'un d'autre, c'est vous qui payerez !

 

Néanmoins, Amazon a déplacé le point de friction à l'entrée. Il n'y a pas de queue à la sortie il peut y en avoir à l'entrée car il faut scanner l’application Amazon Go de son smartphone pour rentrer et pour passer les portiques. D'autre part, si vous n'êtes pas client Amazon, la friction est beaucoup plus importante que dans un magasin classique car vous devez créer votre propre compte sur Amazon avec vos coordonnées bancaires, télécharger l'application...

 

C’est la raison pour laquelle Amazon fait tant d’efforts pour avoir des clients réguliers et Premium qui une fois passé le premier point de friction, peuvent dépenser sans compter … enfin presque.

Monoprix (qui d'ailleurs a annoncé le rachat de Sarenza…  et a fait un pastiche de la vidéo d’Amazon Go, pour au final réaliser un partenariat avec lui sur la livraison de produits frais … ;) pousse de plus en plus l’hybridation. 

 

Quelques exemples : « Shop and Go », actuellement déployé dans 80 % du parc permet aux clients de laisser leurs emplettes en magasin, les courses sont emballées et livrées à domicile où s’effectue le paiement. 

Les e-commerçants, les logisticiens du « dernier mile » devraient proposer plus de solutions pour éviter les trajets retours à vide. Les casiers sécurisés et partagés dans les lieux publics pourraient aussi jouer ce rôle dans ce sens. La Poste propose ainsi une solution pour envoyer son colis directement à partir de sa boîte aux lettres.

Monop'Easy permet de payer avec son mobile sans passer par la caisse. « Shop & Give » permet de remettre gratuitement au livreur des produits alimentaires non périmés, des fruits et légumes ainsi que des piles et des ampoules usagées. C’est une excellente idée pour réduire le gaspillage.


Comment réduire les frictions ? Avec le "Sensor Fusion", en utilisant les capteurs et caméras pour identifier qui et quoi.

Le « Grab and Go » consiste à ce qu’un acheteur puisse prendre un produit et partir avec sans passer par la caisse (en payant ! sinon c’est puni par l’article 311-3 du Code pénal, trois ans d'emprisonnement et de 45 000 euros d'amende pour vol à l’étalage !)

 

Pour y parvenir, il faut savoir quel produit est pris (et potentiellement remis) et qui le prend. Une multitude de capteurs (poids, présence…) et caméras permettent d'interpréter les comportements des acheteurs, de les identifier ainsi que les produits choisis. Vous entrez dans le royaume du « Sensor Fusion », qui va combiner toutes les données et les interpréter pour répondre au fameux « Qui et Quoi » .

 

Ça tombe bien, une des applications majeures de l'intelligence artificielle (et des réseaux neuronaux) aujourd'hui est l'analyse et l'interprétation d'images et de vidéos (en plus de la reconnaissance vocale et du NLP utilisés notamment par Google Assistant et Amazon Alexa).

Aipoly équipe les magasins non seulement de caméras capables de déterminer la tranche d'âge, le sexe et l'humeur de la personne mais surtout les comportements. Bien sûr cela permet de faciliter le repérage d'éventuels voleurs mais aussi d’analyser le comportement des utilisateurs en face de produits, la prise en main d'un produit, la recherche d'informations sur le paquet.

 

De manière générale, la tendance est d'équiper le magasin pour avoir de plus en plus d'informations sur les clients de manière analogue à un site e-commerce.

 

D'ici quelques années, il y aura des dispositifs permettant de déplacer les produits (robots, rayons automatisés) qui permettront de faire de l'A/B testing directement en magasin afin de modifier le rayon en fonction du comportement des personnes.

Confidentialité des données personnelles 

Cela pose évidemment la question de la confidentialité de la vie privée, à partir du moment où il n'y a aucune donnée qui permet d'identifier la personne, cela est moins problématique. Dans la plupart des cas, les images sont soit analysées par un mini-serveur local voire même par la caméra, ce qui évite d’envoyer l’information.

 

Je redoute néanmoins le jour où le prix du produit sera fonction de la tête du client (ce qui se fait déjà sur les sites e-Commerce), néanmoins ça pourrait avoir un impact inattendu, avoir des prix qui correspondent au niveau de vie de la personne ce qui réduirait ainsi les inégalités... (tout dépend bien sûr des critères qui seront utilisés !).

 

Vu du commerçant, il serait intéressant de tracer l’historique des visites d’un client dans le temps (on peut par exemple lier un visage ou une morphologie avec une signature à quatre caractères alphanumériques (technique de hashage) qui empêcherait une identification mais permettrait de suivre un client lorsqu'il revient cf. article). Dans un magasin, cela permettrait aussi de savoir le nombre de personnes différentes venant dans celui-ci (en retirant le doublonnage.).

 

A l'image d'une clé RIB où on essaierai de retrouver le numéro d'un compte, il n'est pas possible de reconstituer à partir de ces 4 chiffres, le visage d'une personne. En revanche, si on a accès à une base d'images suffisamment restreinte associée à des identités et le hash de chaque image (possible en croisant différentes données comme le sexe, âge, localisation...), il serait alors possible de retrouver l'identité de la personne.

 

En revanche, cela peut être gênant vu du client final selon la durée de stockage des informations même si elles restent anonymes.

Différencier un magasin physique d'un site e-commerce avec une expérience immersive

Au-delà de faciliter la vie du client, le point de vente doit absolument apporter une expérience différente d'un site e-commerce, l'achat de produits banalisés sera de plus en plus l'apanage des sites e-commerce.

 

En revanche, le point de vente a des vraies cartes à jouer pour d'une part apporter une expérience immersive, très difficile ou trop chère à réaliser chez soi et personnaliser parfaitement son produit très facilement et très rapidement en fonction du client.

 

Créer une expérience immersive chez chaque particulier n’a pour la très grande majorité des cas que peu de sens économique (même si nombre d’entreprises proposent leurs machines à fabriquer des cosmétiques chez soi…), c’est donc une vraie barrière à l’entrée que de créer une expérience immersive. Il est beaucoup plus facile de la réaliser en magasin.  

 

Le produit n'est pas encore très folichon mais Sniffy associe affichage de vidéo et des odeurs. D'autre part, on ne vient pas au magasin pour voir des vidéos mais pour voir les produits les tester, je reste donc perplexe sur la réussite de ce produit. En revanche je crois beaucoup plus à l'association des odeurs ou d’autres sensations avec un environnement immersif.

Le magasin se transforme en showroom d'expériences difficile à reproduire chez soi. Woolrich a créé ainsi dans son magasin phare à Milan un « Extreme Weather Experience Room » où les clients peuvent tester leur Parka dans une pièce à -20°c, neige, glace vent inclus. (En revanche, pas top pour sur le plan énergétique …)

 

Le magasin doit ensuite transformer cette expérience en achat en magasin ou au pire après coup. 

En personnalisant ses produits

La réalité virtuelle permet d’avoir une première expérience d’un service (ex : voir ses vacances en réalité virtuelle) mais surtout de personnaliser un produit avant de le fabriquer (les véhicules, chaussures, vêtements personnalisés à votre goût).

 

La personnalisation peut devenir tellement précise et attendue par le client qu’il n’est pas possible pour l’utilisateur d’aller dans un autre magasin ou enseigne (cf. fonds de teint Lancôme et chaussures sur-mesure par Blueridge sur base de vos pieds scannés en magasin)

Réalité virtuelle pour voir son produit personnalisé avant sa fabrication 

La réalité virtuelle permet aussi de réduire la taille des magasins tout en proposant une variété de produits personnalisés beaucoup plus grande à l'image de ce que l'on voit sur les sites e-commerce. Cela peut d'ailleurs être un levier pour développer le commerce en centre-ville sur des petites surfaces.

 

De plus en plus de constructeurs automobiles comme Peugeot et Audi intègrent dans leur concession des dispositifs de réalité virtuelle pour personnaliser son véhicule directement en ayant une vision de plus en plus réaliste à l'intérieur et à l'extérieur du véhicule. (ci-contre une opération Marketing de Peugeot pour transformer une cabine téléphonique en concession grâce à la réalité virtuelle ;)

 

Même si cela doit prendre plus de temps au client pour choisir vu la multitude de possibilités cela doit aussi augmenter le taux de transformation du concessionnaire. 

Comme la fabrication d’un produit personnalisé en un temps réduit en magasin n’est possible que pour peu de produits, il est nécessaire de le présenter de la manière la plus réaliste possible en utilisant par exemple la réalité virtuelle / mixte ou des solutions de vidéo mapping comme Smart Pixels sur des produits physiques « blancs » dans des magasins.

 

On peut ainsi personnaliser ses chaussures (Berluti ou Nike selon vos moyens ;), ses chemises (pour l'instant sur un mannequin.) en boutique, et se faire livrer un peu de temps après chez soi ou en boutique.

À une taille plus réduite que le stand de Ford au CES, on peut imaginer une pièce ceinte d’écrans affichant des vidéos émettant des odeurs adéquates pour immerger les clients (plusieurs entreprises réalisent déjà ce type de prestation synchronisant vidéo et diffusion d'odeurs).

 

On peut aussi associer l'immersion via des lunettes 3D et la diffusion d’odeurs en fonction du lieu virtuel dans lequel on se trouve (une autre entreprise française réalise aussi cela). 

Personnalisation du produit avec une image imprimée associée à la vidéo personnelle

Une des manières de personnaliser des produits en magasin est simplement d'ajouter un sticker photo avec votre photo directement prise à l'achat ou que vous choisissez sur votre smartphone.

 

Cela paraît très basique sauf si vous associez à cette image, une vidéo de vous souhaitant Bonne Anniversaire via una application ad hoc.  Le principe est simple mais cela permet de très facilement apporter une touche de personnalisation et d'émotion à son produit.

 

C'est sur principe qu'est parti PostMii très récemment qui au-delà de sa première activité, impression sur place d'une photo lors d'un événement, soirée associé à une vidéo a choisi de le proposer aux boutiques cadeaux notamment. 

 

Il faut que la personne recevant le cadeau accepte de télécharger l'application PostMii pour avoir son message mais  la très grande majorité le font ... Dernier point, cela permet aussi au commerçant de récupérer les coordonnées du client (pas du destinataire car il n'a rien demandé !).

La personnalisation avec la fabrication chez soi

Au CES, beaucoup de startups proposaient de personnaliser ses cosmétiques (Romy, Emuage)  ses huiles essentielles (Oblend), parfums d’ambiance (Moodo) ou de parfums à porter( Nota-Nota)

 

Aujourd'hui, ils proposent leurs solutions en B2C ce qui me semble voué à l’échec.

 

C'est un peu la yaourtière des temps modernes mais pour les cosmétiques. En revanche, en B2B cela a tout à fait du sens, c'est une solution qui permet d'une part de proposer un produit complètement personnalisé à un grand nombre de clientes (ce qui amortit le prix de la machine) avec des marges nettement plus élevées. 

Le meilleur exemple à ce titre est le fond de teint Lancôme que vous pouvez directement personnaliser dans un certain nombre de boutiques en fonction de la couleur exacte de votre peau (il est aujourd'hui difficile de trouver le bon de fond de teint correspondant à sa peau, c'est la raison pour laquelle en général, les femmes changent peu de fond de teint par la suite).

 

Ce fond de teint Lancôme est vendu à 70 € Vs 35€ à 40€ pour les autres fonds de teint Lancôme (cf. article et photos).

Le Food, services et l’abonnement le nouveau modèle économique des magasins ?

Apporter une expérience immersive, personnaliser ses produits en magasin coûte cher et risque de transformer nombre de magasins en show room (visite en magasin, achat en ligne), ce qui pour des raisons économiques va réduire leur nombre. 

 

Il y a deux tendances pour compenser au moins partiellement ces coûts additionnels et inciter les clients à revenir régulièrement :

  1.  l’arrivée de nouveaux services directement intégrés dans les magasins, cohérents avec le point de vente et idéalement utilisant les produits en boutique (ex : restauration dans un hypermarché, coiffeur, manucure, esthéticienne dans une boutique de cosmétiques, ateliers de bricolage dans des GSB)
  2. le paiement d’abonnement / forfait pour accéder à certains services ou lieux

La personnalisation en magasin - DIY - Do-it-Yourself - Aroma-Zone

Alors que la fabrication chez soi n'est pas la voie la plus rentable et la personnalisation en magasin comme le propose Lancôme est assez onéreuse, il y a une troisième voie qui correspond à des aspirations de plus en plus fortes des clients le DIY ou Do-It-Yourself en magasin.

 

En effet, vu du client, il permet à celui-ci de prendre plaisir à fabriquer ses propres produits avec des ingrédients proposés par le magasin. A condition que le magasin joue la carte de la transparence sur l'origine des matières premières (répondant à un besoin accru de transparence lié à une méfiance aiguisée des consommateurs vis-à-vis des marques), cela contribue aussi à rassurer le client et même à créer un engagement beaucoup plus fort du client vers la marque. Le client devient fabricant de produits de la marque ! D'autre part, cela permet aux clients d'en rencontrer d'autres, d'avoir des activités sociales variées...

 

Pour la marque, les bénéfices sont multiples en plus de l'engagement et de la fidélisation. La première est que l'achat en ligne n'est pas à même de reproduire la même expérience ! Cela fait même venir des clients et les ateliers de fabrication étant souvent payants, c'est une source supplémentaire de revenus ! Quand on y pense, c'est un comble ;) Avant une marque payait des salariés pour assembler des produits, maintenant ce sont les clients qui paient pour les fabriquer. Le rêve pour une marque ;) Pour être honnête, la production par des clients est nettement inférieure à la production pour une finition souvent nettement moins bonne ... Ce qui fait qu'ils repartent avec des produits déjà faits par la marque. En revanche, la valeur émotionnelle pour les produits fabriqués par le client est nettement supérieure.

 

C'est l'approche d'Aroma-Zone qui propose à ces clients de réaliser leurs crèmes, rouges à lèvres ... dans leur magasin à St Germain à Paris avec des ateliers qui ne désemplissent pas.

L'abonnement au magasin pour offrir des services exclusifs - Wingtip

Un exemple intéressant est celui du magasin Club une WingTip à San Francisco (ancienne Banque d'Italie) qui est à la fois un magasin libre d’accès similaire au Printemps  Homme vendant aussi bien les vêtements, les alcools, vins, cigares. Il dispose d’un barbier logé dans un ancien coffre fort pour un accès destiné aux membres (125 dollars pour 4 visites par mois ou un accès illimité pour 200 dollars habitant dans les environs).

 

Les services proposés vont d’un accès à un superbe rooftop sur San Francisco, des salles privatisées, un simulateur de golf, un retoucheur et tailleur sur-mesure, une mini-cave personnelle mais aussi la possibilité de se voir prêter des produits de marques et d’échanger des montres (une Rolex contre une Breitling par exemple mais pas une Swatch ;)


J’imagine mal avoir un abonnement pour chaque magasin,  ça reviendrait vite cher !

 

On peut néanmoins imaginer un espace-membre aux Galeries Lafayette ou Printemps avec des services comme des coiffeurs, salons de massage, des cours de yoga, gym suédoise … avec des prix réduits ou intégrant certains services… et un abonnement a coût nul si les dépenses dépassent un certain montant. Ils proposent des services mais pas aussi élaborés.

 

Pour inciter les clients à les faire sortir de leurs tanières et de leurs écrans pour venir en magasin, les distributeurs et les marques vendues par ces distributeurs ne peuvent plus se contenter de vendre des produits, ils doivent apporter des services connexes afin de fidéliser les clients et les inciter à sortir de chez eux pour venir dans leur magasin.

 

Il y a aussi un impact collatéral potentiel, cela pourrait réduire le nombre d’indépendants sur tous ces métiers de services. En revanche, les groupements de franchisés pourraient en bénéficier pour devenir des shop in shop ainsi que les indépendants qui s’associent à une marque ou à un distributeur. 

Hôtellerie nouveau canal de distribution grâce à l'expérience client vécue 

Autre innovation commerciale, Sensorwake a réalisé un partenariat avec le groupe hôtelier asiatique HIS. De nombreux Sensorwake sont installés dans les chambres ce qui permet aux clients de les tester au réveil.

 

L'hôtel propose ensuite de vendre le réveil olfactif. Guillaume Rolland (CEO) m'a indiqué que le taux d'achat est très bon car les personnes ont pu tester et vivre l'expérience du produit avant.  Cela va dans la tendance de plus en plus forte de proposer l'expérience d'un produit ou d'une solution avant l'achat (alors qu'en général, on achète sur base d'avis et d'expérience d'autres utilisateurs puis on l’achète).

 

À ce titre, les groupes hôteliers peuvent devenir de vrais nouveaux canaux de distribution de produits car ils ont cette chance de permettre aux clients de vivre des expériences avec des produits qui n'ont pas acheté. En revanche, cela ne réussit pas pour tous les produits, AccorHotels aurait aussi fait des tests dans ce domaine qui n’auraient pas été concluants.

 

Le produit proposé doit être cohérent avec l’expérience à l’hôtel, on ne doit pas le trouver pas facilement ailleurs (ex : produits locaux), et même idéalement on peut le personnaliser (date, lieu, événement) si c’est un lieu de villégiature, à un prix consistent avec un achat coup de cœur.

 

D’autre part, l’achat doit être extrêmement facile, ce n’est plus le « Steal and Go » du fameux peignoir de bain de l’hôtel, mais du « Grab and go », directement mis sur la facture.

Avec AccorLocal, AccorHotels diversifie les usages de ses hôtels (et potentiellement accroît son « yield ») en devenant une plateforme de services locaux à destination des habitants proches grâce aux commerçants et indépendants en se fondant sur l’expérience de JohnPaul racheté récemment.

 

L’exemple typique, ce sont les cours de Yoga entre 18h et 20h dans des salles de réunion (période où elles sont vides).

Pour augmenter le taux d'occupation de ses suites, de nombreux hôtels à Las Vegas les propose pour réaliser des soirées « Corporate » (par exemple soirée KickstarterIndieGoGo ou Hardware Club ;) à des prix nettement inférieurs que la location d’une salle ou d’un restaurant avec un service traiteur, nettoyage ...

 

Ce serait intéressant de voir si les hôtels modifient la configuration de leurs salles et chambres pour devenir plus modulaires et fournir des services additionnels.


Fog manufacturing - Personnalisation de masse : Transformation de la fabrication 

La personnalisation de masse associée à l'exigence d'instantanéité des clients peut profondément transformer les circuits de fabrication des produits. Cela oblige à réduire fortement les délais et les distances entre le consommateur final et la production du produit.

 

J'appelle ça le fog manufacturing (cf. article) avec des unités en magasin qui personnalisent le produit, alors que les éléments standards ou banalisés (ex: une base de crème) peuvent être produits beaucoup plus loin.

 

Cela transforme aussi le mode de conception des produits qui doivent être conçus dès le départ comme modulaires. Les modules personnalisables peuvent l'être à proximité du client, dans un délai et un coût réduit.

 

C'est d'ailleurs le positionnement de Blue Ridge qui propose une solution permettant de scanner son pied et d'obtenir une chaussure sur mesure.

 

Dès le départ la chaussure a été conçue pour pouvoir s'adapter à chaque pied pour des coûts de fabrication d'une chaussure standard et non d'une chaussure sur mesure. C'est la customisation de masse.

 

Cette personnalisation pose néanmoins une question sur la réutilisation et recyclabilité. Un mug avec votre photo dessus a beaucoup moins de chances d'être réutilisé qu'un mug non personnalisé sauf si dès le départ la personnalisation est facile à enlever. C'est un vrai enjeu si on veut éviter un gaspillage encore plus massif de produits. En revanche, on peut s'attendre à ce que les produits personnalisés soient moins jetés ou gaspillées (pour des raisons émotionnelles, il est probable que vous gardiez plus longtemps votre mug personnalisé qu'un mug standard.)

Under the hood – Logistique et les robots livreurs

Alors que la friction liée au paiement se réduit de plus en plus aujourd'hui le principal point de friction est la livraison du produit ou le déplacement nécessaire pour acheter et obtenir le produit.

 

C'est l'une des raisons pour laquelle le véhicule autonome et les robots autonomes livreurs ont tellement le vent en poupe auprès des plus gros sites e-commerce.

 

Ce n'est pas un hasard si les BATX (Baidu, Alibaba, Tencent Xiaomi) s'intéressent autant au véhicule autonome. Baidu ainsi présente son camion autonome Apollo qui lui permettra d'automatiser encore plus la chaîne logistique, réduire les coûts et les délais ( les 3*8 devienne les 1*24 !)

 

Alibaba a aussi pris une participation de 10 % dans Xiaopeng Motors qui a présenté son véhicule autonome au CES.

C'est aussi l'un des premiers usages présentés par Ford, où l'on voit le véhicule autonome faire la tournée des magasins pour récupérer les produits achetés en ligne sur le site e-commerce du commerçant local.

 

Il y avait aussi au CES, beaucoup de robots autonomes comme Twinswheel qui peut vous suivre à la trace ou Unsupervised.Ai qui propose un robot à la Boston Dynamics pour livrer sur les 50 derniers mètres. 


C’est ce que Toyota appelle le Real e-Commerce, le van e-palette équipé comme un magasin de chaussure (ou de vêtements) vient à votre domicile. Vous pouvez essayer les chaussures et les prendre avec vous ce qui débitera automatiquement votre compte.

 

 

e-palette est beaucoup plus modulable que Robotmart puisque vous pouvez aussi transformer ces véhicules en casino, en hôtel individuel en Fab Lab…

L'étape ultime semble être le magasin mobile autonome qui vient à vous.

 

RobotMart avait présenté son véhicule autonome primeur intégrant du Grab and go. Vous demandez via une application qu'il vienne chez vous, vous prenez les fruits et légumes qui vous plaisent. Avec un système de caméra et de capteurs, il est capable de savoir ce que vous avez pris et directement de ponctionner la somme correspondante sur votre carte de crédit.


Logistique – Robotisation des entrepôts et de la livraison

L'utilisation de ses robots en particulier dans les entrepôts permettrait de réduire la pénibilité du travail ainsi que  le transport de bagages dans des aéroports.

Dans le même registre, Eyesee a aussi présenté son drone capable de réaliser l'inventaire d'un entrepôt sur base des codes-barres sur les paquets.

 

De manière générale, il faut s'attendre à ce que les services associés au site e-commerce et physique soient de plus en plus mutualisés même entre concurrents afin d'avoir des effets de masse et réduire les coûts (ex: Monoprix a signé un partenariat avec Ocado, leader du e-commerce alimentaire outre-Manche qui construit un entrepôt automatisé, robotisé au nord de Paris pour livrer d'abord Paris, puis l'Ile-de-France, la Normandie et les Hauts de France et avec Amazon pour la livraison en 1 à 2h de produits frais à Paris ).

 

C’est aussi la raison pour laquelle, Alibaba mettait en avant ses solutions de production de contenus, de maison connectée, d’applications industrielles et autres, tournée autour de l’intelligence artificielle au CES à l’image de ce que fait Amazon avec AWS et ses solutions logistiques.

 

Les acteurs chinois devraient être de plus en plus présents en Europe et aux Etas-Unis, parfois en en réponse à l’hégémonie d’Amazon (cf. Accord entre Auchan et Alibaba et le lancement de Tmall Genie qui ressemble étrangement à Amazon Echo…pour passer commande sur Alibaba).

Smart Car to Smart City

Smart Car : Véhicule autonome sans volant et par vocation

Au CES Las Vegas, on n'est pas constructeur automobile si on n'a pas présenté sa voiture autonome ;)

 

Tout le monde avait la sienne même si la démocratisation de la voiture autonome ne devrait pas arriver au plus tôt avant 2025/2030 pour des raisons de coûts, d'infrastructures routières et de réglementation (pour info je commence une nouvelle étude avec les Echos à ce sujet, elle ira beaucoup plus loin sur le sujet que ce que j'avais présenté lors de ma première étude il y a 2 ans).

 

Aujourd’hui l’intérêt de proposer les services à l’intérieur d’un véhicule (ex: proposer de remplacer les essuies-glaces, déjeuner à proximité, visiter tel site) reste encore limité car il est utilisé moins de 10% du temps par an, en moyenne par 1,5 personnes  y compris le conducteur qui ne devrait se porter que sur la route …. ;) 

Dans ces conditions, il est difficile de vouloir distraire plus encore ce conducteur à moins que cela serve directement à sa sécurité (plus quelques services de conforts), c’est ce que propose Nissan qui avant de se débarrasser définitivement du conducteur, veut interfacer le cerveau et le véhicule avec le brain-to-vehicle (B2V) technology (en référence à la communication V2V vehicle-to-vehicle entre véhicules).

 

Un bandeau sur la tête permet de réagir plus rapidement (temps de réaction entre cerveau et les membres) et d'anticiper les mouvements. Pour des raisons de sécurité, il y aura un contrôle de plus en plus élevé sur la capacité du conducteur à conduire (éthylotest obligatoire, contrôle d'hypovigilance...) ce qui d'ailleurs incitera tout le monde à passer le volant ... à la voiture autonome. Cela semble gadget à ce stade car c’est une solution transitoire et un peu compliquée sauf à transformer le véhicule en cabinet médical….

Byton (société chinoise) reste sur le véhicule connecté et a fait autant de bruit que Faraday Future l'année dernière avec sa concept car. Il pousse la personnalisation de l'interface au maximum et abuse du geste pour commander son véhicule. L'omniprésence des écrans devient oppressante. Qui sait, au prochain CES, il n’y aura peut-être même plus de pare-brise et de vitres, remplacés par des écrans flexibles.

 

Il y a de fortes chances que Byton termine comme Faraday Future (aussi chinois) qui a disparu d'ailleurs des radars depuis. Autant sur le hardware, les sociétés chinoises sont capables de faire des prouesses, autant sur l'intégration du hardware et du software comme c'est le cas dans l'automobile ils ont d'énormes progrès à faire pour plaire aux consommateurs occidentaux. 

Véhicule autonome, partagé et nouvelle source de revenus 

Mercedes présente Smart Vision EQ Concept, son nouveau concept sans volant ce qui paraît logique à terme mais peut être perturbant (surtout si on fait face à la route car nous sommes dépossédés de la capacité d’agir sur le véhicule). ;)

 

Le véhicule autonome est par essence électrique (pardonnez-moi pour ce mauvais jeu de mots…) et surtout partagé.  Compte tenu de la faible utilisation des véhicules et du coût bien supérieur, ce serait un non-sens économique qu’un véhicule autonome reste individuel.

 

Pour amortir ce coût, il est donc essentiel de le partager. Cela pourrait même être un investissement financier, on investirait dans un véhicule comment on investit dans un logement pour louer. Un certain nombre d’intermédiaires pulluleraient sur des plateformes comme Drivy, à l’image de ce qui se passe sur AirBnb où des agents auraient pour charge de gérer une multitude de véhicules pour gérer la maintenance, la réparation, les formalités administratives… des véhicules.

Plus probablement, ce sera un marché qui servira de relais de croissance pour les constructeurs automobiles et les acteurs de l’after market (Norauto, Speedy, Feu Vert…). L’avantage d’investir dans un véhicule autonome plutôt qu’un logement est que la barrière à l’entrée est beaucoup plus réduite en termes de coûts, l’utilisation du véhicule est beaucoup plus faible que celle de logement, ses usages et sa zone de chalandise sont aussi beaucoup plus vastes de par sa mobilité. Pour le constructeur automobile, on peut imaginer des montages financiers où le prix du véhicule est payé par un crédit remboursé par les revenus tirés par le partage du véhicule et où il prendrait une commission à chaque étape. 

 

Une autre vitrine du véhicule autonome (ci-dessus un prototype de Nvidia) sera dès 2019 les RoboRace, les premières "Formules 1" de véhicule autonome qui utiliseront les mêmes circuits que les circuits de Formule E (Electrique). Les véhicules sont identiques (fondés sur la plateforme NVIDIA Drive Pegasus AI) en revanche le software et l'IA sera développés par chaque équipe.

Expérimentations avec Rouen Normandie et Transdev - Véhicules autonomes électriques à la demande sur routes ouvertes  

Rouen Normandie et Transdev présentait dans la partie Smart City, leur expérimentation utilisant 4 véhicules autonomes (Renault Zoé rendues autonomes) accessibles au public. Il permet de se rendre de la gare à un point proche du domicile (17 points d’arrêts) ou l'inverse en utilisant la voie publique.

 

On peut commander directement son véhicule à partir d'une application. Le trajet est gratuit (car c'est dans le cadre légal d'une expérimentation). Si deux personnes veulent utiliser le véhicule en même temps pour des directions proches, le trajet sera nécessairement partagé par les deux.

 

Cette expérimentation aura un conducteur à bord jusqu’à mi-2018 mais en sera dépourvu après … L’intérêt de celle-ci est multiple, explorer l’intégration d’un véhicule autonome sur une route ouverte aux autres véhicules, dans un cadre plus large de mobilité comme une « last-mile » navette, tester l’appétence des utilisateurs à ce nouveau mode de transport après les premiers effets de curiosité mais aussi face à des dégradations possibles … Beaucoup de questions trouveront une réponse pragmatique grâce à cette expérience terrain.

Ford et la plateforme d’usages dans la ville

Ford a juste montré deux véhicules, à côté d'écrans géants sur son stand nous immergeant dans la ville. Il est sans doute le constructeur automobile ayant été le plus loin dans l'intégration de la voiture autonome dans un environnement plus global, la Smart City (sur les vidéos en tout cas !).

 

Il propose de devenir une plateforme de services fondée sur la mobilité avec des services concrets pour le particulier ("car sales pickup" - votre véhicule fait la tournée des commerçants auprès desquels vous avez acheté vos produits qui les dépose au fur à mesure dedans). Ils vont même plus loin en imaginant comment un véhicule dont le conducteur aurait un malaise non seulement appellerait les secours tout en garant la voiture sur le bas-côté mais aussi pourrait modifier la signalisation des feux rouges pour faciliter l'arrivée de secours et réduire les risques d'accident.

 

La ville se réorganise, se reparamètre en fonction de chacun de ses constituants, véhicules, piétons, infrastructures …

Ce qui pose d'ailleurs plusieurs questions …

Qui va tout gérer ?

 

Ford se positionne pour devenir la plateforme de la ville et multiplie les partenariats (ex : Postmates pour livrer les colis)  mais qui au final est le plus légitime pour détenir cette plateforme, serait-ce un acteur privé, un GAFA ou tout simplement la ville ? 

Arrêter le sur-mesure pour les territoires et passer à des solutions standards - Fiware

Pour qu'il y ait un vrai développement de la Smart City, il faut que les entreprises qui développent des solutions puissent les utiliser dans de nombreuses autres villes et ainsi éviter de devenir dans une société de service, qui nécessite de réinventer la roue à chaque nouveau projet. 

Si les territoires ne prennent pas en main directement le sujet, le risque est que ce soit des acteurs privés comme Ford, des GAFA qui aient la mainmise sur le développement de la ville intelligente.

 

Or, les territoires ont un rôle majeur dans cette transformation, en revanche ils doivent être capables de cerner ce qu’ils sont capables de réaliser par eux-mêmes et ce qu’ils doivent déléguer à d’autres acteurs notamment privés.

 

Ils me semblent les seuls capables (en concertation avec la région, l’Etat) d’être garants de l’intérêt des citoyens et d’en piloter les différents acteurs autour de la Smart City. Ils doivent aussi accepter de ne pas développer des solutions sur-mesure spécifiques uniquement à leur ville (cf. article sur la Smart City) pour deux raisons : cela prendrait beaucoup trop de temps et cela coûterait beaucoup trop cher.


Pour que cela soit possible, il faut que les villes acceptent de réutiliser des solutions existantes qui réussissent plutôt que de partir du principe que leur ville n'a rien à voir avec les autres et donc doit avoir une solution qui leur est spécifique. Fiware est par exemple une plateforme digitale open source pour la Smart City financée par l’UE qui peut se combiner avec les standards proposés par OneM2M.

 

Elle a été adoptée par de nombreuses villes à l’étranger (Séville, Prague…) mais trouve très peu d’échos en France (St Quentin l’utilise). Si un écosystème de solutions de startups, PME/ETI… se mettait en place autour de ce standard (ou d’un autre ouvert), cela réduirait fortement les coûts de déploiement et délais, accroîtrait la sécurité (car testée par de nombreux acteurs). Aujourd’hui, les villes préfèrent encore se lier à des solutions propriétaires sur lesquelles elles s’engagent sur des longues périodes… Pourquoi ? ….

Toyota – Véhicule Autonome multi-services – Magasin, hôtel, FabLab

Toyota avait le concept le plus innovant dans le véhicule autonome avec son véhicule e-palette.  

 

Un des changements fondamentaux apportés par le véhicule autonome est non seulement l’absence de conducteur (ce qui réduira drastiquement le nombre de morts), mais aussi les conséquences de cette absence (en plus de la réduction du nombre de chauffeurs…).

 

Le véhicule a un espace disponible accru (il n’y a plus de volant, de pédales, de tableau de bord dédiés à la conduite) et cela permet de transporter et d'apporter des services en même temps (ou en temps masqué). Cela libère le transport en réduisant fortement son point mort : moins de coûts (pas de chauffeurs) et de contraintes humaines (temps pour le conducteur pour se reposer ou  faire autre chose ) donc un temps d’utilisation allongé.

 

Des services accessibles seulement sur certains transports communs (avion, train) deviennent accessibles au véhicule individuel et vans.


Le premier exemple est le « mobile hotel » qui permet de dormir dans un lit durant un long trajet. Evidemment, cela nécessite un changement de la réglementation pour autoriser les déplacements sans ceintures de sécurité.

 

Un véhicule autonome pourrait rentrer dans la catégorie des véhicules de services publics contraint par nécessité de service de s'arrêter fréquemment et qui ne nécessite pas de ceintures… Pour un « mobile hotel », c’est un peu compliqué à justifier ;) En revanche, on peut utiliser une flotte de « mobiles hotels « dans les lieux sans hôtels ou en sous-capacité ponctuelle.

 

Pourquoi ne pas imaginer commander son « mobile hotel » quand on part en voyage d’affaires ou des vacances en solo sur une courte période (il n’y a de place que pour un lit une place !) ? On pourrait y dormir, y travailler, il nous emmènerait sur nos lieux de rdv sans perdre de temps dans les transports.

Au-delà des services de livraison automatisée, le magasin mobile verra certainement le jour en premier (décrit plus haut). La fabrication (de pizzas et pas seulement livraison) et le Fab Lab mobile semblent plus compliqués à mettre en œuvre compte tenu de la spécificité de l’équipement à mettre dans e-Palette.

 

En poussant l’idée plus loin, Toyota imagine un « on demand city », où des véhicules autonomes apporteraient tous les services lors d’un événement par exemple un concert, (food truck, "mobile hotel", santé…). A long terme, cela pourrait être une idée pour desservir les zones rurales qui manquent de services (santé, Poste, hôtellerie mobile…)

 

Un principe essentiel d’e-Palette est sa fabrication modulaire sur une base identique (3 modèles de même hauteur et largeur), l’équipement intérieur est modulaire. Cela ressemble étrangement au concept de France Craft présenté il y a deux ans avec son véhicule électrique modulaire…

 

e-Palette est fondé sur une plate-forme ouverte Mobility Services Platform (MSPF), Toyota s’est associé à Amazon, Didi (concurrent d’Uber en Chine), Mazda, Pizza Hut et Uber pour développer de nouveaux services avec eux. Le lancement commercial d’e-Palette n'est pas pour demain néanmoins une première expérimentation sera présentée lors des Jeux Olympiques 2020 à Tokyo. 

 

 L'utilisation de véhicules et de robots autonomes de livraison sur la voie publique pose néanmoins des problèmes d'occupation de la chaussée ou du trottoir de piste cyclable sur lequel il va falloir commencer à réfléchir en termes de de sécurité, priorité...

 


Voiture anti-pollution et Coût total environnemental d’un véhicule électrique 

Hyundai présentait un oxymore technologique, enfin pour l'instant, un véhicule anti-polluant. Ce véhicule utilise des piles à hydrogène associées à un purificateur d'air. Les deux systèmes ne sont pas liés, et donc ce purificateur est applicable aux véhicules électriques habituels et réduirait la pollution extérieure.

 

Un véhicule électrique pollue beaucoup plus en amont qu’un véhicule à moteur à explosion (mais moins lors de son utilisation) et pollue aussi en aval, ce serait donc un minimum qu’il dépollue lorsqu'il est utilisé ;)

En amont, la fabrication d'un véhicule électrique pollue beaucoup plus qu'un véhicule à moteur à explosion en raison de la pollution provoquée par

  • l’exploitation minière nécessaire pour extraire du lithium et des métaux rares nécessaires à la batterie (sans compter les autres impacts écologiques)
  • la production d'électricité génère une pollution extérieure car elle provient au pire de centrales à charbon ou à pétrole et par des centrales nucléaires (pollution à long terme). Même les panneaux photovoltaïques et les éoliennes génèrent de la pollution liée à leur fabrication et à l’utilisation de batteries.

En aval, le recyclage des batteries est coûteux, polluant et potentiellement dangereux, leur réutilisation notamment pour stocker l’énergie (panneaux solaires, la maison) est une des voies pour augmenter leur durée de vie. Par exemple, le stade Amsterdam Arena abritera une installation de 280 packs de batteries de Nissan LEAF (le véhicule électrique du constructeur japonais) en guise de système de stockage d'électricité de secours.

Le Total Environmental Cost réduit si le véhicule autonome favorise les modes de transports « doux » et collectifs

 

Il semble impossible de créer un véhicule complètement propre, la première étape est d’évaluer le Total Environmental Cost en intégrant la fabrication, l'usage et la réutilisation d'un véhicule électrique et de ses composants en fonction de son type de batteries et du mode de production de l'énergie et par rapport aux véhicules à moteur à explosion.

 

Le développement du partage des véhicules, de l'usage par rapport à la propriété et finalement du véhicule autonome devrait réduire le volume de voitures produites par rapport aux véhicules actuels et donc la pollution. Le véhicule électrique doit être aussi un levier à l’usage de transports ayant un impact environnemental plus faible (en facilitant l’intermodularité entre des véhicules électriques et les trains, le vélo par exemple). Pour donner un exemple, si le véhicule autonome incite plus de personnes à prendre les transports en commun parce que cela simplifie les déplacements (ex : navette entre le domicile et la gare), cela réduire de manière globale le nombre de déplacements en véhicule individuel.

5G – V2V (Vehicle to Vehicle)

Le développement de la voiture autonome est tributaire de la communication directe entre véhicules et avec les infrastructures routières … sans passer par une plateforme Internet pour éviter les délais de latence. Il permet notamment le "see-through", voir ce que la voiture en face de vous voit.

 

Qualcomm en fait d'ailleurs un argument pour développer la 5G intégrant son protocole de communication (C-V2X, ou Cellular V2X) fondé sur le standard international 3GPP Release 14.

 

En creusant le sujet avec un des techniciens de Qualcomm, ce n’est pas tout à fait exact. En réalité, le C-V2X sera déjà disponible avec la 4G a priori en test en 2018. Avec la 5G, cela se permettra d’accroître encore plus les performances. Ahhh, les amalgames pour vendre une techno, les fabricants de puces sont incorrigibles. ;)  

A leur décharge, précisons que les délais de latence en 4G sont trop longs pour permettre une utilisation en temps réel pour réagir en cas de risque de collision qui est une des promesses de la 5G …

 

Petit rappel : V2X = Vehicle to Everything  et intègre : V2V, Vehicle-to-vehicle, V2I, Vehicle-to-Infrastructure, V2P : Vehicle-to-Pedestrian, V2D :  Vehicle-to-device and V2G, : Vehicle-to-grid.

Réduction des coûts du Lidar

Afin d'avoir une évaluation très précise des distances, une caméra ne suffit pas, il est indispensable d'embarquer des Lidar (utilisant des rayons laser pulsés ensuite réfléchis et captés), Velodyne et Quanergy se sont spécialisés dans ce domaine et réduisent de plus en plus les prix (de l’ordre de 10 000 € aujourd'hui, 75 000€ il y a 15 ans) et leur taille. Pour démocratiser cette technologie, il faudrait baisser selon les fabricants automobiles, réduire le prix à 250$ …

 

Avec la montée en puissance de la conduite assistée et des véhicules autonomes, on va certainement diviser leur prix comme cela s'est passé pour les accéléromètres avec le développement de la Wii de Nintendo puis les smartphones.  Mais pour réduire à court terme aussi drastiquement les prix, il n’y a pas trente-six mille solutions … mais une : réduire les fonctions qui font grimper les prix et pour les Lidars, c’est leur rotation (afin d’avoir une vision 360°).

 

La rotation pose de nombreux problèmes : mécanique, fiabilité de la mesure, fragilité et risque de panne. En les rendant fixes, cela non seulement réduit les coûts et la taille mais augmente aussi la fiabilité. Quanergy devrait parvenir à fabriquer des Lidars pour 250$ en Q3 2018 en les rendant fixes (solid-state LiDAR). 

Cela suggère une idée à tous ceux qui lancent leurs produits ou qui veulent disrupter un marché, plutôt que d’ajouter des fonctions, retirez-en et voyez comment cela peut ouvrir de nouveaux marchés inaccessibles auparavant.

 

C’est la démarche Blue Ocean et celle de Steve Jobs quand il a lancé le premier iPhone. Rappelons qu’il n’avait pas la 3G à son lancement à la différence de tous les smartphones concurrents, en revanche son design qui était alors l’attente majeure des utilisateurs était incroyablement meilleur que les autres.

Last but not least : Comment va-t-on respecter la vie privée ?

C'est la question posée (par exemple si on nous vole notre véhicule) par Michael Sandel (Harvard) lors de l'Opening Keynote à James Hackett (PDG de Ford) et à une salle comble.

 

Voici ce que je réponds ... (en vidéo) ;)

 

Il n'est pas question de transmettre toutes ses données tout le temps à tout le monde mais de ne transmettre que les données utiles pour fournir un service juste le temps nécessaire pour le rendre et uniquement aux acteurs nécessaires pour le faire.


Conclusion

À travers ces secteurs: Retail, Smart City et véhicule autonome, nous pouvons voir à quel point des nouvelles technologies comme l'Internet des Objets, l'intelligence artificielle peuvent profondément transformer les individus, les entreprises, organisations publiques, les modèles économiques.

 

Il y a toujours une phase d'adoption qui est beaucoup plus lente que ce que la technologie nous permet d'absorber. Il est essentiel d'utiliser ce temps pour que celles-ci apportent un réel bénéfice à tous, et réduire les risques de dérives.

 

Dimitri CarbonnelleContact

Fondateur de Livosphere 

Conseil en IoT, IA et Robots collaboratifs / Cobots

Debrief CES Las Vegas à l'Assemblée Nationale avec Mounir Majhoubi et Cédric Villani (IoT, IA, Smart City, Véhicule autonome, eSanté, données personnelles)

Le CES est le temple de l'innovation, des gadgets aussi mais son intérêt est de voir les tendances, décrypter les signaux faibles et aussi de se projeter sur les impacts de ces innovations dans le futur.

 

For English SpeakersGoogle Translation

 

C’est la raison pour laquelle, j'ai été vraiment heureux d'intervenir en mars auprès de députés pour réaliser le debrief du CES Las Vegas à l'Assemblée nationale avec les députés Didier Baichère, Eric Bothorel et Cédric Villani et avec la participation de Mounir Mahjoubi. car elles remettent ces innovations en perspective.

 

Nous avons eu de nombreux débats avec les députés sur les impacts législatifs et le développement des territoires. 

Les principaux thèmes étaient :

  • FrenchTech : au-delà du nombre, faire des startups les locomotives (ou sa version Hyperloop ;) des entreprises françaises
  • Véhicule autonome et la Smart City : les enjeux autour de la plateforme de données (qui la gère et utilisation de la blockchain), le désenclavement des territoires, les véhicules dépolluants et les piles à hydrogène
  • Intelligence Artificielle :
    • ses usages (Google Assistant, analyse d'images de caméras, Smart Home...) qui répond au besoin d'interface unifiée des utilisateurs
    • mais avec le fort risque de concentration des données par les GAFA (renforcée par la prochaine réglementation européenne e-Privacy)
    • en partie contrebalancée par le développement de l'IA embarquée (ex: Snips pour la voix) et des alternatives européennes comme Qwant, respectueuses de la vie privée
    • développer les outils à coûts réduits permettant aux enfants de comprendre et travailler avec l'IA afin de les étendre dans le plus grand nombre d'écoles en mobilisant les professeurs volontaires
  • Catastrophes Naturelles : comment peut-on faciliter la résilience avant, durant après sa venue (cf. Panne d'électricité au CES de 3h !) avec des panneaux solaires portables, des radiateurs à batterie, une application qui donne directement une photo certifiée par l'assureur ... utile juste avant d'être inondé ...
  • Environnement :
    • comment mesurer les problèmes environnementaux et les traiter (propagation des moustiques, suivi des abeilles, décontamination de l'eau...)
    • comment recycler des produits (vêtements, objets du quotidien...) qui intègrent de plus en plus d'électronique ou des produits personnalisés difficiles à réutiliser : pistes possibles : l'écoconception, la conception modulaire...
  • e-Santé :
    • facilité de réaliser des auto-diagnostics, de pouvoir à moindre coût contrôler par soi-même la composition d'un produit, s'il contient des pesticides ou pas ("Customer empowerment") et
    • comment résoudre la problématique de savoir sans comprendre (ex : Tests ADN qui nécessite un décryptage par des professionnels médicaux.
    • de fournir des prédiagnostics dans des zones rurales (cabines médicales connectées)
  • Handicap : solutions pour inclure les non-voyants (appareil text-to-braille), les fauteuils roulants autonomes pour les personnes à mobilité réduite ...

FrenchTech

Si on se réfère aux chiffres du CES, 80 % des entreprises françaises présentes au CES (352) étaient des startups situées à Eurêka Park, ce qui est énorme comparé aux autres pays (environ 40% pour GB et Israël, Allemagne 28%, USA: 15%).

 

Néanmoins, nous avons 69 entreprises françaises qui étaient en dehors d'Eurêka Park soit plus de 40% de plus que les autres pays (hors Chine, Corée du Sud et Etats-Unis ) (GB :48,  Allemagne:45, Israël: 32).

 

Il y a certainement un effet d'entraînement des startups vis-à-vis des autres entreprises (en particulier les PME et les ETI qui font l'objet du plan de transformation numérique évoqué par Mounir Mahjoubi). Je pense donc qu'il faut accélérer cet effet d'entraînement que peuvent avoir les startups vis-à-vis des autres entreprises afin de devenir une locomotive voire un Hyperloop de notre économie. ;)

Par exemple, Sensorwake s’est associé avec l’entreprise française Lexibook pour vendre des réveils olfactifs pour les enfants en utilisant la marque Reine des Neiges de Disney et Bananas d'Universal.

 

Lexibook est un levier commercial pour Sensorwake via ses licences Disney et Universal et Sensorwake un levier d’innovation pour Lexibook. Sensorwake n’aurait certainement pas réussi à obtenir ces licences sans Lexibook.

Startups dans l'industrie

Même si le CES n'est pas destiné à présenter des solutions purement B2B, cela était l'occasion de trouver plusieurs entreprises qui peuvent devenir des vrais leviers pour des PME et des ETI (en plus des grands groupes) dans le domaine industriel et logistique.

 

La première est Eyesee qui utilise des drones automatisés pour réaliser l'inventaire complet d'une usine en scannant les codes-barres de chaque palette.

 

La deuxième est Fieldbox.Ai.  Elle travaille aujourd'hui plutôt avec de grands groupes comme Total pour prévenir les pannes des pompes de ses puits de pétrole et l'aéroport à Roissy pour gérer le flux des bagages.

Mounir Majhoubi a rappelé à ce sujet que les deux axes prioritaires du gouvernement dans le domaine du numérique sont le plan de transformation numérique des TPE et des PME avec des financements de l'Etat et des régions ainsi qu'un programme d'inclusion concernant les 20 % de personnes qui n'accèdent aujourd'hui pas à Internet qui ne doivent surtout pas être laissées de côté.

 

J’ai détaillé plus sur la politique des régions sur les startups, les relations entre grands groupes et startups plus bas….

IA - Intelligence Artificielle

IA et la confidentialité des données personnelles

Les usages principaux de l'IA que nous avons vus au CES  sont dans le domaine

de la reconnaissance vocale et NLP (en particulier avec Google Assistant), la reconnaissance et compréhension des images, le véhicule autonome et le Smart home.

 

Google prédit que d'ici quelques années 50% des recherches se feront via commande vocale (20% aujourd'hui). Cela signifie que si je demande un Paris Marseille, c'est l'IA de Google qui choisira par défaut l'entreprise qui fournira ce service, SNCF, Blablacar ... ou à partir de 2020 Deutsche Bahn, problématique identique pour tous les achats du quotidien et le choix des informations du jour.

 

Cela peut mettre sous dépendance de nombreuses entreprises françaises à l'image de ce que Criteo a vécu quand Apple a décidé de modifier sa politique sur les cookies. Cela impacte aussi les distributeurs qui ont des marges plus élevées sur la plupart des consommables, qui font revenir les clients. Avec les commandes vocales, cela simplifie l’achat et réduit la nécessité de revenir en magasin et donc diminue le trafic…

Nouvelle directive européenne e-Privacy

Le règlement e-privacy de l’utilisateur qui aurait dû être mis en place en mai 2018 (mais cela prendra sans doute plus de temps en 2019 a priori) pourrait en l’état accentuer le pouvoir des acteurs ayant un accès direct aux clients (dont les GAFAM).

 

Sur le principe, l’intention est louable : demander le consentement préalable des utilisateurs avant de collecter toute information personnelle tout en simplifiant sa vie, concrètement en demandant un opt-in global à la 1ère connexion sur le navigateur, OS, terminaux (comme Google Home, Amazon Echo) ce que la plupart des utilisateurs refuseront (donc opt-out des utilisateurs). Aujourd’hui nous avons un opt-in local, avec le fameux bandeau quand on visite un site web. En revanche, on peut collecter les informations des utilisateurs dès lorsqu’ils se loggent à un site web ou à une application si cela est intégré dans les CGV à la création du compte utilisateur ce qui est le cas des Google, Amazon, Facebook et Apple …

 

Les entreprises n’ayant pas un accès direct au client dépendront de ceux qui l’ont (via navigateur, login) … Comme le sujet est complexe et mouvant, voici quelques articles avec des points de vue différents sur le sujet pour vous faire une opinion. (Usine digitalepropositions de la présidence bulgare de l’UE;  Quadrature du Net, Rapport de Tech in France, Tribune de Pierre Chappaz dans Les Echos). D’autre part, ce règlement est très difficile à appliquer pour de nombreux cas d’usages d’Internet des Objets (ex : demander un consentement préalable à un capteur de pollution public avant de transmettre ses données est compliqué ! )

On pourrait croire que c'est tout bénef pour les GAFAM. En réalité, en renforçant encore leur pouvoir, cela donne encore plus de raison à l’UE et d'autres États de les réglementer voire de les scinder (cf. article à ce sujet) (à l'image de ce qu'a vécu Standard Oil, ATT ou plus récemment les contraintes imposées à Microsoft).

 

A terme, c’est une épée de Damoclès pour les GAFAM, renforcée par l’affaire Facebook/Cambridge Analytica. A court terme et afin de plus équilibrer les forces en présence, cela incite des acteurs européens à plus se rapprocher des BATX (GAFA chinois : Baidu, Alibaba, Tencent et Xiaomi) qui signent de plus en plus d'accords avec des entreprises européennes (Auchan et Alibaba, Carrefour et Tencent, Renault-Baidu). (cf article à ce sujet)

Utilisation de l'IA dans la reconnaissance visuelle, aide à la décision

L'IA dans la vidéo a de nombreux usages, Netbelle Vue a présenté un interphone vidéo qui transmet  les messages vidéos aux bonnes personnes en fonction des interlocuteurs (une sorte de mini-workflow fondé sur l’identification des personnes… ce qui pose quelques soucis sur la vie privée…).

 

Kolibree l'utilise pour vérifier si un enfant s'est bien brossé les dents en utilisant un jeu qui l'incite à brosser partout. Enfin AI.Poly l'utilise dans les points de vente pour analyser vos comportements, c'est d'ailleurs une brique essentielle dans le Grab and Go, qui permet dans le magasin d'Amazon Go de pouvoir prendre un produit et repartir avec en débitant votre compte de la somme correcte.

Cédric Villani a précisé aussi les impacts de l'IA et que nous étions encore loin de l'intégration de l'IA dans la robotique. Les robots de Boston Dynamics par exemple sont fondés sur des algorithmes non-apprenants et non de l'IA.

 

Mounir Mahjoubi a souligné que le gouvernement soutient le développement de l'IA comme outil d'aide, d'assistance à la décision. En revanche, il insiste sur le fait que ce seront toujours les hommes et femmes qui doivent garder la maîtrise de la décision, du choix.

Comment faire face à cette capture de données massives 

Tout d'abord il faut inciter à traiter les informations localement (dans le microprocesseur du capteur ou sur un hub local). Cela passe notamment par l'intégration de l'intelligence artificielle dans les puces ( avec des puces GPU, puis FGPA (field-programmable gate array qui permet d’intégrer des réseaux de neurones spécialisés qui peuvent être reprogrammés/reconfigurés à distance) , prochainement  des puces neuromorphiques (spécifiques aux réseaux neuronaux) et bientôt des puces quantiques comme le font Intel, Nvidia et Qualcomm.

 

S'il est nécessaire de transmettre des données, on peut les agréger, les anonymiser (ou les hasher), avant de les transmettre sur Internet (un peu comme si au lieu d’envoyer votre numéro de sécurité sociale dans le cloud on ne transmettait que la clé, les deux derniers chiffres).

 

Enfin on peut favoriser aussi l'émergence d'acteurs français et européens respectant la vie privée comme Qwant et Snips (reconnaissance vocale qui se positionne en concurrent d’Amazon Alexa et Google Home en ne transmettant pas la voix sur Internet à la différence des Echos et Google Home).

 

Démocratiser l'intelligence artificielle dans les écoles

J’ai fait une petite digression concernant l'intelligence artificielle au sein des écoles.

 

J'ai vu beaucoup de solutions permettant aux enfants d'apprendre à coder ou à utiliser de l'intelligence artificielle comme des Legos au CES. Il me semble indispensable d'apprendre aux enfants à travailler avec l'intelligence artificielle avec ce type d’outils mais aussi sans.

 

 


C'est un peu comme le GPS et le sens de l'orientation, il faut savoir s'en passer, ne pas en être complètement dépendant car il suffit d'une panne d'électricité un peu longue pour que nous ne puissions plus y avoir accès.

 

 

Aujourd'hui ces solutions sont un peu chères pour qu'elles puissent être utilisées dans toutes les classes, néanmoins il y a certainement beaucoup de professeurs volontaires qui ont de très bonnes idées pour à la fois montrer ce que peut faire l'intelligence artificielle (par exemple via des applications , vidéos accessibles sur Internet ou un smartphone) mais aussi développer les capacités qui nous différencie par rapport à l'intelligence artificielle et apprendre à savoir-faire sans. (cf. article sur l'IA et l'éducation)

Véhicules autonomes de la voiture aux drones avec passagers

C'est aussi la raison pour laquelle il est indispensable que la France et que les autres membres européens fassent évoluer la Convention de Vienne rapidement afin d'éviter d'être à la traîne.

 

En revanche, cela présente un avantage à long terme car la législation sur les véhicules autonomes est différente entre chaque Etat américain (la Californie est à la pointe, pas sûr que l'Oklahoma, l’Utah et Wisconsin arrivent tout de suite à les rattraper). 

La conduite d'un véhicule est soumise à la Convention de Vienne signé en 1968, trois pays majeurs n’y sont néanmoins pas soumis les États-Unis et le Japon qui n'ont pas signés et la Grande-Bretagne qui ne l'a pas ratifié (sacrés Anglais ;)

 

 

Cela leur permet de favoriser le développement du véhicule autonome sur le plan national beaucoup plus rapidement que les autres pays signataires de la Convention comme la France.


Le jour où il faudra déployer massivement dans véhicules autonomes, les signataires de la Convention de Vienne, au minimum l’UE aura un marché, une réglementation bien plus harmonisée qu’aux US !

 

 

Le véhicule autonome est aussi dès le départ conçu pour être partagé, il est absurde de garder son véhicule autonome plus de 90 % du temps dans son garage (le cas pour les véhicules individuels en moyenne) pour des raisons économiques notamment. D'ailleurs, l'avènement d'un véhicule autonome individuel n'arrivera pas de manière massive avant 2030.  

Véhicules autonomes pour désenclaver les territoires

En revanche, le véhicule autonome devient un mini-transport en commun, il devrait rapidement se propager dans les prochaines années comme le montre déjà l'expérimentation à Rouen avec Transdev et la Renault Zoé en route ouverte ou les autres expérimentations avec Navya et Easy Mile sur des voies dédiées (car ils n’ont ni volant ni pédales !) même s'il reste de nombreux problèmes à régler (es: ne pas confondre la tombée des feuilles mortes avec un obstacle).

 

Cela peut être aussi un moyen de désenclaver des territoires en réalisant des navettes entre la gare et des centres-villes, des zones de commerce, des zones d’habitation … 

Drones avec passagers, camions et robots livreurs autonomes

En plus du véhicule autonome, il y a le camion autonome (ici Apollo de Baîdu) qui devrait fortement se développer pour de multiples raisons : plus de pauses toutes les deux heures, risque d'accident qui sera beaucoup plus réduit, trajet long principalement autoroutier, zone de confort des véhicules autonomes ...

 

En revanche, nous garderons pendant un certain temps des chauffeurs pour les trajets sur des courtes distances entre la zone de départ (usine, entrepôt..) et le point d'entrée de l'autoroute, et le point de sortie d'autoroute et la zone de destination (entrepôt, magasin...).

 

À terme, nous pourrions imaginer des mini-hub de transit automatisé, où des camions autonomes alimentent des robots livreurs qui viendront jusqu'à chez vous pour faire les derniers kilomètres. De nombreux robots livreurs ont aussi fait leur apparition au CES comme celui de Twinswheel.

 

La multiplication de ces véhicules autonomes de taille multiple (voir aussi celui de Segway) pose une vraie question autour de l'occupation de l'espace public et en particulier les chaussées, les trottoirs. Faut-il créer des voies dédiées aux véhicules autonomes ou les partager avec les voies de bus ? ...

 

À un horizon plus lointain, on verra apparaître petit à petit des drones avec passagers. Entre Volocopter, qui a volé au Mandala Bay, Air Taxi et le drone taxi Ehang  (présent au CES 2017) qui a déjà transporté ces premiers passagers et Vahana, drone d'Airbus, Uber...  les entreprises se bousculent pour lancer leurs premières versions commercialisables. Dubaï est sur les rangs pour proposer le premier service commercial. La réglementation est encore très loin de permettre la généralisation de ces drones. Ils devraient a priori rester dans les couloirs sub-aériens. 

 

Les législateurs doivent rester attentifs à ce mouvement pour le cas échéant adapter la réglementation afin de permettre leur utilisation progressive. Il permet comme les véhicules autonomes de réduire fortement le point mort d'utilisation et d'augmenter leur nombre puisque vous n'avez plus besoin de pilote d'hélicoptère ou d'avion. 

Avant même le transport de passagers, le premier axe de développement est le transport d'objets en utilisant les drones. Les drones pourraient par exemple sauver de nombreuses vies dans le cadre du transport des organes en vue de greffe. Cela prendra plus de temps avant de transporter des blessés ou malades...

Smart City et la question : qui gère la plateforme de données et l'usage de la blockchain dans ce cas

Le véhicule autonome est nécessairement intégré dans la ville, il communique avec les autres véhicules les piétons, les infrastructures, les feux rouges, les chaussées ...

 

La question majeure est : Qui va gérer cette plate-forme ?

 

Ford a proposé à Las Vegas, sa plateforme de gestion de mobilité dans la ville mais est-ce le plus légitime ? ... La ville a certainement le plus de légitimité (mais pas nécessairement le plus de compétences et d’agilité) sur ce sujet, mais doit travailler avec d'autres entreprises qui sont spécialisées dans la gestion de plateforme de données, en évitant d'utiliser des solutions propriétaires mais plutôt des solutions ouvertes ou open source comme Fiware.

 

Une autre solution est la mise en place de blockchain, qui évite d'avoir surmonter l'obstacle de faire accepter qu'un acteur ait la main mise sur une plate-forme agrégeant l'ensemble des données que les autres voudront bien lui donner !

 

La blockchain a un très gros potentiel dans les cas où il y a une multitude d'acteurs ayant des intérêts divergents qui doivent partager des informations mais dont aucun n’a la légitimité pour coordonner la totalité des données agrégées. Pour des villes un peu longues à réagir, on pourrait même imaginer des acteurs privés et publics créant une blockchain indépendamment de la ville, ce qui sera dommage pour elle.

Vidéo sur la géolocalisation et le respect de la vie privée

La collecte de ces données soulève quelques interrogations ... Ainsi, lors de l'Opening Keynote au CES Las Vegas 2018, Michael Sandel (Harvard) pose une question à James Hackett (PDG de Ford) et à une salle comble sur la géolocalisation et les problèmes de "privacy".

 

Voici ce que je réponds ... ;)


Changer les paradigmes des véhicules polluants avec des infrastructures dédiées

Un oxymore technologique : le véhicule dépolluant

Hyundai présentait un véhicule dépolluant qui associe un système qui décompose les éléments polluants en éléments inertes à son moteur à hydrogène (les deux sont dissociables).

 

On pourrait imaginer dans une dizaine d’années que les réglementations obligent non seulement les véhicules à atteindre zéro émission polluante mais des véhicules à « émissions négatives » ( qui dépolluent !), ce serait un juste retour des choses vu la pollution générée par les véhicules.

 

Une des grosses sources de pollution du véhicule électrique provient des batteries (en plus potentiellement de l’électricité si celle-ci est issue de centrales thermiques par exemple).

 

 

MyFC - Faire le plein dans un magasin plutôt qu'une station-service 

Les batteries lithium-ion omniprésentes dans nos smartphones et dans nos véhicules électriques ont un impact environnemental très négatif dans leur production ainsi que dû à leur manque de recyclage sans compter les problématiques géopolitiques d’extraction de lithium concentrée dans quelques pays (Bolivie, Chili, Chine, Australie).

 

Les piles à combustible (Fuel cell) sur base d’hydrogène sont sans doute une des techniques les plus prometteuses pour les remplacer car elles permettent de stocker l’énergie et d’être recyclées avec un impact nettement moindre que les batteries lithium-ion. Actuellement, l’une des problématiques de ces piles est leur coût de fabrication et l’utilisation de platine pour catalyser la réaction.

 

MyFC intègre une pile à hydrogène avec un chargeur de batterie pour smartphone (sans risque car l’hydrogène est stocké dans un compartiment sous forme d’eau (H2O ;) avec de la soude (NaOH) qui combiné dégage de la chaleur).

 

On pourrait imaginer qu’au lieu de distribuer de l’énergie par des stations-service, on achèterait nos piles à hydrogène dans n’importe quel magasin ce qui permettrait de sortir le problème de la poule et de l’œuf : comment vendre des véhicules à hydrogène s’il n’y a pas d’infrastructures pour les recharger Vs comment développer une infrastructure pour charger son véhicule à hydrogène, s’il n’y a pas de véhicules à hydrogène à recharger. A l'heure actuelle, ce ne sont que des "Range Extender" qui permettent d'augmenter les distances mais ne remplacent pas la batterie actuelle mais cela viendra ...

 

C’est intéressant de voir comment les nouvelles technologies peuvent disrupter des infrastructures et des paradigmes liés au développement du véhicule. Une autre infrastructure qui sera certainement disruptée, ce sont les parkings en ville qui deviendront majoritairement inutiles avec le véhicule autonome. Il faudra au fur et à mesure réfléchir à leur reconversion … Le détricotage des infrastructures spécifiques aux véhicules commence !

Résilience et solutions face aux catastrophes naturelles

Il y a eu une panne d’électricité d’environ trois heures environ au CES Las Vegas liée aux trombes d’eau qui se sont abattues sur la ville qui ont provoqué des courts-circuits (équipements mal couverts utilisés pour les travaux liés à l’agrandissement du Convention Center).

 

Cela m’a incité à rechercher les solutions au CES qui pourraient nous aider en cas d’inondation et plus largement de catastrophe naturelle, d’autant que nous en avons été victimes en France.

 

 

 

 

L’objectif de ces solutions est de nous aider à devenir résilients, c’est-à-dire être capables de surmonter rapidement ce type de situation.

 

On peut diviser une catastrophe naturelle en cinq phases, avant qu’elle ne soit détectée, quand elle est détectée, quand elle survient, juste après la catastrophe et la période de retour à la normale.

 

A chaque phase, correspond un objectif, prévenir, alerter et préparer, survivre, trouver des solutions transitoires pour vivre et reconstruire.

Avant la catastrophe naturelle

Pour la première et deuxième phase, il y avait un certain nombre de capteurs permettant de détecter et d’alerter en cas de fuite ou d’inondation. La solution néanmoins qui m’a le plus intéressé est celle de Monuma, qui permet de réaliser directement des photographies certifiées par huissier en association avec son assureur de son mobilier et appareils (en utilisant la blockchain pour certifier l’authenticité de la photo, la date et le lieu ). 

 

Si on est prévenu quelques heures avant l’arrivée d’une inondation, cela nous permet d’augmenter le taux de remboursement provenant des assurances. Une des évolutions prévues est l’utilisation de capteurs connectés (capteur de mouvement, d’inondation …) ce qui permettrait d’accroître la confiance de l’assureur en son assuré (en respectant bien sûr la vie privée, l’information pourrait être envoyée à l’assurer qu’en cas de sinistre). 

Durant la catastrophe naturelle

Lors de la catastrophe naturelle, nous avons vu un de nombreuses victimes n’ayant ni chauffage, ni électricité, ni moyen de communication (si le réseau télécom tombe).

 

Lancey a développé un radiateur avec une batterie intégrée, ce qui permet en cas de panne électrique d’augmenter la période de chauffage (la batterie sert en premier lieu à se charger en heure creuse lorsque l’électricité est moins chère). Dans le cas où la personne a un panneau photovoltaïque, il paraît plus logique que la batterie se situe à son niveau, néanmoins dans le cas inverse, cette batterie pourrait aussi servir pour alimenter d’autres appareils dans la maison.

 

Appi Technology permet via leur application Appi-Wi de communiquer avec d’autres personnes (40,50 m max) en utilisant une connexion directe wi-fi sans passer par une box ou une connexion mobile (off network). La première des applications destinées à ceux qui font du sport dans des zones non couvertes par le mobile.  Ils ont aussi une autre solution destinée au marché des professionnels (pompiers, chantiers…) avec des casques intégrant un micro pour communiquer sur environ deux kilomètres utilisant les fréquences libres (863 à 870 Mhz) mais à des prix nettement supérieurs (plusieurs milliers d’euros).

 

Enfin Supersola présentait ses panneaux photovoltaïques portables, qui permettent d’alimenter ces solutions.  Pour l’anecdote, des pompiers français les ont rencontrés à un salon, ils leur ont acheté directement les quatre panneaux solaires pour les utiliser pour les secours sur l’île Saint Martin. 

Reconstruction et infrastructure de partage en utilisant la blockchain

Une des clés de la reconstruction est la solidarité locale en plus des secours, celle-ci peut se manifester de multiples manières, avec un principe de base le partage.

 

Pour partager, il faut d’abord avoir et produire quelque chose qui puisse être partagé !

 

Ensuite, il faut savoir ce dont l’autre a besoin et pouvoir partager facilement cela avec lui, de manière si possible équitable par rapport aux autres personnes ayant le même besoin sans pénaliser celui qui partage.

 

Au CES, il y a de plus en plus de solutions qui permettent de produire des plantes aromatiques des légumes en appartement, les coûts ont aussi fortement baissés pour produire de l’électricité à partir de panneaux photovoltaïques, néanmoins ce qu’il manque le plus c’est l’infrastructure de partage. En France, à quelques exceptions près, il est impossible de partager l’électricité produite avec ses panneaux photovoltaïques à ses voisins, lorsque le réseau électrique tombe.

 

La seule solution qui commence à se dégager (mais qui n’est pas sans poser problème à RTE, qui gère le réseau électrique) est la création de mini-grid fondée sur la blockchain. La société Clem a mis en place des pilotes de ce type. A New York, Brooklyn Grid  permet à une cinquantaine de voisins de s’échanger de l’électricité. Face aux incessantes coupures d’électricité lors de l’ouragan Maria à Porto Rico, AES, une entreprise fournissant des solutions globales d’énergie a proposé de mettre en place des mini-grid pour y faire face au lieu de créer une infrastructure centralisée beaucoup plus fragile et chère. 

Environnement - Mesurer pour améliorer

Les produits dédiés à l’environnement ne sont certainement pas le clou du spectacle au CES Las Vegas, néanmoins il y avait des solutions dans ce domaine.

 

Comment on le dit souvent, ce qui ne peut être mesuré ne peut être amélioré. Qista le démontre avec son produit qui non seulement tue les moustiques mais surtout mesure leur nombre, ce qui permet de suivre les essaims de moustiques voire même de les cartographier si un réseau de Qista se développe.

 

Hostabee lui a développé un système qui s’installe dans tout type de ruche en se positionnant entre deux cadres du couvain. Il mesure en temps réel le taux d'humidité et la température au sein de la ruche, utilise les données météorologiques pour optimiser le travail de l'apiculteur.

 

Lavie est pour sa part, une solution qui transforme l’eau du robinet en eau minérale pure sans filtre ni produits ajouté, grâce à un rayonnement électromagnétique contenu dans le spectre solaire invisible, les UV-A. Cela stérilise l’eau de tout virus ou bactérie selon Lavie. Ils ont une version connectée, mais la version utilisant les rayons du soleil pour stériliser de l’eau retient le plus mon attention car il est utilisable dans les pays qui ont en ont le plus besoin et qui souvent n’ont pas de réseau électrique à proximité

Recyclage - Eco-concevoir et de manière modulaire pour réduire les déchets

Une des problématiques majeures des objets connectés est le recyclage en particulier lorsqu’on crée de nouveaux objets connectés ou que l’on rend connecté un objet qui n’avait aucune électronique à l’intérieur. Typiquement, les chaussettes SirenCare intègrent des fils électroniques pour mesurer la pression. On demande aux utilisateurs de renvoyer leurs chaussettes usées au bout de six mois  …  Pas sûre qu’ils le fassent sauf s’ils bénéficient de réductions pour le faire !

 

Ce problème s’applique aussi aux objets personnalisés car il est plus difficile de réutiliser ce type d’objet qu’un objet standard. Pour être caricatural, il vous sera plus facile de revendre un mug Star Wars et même blanc qu’un mug avec votre photo dessus.

 

Pour faire face à cela, il est indispensable d’éco-concevoir ses produits, et en particulier d’avoir une conception modulaire pour facilement séparer les parties recyclables des parties électroniques, les éléments standards des éléments personnalisés (ex : encre effaçable à très haute température pour le mug personnalisé).

 

 

Face à l'obsolescence programmée - le partage des appareils, véhicules - Ex: Vulog

Il y a néanmoins un bénéfice aux objets connectés en termes d’économie circulaire, un objet connecté est plus facile à partager, à louer qu’un objet non connecté. On peut déverrouiller/ verrouiller son utilisation à distance, savoir s’il a été utilisé correctement (détecter une chute, un choc et vérifier s’il a été utilisé dans les limites décrites d’une assurance par exemple), et même potentiellement être géolocalisé. Typiquement, un véhicule connecté se partage plus facilement qu’un véhicule non connecté, pas besoin de se déplacer pour donner les clés et les reprendre, on est rassuré car on sait où il se trouve et s’il a eu un accident.

 

 


Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !  

 

 

Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.

 

Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)

 

Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.

 

 

D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.

Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !  

 

 

Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.

 

Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)

 

Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.

 

 

D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.

e-Santé

Innovation dans e-Santé

On peut collecter les données de santé n’importe où, même dans nos sous-vêtements… est-ce utile ? J’en doute.

 

Heureusement, il y a des applications concrètes et utiles des objets connectés dans la santé. Bonetag a ainsi développé un capteur RFID placé dans une prothèse qui permet de mesurer la température et la pression dans la prothèse.

 

Cela permet de suivre celles-ci, d’éviter en cas d’inflammation des opérations lourdes. Le RFID (utilisé pour le télépéage et par les bornes de sortie des magasins) a été choisi au lieu du NFC (utilisé dans votre carte Navigo, carte bleue, smartphone) car le NFC permet de capter les informations à une distance de 5 à 10 cm (ici, sans doute moins en raison de la peau).  Il aurait été impossible notamment de capter des informations d’une prothèse à la hanche par exemple. Le RFID pose néanmoins un problème car il ne me permet pas à l’utilisateur final de vérifier par lui-même sa température. A ce stade il doit aller chez le médecin pour le vérifier ce qui retire beaucoup de l’intérêt du produit.

 

C’est la raison pour laquelle j’ai préconisée à la startup, de proposer aux patients l’achat d’un lecteur RFID afin de pouvoir contrôler par eux-mêmes la température, pression… sans aller chez un médecin. Le coût d’un lecteur RFID associé à un smartphone est inférieur à cent euros. 

 

Il y avait aussi Diabeloop qui a développé une micro-pompe d’insuline qui injecte la dose d’insuline adéquate calculée par un mini-terminal sur base de la glycémie mesurée par un capteur, palliant le dysfonctionnement du pancréas.

 

 

Les données sont envoyées en parallèle à un service de suivi afin d’améliorer le traitement sur le long terme. Il est préférable qu’il soit impossible de commander ou de mettre à jour à distance l’appareil à moins de sécuriser totalement la chaîne de fabrication et de mise à jour en utilisant la blockchain pour s’assurer de l’intégrité du software et hardware (décrit dans l'article suivant). Un virus comme Wannacry sur ce type de produits mettrait en jeu des vies humaines.

Customer Empowerment

Avec la baisse des coûts des capteurs et des dispositifs connectés, il devient de plus en plus facile à des consommateurs de vérifier par eux-mêmes la véracité de ce que disent les industriels de l’agroalimentaire.

 

Itri (Industrial Technology Research Institute) propose par exemple un appareil capable de mesurer la quantité de pesticide dans les produits, Stratio permet d’identifier les composants d’un aliment grâce à spectromètre proche infrarouge  (comme l’avait fait auparavant Scio, mais avec un spectre de lumière plus large : de 450 à 1000 nm). Il permet aussi de vérifier l’authenticité de médicaments de distinguer les vrais des faux. Le coût est encore assez élevé (300 $) mais devrait certainement diminuer rapidement.

 

Au CES 2017, la société chinoise Changhong avait même montré un de ses smartphones intégrant le capteur Scio (racheté depuis par Analog Devices).

 

On pourrait même imaginer que les consommateurs puissent remonter des abus à la DGCCRF ce qui accroîtrait fortement son pouvoir de contrôle.

Le risque de « Savoir sans comprendre »

Ces capteurs permettent aussi de réaliser des autodiagnostics sur ses allergies, ses maladies, ses périodes de fertilité et sur ses gènes.  C’est l’activité d’Orig3n qui vous propose pour un prix variant de quarante dollars à un peu moins de deux-cents, si vous êtes un super héros, la qualité des gènes de vos enfants ou de leur potentiel père ou mère.

 

Le représentant de l’entreprise avait fait tous les tests et me montrait ses résultats sur son smartphone. Grâce à cela, il savait qu’il devait continuer à faire du sport car apparemment ses gènes indiquaient qu’il avait du mal à absorber les graisses, inversement, il est allé voir ses parents en leur reprochant de ne pas l’avoir poussé à chanter ou devenir musicien car il avait l’oreille absolue comme le révélaient ses tests.

 

L’anecdote peut prêter à sourire néanmoins il y a un vrai risque avec la propagation de ces tests d’une endogamie rampante (car les gens pourraient être enclins à refuser d’avoir des enfants avec des personnes ayant des « gènes moins bons » que les leurs !), ce qui mènerait vers un eugénisme individuel. Cela pourrait aussi stigmatiser certaines personnes qui auraient des gènes ne correspondant pas  à « la norme sociale ».

 

Cela est d’autant plus dangereux que les gènes ne sont qu’un facteur parmi les trois (comportement et environnement de la personne) qui explique les caractéristiques physiques et intellectuelles d’une personne et que l’expression de gènes peut très fortement varier d’un individu à l’autre, le phénotype n’est pas la  traduction exacte du génotype !

 

Il me semble très difficile d’interdire ces tests (il suffit de racler sa bouche avec un bâtonnet fourni avec le test et de l’envoyer par la poste) , en revanche il me semble crucial de les accompagner par une pédagogie, sur le packaging, dans les réseaux sociaux mais aussi dans les écoles et avec le personnel médical. De nombreuses personnes pourraient craindre de voir tomber une épée de Damoclès et vivre dans la frayeur de tomber malade sans que cela soit toujours pertinent. 

e-Santé dans les déserts médicaux ou la pénibilité au travail

On sait à quel point il est pénible de mesurer la pénibilité au travail ! De plus en plus d’entreprises rentrent sur ce créneau en associant la possibilité de détecter des chutes grâce à des capteurs intégrés par exemple dans les chaussures comme l’a fait Zhor Tech.

 

La cabine médicale  H4D n’était pas présente au CES Las Vegas néanmoins, je souhaitais les présenter aux députés car elle évite de se déplacer de dizaines de kilomètres pour des prédiagnostics médicaux, ce qui réduit l’impact des déserts médicaux et justifie d’autant plus l'investissement dans le Trés Haut Débit. 

 

A ce titre, il est toujours judicieux de partir des besoins des citoyens et des usages pour justifier l’investissement dans la fibre plutôt que déployer la fibre en se posant la question après coup à quoi concrètement elle servira.

Solutions innovantes dans le domaine du handicap

Il n’y a pas un très grand nombre de solutions destinées à aider les personnes handicapées au CES Las Vegas, néanmoins j’en ai identifié quelques-unes donc un fauteuil roulant autonome de Whill, ainsi que solution pour créer des prothèses de main.

 

Les textes digitaux sont aussi un bon moyen de faciliter la vie des non-voyants et mal voyants car  il peut proposer une version audio avec le text to speech mais aussi grâce à du text-to-braille, comme le propose Dot incorporation qui a une montre connectée en braille (qui traduit des alertes en braille) et Braibook qui utilise les e-book et les « traduit » directement en braille (présent au MWC Barcelone et pas au CES ).

 

Le problème est que bon nombre de textes ne sont pas structurés pour être lus, typiquement les emballages de produit. Une idée assez simple à mettre en œuvre serait que les industriels donnent accès à une version numérique de leur emballage ( via un QR code balisé par des points embossés ou mieux par un tag NFC ou par une application spécifique capable d’identifier le produit sur base de son emballage).

 

L’information serait accessible sur une plateforme en suivant toujours la même structure, par exemple nom du produit, nom de la marque, risque d’allergies, ingrédients … pour un produit alimentaire. De manière générale, cette base pourrait servir aussi pour faciliter l’accès aux informations d’un produit, voire réaliser du data mining dessus.

Pari : Un robot champion de Ping-Pong dans 5 ans, à la prochaine législature !

Enfin j'ai terminé sur à Paris, que le champion du monde de ping-pong serait battu par un robot d'ici 5 ans soit à la prochaine législature ;) Comme il y a peu, le champion de go a été battu par l'intelligence artificielle, Alpha Go.

 

Vu la vidéo... C'est à la portée d'un bras robotisé !


Autres éléments sur le CES

Du show-off du show must go on

Au CES, il y a un double mouvement : Le « Push » : Les fabricants de puces et d’infrastructures pousse leurs technologies via des spectacles (show de drones d’Intel), leur omniprésence (Google) en espérant que les clients (ou surtout les fabricants B2C) les adoptent.

 

La réalité du marché montre que le consommateur fait au final la loi, et douche souvent bien des espoirs. Le Pull ainsi est plus pragmatique en partant de vrais besoins clients pour aboutir à des solutions qui y répondent de manière innovante (comme on est au CES !) car à la fin quel que soit les événements (y compris les pannes d’électricité au CES), il faut vendre.

Show Off d’Intel : spectacle de drones et ses voxels (vidéo volumétrique)

Comme chaque année, Intel investit énormément au CES (sans doute moins que Google cette fois-ci), il nous a montré le vol autonome d'un Volocopter et offert un superbe show de drones en indoor (Record battu au Guinness Book of Records nous a indiqué Brian Krzanich, CEO d’Intel) et à l'extérieur près du Bellagio.

 

Il a ici mis aussi beaucoup l'accent sur la vidéo volumétrique, en créant un studio capable d'enregistrer une scène sous toutes ses coutures et permettant à chacun le prendre n'importe quel point de vue, y compris celui du cheval (présenté par Intel lors d'une scène de cow-boys !). L'unité de mesure de cette image en trois dimensions est le voxel qui devrait ringardiser le pixel d'après Intel. Belle course entre fabricants en perspectives ... ;)


Intel a aussi présenté Loihi, son processeur neuromorphique qui a pour objectif d'intégrer des réseaux neuronaux à apprentissage autonome directement dans leur puce. En embarquant l’IA, cela évite de transmettre vers une plateforme Internet.

 

Cette puce succède aux puces GPU (Graphiques), qui sont massivement parallèles. Scortex, une startup française et aussi sur le même créneau sans parler d'Another Brain, startup de Bruno Maisonnier (cf. article) mais qui pour le coup  n'intègre pas des réseaux neuronaux a priori.

 

Enfin, Intel se rapproche du Graal en dévoilant son premier processeur quantique (mais seulement 49 qbits !) qui pourrait de par sa conception dépasser n'importe quel processeur parallèle. Le processeur quantique n'est néanmoins pas pertinent dans tous les cas.  Il l’est surtout pour les opérations qui peuvent être découpées afin de les traiter en parallèle.

 

Cela aura aussi un impact énorme sur la cryptographie et donc la sécurité des transmissions puisqu'il pourrait résoudrait le fameux problème P=NP en résolvant les ex-problèmes NP en un temps polynomial plutôt qu'exponentiel (le cas avec les chips actuels). Si le cryptage type AES-256 bits est suffisamment sûr, c’est parce que le temps nécessaire pour trouver la clé de décryptage est inaccessible (50 super calculateurs capables de contrôler un trillion de trillions (1018) clés AES par seconde nécessiterait en théorie environ 3 × 1051 années pour obtenir la clé de 256 bits, c’est plus rapide de créer un ordinateur quantique !).

Le retour sur investissement d’Intel de tous ces investissements est sans doute faible car la vente de puces en IoT, drones... pour Intel reste encore très réduit (5% du CA mais en croissance de 20%) par rapport aux ventes de puces pour les serveurs et les data center.

 

Sans doute le rachat de MobilEye, startup israélienne dans l'analyse d'image pour les véhicules autonomes et connectés devrait aider.

Autre annonce faite par Intel, ils n’utilisent plus de matériaux provenant de zones de guerre ( Conflict free minerals – extraction minière de tantale, étain, tungstène ou or qui financent des groupes armés de la République démocratique du Congo ou de pays limitrophes – Définition de la U.S. Securities and Exchange Commission (SEC)). C’est un premier pas …

5G

Les fabricants de puces comme Intel et Qualcomm ainsi que les fabricants d'infrastructures réseau comme Huawei ou Ericsson poussent au maximum la 5G (cf. document de l’ARCEP sur les enjeux de la 5G) car c'est évidemment leur intérêt d'inciter les opérateurs télécoms et les fabricants de smartphones à investir dedans.

 

Il y a grosso modo trois types de 5G, eMBB (Enhanced Mobile Broadband qui est utile pour avoir un très haut débit et concurrencer potentiellement le très haut débit fixe), uRLLC (Ultra-reliable and Low Latency Communications : usages : transports en particulier véhicule autonome, santé, sécurité avec l'objectif de réduire les délais de latence et fortement accroître sa fiabilité et robustesse ), mMTC (Massive Machine Type Communications pour l'IoT avec une très faible consommation d'énergie).

 

On devrait commencer à voir les premiers tests en 5G en 2018, pour les deux premiers eMBB, uRLLC, en revanche pour le mMTC (pour IoT), cela ne devrait pas arriver au plus tôt avant 2023. C'est la seule des normes dont le standard n'a pas encore été finalisé. D'autre part, l'intérêt de la 5G par rapport aux autres protocoles LTE-M, Nb-IOT sur les fréquences licenciées et Lora et Sigfox sur les fréquences libres est assez faible (utilisation néanmoins de nouvelles fréquences), et le déploiement spécifique de la 5G pour l'IoT, ne serait pas du tout rentable, car les revenus générés par l'IoT pour un opérateur télécom sont très faibles alors que les coûts de maintenance seraient très élevés (sauf si c'est une antenne mutualisée avec d'autres usages générant des revenus élevés).

TV gigantesques

Toujours dans l'esprit show-off, on voyait des écrans gigantesques joints l'un à l'autre sans jointures, et même des écrans pliables, ce n'est pas demain la veille qu'on les verra dans notre salon mais c'est aussi l'esprit du CES.

Pub pour Altered Carbon de Netflix

Si jamais nous avions un doute sur le fait que le CES Las Vegas, était une formidable messe des nouvelles technologies heureusement que Netflix pour nous rappeler que c’est un gros levier de communication.

 

Il avait un stand nommé Psychotec où il présentait sa nouvelle technologie pour transférer un esprit humain dans n’importe quel autre cerveau et corps et ainsi changer d’âge, de sexe et de toute autre caractéristique possible...

 

Cela pourrait d’ailleurs être une idée pour condamner quelqu’un, lui faire prendre trente d’un coup sans possibilité de retour en arrière, en plus cela permettrait de libérer de la place en prison !

 

 En revanche, sachant qu’il y a une forte probabilité que nous vivions déjà dans une simulation, c’est petit joueur que de changer seulement le corps, pourquoi ne pas changer complètement d’univers :))))

Frenchtech

Dans le monde: France, 9e dans le Bloomberg Innovation Index 

Avant de rentrer sur les innovations technologiques, abordons ce qui a agité le microcosme français : la FrenchTech et la présence massive de startups financées par les régions.

 

La France était en 2017 le 5e pays par le nombre de visiteurs au CES (près de 5000) avec 2,5% des visiteurs (rapport complet ici, la version 2018 n’est pas encore publiée), 7% des exposants étaient français et un tiers des startups à Eurêka Park. 2018 confirme cette tendance. Cela montre une surreprésentation des startups françaises ce qui est à la fois une bonne chose (c'est un aiguillon) mais aussi un risque si on se repose uniquement dessus.

 

Pour rappel, le CTA, organisateur du CES a fait l’International Innovation Scorecard où sur 38 pays la France est 18e et est dans la moyenne de l’UE (l'Union européenne globalement est 16e). Pour nous rassurer l'Allemagne est à la 14e place, Israël 15e, la Corée du Sud 20e (!?!), le Japon 25e ( ?!?), la Chine 26e !

 

Il n'est pas impossible que des chiffres aient été un peu ajustés ;) Il est amusant de voir le Japon être un Innovation Champion et la Chine juste en dessous Innovation Adoptor. Ménagerait-on quelques susceptibilités … ?

Si ça peut nous rassurer le 2018 Bloomberg Innovation Index, donne des résultats très différents, puisque la Corée du Sud passe de 20e à la première position, l’Allemagne de la 14e à la 4e, les US de la 5e à la 11e (qui sort des 10 premières nations - y aurait-il un message subliminal destiné à Trump ? ;) et la France de la 18e à la 9e …

Allez comprendre Charles, derrière ces index, il y a certainement quelques enjeux politiques et commerciaux ;)

 

Pour l'anecdote, les pays représentés par Bloomberg représentent moins de 40% de la population mondiale et seuls 4 pays les plus peuplés (incluant l’UE ! mais exclus l’Inde, le Brésil, le Nigéria..) sont dans cet index. Vraiment représentatif ! Le CTA couvre un espace déjà plus large 4,6 Mds de personnes soit 60% de la population, 7 pays sur 15 les plusieurs peuplés font partie de l’index. C’est déjà beaucoup mieux (même s’ils ont oublié notamment la Russie !).

 

La France n’est pas à la tête mais dans la moyenne plutôt haute dans le domaine de l'innovation dans ces deux classements, ce qui contraste très fortement avec notre présence massive au CES en particulier avec les startups. C'est un peu comme si nous étions excellents en maths, et que nous négligions un peu plus les autres matières même si notre potentiel est élevé. Les efforts actuels dans notre pays nous permettront sans doute d’être aussi bons, voire excellents sur les autres matières …

La course à l’échalote des Régions concernant les Startups

 

Il y a certainement eu une surenchère entre les régions, l'espace occupé par les régions françaises est 3 fois supérieur à celle de Business France qui est censé représenter la French Tech à Eurêka Park. Cela faisait un peu zoo de logos, comme chaque métropole French Tech a son animal emblème. On risque une nouvelle dispersion et confusion dans l'image de la FrenchTech à l'international.

 

Mais restons confiant, l'année dernière il y avait un grand nombre de grands groupes français qui monopolisaient une partie de Eurêka Park, ça s’est réduit par rapport à l'année dernière (Air Liquide n'y est plus par exemple). 

Un des grands débats sur la présence française est le surinvestissement des régions dans la promotion des startups à Eurêka Park avec le risque d’un faible retour pour les startups participantes dont le CES n'est pas le coeur de cible.

 

 

Olivier Ezratty l'explique bien dans son rapport, il y a un accroissement d'erreurs de casting (le plus flagrant étant des entreprises qui proposent des services ou des plateformes qui n'ont rien à voir avec des produits électroniques. Petite illustration : cette startup certainement méritante qui propose de poster n'importe quel projet sur sa plateforme afin de former des équipes.


Pragmatisme des grands groupes

De l'autre côté, de nombreux acteurs sont devenus nettement plus pragmatiques. Plutôt que de pousser des technologies, ils partent des besoins clients pour apporter des solutions concrètes.

 

L'Oréal l’illustre bien passant de la brosse à cheveux connectée (avec Kérastase) en partenariat avec feu Withings, qui n'a pas dû passer le cap du prototype, à la mini-coccinelle, capteur d'UV sans batterie (avec La Roche-Posay), que l'on peut placer sur un ongle pour mesurer son exposition aux UVA et UVB.

 

Il y a eu un réel travail de miniaturisation, de design pour que cette petite capsule réponde à une problématique simple la surexposition au soleil, tout en en étant suffisamment petite et en évitant les marques de bronzage !

 

Dans le domaine du bien-être, Neutrogena filiale de Johnson & Johnson avait aussi créé sa caméra add-on au smartphone pour scanner la peau néanmoins c'est nettement moins innovateur car l'année dernière au CES, on en trouvait par brouettes.

Michelin a présenté son vélo e-Drive en association avec Wayscral, un fabricant de vélo et Cosmo Connected qui a imbriqué un feu arrière dans son dispositif électrique.

 

Michelin a utilisé une technique toute simple et très maline pour rendre un vélo électrique mais il fallait y penser.

 

Ses pneus (brevetés évidemment) présentent des petites stries qui sont entraînées par une dynamo « inversée » elle-même alimentée par la batterie électrique. Bien vu car Michelin fait le lien direct entre le pneu et l'électrification du vélo ce qui n'était pas évident à première vue.

 

Son système réduit aussi le poids de 3 kg par rapport à un vélo électrique traditionnel pour un coût total de 450€ HT (disponible en 2019).  Le premier prix pour un vélo Wayscral est 750€ TTC aujourd’hui.


Startups et Grands groupes – Partenariats utilisant des licences connues

Une des grosses problématiques des startups est évidemment le modèle économique en particulier dans le domaine des objets connectés où les coûts récurrents comme la mise à jour des applications, l'hébergement le support, font fondre comme neige au soleil leurs marges déjà faibles. C'est pourquoi elles sont de plus en plus à s'associer avec de grands groupes sous forme de marque blanche ou marque grise.

 

Comme je l’avais indiqué auparavant, Sensorwake s'est associé avec Lexibook qui possède une licence Disney et Universal pour créer et vendre des réveils matin pour enfants Reine des Neiges et Bananas.

 

C'est un très bon levier commercial pour Sensorwake qui aurait été incapable d’obtenir cette licence directement et pour Lexibook qui lui permet de présenter des produits innovants. Même si c'est écrit en tout petit, Sensorwake parvient néanmoins à garder sa marque sous celle de Lexibook sur ses produits. D'autres startups devraient réfléchir à ce mode de commercialisation qui peut générer de très importants volumes.

 

Des PME et ETI peuvent aussi y trouver leur compte comme un premier moyen d’étendre leur gamme et d’innover à coûts réduits puisque le produit est déjà développé.

Netatmo réalise depuis longtemps ce type de partenariat B2B après Engie, Legrand et Velux, il poursuit avec le groupe Muller sur les chaudières.

 

Enfin j'ai vu un certain nombre de startups qui n'étaient pas venus l’année dernière et qui reviennent au CES après deux ou trois ans après leur première apparition une fois leur produit commercialisable, c'est le cas de My Brain Technologies avec son casque Melomind (présent en 2015 et 2016) ou Romy (présent en 2016) qui a un appareil réalisant des cosmétiques sur-mesure.

PME ETI

J'ai vu aussi l'apparition d'entreprises leaders de leur domaine mais peu connues du grand public qui exposent au CES. Celle qui m'a le plus impressionné est CWD Sellier (étude française où ils sont nommés) qui fabrique des selles de chevaux depuis 1998 en intégrant des innovations comme les matériaux composites.

 

CWD a depuis quatre ans, développé iJump, une selle connectée sur base d’une selle déjà existante, tout en intégrant des capteurs permettant de mesurer la performance du cheval. Pour une PME, ce n’est pas encore commun, le soutien de la BPI a certainement été essentiel.

Surys qui est leader dans la fabrication de films holographiques destinés aux billets de banque et au passeport a aussi présenté sa technologie pour servir de moyen d'authentification de produits de luxe.

 

L'intérêt par rapport au QR Code est que l’ hologramme est  infalsifiable et qu’il coûte beaucoup moins cher qu'un tag NFC. Néanmoins l'inconvénient est qu'il est nécessaire de passer par une application sur le smartphone pour s'assurer de l'authentification la bouteille. L'intérêt est surtout pour des personnes qui contrôlent les bouteilles de manière régulière ou sur des marchés où il y a de nombreuses contrefaçons en Asie notamment. Le NFC est certes plus cher (0,1 à 0,2€ l’unité), néanmoins, on n’a plus besoin d'avoir une application et elle est compatible avec les smartphones Android et maintenant avec les nouveaux iPhone 8 et X.

 

J'ai demandé s’ils allaient s’étendre dans le domaine du NFC afin d'offrir des solutions complètes d'authentification et de relation avec le client en complément avec leurs solutions actuelles et ce n'est pas du tout prévu. Cela pose une question très intéressante lorsqu’on a développé une technologie unique et différenciante et qu’on la développe sur de nouveaux marchés.  Vaut-il mieux rester sur celle-ci ou étendre son expertise sur de nouvelles technologies pour répondre complètement au besoin ? En général, ce sont souvent deux sociétés expertes qui s’associent, fusionnent ou se rachètent ce qui évite de réinventer la roue !

Conclusion

Les innovations au CES Las Vegas peuvent paraître au prime abord comme des gadgets, en réalité si on gratte un peu, au-delà du produit, on recherche les tendances, les opportunités, les problématiques, de très nombreuses discussions apparaissent qui peuvent aboutir à des solutions concrètes pour tous, à mieux anticiper les impacts des innovations et intégrer cela dans la loi.

 

Le désenclavement des territoires, la protection des données personnelles, l’accès à tous aux services rendus possibles grâce au numérique (e-Santé, e-mobilité, e-éducation…)  font partie des nombreux sujets que nous avons débattus avec les députés

 

C'était passionnant car il y avait un réel intérêt pour les utiliser au bénéfice des citoyens.:)

 

Si vous souhaitez une présentation de ce type de solutions (ou sur les innovations dans l'IoT, robots et IA) et de leurs impacts dans vos organisations et entreprises, n’hésitez pas à me contacter :)

 

Dimitri Carbonnelle - Contact

Fondateur de Livosphere 

Conseil en IoT, IA et Robots collaboratifs / Cobots

Intelligence artificielle IA et Blackbox, Pouvoir, IA inclusive, où investir, libérer les données et GDPR, RGPD, stratégie industrielle IA à l'AI Night - Start

Le jeudi 8/2 a eu lieu l’AI Night au Palais de Tokyo, organisé par Artefact, France Is AI et France Digitale.

 

For English Speakers - Google Translation 

 

Comme le dit très bien, Damien Gromier, maître de cérémonie de la soirée, l'objectif est de réunir l'ensemble de l'écosystème intéressé par l’IA en France afin d'en faire la locomotive européenne de l’intelligence artificielle.

 

Oui, il y avait des startups qui ne font pas de l’AI Washing. Oui, il y avait de speakers sachant parler de l'IA, de leurs impacts mais surtout l'AI Night ouvre le débat indispensable sur ce que nous voulons faire de l'IA dans nos sociétés.

 

En quelques mots :

  • Est-ce que l’IA = Black box et IA = Pouvoir ou pas ? IA compatible avec la GDPR ? Doit-on rendre l’IA inclusive ?
  • Combien doit-on investir dans l’IA (30 ou 300 Md €) et surtout pourquoi faire ? Et Pourquoi ne pas mieux rémunérer les chercheurs de l'INRIA et dans l'IA ?
  • Pour contrer les GAFA, ne devrait-on pas avoir une stratégie industrielle de l’IA différenciante par rapport aux GAFA et BATX et européenne ? Une IA qui nécessite peu de données traitant localement les données plutôt qu’une IA plateforme ?
  • Comment libérer les données, fuel de l’IA en préservant la vie privée ?

Avec les interventions notamment de Laurent Alexandre, Moojan Asghari (Women in AI), Mounir Mahjoubi, Isabelle Ryl (INRIA) et Bruno Maisonnier (Another Brain)

Les questions en débat

L'AI Night ouvre le débat sur de nombreuses questions :

 

Doit-on accepter que l'IA soit une Black Box et l'instrument des puissants comme l’affirme Laurent Alexandre ou au contraire comme le défend Mounir Majhoubi, tout faire pour que les femmes, les outsiders, les élèves se joignent au débat et en deviennent acteurs car l'IA sans inclusion ne serait que ruine de notre société ? Aujourd’hui, l’IA est trop encore « Digital Man Centric ». Ce sera un des enjeux des prochaines AI Night que de diversifier encore plus les speakers et l’audience.

 

Doit-on investir 300 Md € dans le deep learning pour se battre contre les GAFA, chiffre minimum d'après Laurent Alexandre (Vs 30 Md€ selon Cédric Villani) ou la bataille est perdue et il faut investir dans d'autres formes d'IA, explicables et qui nécessitent peu de données comme le préconise Bruno Maisonnier en mettant en avant sa startup Another Brain (puces d’IA n’utilisant pas des réseaux neuronaux).

 

Quelle stratégie IA devons-nous adopter ?

Aujourd'hui il y a beaucoup d'initiatives dans le domaine de l'IA, qui sont dispersées avec des visions disparates (car nous sommes au début de son explosion). Au-delà de ces discussions, l'enjeu est d'avoir une vraie stratégie industrielle (partenariats, standardisation des protocoles, structures de données, harmonisation législative) non seulement sur le plan français mais surtout sur le plan européen pour faire face aux plates-formes de sociétés américaines et chinoises. 

 

La GDPR (RGPD / Règlement européen sur la protection des données) est à la fois un frein au développement de l'IA car il réduit la quantité de données utilisables néanmoins il peut être aussi un fort levier sur deux plans :

  • cela montre que les Etats européens sont capables d'avoir une vision cohérente sur le sujet des données personnelles et cette démarche pourrait être utilisée sur d'autres aspects de la réglementation ou de projets européens (tant qu'elle ne bride pas les initiatives et entrepreneurs !)
  • si les entreprises européennes développent des technologies innovantes qui respectent la GDPR (ex: en utilisant beaucoup moins de données avec l'IA formelle ou en embarquant l'IA dans des puces évitant de les transmettre sur une plateforme et donc d'être soumises à la GDPR)
  • et que la GDPR et GDPR-like deviennent un standard mondial (possible s'il y a un Techlash de la part des individus et surtout des Etats pour réduire la puissance des GAFA qui agrègent trop de données)

Un angle d’attaque serait que l’Europe ait une stratégie pour développer des technologies capables de réaliser de l’IA localement avec très peu de données (GDPR Compliant) Vs une IA engouffrant des quantités de données dans le cloud (IA des GAFA qui pose des problèmes de « privacy » et des risques de TechLash) à l’image du small data Vs big data. C’est une stratégie différenciante plus pertinente que d’adopter la même stratégie que les GAFA en les prenant de front.

  

Le plan proposé par Cédric Villani à ce sujet qui devrait sortir en mars donnera le ton et la vision souhaitée par la France. Sa présentation a été retardée afin d'être concomitante avec la présentation de la stratégie du gouvernement sur l'IA. La stratégie européenne devrait être présentée deux semaines après en coordination avec la stratégie française ce qui est de bon augure (cf interventions sur LCP notamment de Cédric Villani et Laurent Alexandre)

 

Libérer les données et la vie privée

Faut-il libérer les données de santé ou les protéger pour garder le peu de vie privée qui nous reste ? Est-ce possible d'avoir les deux en même temps ? (oui en agrégeant les données, en utilisant des IA capables de travailler sur des données cryptées et surtout si on explique pourquoi et comment on utilise les données et comment on respecte la vie privée en anonymisant ces données ).

 

Débattre de Laurent Alexandre dans les écoles car nous en aurons des millions dans nos smartphones ...

Toutes ces questions et une foultitude d'autres, nous devons en débattre de manière constructive, pas uniquement entre nous dans le monde du digital où les hommes sont d'une écrasante majorité (alors que les femmes sont bien mieux armées que les hommes face à l'IA (cf. ce post FB).

 

A ce titre, une idée complètement iconoclaste serait de diffuser des interventions de Laurent Alexandre dans les écoles, collèges, lycées et enseignement supérieur et aussi dans les entreprises et organisations publiques pour débattre de ses idées.

 

Laurent est l'incarnation humaine de l'intelligence artificielle générale de demain, il a une aura liée à son parcours (chirurgien et urologue, diplômé de l’IEP Paris, d'HEC et de l'ENA), à son charisme et bagou qui nous fait facilement tomber dans ce fameux biais cognitif, le biais d’autorité. Peut-être qu’à l’occasion, tombe-t-il dans le « Curse of knowledge » ;)

 

Il peut en quelques secondes basculer des analyses les plus pertinentes aux conclusions les plus spécieuses bâties sur des raisonnements certes bien ficelés parfois séduisants mais faux (cf. mon point de vue ci-dessous et je reste ouvert aussi à la critique !).

 

Regarder ses interventions, nous oblige à apprendre à séparer le bon grain de l'ivraie, à avoir l’esprit critique et le maintenir en éveil. En discuter, en débattre, nous permet de l’affûter.

 

Aujourd'hui, nous avons un seul Laurent Alexandre, demain nous en aurons des millions dans nos smartphones, nos voitures, nos maisons, nos objets capables de nous donner les meilleurs conseils et nous sortir les plus grandes inepties (potentiellement crédibles !).  Nous devons apprendre à savoir faire le tri et ce sera loin d'être évident car à l'image du GPS, nous aurons juste envie de nous reposer dessus quitte à perdre le sens de l'orientation. L'IA ne doit pas devenir une pensée magique sortie d’une black box, elle ne doit pas devenir un nouveau dieu capable de nous mener du jour au lendemain d’une Terre tant promise au royaume d'Hadès ou au terme d’une lente catabase.

 

Dernier point, l'IA fonctionne grâce à l'énergie, une coupure d'électricité et vous perdez l'IA, d'où la nécessité de ne pas se reposer uniquement dessus. Avec les catastrophes naturelles, ce type de situation risque de plus en plus d'arriver. C'est aussi une fragilité pour ceux qui croit prendre le pouvoir uniquement avec l'IA. 

 

Mais cela ne dépend que de nous... 

Vision globale

Startups

14 startups présentaient des cas d'usage de l’IA dans le domaine de

en plus de Startup Inside (développement de projets IA).

 

 


L'autre intérêt de cette soirée est celui des conférences et panels, le rythme, la durée, les conférences étaient bons ainsi que le pitch des start-up à la fin même si 30 minutes de moins auraient été bienvenues. À quelques exceptions près, les interventions étaient bonnes, voire excellentes. Il y a évidemment des partis pris et des personnes qui prêchent pour leur paroisse, pardon leur IA !, néanmoins le melting pot qui en résulte est très intéressant de par la variété des opinions comme j’en ai parlé en introduction.

 

 

Bien sûr, les objectifs des conférences étaient de montrer l'intérêt de l'IA,  de manière générale et sur des secteurs en particulier comme la santé, la mobilité, le marketing avec des intervenants multiples et variés (GoogleINRIAWomen in AIMalakoff MédéricRATPValeoEasy MileCardiologs et bien sûr Mounir Mahjoubi).

IA B2B : Automatisation, optimisation, innovation

Vincent Luciani (Artefact) nous expliquait ses trois axes de développement de l’IA en B2B :

  • l'automatisation (moins de tâches répétitives),
  • l'optimisation (prendre de bonnes décisions surtout si nous faisons face à beaucoup de données hétérogènes) et
  • l'innovation (découvrir de nouveaux champs).

Il est essentiel de commencer dès maintenant car il y a une prime aux early adopters. Il faut compléter par le fait que les changements organisationnels et culturels sont majeurs, plus tôt on s'y prépare, moins la pente sera raide.

 

Il sera de plus en plus difficile de faire la distinction entre les « fake news » et les « true lies » (cf fausse vidéo de Barack Obama). Cette confusion était l’un des 3 mots  (en plus d'inflexion et de confrontation) qui résumait mes prédictions pour 2018 et après : entre ce qui est vrai et faux, ce qui est humain ou pas,  vivant ou artificiel, créations humaines ou  d’IA, réel ou virtuel, nous allons perdre beaucoup de nos repères fondamentaux avec les nouvelles technologies comme l'IA, la VR/AR, les nanotechnologies ... et devrons apprendre à en trouver de nouveaux.

Retail

En retail, Guillaume de Roquemaurel précise aussi qu'on ne peut plus présenter sur un site e-commerce ou en rayon des centaines de marques sans distinction et qu’il est essentiel de personnaliser l'expérience en fonction de l'utilisateur.

 

Autre changement, Google prévoit que 50 % de ses recherches devraient passer par la voix d'ici 3 ans ce qui change fondamentalement la donne. Autant on accepte de voir des dizaines de résultats sur un écran, avec un assistant vocal, nous ne voulons qu’une réponse et si elle n'est pas pertinente, on l'abandonnera vite. Notre exigence est beaucoup plus élevée.

 

Pour l’anecdote, j’en avais parlé dans un petit ouvrage « Objets communicants au service des services » (cf. fin de la page 8, à ce moment-là, le terme objet connecté n'était pas encore consacré !) que j’avais écrit en septembre 2009 et de la nécessité d’intégrer une couche d’intelligence au-dessus ! Comme quoi, cela prend plus de temps qu’on ne croit …

Mobilité

Dans la mobilité, Valeo explique que la distinction entre le transport individuel et collectif se brouille avec le covoiturage le free-riding... 

 

Au CES Las Vegas, j’avais vu que pour les constructeurs automobiles, le véhicule autonome était conçu dès le départ pour être partagé, ce qui paraît cohérent. Utiliser un véhicule autonome moins de 10% du temps par moins de 1,5 personne (moyenne actuelle) serait un non-sens. Le modèle économique de partage permet de fortement réduire son coût total (avec les revenus générés notamment) même si son coût initial sera beaucoup élevé que le coût actuel d’un véhicule non-autonome.

 

La conduite assistée est un préambule aux véhicules autonomes, Valeo a été pragmatique et a simplement demandé aux conducteurs ce qui les ennuyait le plus dans la conduite : se garer en ville les embouteillages et les autoroutes ennuyeuses. Ils en ont tiré leurs trois axes d’innovations  et des solutions dans chaque cas.

Easymile serait la seule entreprise au monde avec Navya à commercialiser des navettes autonomes sans volant ni pédales.

 

Il est d'ailleurs possible de les tester dans le Bois de Vincennes sur un trajet déterminé et une voie dédiée. Le développement de ces véhicules se fera en parallèle et de manière complémentaire aux véhicules autonomes ayant un volant qui peuvent plus facilement être utilisés en route ouverte car un conducteur peut reprendre la main si nécessaire (ex : Rouen Normandy Autonomous Lab avec Transdev et Renault Zoé).

Cybersécurité

La cybersécurité a été abordée par Christopher Muffat de Dathena mais j'ai été déçu car j'étais persuadé qu'il nous parlerait de Generative Adversarial Networks (cf article sur GAN et sur les armes autonomes et la cyberguerre) pour contrer les cyberattaques et par exemple  les utiliser lors de Bug Bounty pour détecter des failles de sécurité. Il n’en a rien été. 

Fin du code

Jean-Philippe Desbiolles (IBM Watson) indique qu’il y a trois usages qui se développent très fortement pour Watson:

  • une nouvelle expérience client (personnalisation des services/produits grâce à l’IA et les données collectées),
  • l’Homme augmenté (santé et prévention en particulier),
  • le respect de la conformité / de la réglementation

Il prédit la fin du code, le passage de la programmation à l’apprentissage, du déterminisme à l’adaptation du savoir, savoir-faire et du savoir-être.

 

 

Nous verrons de moins de codeurs et de plus en plus de développeurs voire de dompteurs d’IA (IA qui sera en charge de créer le code). A ce titre, autant il est nécessaire de savoir comment coder, autant il ne faut pas créer des armées de codeurs à la sortie des écoles car ils seront pour la plupart sans emploi dans une dizaine d’années (cf. article sur l’IA et l'éducation).

 

Il cite aussi l’excellente intervention de Jack Ma au forum de Davos sur la nécessité de changer notre manière d’enseigner en développant les « soft skills » (« Values, believing, independent thinking, teamwork, care for others » :  avoir des valeurs, croire en quelque chose / quelqu’un, avoir un esprit critique, un esprit d’équipe, s’occuper des autres) sinon nous aurons de vrais problèmes dans 30 ans.

 

Il préconise de développer toutes les activités qui nous différenciera des machines pendant encore longtemps : sports, musique, peinture, art de manière générale.

 

 


Même s’il faut développer ses activités, il ne faut pas cesser d’apprendre les matières « dures » : maths, histoire, géographie, français et philo, SVT, physique/chimie … car ce sont des fondamentaux, des références qui nous seront indispensables pour bâtir notre créativité, créer des liens avec les autres et tout simplement pour ne pas être tout de suite larguées par les machines !

 

D'autre part, en plus d'apprendre, il est indispensable d'apprendre à apprendre, c'est dans ce sens que Cédric Villani préconise d'aller sur son rapport pour favoriser l'apprentissage des mathématiques. 

IA dans le domaine juridique et légal - respect de la conformité 

L’homme a été et est toujours prolifique pour créer des lois, règlements, contrats…

 

L’IA pourra proposer des solutions qui y répondent car il aura tout ingurgité et sera capable de filtrer les solutions en fonction du respect ou non des contraintes légales, contractuelles...).  L’IA pourrait certainement nous aider aussi à simplifier les lois et règlements en montrant toutes les aberrations, archaïsmes, contradictions, doublons que nous y avons laissés recouverts d’une grosse couche de poussière que personne n’a osé nettoyer vraiment depuis le code napoléonien. Cela pourrait être un challenge intéressant à relever pour des fournisseurs de solutions IA (en particulier s'ils sont dans le domaine juridique).

  

 

Pour l'anecdote, l'IA CaseCruncher a battu lors d'une compétition 100 des meilleurs avocats de Londres. Supervisée par deux juges, CaseCruncher Alpha et les avocats ont reçu les faits de bases concernant des centaines de cas de ventes abusives de PPI (Payment protection insurance, assurance emprunteur). Les deux entités étaient par la suite invitées à définir si l’Ombudsman financier autoriserait une réclamation ou non. Suite à la soumission des 775 prédictions, l’IA a finalement remporté la bataille avec un taux d’exactitude de 86,3% contre 66,3% pour les avocats. L'IA n'a pas pour vocation de remplacer les avocats mais plutôt l'assister, le guider dans ses choix.

Le débat !

Rentrons maintenant dans le vif du sujet sur des thèmes qui sont particulièrement polémiques dans domaine de l'intelligence artificielle :

  • L’ investissement dans l’IA : Combien ? Où ?  N'est-ce pas trop tard ?
  • Qu'est-ce que l'intelligence (est-ce l’attribut du pouvoir , et une blackbox comme dit Laurent Alexandre) ? Et les impacts de l'IA sur notre société .
  • Pourquoi l'intelligence artificielle doit-elle devenir un facteur d'inclusion et non d'exclusion dans nos sociétés pour Mounir Majhoubi ?
  • La libération des données personnelles versus notre vie privée

L’ Investissement dans l’IA : Combien ?  Où ?  n'est-ce pas trop tard ?

Progrès réels

Laurent Alexandre a été particulièrement beau joueur en acceptant pour la première fois d'avoir un discours positif sur l'intelligence artificielle à la demande de Damien. C'était un moment particulièrement émouvant  ;) après avoir entendu un certain nombre de discours catastrophistes sur le devenir de l'homme face à l'intelligence artificielle qui ont néanmoins le mérite de nous réveiller et de nous bousculer.

 

Laurent égrène les progrès réalisés par la France, par son gouvernement, son administration en matière de compréhension de l'intelligence artificielle et de ses impacts, en termes d'action pour favoriser son développement.

 

Fini les investissements dans les canards boiteux à la sauce Plan Calcul, il rend hommage aussi à Mounir Mahjoubi d'avoir essayé de faire comprendre aux sénateurs ce qu’est le deep learning même si un certain nombre d’entre eux n’auront sans doute pas le temps de voir ce qu’est l'Intelligence Artificielle Générale ou AGI (53,7% ont plus de 60 ans or l’AGI devrait arriver dans 30 ans environ, - néanmoins, l’âge moyen des sénateurs a baissé de 5 ans entre 2014 et 2017 pour être à 61 ans aujourd’hui :). Ils se sentent peut-être moins concernés. 

Salaires des chercheurs à l’INRIA

Laurent demande à ce que les chercheurs à l'INRIA (j’ai vérifié … cf. grille de salaire à l’INRIA – le maximum étant de 6000 € / mois pour un directeur de recherche de classe exceptionnelle, un chercheur peut gagner au maximum 3761 € brut /mois, selon Glassdoor sur un petit échantillon de chercheurs leur salaire moyen serait de 2600€/mois ce qui semble cohérent) soient payés plus que deux fois le salaire d'une femme de ménage chez AccorHotel (selon Indeed, le salaire moyen d’une femme de ménage est d’environ 1600€ / mois).

 

Laurent dit donc vrai, Isabelle Ryl (directrice de l’INRIA) confirme ses propos en regrettant amèrement de voir ses chercheurs partir en raison de la faiblesse des salaires au profit de nombreux GAFA.

 

 

Fidèle au credo qu'il avait quand il était à la tête d'Aldebaran, Bruno Maisonnier est encore plus affirmatif, trouve hérétique de laisser les GAFA installer en France des laboratoires d’intelligence artificielle où tous nos chercheurs sont aspirés et qu’il faut investir dans les entreprises françaises.

 

C’est sans doute un moindre mal que de les voir tous partir de France. D'une part, on aura beaucoup plus de chance de les revoir par la suite travailler sur des sujets qui ont un impact direct sur la société française ou européenne que s'ils partaient aux États-Unis (en particulier si on relève les salaires !), d'autre part leur expérience sera enrichie par toute la connaissance qu'ils ont eue chez ces entreprises.

 

En revanche, il est évident qu'il est indispensable de relever les salaires des chercheurs notamment dans le domaine de l'intelligence artificielle. La rémunération n’est pas leur première motivation dans bien des cas néanmoins si l'écart est trop grand et surtout s’ils tirent le diable par la queue tous les mois en raison de leur salaire, on peut comprendre qu'ils aillent voir ailleurs.

 

 

En valorisant mieux ces chercheurs, les entreprises et organisations françaises et notre pays en bénéficieront bien au-delà des coûts actuels.

Investissement national dans l’IA

Évidemment, Laurent ne saurait discourir sans manier le juron et l'hyperbole comme autrefois le scalpel en fustigeant les autorités européennes d'être ... trop mou (je vous laisse le soin de deviner ses termes exacts ;)

 

Il est à 100 % d'accord avec Cédric Villani concernant la stratégie sur l’IA a une petite exception près, ce n'est pas 30 milliards d'euros qu'il faudrait consacrer à l'intelligence artificielle mais 300 milliards, selon lui.

 

C'est, comme si au début du siècle, on préconisait d'investir la quasi-totalité des fonds sur les infrastructures ferroviaires en oubliant les routes et les avions. Oui il faut investir massivement, mais avec discernement et pas mettre tous ses œufs dans le même panier, L'IA ne représente pas toute la recherche ni toute la société.

 

Plus qu'une surenchère aux montants, il est indispensable d'avoir une stratégie industrielle. Plus que de partir d'un chiffre 300 ou 30 Md €, il est beaucoup plus judicieux de partir de la stratégie à adopter, d'en calculer le coût global et en fonction de prioriser pour arriver à un budget acceptable. Nous verrons mais certainement la stratégie préconisée par Cédric Villani dans son rapport sur l'IA.

Bruno Maisonnier dit même que ce montant d’investissement est absurde (ou un terme similaire). Il ne sert à rien d'investir des sommes phénoménales en deep learning car de toutes les manières, il est trop tard c'est foutu, car les GAFA ont déjà gagné cette guerre.

 

En revanche, il faut investir dans une IA explicable, nécessitant peu de données, comme la puce qu’il est en train de développer dans sa startup AnotherBrain ;)

 

J'ai une vision plus tempérée. D'une part, laisser complètement le champ libre dans le deep learning aux Américains et Chinois serait une erreur fondamentale, on ne sait jamais comment la roue peut tourner, les innovations majeures peuvent tout à fait provenir de la France dans ce domaine (rappelons notamment les contributions de Yann Le Cun, aujourd’hui chez Facebook à ce sujet). Enfin le deep learning (décrit en détail ici) pose un certain nombre de problématiques comme sa non-explicabilité (hors si on en fait la rétro-ingénierie cf. article), une grande quantité de données nécessaire, les biais de confirmation. La recherche dans ce domaine est essentielle pour bien les comprendre et aussi pour les réduire.

Another Brain - Puce de 3ème génération d'IA - Explicable et nécessitant peu de données

Tout le monde se pose la question : Qu’a de spécial la puce de Bruno ?  Elle est de troisième génération !  Bruno fait référence aux trois vagues d'IA décrits par la Darpa dans la vidéo suivante.

 

La première vague est une IA créée à partir de la main/cerveau de l'Homme (Handcrafted Knowledge). Ce sont en général des algorithmes (sans apprentissage).

 

La deuxième vague est une IA supervisée où on va entraîner sur base de très nombreux cas, un réseau neuronal par exemple dans un cadre pré-déterminé. Ils sont bons pour percevoir/classifier et apprendre mais peu efficaces pour raisonner et conceptualiser (cf article).

 

 


La troisième vague est capable de s'adapter au contexte et de construire une représentation (ontologie) du monde. Il a surtout la capacité d'expliquer un raisonnement (à la différence d'un réseau neuronal) avec très peu de données. En revanche, il n'est pas précisé la nature de cette 3ème IA.

 

Sur le plan technologique, la première vague de puces est fondée sur des processeurs usuels,  la deuxième vague utilise des processeurs GPU (multi-processeurs) et aujourd'hui des processeurs neuromorphiques qui sont en plein boom chez Intel et Nvidia qui permettent de simuler des réseaux neuronaux sur des puces de manière plus efficace que les cartes GPU actuelles.

 

Évidemment, j'ai questionné Bruno sur la nature de sa nouvelle intelligence artificielle et évidemment il ne m'a pas répondu. Néanmoins il nous a donné les indices en précisant que son intelligence artificielle était explicable et nécessite peu de données (caractéristique de la 3ème vague). A moins de créer un nouveau champ mathématique, il est probable que Bruno s'appuie sur l'IA symbolique qui nécessite beaucoup moins de données et est explicable.

 

Plusieurs candidats sont possibles, mais Bruno nous donne un coup de main, puisqu’il précise dans un article des Echos,  qu’il s’inspire aussi « directement du fonctionnement élémentaire du cortex cérébral pour construire une IA forte », or selon pas mal d’études, l’IA qui reproduirait le mieux le fonctionnement du cerveau humain (en utilisant peu de données et en étant explicable) sont les réseaux bayésiens. Il a dû aussi utiliser des techniques qu’il a utilisées pour la marche de Nao lorsqu’il se redresse une fois tombé.

 

L’intérêt de la puce par rapport à une plateforme est de permettre de réduire les délais de latence, d’éviter les problèmes liés au GDPR en ne transmettant pas de données et en traitant tout en local.

 

A mon avis, la puce doit générer et tester un grand nombre de réseaux bayésiens sous forme d’arbres de décisions. On parle aussi de random forest, je dirai plutôt des smarts forests. J’ai parlé de cette technique pour rendre explicables des résultats de réseaux neuronaux mais on peut l’utiliser en direct sur des données brutes sans avoir des résultats préalables par des réseaux neuronaux. D’autre part, la puce doit avoir un système d’auto-apprentissage qui permet soit d’ajuster les poids sur chaque nœud de l’arbre de décision soit de générer de nouveaux arbres de décision. En revanche, elle doit être capable de fonctionner avec très peu d'éléments de départ. Un peu comme un poulian qui apprend à trotter. Réponse dans 18 mois ...

 

 

Quelque soit la méthode, c’est une très bonne approche car malgré ce que dit Laurent Alexandre l’IA n’est pas nécessairement une black box, au contraire c'est une période transitoire.

IA et Black Box

Laurent Alexandre fait un amalgame très gênant entre IA et deep learning qui effectivement n’est pas explicable. Il fait fi de cette IA de 3ème génération qui repose notamment sur l’IA symbolique qui est tout à fait explicable.

 

Deuxième point, Laurent dit qu’il faut accepter que l’IA ne soit pas explicable, et que les sénateurs commencent à le comprendre. Je m‘insurge contre cette position (Eh oui, ça m’arrive ;). Qu’on ne puisse expliquer pourquoi un réseau neuronal sait faire la distinction entre un chien et un chat dans une image n'est pas un problème.

 

En revanche, cela en est un dès lors que l'intelligence artificielle devient décisionnelle. Refuser un prêt, un emploi à quelqu’un voire le condamner à 20 ans de prison, sans lui expliquer pourquoi pose un petit souci (cf. vidéo) ! 

GDPR / RGPD - Protection des données incompatible avec Deep Learning

Ce n’est pas un caprice de député européen si la RGPD (GDPR en anglais) oblige à pouvoir expliquer à un consommateur la raison d’un refus dans le cadre d’un traitement automatisé.

 

Cela signifie d'ailleurs que toutes les techniques de profiling, de scoring… fondées sur du deep learning sont interdites par la RGPD (on peut l’utiliser a priori pour faire un pre-scoring mais la décision d’acceptation ou de refus doit être réalisée par un algorithme explicable ou par un être humain) – Lien direct vers l’article du RGPD (article 63)

 

« En conséquence, toute personne concernée devrait avoir le droit de connaître et de se faire communiquer, en particulier, les finalités du traitement des données à caractère personnel, si possible la durée du traitement de ces données à caractère personnel, l'identité des destinataires de ces données à caractère personnel, la logique qui sous-tend leur éventuel traitement automatisé et les conséquences que ce traitement pourrait avoir, au moins en cas de profilage. »

 

Accepter que l’IA de manière générale soit inexplicable est selon moi le pire des messages à faire passer. C’est la transformer en parole d'évangile. Ce qui fait progresser l'homme, c'est sa capacité à expliquer, à comprendre, à réfuter ses croyances initiales et à bâtir ses propres théories. Le lever du soleil, le mouvement des étoiles et la naissance d'un enfant furent il y a des milliers d’années des boites noires pour les êtres humains. Voulons-nous retourner dans cet obscurantisme naïf en croyant aveuglément ce que nous dira une AGI (intelligence artificielle générale) ou une ASI (super-intelligence artificielle) ?

 

Il faut à tout prix éviter que l'intelligence artificielle devienne magique et se transforme en religion, lui accorder le droit de devenir inexplicable est un pas dans cette direction.

 

Bien sûr, on ne va pas essayer de rendre explicable le deep learning, mais son utilisation doit être cadrée, elle peut contribuer à la prise de décision sans être le décisionnaire final qui doit revenir à un humain ou une IA compréhensible par un être humain. 

Qu’est-ce-que l’intelligence et par extension l’IA ? IA <> Pouvoir !

Laurent Alexandre a balayé d’un revers de main la définition de son prédécesseur sur l’intelligence en disant que l'intelligence est la capacité de prendre le pouvoir sur autrui et rien d’autre. Pour moi, c’est une ineptie confirmée par l’histoire humaine.

 

Est-ce-que les nombreuses guerres gagnées par les Spartes contre les Athéniens sont dues à la supériorité de leur intelligence ? Non

 

Est-ce-que les peuples barbares ont vaincu les Romains grâce à la supériorité de leur intelligence ? Non

 

Est-ce-que la Révolution française résulte de l’intelligence accrue des bourgeois puis du peuple français sur la noblesse et le clergé ? Non

 

On pourrait multiplier les exemples, sans même évoquer le cas de la Seconde Guerre mondiale …

 

Ce n’est pas parce que l’on est plus intelligent qu’on prend le pouvoir, ce n’est pas parce que l’on prend le pouvoir qu’on est plus intelligent.

 

En période de paix ou lorsque les inégalités au sein d'une société restent tolérables, l'intelligence permet d’accéder à plus de pouvoir, c’est un facteur parmi d’autres. La relation entre l'intelligence et le pouvoir est similaire à celle d'un élastique, ceux qui auraient l'intelligence et le pouvoir tirent l'élastique d'un côté, face à eux, ceux qui ne les ont pas (la longueur de l'élastique représentant l'ampleur des inégalités). A force de tirer, un moment, il éclate et se transforme en révolution, en guerre... d'autant plus facilement que ceux qui auraient l'intelligence et le pouvoir font tout pour ne pas le diffuser et donc sont peu nombreux à la différence des autres beaucoup plus nombreux qui de par leur nombre peuvent par la force prendre le pouvoir.

 

Dès lors qu'un peuple à la volonté de prendre le pouvoir (lorsque les inégalités deviennent criantes et perçues comme telles ou parce qu'un dirigeant suivi par sa population veut envahir un autre pays) et que sa taille est suffisamment importante pour le faire par rapport au peuple  à combattre, il le fera quelque soit son intelligence te dans un certain nombre de cas gagnera.

 

Le raisonnement de Laurent peut même mener même à des conclusions dangereuses. En affirmant que l'intelligence appartient à ceux qui prennent le pouvoir, cela inciterait ceux qui l’ont, à empêcher les autres d’accroître la leur voire la réduire afin qu’ils deviennent ignorants. Cela crée plus d'inégalités. Certains dirigeants de communautés ont d’ailleurs fait leur cette doctrine en plongeant leurs membres dans l’ignorance en détruisant des pans entiers de leur histoire. A l’inverse, si nous voulions avoir une société égalitaire où personne ne pourrait prendre le pouvoir, il faudrait niveler par le bas l’intelligence de tous, selon cette logique. C’est pourquoi ce raisonnement ne tient pas, selon moi.

Inclusion

Si la conclusion du raisonnement de Laurent mène vers de profondes inégalités, à l’inverse Mounir Majhoubi, prône dès le départ une position inclusive qui pousse à un nivellement par le haut et réduit les inégalités.

Mounir met aussi l'accent sur la première inégalité, le manque de femmes visibles dans l’audience (ce n’est certainement pas dû aux organisateurs mais à une trop représentation féminine générale).

 

Mounir l’avait déjà évoquée dans des discours précédents.  Avant 13 ans, les vocations scientifiques sont équilibrées entre les garçons et les filles, il y a une forte réduction du pourcentage de vocation entre 13 et 19 ans qui est et ce n'est sans doute pas un hasard la période d'adolescence.

 

Sans être psychologue, voici une première idée de réponse : l'adolescence est une période où on construit son identité, on a souvent tendance à rejeter le modèle de ses parents et adopter de manière parfois grégaire le modèle de ses pairs. Cela signifie de manière caricaturale que si lors de l'adolescence, les « rôles modèles » pour les garçons c'est d'étudier les sciences et les technologies, beaucoup de garçons suivront cette voie. 

 

Si pour les filles, il y a plus de rôles modèles, en littérature,  en sciences humaines …,  elles suivront plus ces voies. Une suggestion serait alors pour les filles entre 8 et 12 ans et durant l'adolescence , de les inciter à poursuivre leur voie dans les sciences et technologies et faciliter  / encourager les rôles modèles féminins. C'est d'autant plus important, que les femmes sont mieux armées selon moi que les hommes face à l'IA (les hommes sont souvent trop experts, zone de prédilection de l'IA).

 

Le témoignage de Moojan Asghari, d'origine iranienne est à ce titre frappant. 70% des étudiants scientifiques et ingénieurs en Iran sont des femmes.

 

Il y a plusieurs raisons à cela, selon un article de Forbes,  la révolution en 1979 et la crise économique en Iran qui a suivi n'ont donné d'autre choix aux hommes que de permettre à leur femme d'étudier et de travailler, d'autre part le gouvernement souhaitait rivaliser avec l'ouest et a mis en place une éducation gratuite à tous, ce qui l'a ouverte aux femmes.  Khomeini a fait un discours qui disait à quel point il était fier d'avoir des femmes actives dans l'éducation et l'économie iranienne, qui a lancé de nombreuses vocations qu'il n'aurait sans doute pas imaginées.

 

La guerre Iran-Irak a aussi amené beaucoup de femmes sur le marché du travail de manière similaire à ce que les pays occidentaux ont vécu en particulier durant la Seconde Guerre mondiale.

 

Nous voyons deux choses, d'une part que ce n'est pas une fatalité d'avoir aussi peu de femmes dans la Tech, et qu'il faut certes agir sur beaucoup de leviers en même temps pour qu'elles accèdent à plus de responsabilités et mais qu'en agissant de concert nous parviendrons à changer la donne.

 

Petite digression, la lecture de l'article suivant est aussi éclairant, il montre que faciliter les périodes de congé maternité si cela accroît les différences de traitement entre hommes et femmes lors de la naissance d'un enfant a un impact négatif sur le travail et la promotion des femmes car les employeurs anticipant cela, proposent aux femmes des postes moins élevés et moins payés.

 

D'où la nécessité de fortement inciter les pères à prendre leurs congés parentaux et à rapprocher les droits et devoirs des congés paternité et des congés maternité, pour que les employeurs n'anticipent plus cet écart.

TechLash et Ecart énorme entre perception de l'IA en Chine Vs Europe et USA

De manière plus globale, il y a un risque dans les pays occidentaux par rapport à la Chine d'un TechLash (dont je parle ici). Un quart des Français ("mainstream consumers" considèrent que l'IA sera bénéfique pour l'humanité) contre 60% en Chine et 30% aux Etats-Unis. Sur une courbe de Gauss, nous serions des late adopters versus des early adopters. (Etude iLIfe - BETC)

Même si la Chine a une position trop « Tech fan » (relatée d'ailleurs par un édito éclairant de Laurent Alexandre à ce sujet), le risque est de faire face à un TechLash où notre société serait vent debout contre la technologie alors que d'autres pays l'embrassent pleinement. Il faut un juste milieu.


Faut-il interdire Laurent Alexandre ou au contraire en débattre à l’école ?

Interdire les propos de Laurent serait absurde pour moi  car  heureusement  nous avons la liberté d'expression.

 

Néanmoins, il y a deux raisons pour lesquelles certains pourraient vouloir réduire son exposition. La première est qu'il attise  la peur qui certes réveille mais n'incite pas à l'action positive mais à une action défensive et de rejet. Au contraire il faut favoriser l'action positive (c'est sans doute l'objectif de Laurent  aussi est-ce la raison pour laquelle peut-être adoucit-il son discours alarmiste).

 

Il  a fait des amalgames gênants lors de l'AI Night, comme je l'ai précisé plus haut, (IA=pouvoir, IA=Blackbox), c'est vrai qu'il est plus facile de présenter une vision simple pour se faire comprendre de tous néanmoins je pense qu'il faut élever  plus le débat au-delà des formules simples.

 

En revanche, est-ce que les discours de Laurent sont dangereux ? Non, à partir du moment où on fait appel à son sens critique. Il est même extrêmement utile car il  casse avec virulence certains dogmes, nous oblige à réfléchir et à agir autrement (en accord ou contre ses idées)  au lieu de nous endormir.

 

Laurent est aussi un vaccin contre la crédulité car il nous contraint à garder un esprit critique, à séparer le bon grain de l'ivraie. Cet esprit critique nous sera indispensable car ce sera des millions de Laurent Alexandre cachés dans nos smartphones, objets, maisons qui nous diront que faire et à qui nous serons capables de dire "Non, je ne suis pas d'accord, je choisis une autre voie" alors qu'il nous aura donné des conseils très pertinents juste avant.

Libérer les données : IA for good Vs Privacy

Lors de ces talks, une demande est revenue en force : libérer les données. Une entreprise comme Cardiologs n’a pu commencer à utiliser l’IA pour détecter des problèmes cardiaques que lorsqu’ils ont eu accès à des données d’hôpitaux US, chinois… car ils ne pouvaient avoir des données de santé venant de France. Leur chance est qu’un coeur américain ou chinois est très proche d’un coeur français.

 

Cédric Villani parle très bien lors de son allocution à l’Assemblée nationale de cet équilibre à trouver entre donner accès aux données pour permettre aux entreprises françaises, startups mais pas uniquement de se développer et respect de la vie privée.

 

Le mot d’ordre à l'AI Night est de créer un cadre qui permet de libérer les données. Si on reste là, je reste néanmoins perplexe, car la meilleure façon de faire peur à tout le monde et de créer une résistance de tous est de dire qu’on libère les données. Le terme me semble beaucoup trop fort et pourrait être remplacé par des termes plus communs comme utiliser des données anonymisées.

 

Cela a été évoqué mais trop peu, qu'il est possible de libérer les données tout en préservant la confidentialité  des données personnelles, en utilisant des IA et des algorithmes fonctionnant avec des données cryptées ou en agrégeant des données en empêchant un retour arrière sur des données personnelles.

 

Un exemple donné par David Giblas est saisissant. Le protocole d'utilisation de données dans la santé est celui utilisé pour les tests cliniques (donc sur des nombres beaucoup plus petits que le nombre généralement utilisé pour entraîner des algorithmes d'IA.) Ce cadre n'est pas du tout approprié pour des larges études épidémiologiques (aujourd'hui certes possibles, mais qui ne permet pas de croiser suffisamment de facteurs – vos retours sont bienvenus à ce sujet.)

Conclusion

Les débats sont nombreux et deviennent foisonnants. Assez rapidement, nous devons rentrer dans une première phase de synthèse de ces débats pour avoir une ligne directrice, une stratégie française et européenne.

 

Nous apprendrons en marchant afin que l'IA devienne un vrai levier pour l'ensemble des êtres humains et nous aide à faire face aux nombreux bouleversements que notre planète nous réserve tout en évitant les risques d'endormissement ou de diabète intellectuel si nous nous laissons faire l'IA sans esprit critique.

 

 

Dimitri Carbonnelle - Livosphere

Conseil en Internet of Things, Intelligence artificielle et Robots

Speaker / Modérateur

Prédictions 2018 - Inflexion (IA, Blockchain, IoT, Robots), Confusion (Homme-Artificiel, Vrai-Faux), Confrontation (Etats, GAFA, BATX, Individus, Planète)

Avant de commencer mon debrief du CES Las Vegas (fin janvier), comme chaque année, je fais quelques prédictions sur les tendances, les événements, les ruptures que j’anticipe pour l’année qui suit. 

 

For English Speakers - Google Translation 

 

Je brosse un tableau très large car les nouvelles technologies (IoT, IA, robots, blockchain…) auront des impacts sociétaux et même civilisationnels de plus en plus majeurs.

 

 

2018 pourrait se résumer pour moi en trois mots : inflexion, confusion et confrontation … 2019 et après seront le début de la transformation dans le bon sens du terme 😉

 

Inflexion car nous sommes à un point où les nouvelles technologies accessibles au plus grand nombre vont profondément bouleverser notre quotidien en plus et aussi en mal (selon les intentions de ceux qui l’utilisent)

 

Confusion nous allons perdre beaucoup de nos repères fondamentaux : humain / non humain, réel/virtuel, vivant/inerte, créations humaines / créations d’IA, vrai/faux car les technologies brouilleront les frontières

Confrontation entre les États qui voudront reprendre la main face au GAFA, entre GAFA/BATX, nouveaux et anciens, individus et entreprises/acteurs publics, créateurs, diffuseurs de contenus et opérateurs télécoms.

 

Enfin, Confrontation avec notre société Formule 1 face à notre propre planète qui nous obligera à devenir une société tout-terrain pour que la technologie soit au service de la résilience et non seulement de la performance.

 

Voici les différents éléments de l’article (avec des liens directs), il est très long (plus de 12 h de vol jusqu’à Vegas, ça aide 😉

 

IA dans nos vies :

IoT - Internet des Objets 

Intégration et assemblage des nouvelles technologies (IA, IoT, Blockchain, Robots)

  • Les nouveaux rentiers grâce aux entreprises autonomes (DAO et IA)
  • Usine 4.0 - Customisation de masse avec le Fog Manufacturing : des délais extrêmement raccourcis entre attente d’un client, création et production d’un produit et livraison

La confrontation des plaques tectoniques : Etat, GAFA/BATX, Anciens/Nouveaux, individus, Notre Planète

  • Le Techlash des États envers les GAFA
  • Course aux armements digitaux et IA des États
  • Combat de titans entre GAFA et BATX
  • Bataille d’Hernani entre l’ancien monde et le nouveau monde
  • Combat homérique entre contenant (telcos), contenu et diffuseurs (Google, Facebook…)
  • Customer et Citizen Empowerment en devenir face aux entreprises et acteurs publics
  • Nous face à notre planète – d’une société Formule 1 à une société tout-terrain

Je vous l’avoue, je suis quelque peu bavard et verse souvent dans les digressions mais c'est l'occasion de mettre un peu de matière pour étayer mes prédictions.

Inflexion

Inflexion car nous vivons une période où les nouvelles technologies (Intelligence artificielle, IoT, programmation génétique avec CrispR, robots ) deviennent accessibles au plus grand nombre

  • pour le meilleur (meilleure santé, meilleure gestion de nos ressources énergétiques, de la pollution …),
  • pour le pire (cyberguerre, bio-hacking, armes autonomes, dopage intellectuel, manipulation des opinions publiques ) et
  • pour le « impossible à prédire » (intégration massive d’IA comme assistant dans nos vies, augmentation de l’être humain, modification in vivo de nos gènes et de nos descendants avec CrispR…).

L’enjeu pour beaucoup d’acteurs n’est pas tant l’accès aux technologies mais l’accès aux données qui utilisent ces technologies. La bataille pour être le premier point de contact de l’utilisateur sera féroce car celui-ci sera La Plateforme (ou ubérisera…) qui « dispatchera » les différents services mais aura la plus grande marge, légitimité auprès du consommateur et ne deviendra pas une commodité.

 

Confusion

Confusion car nous perdrons des repères fondamentaux et millénaires pour l’être humain, les technologies vont brouiller les frontières :

  • entre l’humain / nonhumain (en raison de l’intégration de puces dans nos corps, d’appareils remplaçant des organes défaillants et de la perte de perception de notre supériorité sur le reste avec une IA qui nous dépassera dans plus en plus de domaines),
  • entre le réel / virtuel (cf. avec des objets qui imiteront la texture, la couleur, les odeurs de vrais objets avec qui nous interagirons naturellement par la voix, le geste, la montée en puissance de la réalité virtuelle/augmentée et surtout de la réalité mixte :  Hololens… et tout simplement le mélange entre IRL et IVL ), 
  • entre les vraies et fausses émotions (interactions avec des objets/robots simulant des émotions),  vrai / faux ( vrai news / fake news qui paraîtront de plus en plus vrais)
  • entre le vivant et l’inerte (l’intégration de cellules biologiques dans des objets et vice versa )
  • entre l’authentique, crée par l’Homme / de l’artificiel, crée par la machine (cf. Création de vidéos artificielles, voix artificielles),
  • entre le point de vente et le lieu de fabrication (avec le fog manufacturing moins radical que ce qui précède ;)

Confrontation

Cette confusion créée pour beaucoup d’acteurs, une formidable opportunité de rebattre les cartes ou au contraire est une terrible menace de tout perdre. États, GAFA/BATX, entreprises, individus … vont se confronter, nous assisterons aux chocs de plaques tectoniques, de tremblements de terre digitaux, sociétaux et mêmes planétaires.

 

Nous sommes à un moment de crise au sens étymologique du terme (κρίσιςkrisis – moment de choix, de décision ) où tout peut basculer dans un sens ou un autre mais où l’humanité devra faire ses choix.

 

Étant un éternel optimiste, ce n’est qu’une période de transition qui devrait aboutir à une profonde transformation de nos sociétés d’ici 3 à 5 ans. De toutes les manières, c’est notre planète qui au final sifflera la fin de la récré (11000 ans depuis les débuts de l’agriculture sur 4Md soit moins de 4 mn sur toute une scolarité, études supérieures incluses. ;)

 

Il y a de fortes chances que les États reprennent la main vis-à-vis des GAFA, entreprises, (Techlash via la réglementation …) soit de manière autoritaire comme cela se passe dans certains pays soit de manière concertée. Une Europe unie pourrait avoir un rôle majeur si nous ne voulons pas être écrasés par la Chine, l’Inde désormais 5ème puissance mondiale avant la GB et la France, les Etats-Unis, les autres BRICS (Brésil, Russie, Afrique du Sud) et l’Afrique (qui va connaître une très forte croissance), rien n’est joué…

Intelligence artificielle

Prolifération des agents/assistants intelligents

Un des grands intérêts de l’IA est de transformer des données complexes en décisions simples ou en actions automatiques.

 

Le nerf de la guerre étant l’argent, les GAFA investissent massivement dans l’IA pour nous faire acheter plus en supprimant le maximum de frictions (en facilitant le choix et le paiement), en étant présent au bon moment (achats contextuels en fonction du lieu, du moment, des personnes avec qui vous êtes) et en s’adaptant à vous (personnalisation de services et même de produits, cf. fog manufacturing ci-dessous ) qu’on pourrait traduire par : Sell the personalized product, to the right person at the time.

 

Fini le temps des bannières publicitaires avec des taux de clics inférieurs à 0,1% (cf. article sur Amazon), on va chercher des taux de transformation et d’achat de 10%, 20%, 50% voire 99% (il y aura toujours des récalcitrants !) d’autant plus facilement que nous fournissons toutes les données nécessaires. Un "Do you want to buy X" se transformera en « Yes, you can » et même « now and forever » … si on tient compte des services comme Amazon Replenishment Service qui automatiquement vous commande votre lessive dès que vous n’en avez plus en détectant via votre machine à laver connectée que votre réservoir de 5 litres n’a plus qu’un litre dans le ventre.

 

L'intelligence artificielle fleurira dans un très grand nombre d'applications comme Facebook Messenger, WhatsApp et sur les sites web d’Amazon, Google (recherche, Youtube, photos...) pour nous pousser de la pub contextuelle, achetable en un clic. C’est devenu très commun avec WeChat (cf. intervention TED sur le futur du shopping en Chine) qui intègre tout – messagerie instantanée, services, paiement. Il y a juste un petit souci, nous pousser à surconsommer, est-ce vraiment raisonnable quand nos ressources planétaires viennent de plus en plus à manquer … La réponse d’Angela Wang à la fin de ce TED est éloquente à ce sujet !

Confusion entre la création humaine et celles provenant de l'IA (avec des manipulations politiques)

Aujourd’hui, nous arrivons en très grande majorité à distinguer ce qui a été imaginé par l’homme de ce qui a été « imaginé » par une machine même si aujourd’hui, il est plus difficile de distinguer ce qui est fait par l’homme de ce qui est fabriqué par la machine.

 

En 2018, nous verrons de plus en plus de contenu « créatif » venant de l’IA, pas encore réellement original mais cela viendra. Aujourd’hui, les créations d’IA ressemblent plus à des mashups ou de l’interpolation d’images, sons, de vidéo. Des couches cachées d’un réseau neuronal extraient un style, les appliquent à des images, du texte ou des vidéos pour créer une nouvelle image dans le style d’un peintre, compositeur….

 

En 2018, nous verrons une explosion d’oeuvres d’IA créatives, dont nous serons incapables de distinguer des œuvres humaines. Vous en voulez un avant-goût …

 

Des scientifiques ont créé des œuvres en utilisant des réseaux neuronaux créatifs (CAN - Creative Adversarial Networks). À la différence des GAN (Generative Adversarial Network) qui font des « copies » d’œuvres existantes, les CAN produisent des oeuvres perçues comme nettement plus créatives. D’ailleurs, ils ont montré que des êtres humains n’étaient pas capables de faire la distinction entre ces créations et celles créées par des êtres humains (exposées à Art Basel 2016 et des œuvres d’expressionnisme abstrait).

Dans le même registre, Aiva est la première IA, compositrice enregistrée par la SACEM, comme vous l’entendrez, la musique conviendrait parfaitement pour des musiques de film... Vous avez sans doute entendu parler de Daddy’s Car composé sur base de chansons des Beatles il y a la version Bach pour les férus de classique. (projet Flow Machines de Sony CSL Research Lab avec un financement européen).


Pensez-vous qu’Alpha Go pourrait devenir créatif. Le fameux paradoxe du singe savant et la bibliothèque de Babel de Borges pourraient prendre tout son sens avec l’IA…

 

Il suffirait qu’elle soit capable de générer une quasi infinité de textes, de couper les branches non créatives et « absurdes », par exemple en mesurant l’entropie de Shannon (ni trop faible car peu originale, ni trop forte, car trop aléatoire et donc ayant trop peu de sens) ou faisant appel d’abord à des humains pour juger de la créativité puis en simulant via de l’Adversarial IA ce jugement. On applique grosso modo la méthode utilisée par Alpha Go Zéro (bottom-up) pour créer du contenu. La méthode top-down est plus proche du premier Alpha Go qui a battu Ke Jie, champion du monde de GO…) ! 

Pour un artiste, l’IA permet de démultiplier sa capacité créative mais aussi de béotiens. A partir d’une simple photo ou de quelques mots-clés, on pourrait créer un chef-d'œuvre digne de Degas ou de Van Gogh… enfin la plupart des gens le croiront.

 

On peut même imaginer d'ici quelques années que Spotify ou Deezer créent de vraies playlists personnalisées avec des musiques, des chansons créées de toute pièce et à la volée basée sur nos préférences avec des textes et mélodies qui nous sembleront complètement inédits. Sacré challenge à venir pour les artistes.

 

Petite question pour les juristes, à qui va les droits d’auteurs si un réseau neuronal utilise des chansons ou des œuvres protégées pour créer des chansons complètement originales, comment les répartit-on  Est-ce toujours du plagiat  Comment d’ailleurs pourrait-on le savoir dans le cas où un réseau neuronal puise dans des milliers d’artistes 

 

La réponse viendra peut-être d’une IA qui déterminera si l’IA incriminée intègre ou non tel ou tel artiste (Cf. article  sur les limites de l'IA…)...

Il aura une course à l’IA, entre une IA créant du faux contenu, et une IA cherchant à le détecter et l’éliminer, une surenchère incessante à l’intelligence en perspective … où Google, Facebook en particulier seront en première ligne.

 

Il y aura une recrudescence de fraudes où des personnes se font passer pour des amis ou des proches en reproduisant leur voix, en créant de fausses photos ou vidéos pour créer un faux sentiment de confiance.  

 

Vous voulez le tester par vous-même, faites le test sur cette page vous me direz si vous distinguez la voix humaine de la voix  d'une IA.

Bien sûr, le versant noir est la création de faux contenus pouvant se faire passer pour du vrai, la fausse vidéo de Barack Obama montre ce dont l’IA est capable. Il sera de plus en plus difficile de reconnaître ce qui est vrai, de ce qui est partiellement vrai et de ce qui a été créé de toute pièce. On arrive notamment à créer des voix qui ressemblent à celle d’êtres humains.

 

 


Il ne nous reste plus beaucoup de temps avant que toute création ne soit soupçonnée d’être au moins partiellement produite par l’IA. Je profite de ces derniers instants pour vous exposer une création 100% Human Inside… 

 

Un jour, il n’y a pas si longtemps, une amie titillait mon imagination avec une photo et un commentaire "La terre est bleue comme une orange." ... "on doit être hors saison"...

 

Avant qu’une IA ne me pique l’idée, je choisis de prendre le poème d’Eluard et la chanson de Cabrel de les mixer avec un zeste de moi pour les deux dernières lignes.

 

 La terre est bleue comme une orange 
On doit être hors-saison 
Sorti d'un rêve étrange
J'en garde le frisson

Dans les brouillards salés 
L'aube se passe autour du cou 
Que mon écharpe nouée
Du froid se joue

Les murs, les jardins, les rues
Un collier de fenêtres 
on croit connaître
on se voit perdu

Ils ne vous donnent plus à chanter 
Sa chanson vide "où es-tu "
Qu'une âme veuille l'entonner 
Elle ne sera entendue

Tout mon courrier déborde 
Tous les secrets tous les sourires 
Si nos lettres s'accordent
pour nous les offrir

Les guêpes fleurissent vert 
Au seuil de ton pavillon 
Tout le soleil sur la terre 

On doit être hors-saison


Combien de temps avant quelques étincelles créatives ne soient considérées comme d’une banalité confondante car tellement faciles à reproduire pour une IA 

 

 

Bravo en tout cas à celle ou celui qui parviendra à créer la première IA mixant poèmes et chansons. Prévenez- moi quand vous l’avez réalisée ! 

Premières répercussions massives sur l’emploi de l'intelligence artificielle 

Difficile de ne pas en parler, l’IA détruira des emplois (il en créera aussi bien sûr ;).

 

Les banques, les sociétés d’audit, les distributeurs (surtout en raison de la montée de l’e-commerce) devraient donner les premiers coups d’envoi aux plans de départs massifs dus à l’IA. Pour éviter que de trop nombreux ex-salariés restent sur le carreau, l’enjeu est non seulement de favoriser la formation professionnelle au sein des entreprises mais au-delà d'inciter et former ses salariés à apprendre à apprendre (cela commence d’ailleurs à l’école comme je le précise dans cet article).

 

Pour réduire l’impact d’une perte d’activité, il faut faciliter et encourager les activités rémunérées annexes ou connexes et le passage d’une activité à un autre (avec l’auto-entrepreneuriat, les revenus issus de l’économie du partage, l’autoconsommation, le troc de services …) .

 

L’entreprise deviendra de plus en plus une plateforme ouverte avec une vision et des projets réunissant internes et externes où le salariat exclusif diminuera au profit de formes flexibles de travail. Les couvertures sociales de chaque forme de travail devront se rapprocher du salariat pour faciliter le passage d’une forme à une autre.

 

Un exemple : favoriser les contrats de travail multi-entreprises où il serait très facile de basculer d’une entreprise à une autre en fonction de l’activité en particulier pour les bassins d’emploi restreints. Cela nécessite néanmoins une polyvalence et une flexibilité des salariés.

Premières retombées scientifiques majeures de l’IA et en politique mais l’AIpotism n'est pas pour tout de suite !

L’IA commence à devenir une aide précieuse pour les scientifiques, on devrait avoir une pluie d’avancées majeures en sciences :

 

  • dans l'astronomie  (la compréhension des trous noirs et trous blancs comme l’illustre la découverte d'exoplanètes par Google autour de l'étoile Kepler-90

 

  • la physique (sur la théorie du Tout qui unifierait les interactions fondamentales, la potentielle découverte des gravitons - n'oublions pas que le CERN stocke aujourd’hui plus de 200 pétaoctets (soit 200 000 disques durs de 1 téraoctet) de données générées notamment par le LHC lors de collision de deux protons. Beaucoup des données que pourraient ingurgiter une IA, qui ne sont certainement pas analysées pleinement aujourd’hui),
  • la génétique (aussi bien pour découvrir les gènes responsables de maladies génétiques, établir des liens entre génétique et l’intelligence humaine, trouver les ancêtres de LUCA – Last universal common ancestor qui serait vieux de 3,5 à 3,8 Mds d’années…)

L’IA pourrait faire son entrée en politique économique (de manière cachée au départ) pour étudier, simuler les impacts de décisions politiques mais aussi de manière pragmatique pour débusquer les fraudes fiscales.

 

L’AIpotism ou IApotisme n’est pas encore d’actualité mais qui sait dans 20 ans nous serons peut-être gouvernés par une forme de despotisme éclairé par l'IA (ci-contre Frédéric II de Prusse en exemple;) , nous n'aurons peut-être même plus le choix, car devant la complexité de notre monde et des répercussions que l’homme aura sur lui, seule une IA pourra vraiment y faire face ;)

Les évolutions de l’IA

La simulation numérique du monde réel au secours de l’IA

Une des prochaines « frontiers » que l’IA va dépasser en 2018 est la « compréhension » du monde physique.

Comme l'expose très justement Yann Lecun, l'intelligence artificielle, pour être précis, les réseaux neuronaux nécessitent énormément de données or autant pour le GO, il est facile de jouer contre soi-même des millions et des millions de parties afin d’entraîner un réseau neuronal, autant reproduire et apprendre du monde physique à partir d'expériences réelles semble matériellement impossible.

 

Pour donner un exemple, apprendre à marcher avec un réseau neuronal semble impossible pour une intelligence artificielle car le temps d'apprentissage sera beaucoup trop long néanmoins il y a une solution qui pourrait pallier au moins en partie à ce problème : la simulation numérique.

 

Une entreprise comme Dassault Systèmes (3DS) est devenue spécialiste pour reproduire virtuellement les effets physiques et mécaniques (en intégrant la gravité, les effets de lumière…) d’un très grand nombre d'objets physiques, ainsi que de structures telles que des bâtiments et même des villes (reconstitution de Paris à travers les âges par 3DS). Même si ces simulations ne reproduisent pas à 100 %, la réalité, elles permettent néanmoins d'avoir une très bonne approximation qui pourrait être utilisée largement par les IA. L'apprentissage sur le terrain pourrait se faire dans un deuxième temps, il permettrait d'affiner le réseau neuronal tout en contournant la limitation physique initiale.

 

Les GAFA/BATX (équivalents chinois des GAFA : Baïdu Alibaba Tencent Xiaomi) useront et abuseront des simulations pour comprendre et modéliser le monde physique.

Développement de l‘IA symbolique 

Aujourd'hui la plupart des développements d’IA tournent autour des réseaux neuronaux (IA connexionniste) et du deep learning. Ils sont parfaitement adaptés pour percevoir, classifier interpréter les images des sons, des vidéos.

 

Mais comme j'avais expliqué dans un récent article, ils ont des défauts intrinsèques. Le premier est la quantité de données nécessaires pour l’entraîner. Tout le monde s’affaire pour la  réduire ou plutôt pour générer de nouvelles données à partir de données actuelles (forme de PCR quantitative, processus d'amplification exponentielle de l’ADN mais pour l’IA ;) En effet, il est plus simple de générer des données imaginaires (avec l’Adversarial IA) à partir d’un nombre réduit de données que d’utiliser directement un nombre réduit de données.

 

Néanmoins, il reste d’autres défauts tels que l'incapacité à expliquer leur raisonnement, le biais de confirmation … qui les rendent peu adaptées pour prendre des décisions. L’IA symbolique ou formelle (l’IA à la papa diront certains car un peu reléguée aux oubliettes face à la déferlante du Deep Learning) n’est pas adaptée pour traiter et classifier des très grands nombres d’images…  en revanche, elle l’est beaucoup plus pour prendre des décisions car elles peuvent  justifier leur choix ( obligatoire d’ailleurs dans le cadre de la RGPD / GDPR Règlement général sur la protection des données.)

Les réseaux bayésiens, les systèmes experts apprenants, les arbres de décisions et "random forest" sont quelques unes des techniques de l’IA symbolique qui devraient fortement se développer en 2018.

 

S’il fallait comparer l’IA symbolique avec les réseaux neuronaux, c’est un peu comme si vous compariez l’algèbre moderne à l’arithmétique ou la géométrie classique à la géométrie analytique (comparaison imparfaite néanmoins car l’algèbre moderne couvre aussi la diagonalisation des matrices utilisées dans les réseaux neuronaux …).

  

L’IA symbolique peut être utilisée pour des assistants de preuve mathématique qui ont servi à formaliser la démonstration pour le théorème des quatre couleurs, en 2005 et la conjecture de Kepler en 1999.

Le développement des méta-IA et intégration de multiples IA

Comment choisir la bonne IA parmi cette foultitude d’IA avec des capacités différentes à traiter des problèmes de nature multiples et des contraintes différentes ? Il suffit de faire appel à notre ami magique, l’IA de nouveau !

 

Eh oui, une IA pourrait avoir le rôle de superviser de multiples IA, c’est d’ailleurs un des rôles de l’IA d’Alpha Go (pas Alpha Go Zéro qui n’a qu’un seul réseau neuronal ... qui est d’ailleurs plus performant… sauf si Alpha Go Zéro encapsule une forme d’IA régulatrice dans son réseau neuronal mais cachée dans l’une de ses couches neuronales …)

 

On peut imaginer une multitude de couches d'IA différentes composée d’un réseau neuronal générant des "randoms forests" (arbres de décision dont les noeuds seraient eux-mêmes composés de mini-réseaux neuronaux), le tout supervisé par une méta-IA symbolique ou un algorithme génétique.

 

On pourrait aussi inverser : un méta-réseau neuronal (adversarial IA, double système d’IA avec un générateur de données et un discriminateur) gérant une multitude de réseaux neuronaux, voire des IA mutants intégrant de multiples IA concurrentes et complémentaires à l’image d’un corps humain qui élimine les anti-corps et absorbe la nourriture. Nous ne sommes qu’aux prémices de l’IA, pas sûr d’ailleurs que nous soyons capables de bien comprendre leur évolution !

IoT - Internet des Objets

Le soufflé retombe pour les agents vocaux intelligents mais la voix spécialisée se décline dans les équipements

En 2018, nous verrons une chute d’usage des agents vocaux intelligents (en particulier Google Home).

 

À l'image des SmartWatch après un buzz et un succès commercial d'achat, la fort baisse des ventes risque de pointer son nez d'ici 6 mois. A l'image du lapin Nabaztag et de Mother de Sen.se, la fréquence d’usage de ces agents vocaux devrait fortement diminuer après quelques mois d’utilisation car aujourd'hui ils sont beaucoup trop génériques. Aujourd'hui, le premier usage (30%) est pour écouter la musique puis commander sa maison '20%), enfin réaliser des achats 10%)

 

Amazon Echo tirera son épingle du jeu pour la partie achat, le Home Pod d’Apple devrait avoir un destin similaire à l’Apple Watch, importantes ventes au début mais usage réel faible en dehors de la fonction enceinte.

 

En revanche, il devrait y avoir un développement des agents vocaux spécialisés au sein d'objets connectés comme dans l’électroménager, la télévision pour des usages spécifiques et simples comme j'en ai parlé dans l'article suivant.

De plus en plus de puissance et d’ « intelligence » embarquée

De plus en plus d’industriels préféreront embarquer la puissance de calcul et l’« intelligence » dans des processeurs plutôt que la déporter dans le cloud pour de multiples raisons :

  • délai de latence beaucoup plus réduit, plus de résilience en cas de panne réseau,
  • moins de risques concernant la confidentialité et le hacking des données et
  • plus de facilité à gérer les données en regard de la GDPR

sachant que le coût des puces et leur consommation d’énergie se réduisent de plus en plus pour une puissance croissante.

Des objets émotifs

Le rapport aujourd'hui entre les humains avec les objets est encore très utilitaire (moins le cas en Asie et Afrique qui ont des cultures animistes bien plus développées qu’en Occident).

 

On verra de plus en plus d’objets exprimer de fausses émotions et sentiments pour créer de l’empathie, de l‘attachement de la part de l’utilisateur. Même si c’est encore tôt, l’intelligence artificielle sera mise à contribution pour créer ces émotions et s’adapter à nous. 


Je suis curieux de voir comment l’IA va apprendre à nous manipuler et si comme au GO, les techniques comme le pied dans la porte, la culpabilisation… seront découvertes toutes seules et les nouvelles techniques qu’elle va développer à l’image des coups imaginés par Alpha Go Zéro !

 

Pour info, la meilleure manière d’échapper à la manipulation, c’est d’en connaître les techniques ;)

 

 

Autre moyen pour développer les émotions, avoir un design se rapprochant d’êtres vivants. Aïbo, le premier robot de Sony, Nao avec sa tête plus grande que le corps pour nous faire penser aux bébés l’illustrent. Je pense notamment que les agents vocaux intelligents sous forme de cylindre feront place au fur à mesure à des robots ressemblant à des animaux pour susciter plus d’interactions.

Plus d’interfaces naturelles et d’objets digitaux

Les interfaces naturelles comme la voix, le geste se développeront, ce qui sèmera de plus en plus la confusion entre le réel et virtuel, le physique et le digital.

 

Nous verrons de plus en plus d’objets écrans (avec des écrans souples), qui changent de couleur, de motif voire même de texture (comme le montre la startup française Hap2U qui modifie la texture d’un écran grâce à des ondes acoustiques.).

 

Au début, beaucoup de ces objets seront des gadgets néanmoins, quelques-uns devraient sortir du lot, ceux qui répondent à de vrais usages, où cela a du sens d’intégrer du digital à l’objet. 

Centre-villes autorisés seulement aux véhicules autonomes

Des villes commenceront à n’autoriser que les véhicules électriques et autonomes dans leur centre-ville (mais cela pose des problèmes à la fois lors de recharges simultanées par exemple vers 19h, de la capacité à produire de l’électricité décarbonée et d’avoir des solutions de stockage massif d’électricité) 

Énergie et transmission

Développement des réseaux bas-débits en B2B

Les réseaux d'objets connectés en B2B se développeront de plus en plus massifs, le NB-IoT fera petit à petit son apparition, mais ce sont surtout des objets connectés en Lora et SigFox qui seront déployés en 2018.

 

La 5G (bas débit car il y a plusieurs 5G …) pour l'IoT ne devrait pas apparaître commercialement avant 2023 (en étant optimiste) même s'il y aura beaucoup de tapage médiatique de la part des fabricants de puces (comme Qualcomm et Intel) et d’infrastructures réseau (Huawei, Nokia, Ericsson).

 

Les raisons principales sont que les gains apportés sont très faibles par rapport aux autres technologies (Lora, Sigfox, NB-IoT et LTE-M), le gain financier pour les opérateurs ridiculement bas (un abonnement annuel inférieur à 10€ !) et un coût de déploiement et de maintenance en infrastructure beaucoup trop cher (fog /edge computing), avec une myriade de petites bases stations à maintenir pour réduire les délais de latence notamment. En revanche, la 5G à très faible délai de latence destinée aux véhicules autonomes devraient commencer à se déployer sur les autoroutes (là où c’est le plus intéressant d’avoir des véhicules autonomes :)

 

J’en ai parlé l’année dernière et cela tarde mais je crois que le Bluetooth 5.0 devrait mettre au rebut la plupart des protocoles propriétaires et plus ou moins ouverts dans la maison (Zigbee, Zwave, Enocean, Thread..) car d’une part les puces coûtent très peu chères, elles sont intégrées dans les smartphones, le BLE 5.0 est many-to-many (le BLE 4.0 était one-to-one – appairage seulement de deux devices) et il est mesh (réseau maillé). 

Le développement du chargement sans fil QI

À l'image du micro USB et USB-C, la norme QI va devenir un standard de fait dans la recharge.

 

Apple a intégré la recharge par induction QI sur iPhone X, iPhone 8, et iPhone 8 Plus et la norme devrait se diffuser de plus en plus pour simplifier la recharge. 

 

Intégration et assemblage des nouvelles technologies (IA, IoT, Blockchain, Robots)

Les nouvelles technologies s’intégreront et s’imbriqueront de plus en plus entre IA, IoT, robotique, Blockchain, génétique. Theranos a complètement échoué dans les tests sanguins automatisés mais d’autres startups prennent la relève. Eligo BioScience dirigé par Xavier Duportet n’utilise pas encore de robots associés à l’IA pour réaliser ces tests biologiques mais mon petit doigt me dit que d’ici 2, 3 ans, cela deviendra une évidence.

 

D'autre part, surviendra la première implantation de puce neuronale destinée à des malades d'Alzheimer pour augmenter leur mémoire. Une question se pose néanmoins autorisera-t-on les malades d'Alzheimer à avoir plus de mémoire que les autres êtres humains ?

Les nouveaux rentiers grâce aux entreprises autonomes et DAO

Il devient possible de créer des entreprises autonomes générant du CA automatiquement. Un site e-commerce proposera de personnaliser votre produit, personnalisation qui aboutira directement à une mini-usine qui fabriquera et transmettra directement le produit au client via un logisticien avec un support dédié en cas de problème.

 

Il « suffit » de construire un mashup de briques logistiques, de production, d’e-commerce connectées via des API… En ajoutant de l’IA et de la DAO (Decentralized Autonomous Organization, une organisation fondée sur le blockchain fonctionnant grâce à un programme informatique qui fournit des règles de gouvernance à une communauté) , vous pouvez même créer une plateforme collaborative automatisée.

 

Cela pourrait même être un nouveau placement financier ! En revanche, une entreprise autonome peut aussi selon sa construction générer automatiquement du déficit !

Usine 4.0 - Customisation de masse avec le Fog Manufacturing

  • la customisation de masse via le fog manufacturing (production décomposée en plusieurs parties, éléments standards produits de manière centralisée et plus on se rapproche du consommateur, plus les quantités produites par unité de production sont faibles, plus la personnalisation est élevée. On devrait ainsi voir l’arrivée de mini-sites de production en France (le frog manufacturing diront les anglais ;) pour se rapprocher des clients.

Potentiellement, un point de vente peut devenir un lieu de production pour la personnalisation finale. Lancôme propose son fonds de teint fondé sur un scan en magasin de l’incarnation de votre peau sachant que trouver le bon fond de teint est extrêmement fastidieux (70€ ! )  bien sûr beaucoup plus élevé.

  • l’utilisation de Cobots et de robots industriels flexibles qui permet très rapidement de changer une production voire de personnaliser à la demande …
  • l’éco-conception pour dès le départ anticiper la réutilisation et le recyclage du produit

Le défi pour les entreprises est de livrer des produits personnalisés aux utilisateurs de manière quasi instantanée (tout en évitant une surconsommation des ressources by the way).

 

Pour résoudre cette quadrature du cercle, il y a plusieurs moyens :

 

  • la VR/AR et le vidéo mapping (comme le fait Smart Pixels pour Nike et Berluti pour personnaliser leurs chaussures) qui permet de visualiser un produit personnalisé avant qu’il ne soit fabriqué,

Le choc des plaques tectoniques - la confrontation

Comme je le disais en introduction, 2018 sera l'année où de nombreuses plaques tectoniques (les États, les GAFA/BATX, les citoyens et utilisateurs, notre planète vont se percuter et provoquer des tremblements de terre numérique, sociétaux voire civilisationnels.

Le Techlash des États envers les GAFA

Evasion fiscale des grands groupes, bitcoin, collecte massive de données personnelles par les GAFA, influence des citoyens (via des médias concentrés , les fake news…), recherche et mise en œuvre de nouvelles technologies (blockchain, IoT, Intelligence artificielle, génétique …) menées par des sociétés privées alors qu’elles transformeront profondément nos sociétés : … montrent que les États ont nettement perdu de leur pouvoir et influence face aux entreprises en particulier les GAFA.

 

Mais les États ne vont pas se laisser faire … L’espérance de vie d’un Etat est nettement plus grande qu’une entreprise privée ce qui lui permet d’agir sur le long terme (certes, les élections influent sur un pays, mais il y a une inertie beaucoup plus grande ce qui a aussi ses avantages !), il peut agir de conserve avec d’autres États sur le plan international et mondial et actionner des leviers puissants en particulier la loi, sur lequel nul autre acteur ne peut agir directement.

 

Les États feront leur grand retour en 2018 via la réglementation (fiscalité et financement, travail, environnement, solidarité nationale, alimentation…), leurs prérogatives régaliennes (sécurité des individus, défense nationale, le contrôle des mouvements de population…). Le GDPR qui réglemente la protection des données personnelles et les premières amendes records aux GAFA. 100 Me à Facebook concernant son rachat de What’s App, 2,4 Md€ à Google pour abus de position dominante concernant Google Shopping et 1,1 Md € pour redressement fiscal (au final rejeté par le Tribinal administratif  de Paris). Ce n’est que le début … 2018 sera l'année où des amendes supérieures à 5 Md$ seront infligées à des GAFA.

 

Je parie sur une réglementation sévère sur les bitcoins et autres monnaies virtuelles (je prédis qu’il devrait chuter à moins de 5000 USD, minimum ;) Je vois mal les États accepter de se faire piquer un de leurs prés carrés les plus chers : l’argent ! Les ICO (initial coin offering, levée de fonds en Bitcoin) sont déjà interdits en Chine, ce n’est qu’un début.

Course aux armements digitaux et IA des États

La nouvelle arme de dissuasion et potentiellement destruction massive est le hacking et la cyber-guerre. Chaque État va tester les défenses de ses ennemis et alliés.

 

Il est possible qu’on assiste à des pannes géantes en raison de ce type d’attaque. L’arrivée de l’IA à ce sujet va certainement accélérer cette course (cf article). Ce n’est pas anodin, si Vladimir Poutine a dit que l'Etat qui deviendra le leader en IA sera celui qui dominera le monde (cf article sur les risques des armes autonomes)

 

L’influence et les risques de déstabilisation via les divulgations d’informations secrètes, fausses… sont loin d’être terminés. Cela devrait avoir deux effets, accroissement de la protection mais aussi un effet positif :  plus grande « honnêteté » des entreprises (moins de corruption, de travail d’enfants de discriminations..).

 

Comme les secrets ne le demeurent de moins en moins longtemps, que quelqu’un va fuiter l’information, tant qu’à faire, on évitera de prendre des risques qui peuvent mettre en péril votre entreprise parc qu’un conciurrent, un État a décidé de saborder votre entreprise. Cela n’empêche pas la divulgation de fausses informations mais il est toujours plus facile de se battre contre des calomnies que des vérités à cacher.

 

Il est aussi possible qu’on voit apparaître les premiers dopages intellectuels dans des États ayant des régimes dictatoriaux ou proches... Cela devrait d'ailleurs poser de très grands dilemmes éthiques pour les États démocratiques qui ne pourraient normalement lutter à armes égales ;) 

Combat de titans entre GAFA et BATX 

2018, sera aussi le théâtre de combats homériques entre les GAFA et les BATX  (GAFA chinois – Baïdu, AliBaba, Tencent (Wechat), et Xiaomi), d’une part les GAFA pour s’étendre doivent plus s’implanter en Chine et inversement pour les BATX (qui investissent de plus en plus dehors de la Chine : la tentative échouée de rachat de MoneyGram par Alibaba, les participations croisées entre Spotify et Tencent, les accords entre Baidu et QNX BlackBerry pour la voiture autonome. 

 

On peut s’attendre à ce qu’un des 8 parmi les GAFA et BATX mette un genou à terre (forte chute des résultats, plan de départs massifs, rachat par un autre GAFA/BATX).

Bataille d’Hernani entre l’ancien monde et le nouveau monde 

La première bataille entre les anciens et les nouveaux est celle de la Net Neutralité, assurée depuis toujours elle a permis le développement fantastique des GAFA. Mais la roue a tourné, puisque la FCC s'est prononcée mi-décembre pour la fin de ce principe obligeant les fournisseurs d'accès internet (FAI) à traiter tous les contenus en ligne de la même manière.

 

Cela signifie concrètement que les telcos vont faire payer les GAFA pour utiliser leurs tuyaux et leur assurer une bonne qualité de service alors qu’avant ils ne pouvaient le faire avant. Cela pose de nombreux problèmes, notamment que potentiellement n’importe quel site internet devra payer les telcos pour pouvoir être vu correctement par les internautes. La facture pourra alors être répercutée sur les clients ... sauf si vous prenez les services préconisés par votre opérateur ! Typiquement, les opérateurs pourraient proposer des forfaits intégrant les services/contenus avec qu'ils ont des partenariats commerciaux et un package plus cher si vous prenez d'autres services, contenus ... Voyez les risques de distorsion de concurrence et de "risque de "silotisation" d'Internet. Cela donne un pouvoir énorme aux opérateurs telcos au détriment des GAFA d’où d’ailleurs leur action légale contre le FCC pour empêcher l’abandon de la Net Neutralité

 

En 2018, cette bataille montrera la réussite triomphante ou la chute brutale des nouveaux face aux anciens qui font de plus en plus et de mieux en mieux la résistance (Tesla contre les offres constructeurs automobiles, Sigfox contre les opérateurs télécoms, Uber contre les taxis, AirBnB Vs les groupes hôteliers, GAFA / Telcos, producteurs de contenus…)

 

Certains disrupteurs ayant le vent en poupe passeront  du Capitole à la Roche Tarpéienne, périront ou se feront avaler par un ancien et d’autres au contraire se renforceront. Les Etats et les acteurs publics via la réglementation en particulier sont  de puissants arbitres de ces combats pour favoriser ou freiner  (comme on l’a vu pour Sigfox, Uber, AirBnB…)

 

Comme des éléphants dans un magasin de porcelaine, il y aura aussi de la casse pour toutes les entreprises trop dépendantes des GAFA comme on l’a vu avec la forte des résultats de Criteo en raison de la politique anti-cookies d’Apple (chute de 22% de son CA). …

 

D'autre part, les startups en France vont de plus en plus s'associer voire être rachetées par des grands groupes en particulier dans l'IoT très consommateur de cash. Netatmo ainsi risque fortement d'être racheté par Legrand car il y a un réel intérêt pour Legrand qui est déjà actionnaire (minoritaire) de Netatmo et pour Netatmo qui comme pour toute startup IoT a besoin de cash et de circuits de distribution. 

 

Autre question, est-ce que la marque Netatmo disparaîtra comme Withings après le rachat par Nokia ou pas si cela arrive ? Dans un premier temps, je pense que c'est préférable de la garder pour être garant des partenariats avec d'autres groupes. Legrand a intérêt à maintenir les partenariats de Netatmo avec d'autres entreprises comme Velux ou Muller (chaudières) et de développer un éco-système ouvert. Comme les frontières se brouillent entre les activités des acteurs dans le smart home (Legrand, Somfy, Delta Dore), 

Combat homérique entre contenant (Telcos : AT&T, Vodafone, Orange…), contenu (Disney, Time Warner, ligues de Sports...) et diffuseur (Facebook, Youtube, Netflix…)

Les coups de butoir sur la net neutralité aux États-Unis fin 2017 sont un prélude aux combats de titans en 2018 entre contenant (Telcos), créateur de contenu et diffuseur.

 

Déjà, des méga-fusions commencent à avoir lieu au sein de chaque division ( Disney rachetant Fox dont 21st Century Fox), les telcos (gestionnaires de tuyaux ;) rachètent des producteurs de contenus  (ex: ATT rachetant Time Warner-AOL , Comcast rachetant NBCUniversal, des diffuseurs sont convoités par des telcos et gestionnaire de contenus ( Yahoo racheté par Verizon, Hulu possédé par ComCast, Fox, Comcast et Time Warner) et les GAFA sont à l’affût des contenus emblématiques  (Amazon rachète les droits de tennis en Grande-Bretagne, et les droits d’adaptation à la TV du « Seigneur des Anneaux «  pour 200 M$, Youtube s’accord avec Universal Musics et Sony pour lancer son offre de musique en ligne, discussion entre la Ligue de Football et Facebook et Amazon).

 

Cela crée d’ailleurs de sacrés conflits d’intérêts (en particulier Disney et Comcast) qui peuvent aboutir à des cartels. Ce n’est pas pour rien que le Département de Justice US essaie de bloquer ou de revoir des rachats AT&T/Warner, Comcast / NBC Universal.

En revanche, je ne vois pas de telcos réussir à intégrer des créateurs de contenus car leur stratégie est profondément orthogonale avec celle des créateurs de contenus ( les résultats récents d’Altice plaident en ce sens et nous verrons ce qui résulte du rachat de Time Warner par ComCast).

 

L’objectif des producteurs de contenus est de le diffuser au maximum alors que celui des telcos, ayant une infrastructure limitée (bande passante, réseau fibre et ADSL)  est de valoriser au maximum le contenu (avec une logique de Yield Management en évitant du contenu largement diffusé ailleurs et favorisant le contenu exclusif).

 

A moins d’être une entreprise assumant sa schizophrénie et donc de séparer complètement les deux entités productrices de contenus et gestionnaire de tuyaux, ça ne marche pas. La tentation est trop grande pour le gestionnaire de contenu de rendre son contenu exclusif. On pourrait voir en Netflix ou HBO, une exception. Ce n’est pas le cas.

 

D’abord, ils sont diffuseurs et ont une logique proche des créateurs contenus, être diffusés le plus possible pour pousser du contenu. Ensuite, ils ne rachètent pas des sociétés qui créent du contenu, ils créent du contenu exclusif pour leurs abonnés sachant qu’ils ont une base client suffisamment grande pour le faire. La logique est similaire aux chaînes comme TF1 et Canal Plus qui produisent du contenu propre en plus du contenu acheté par des droits (films, sports).

Customer et Citizen Empowerment en devenir face aux entreprises et acteurs publics

En 2018, on commencera à voir plus de Customer / Citizen Empowerment auprès des entreprises et acteurs publics. En agrégeant leurs données et leur voix, ils représentent un pouvoir d’achat et électif qui peut changer le comportement d’entreprises et d’acteurs publics.

 

Mais cela prend du temps d’agréger tout ce monde, qui sait en 2018, nous aurons peut-être droit à des class actions retentissantes visant des GAFA ou des marques célèbres.

 

Déjà, Intel doit faire face à des 3 class action à la suite du  Failles Meltdown et Spectre car ils n'ont pas communiqué suffisamment rapidement dessus? 

 

Nous face à notre planète – d’une société Formule 1 à une société tout-terrain

Nous sommes face à une montée des catastrophes naturelles en 2017 et des situations extrêmes sur le plan climatique liée ou amplifiée par l’Homme, nous faisons face à de plus en plus d’attaques de cybersécurité (WannaCry…), à des mouvements migratoires massifs qui peuvent impacter durablement notre « way of life ».

 

Nous avons créé une société Formule 1 avec des routes conçues pour la vitesse, le problème est qu’aujourd’hui nous créons massivement des nids de poule qu’il sera de plus en plus difficile à éviter, d’où la nécessité de passer à une société tout-terrain (électrique !), comme je l’avais proposé il y a quelques années dans cet article.

 

Concrètement, il y a de fortes chances malheureusement qu’en 2018, une grande capitale ou une ville de plus de 2 millions d’habitants n’aient plus accès à l’électricité, l’eau et/ou aux télécoms pendant 1 mois ou plus et que cela s’empire avec le temps.

La technologie a aujourd’hui un objectif de performance, d’efficacité, avec ce type de catastrophes, nous prendrons conscience qu’il faut basculer à une technologie de résilience pour surmonter ce type de crise , car nous serons au pied du mur (c’est déjà le cas néanmoins !).

 

Pour donner un exemple concret, si vous n’avez plus d’électricité dans votre maison et que vous avez un voisin avec un panneau solaire, il ne pourra vous dépanner au-delà d’une distance de quelques rallonges électriques, car le réseau électrique actuel est centralisé et ne permet pas de partager l’électricité dans un quartier (peer-to-peer trading) et encore moins en partageant les coûts. L’utilisation notamment de la blockchain est une des briques permettant le déploiement de ce type de réseau (nommé aussi mini-grid).

 

L’IA embarquée, les réseaux locaux maillés comme Lora sont aussi des technologies qui permettraient d’assurer un premier niveau de services associés à des solutions low tech (nous pourrions nous inspirer des pays en voie de développement et de l’innovation Jugaad ).

 

Autant nous savons faire face à des urgences mais actuellement, au-delà de quelques semaines, si nous ne parvenons pas à rétablir  le réseau usuel, nous sommes fortement démunis, et cette situation devrait arriver de plus en plus souvent. Comme d’habitude, c’est une fois au pied du mur que nous réagissons, et en 2018, selon moi, nous serons massivement au pied du mur, voire le nez cassé contre la paroi.

Conclusion

Vu comme ça, 2018 ne semble pas une année des plus roses, je dirai que c’est une année où nous prendrons massivement conscience de la nécessité de modifier nos modes de vie.

 

Comme toujours, nous saurons surmonter ces crises même si on perdra quelques plumes. Il faut anticiper l’étape d’après ce bouleversement et faire en sorte que les chocs futurs soient plus amortis et que nous puissions nous relever plus rapidement par la suite.

 

N'hésitez pas à réagir à ce trop article sur les parties qui vont intéressent.

 

Dimitri Carbonnelle 

Fondateur de Livosphere 

Conseil en IoT, IA et Robots collaboratifs / Cobots

 

Les limites de l'IA, intelligence artificielle, réseaux neuronaux et des solutions pour y faire face

Après le Green Washing et l'IoT Washing, n'est-on pas face à du AI Washing. De nombreuses entreprises en particulier des startups se prévalent d'intégrer de l'intelligence artificielle, en font-elles vraiment et n'y a-t-il pas de fausses promesses derrière ?

 

For English Speakers - Google Translation

 

N'y a-t-il pas des risques à utiliser de l'IA sans comprendre les impacts ? Est-ce que les réseaux neuronaux sont la panacée pour résoudre tous les problèmes ou au contraire ne nous mènent-ils pas vers une impasse en étant une boîte noire ? Est-ce que l'IA est robuste ou au contraire un géant à pied d'argile ? Qu'en est-il de l'IA forte qui supplanterait les hommes ? 

 

Il y a encore du chemin avant qu'une IA soit capable de rivaliser avec un être humain de manière complète. Le "Gift Test", test du cadeau (capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau) serait un bon indicateur de l'avancée de l'IA. On pourrait bien sûr inverser la situation de la photo, un homme à la place de la femme et un robot à l'apparence féminine et non masculine (ou encore homme/robot apparence homme ou femme, robot apparence femme), l'objectif de cette photo est d'illustrer le challenge pour un IA d'intégrer et d'anticiper la réaction de l'autre sans avoir la possibilité de la tester au préalable. 

 

Cet article a pour but de couvrir ces différents thèmes, il sera décomposé en trois parties. Dans cette première, j’aborderai l’intelligence artificielle de manière générale et je ferai un focus sur les réseaux neuronaux, ses limites et comment rendre explicable les réseaux neuronaux...

 

Dans les deux prochains articles, j’aborderai les autres types d’IA (réseaux bayésiens, algorithmes génétiques, logique floue, systèmes multi-agents ...) et les problèmes, interrogations posés par l’IA pour notre société (de l'ANI - IA faible à l"ASI - IA dépassant tous les hommes ("Singularity") en passant par l'AGI, équivalent à l'IH, intelligence humaine, les risques sur la  perte de créativité et la normalisation...) .

 

En bref, cet article-ci couvre :

 

Préambule sur l’AI Washing

Entre nous, qu’une startup fasse ou pas de l’IA n’est pas ce qu’il y a plus important voire pire pourrait vous alerter, l’IA est un moyen et non une fin.

 

La question principale est pourquoi font-ils de l’IA ? Est-ce qu’ils sont plus rapides à répondre, plus fiables, capables de couvrir un champ plus large, de donner des données introuvables autrement ou d’intégrer plus de données ? Quels sont les biais potentiels lorsqu’ils utilisent leur IA ? Peut-on expliquer les choix réalisés par leur IA (Si une startup vous dit qu’ils utilisent des réseaux neuronaux pour leur IA et qu’ils sont capables d’expliquer les décisions prises par cette IA … Il y a un petit souci, soit ils ne font d’IA soit ils en utilisent, mais ne la comprennent pas ou pire … )

 

Souvent des algorithmes simples auditables sont beaucoup plus efficaces qu’un réseau neuronal boîte noire dont on ne peut prédire de manière certaine les résultats. Pour donner quelques exemples, les statisticiens connaissent des tests comme

  • l’analyse multi-variée (très utilisée dans les sondages pour connaître la contribution de facteurs implicites dans une satisfaction globale),
  • le test de la médiane de Mood (fondé sur les écarts entre deux groupes de données sur base de la médiane (50% donc beaucoup moins sensible aux valeurs extrêmes) plutôt que la moyenne),
  • les modèles de CHAID (technique de type arbre de décision fondée sur Chi2 pour sélectionner par exemple un groupe de consommateurs et prédire comment leurs réponses à certaines variables affectent d'autres variables),
  • les plans d'expérience ( qui est une version multi-variables du test A/B et permet de mesurer des relations de cause à effets)   …
  • et encore plein d'autres 

Cela vous permet avec relativement peu de données comparées aux réseaux neuronaux de relever des différences significatives entre des groupes de données de les catégoriser, classifier, déterminer les principaux facteurs de variation et les corrélations, des relations de cause à effets... … Ces outils statistiques peuvent aussi servir de première base de travail pour l’IA (ex : pour créer un arbre de décision).

Définition de l'IA - intelligence artificielle

Il y a de multiples définitions de l'IA, selon Wikipedia, c’est « l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ».  Certains illuminés diront que c’est une pensée magique hors de la compréhension humaine, que des mauvaises langues traduiront par un ensemble d’algorithmes et d’opérations que l’intelligence humaine ne peut pas comprendre. Nous ne sommes pas loin du transhumanisme ...

 

C'est John McCarthy qui l'a défini en premier en 1956, comme "the science and engineering of making intelligent machines". Grosso modo, John nous a sorti  une définition de ce qui est artificiel, c’est-à-dire une machine et non une définition de l'intelligence artificielle ;)

 

L'IA est le Canada Dry de l'intelligence humaine, cela ressemble à de l'intelligence humaine, mais ça n'en est pas vraiment.

Opposer l’IA de l’intelligence humaine uniquement par son caractère non humain est pour moi, beaucoup trop réducteur.

 

A titre personnel, je pense que c'est une erreur de réduire la définition de l'IA à une IH (intelligence humaine)  qui n'en est pas, car cela génère tous les biais, généralisations, anthropomorphismes erronés et en premier cela oppose IA à IH alors qu’elles peuvent être complémentaires.

 

D’autres définitions décrivent l’IA par ce qu’elle contient, des poupées russes, une grande intégrant des systèmes experts / de règles, une plus petite avec du machine learning (système apprenant par elle-même ses règles) puis du deep learning (lié aux réseaux neuronaux cf. ci-dessous).

L'intelligence selon Platon

On oublie sans doute de définir d'abord ce qu'est l'intelligence. 

 

Selon les Définitions de Platon, l’intelligence est l' «activité qui permet d’acquérir la science»

 

Selon Wikipedia, l'intelligence est l'ensemble des processus de pensée d'un être vivant qui lui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. C'est une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins).

 

L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs. Le terme est dérivé du latin intelligentĭa, « faculté de comprendre », dont le préfixe ĭnter- (« entre »), et le radical legĕre (« choisir, cueillir ») ou ligāre (« lier ») suggèrent essentiellement l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif. 

IA nécessite la faculté d'apprendre pour des êtres non vivants

Pour ma part, j’ai aussi ma petite définition de l'IA 

 

C’est la faculté d'apprendre à transformer des données complexes et variées en décisions simples et pertinentes… pour des êtres non-vivants.

 

Je préfère dire ici "faculté d'apprendre" que "faculté de s'adapter", on pourrait avoir un système qui s'adapte, mais qui n'apprend pas (pour pousser un peu le raisonnement, l'eau liquide s'adapte à toutes les formes, mais n'apprend pas ;)

IA : finalité externe (venant de l'homme mais pas que...) - IH - finalité interne

D’autre part, selon moi, les êtres vivants se caractérisent par le fait qu'ils aient une finalité (consciente ou non) (par exemple survivre et se perpétuer).

 

Aujourd’hui, la finalité d’une IA vient de l’extérieur et non de l’intérieur, c’est l’homme qui la lui donne, mais on pourrait imaginer qu’un animal voire une plante transmette sa finalité à une IA (se perpétuer) et qu’elle l’aide à se nourrir, à se perpétuer … (exemple d'expérience : confronter une IA à une souris dans un labyrinthe géré par cette IA via des portes coulissantes donnant accès à de la nourriture. La survie de l'IA serait directement dépendante de celle de la souris. On pourrait même introduire plusieurs souris...).

 

Je pousse encore plus loin, une IA pourrait même tirer sa finalité et apprendre d’un environnement extérieur non vivant (observation des vagues de la mer, des transformations d’une montagne au cours des saisons, cycle d'un écosystème )… La survie de l'IA pourrait dépendre de la pérennité de l'écosystème (équilibre de la température, du taux de CO2...). En revanche, il y a au départ une intelligence humaine qui indiquera à l’IA d'où elle devra tirer sa finalité et apprendre à partir d’autres êtres vivants, de l’observation de la Nature…

 

J'ai une vision aristotélicienne à ce sujet : notre téléologie / finalité est intrinsèque (le "telos" est un principe de développement immanent et interne à tout être naturel).

 

Une IA n’a pas besoin de finalité pour survivre à la différence des êtres humains en revanche et des autres êtres vivants. Est-ce à dire qu’un homme qui deviendrait immortel perdrait sa finalité …

 

Après, rien ne nous empêche de revenir à Platon et de croire à une téléologie/finalité extrinsèque qui proviendrait d'un démiurge (une des idées de Elon Musk qui pense très probable et préférable que nous fassions partie d'une simulation et donc notre finalité pourrait être extrinsèque et non intrinsèque), mais alors qu'est-ce qui nous différencierait alors encore d'une IA ...

 

Bon, je vais arrêter de spéculer sinon je vais vous perdre définitivement ! (même si les thuriféraires et pourfendeurs de l'IA devraient se replonger dans la philosophie, un des rares métiers qui restera longtemps l'apanage des êtres humains ;) 

IA perceptive et décisionnelle

Il y a aussi de nombreuses manières de classifier l'IA en fonction de sa finalité, de son fondement mathématique, de la taille de son spectre ....

 

Aujourd'hui, les principales applications massives de l'intelligence artificielle sont dans la perception de son environnement, les images, les vidéos, la reconnaissance vocale, d'écriture, de texte (text mining), mais ça pourrait s'appliquer aussi notamment avec l'Internet des Objets dans la perception de matériaux, d'aliments, d'odeurs... sur base de leur signature chimique, spectrale... 

 

Les applications concrètes de l'IA dans la prise de décision sont comparativement encore peu visibles (mais cela évolue très rapidement). Son impact sur nos vies quotidiennes sera nettement plus important que l'IA perceptive, c'est là où résident toutes nos peurs et tous nos fantasmes (cf. article sur les armes autonomes, décisions juridiques...) avec cette peur ultime d'être mis au rebut par une IA supérieure... 

 

Pour donner un exemple concret, un véhicule autonome utilisera l'IA perceptive pour visualiser les autres automobilistes, panneaux de signalisation, piétons ...C'est l'IA décisionnelle qui prendra la décision de freiner, de changer de voie et potentiellement de faire le choix de sauver la vie du conducteur ou de sauver la vie des deux enfants et trois mamies qui se trouvent face à lui.

IA décisionnelle et le paradoxe du véhicule autonome

Pour l'anecdote, j'ai vu une étude où on demandait aux personnes quelle devrait être la réaction d’une voiture autonome face à ce choix. La très grande majorité des personnes ont dit qu'il fallait que la voiture sauve les enfants et mamies, quand on leur a demandé juste après s'ils étaient prêts à acheter ce type de voiture, ils ont quasiment tous répondu non.

 

Cela nous amène à un énorme paradoxe, le véhicule autonome a priori devrait sauver un très grand nombre de vies humaines (rappelons, qu’il y a eu 3477 décès en 2016 en France en raison d’accidents de la route), mais en choisissant de ne pas protéger en premier lieu le conducteur, on n'achètera de véhicules autonomes et donc au final il y aura plus de personnes victimes d'accidents de la route, conducteurs, passagers, piétons ...

 

Cela a d'ailleurs certainement motivé Mercedes qui a indiqué qu'il protégerait en premier lieu le conducteur. Si cela vous dit, vous pouvez passer le test réalisé par le MIT, pour voir ce que vous feriez si vous étiez à la place de l'IA (privilégeriez-vous les personnes âgées, les enfants, les piétons, les passagers, les animaux ou vous-même ?)

 

Autre point, ce type de dilemmes insolubles sera à mon avis rarissime comparativement à tous les accidents que nous avons aujourd'hui, mais peut nous bloquer dans l'adoption de ce type de technologies. Il est certes essentiel de se poser ces questions. C'est à la fois une bonne chose de prendre un peu de temps, car cela nous donne plus de temps de les assimiler et de décider quelles sont les règles à appliquer. Néanmoins, à un moment il faut décider, car en restant bloqué trop longtemps sur ces sujets, c'est la vie de nombreuses personnes que nous mettons en péril. Le port de la ceinture, les limitations de vitesse ... ont permis de réduire les accidents (il y avait plus de 18000 tués sur les routes en 1972 soit 5 fois plus qu'aujourd'hui), le véhicule autonome le permettra aussi certainement.

Décryptage des réseaux neuronaux 

Aujourd'hui, nous parlons beaucoup des réseaux neuronaux qui simulent très grossièrement le réseau de neurones humains. En gros, si vous vous rappelez vos cours de mathématiques de Terminale, les réseaux neuronaux reproduisent la multiplication de matrices.

 

En gros, vous avez des matrices d'entrée (par exemple une image de chat décomposée en points avec une valeur RGB)  et des matrices intermédiaires (avec des coefficients pondérateurs) qui vont la réduire (en agrégeant et sommant plusieurs données avec ces coefficients) en une probabilité entre deux choix ce soit un chat ou ce n'est pas un chat.

Machine Learning (ML dans des réseaux neuronaux)

Le machine learning couvre toutes les techniques d'apprentissage automatique. Il ne couvre pas uniquement les réseaux neuronaux mais d'autres types d'IA comme les resaeau xbayésiens, les algorithmes génétiques...

 

Ici, je ne couvrirai que le machine learning pour les réseaux neuronaux.

 

Au début, les réseaux neuronaux étaient créés manuellement, et l'apprentissage était réalisé par l'homme qui transformait ces réseaux neuronaux. Le machine learning intégré dans les réseaux neuronaux consiste à ce que cette phase d'apprentissage soit automatisée.   

 

Pour réaliser du machine learning (sur des réseaux neuronaux), au départ, les coefficients dans les matrices/couches intermédiaires sont aléatoires. Le machine learning consiste à faire passer au crible une quantité d'images, par exemple avec un chat et d'autres sans à un réseau neuronal (donc des matrices ayant des coefficients aléatoires).

 

Au début, le résultat est complètement aléatoire. On peut alors comparer le résultat avec celui donné par des humains ayant qualifié auparavant ces images. Si le réseau neuronal qualifie bien l'image (au début c'est par pur hasard), un mécanisme de rétropropagation (backpropagation) qui va renforcer les "neurones" ou plus simplement les coefficients de la matrice en leur donnant plus de poids (par exemple un coefficient de 1 devient 1,5), inversement si le réseau neuronal considère que c'est un chat alors que ce n'en est pas un, il va réduire la valeur des coefficients. En faisant cela des millions de fois, on peut arriver à une matrice qui se stabilise sur des coefficients précis. La rétropropagation utilise une technique qui permet de modifier la matrice de chiffres afin de minimiser l'erreur (nommée la descente de gradient via des fonctions de dérivation partielles calculable. L'avantage de celles-ci est qu'elles sont calculables en un temps linéaire et non exponentiel). La backpropagation peut être encore optimisée en utilisant le SGD  (Descente de gradient stochastique)

 

Néanmoins, il peut arriver que le réseau neuronal ne se stabilise pas ou atteigne des minimas locaux (il y a une meilleure solution, mais le réseau neuronal se stabilise sur une moins bonne solution). Si certains se rappellent d'autres cours de maths, c'est le même problème que les techniques de résolution d'équations et la recherche d'optima.

 

Le machine learning signifie que le réseau neuronal possède ce mécanisme de rétropropagation, car les coefficients vont au fur et à mesure évoluer pour se stabiliser (c'est ce qu'on appelle de l'apprentissage !). 

Deep learning (DL)

Le deep learning (DL) est une technique utilisée dans le machine learning qui utilise plusieurs matrices ou couches qui vont "voir" différentes choses (cf. schéma), typiquement pour un chat cela pourra être la couleur, la forme, la position.... Yann Le Cun, nommé à la tête de FAIR (« Facebook Artificial Intelligence Research ») puis en charge de la recherche sur l'IA chez Facebook est l'origine du Deep Learning (et de quelques illustrations ci-dessous ;)

 

Le machine learning (avant le deep learning/DL) était initialement doté d'une seule couche, au départ c'était des hommes qui a la mano devaient créer ces matrices.

Dans le deep learning, les multiples couches cachées (nommées "features") présentent l'avantage est de réduire drastiquement le taux d'erreur (de reconnaissance par exemple d'images) par rapport au ML (les chats seront mieux reconnus avec de multiples couches qu'avec une seule).

 

En gros, une image va passer chaque filtre (couleur, forme...), avec une probabilité d’appartenir à la catégorie "chat", en combinant les différents filtres. A la fin on sera à même de dire si c'est un chat ou pas (avec une probabilité).

La vraie revolution et explosion du ML puis DL est liée aux technologies actuelles (notamment la parallélisation des calculs comme le montre l'exemple de Nvidia Cuda et la quantité de données accessibles) qui permettent  de créer automatiquement une couche (machine learning mono-couche) puis plusieurs et même des centaines de couches (deep learning).

 


De manière très schématique, c’est comme si vous aviez des tamis avec des formes différentes, des tailles différentes, seuls les objets passant l’ensemble des tamis seraient considérés comme exacts (modulo le fait qu'à la différence d'un tamis où ça passe ou pas, chaque tamis donne une probabilité de faire partie de la catégorie) . 

Chaque filtre correspond à une abstraction différente de l’image (couleur, forme…). En revanche, cette abstraction n'est pas en général intelligible pour un être humain. Avant le deep learning, il y avait un seul filtre qui devait être créé manuellement et transformait une image en chat, avec le deep learning, les filtres (ou abstractions) se créent automatiquement grâce à l’apprentissage et permettent d’être beaucoup plus précis dans la détermination de l’image.

 

Pour citer Olivier Ezratty  "le DL visuel de Google utilise 152 couches alors que l’Homme n’en utilise que 5 dans son cortex visuel. Il y a une divergence des méthodes entre l'Homme et le DL. L’Homme a un cortex visuel plat « large » et faiblement profond. Le DL de vision est plus profond que large. Par contre, l’explicabilité du DL est plus simple, en théorie, pour les réseaux récurrents et à mémoire, qui servent surtout au NLP (Natural Language Processing - reconnaissance vocale et traitement ), même si leur fonctionnement est très mal expliqué dans la littérature."

Différences spécifiques entre ML et DL

Curse of dimensionality ou fléau de la dimension

D'autre part, le deep learning pose un autre problème, nommé le "curse of dimenonsiality" ou fléau de la dimension, pour résumer plus vous augmentez le nombre de dimensions (ou de couches), plus les données sont dispersées et éloignées les unes des autres, et donc moins il est facile de leur trouver un lien.

 

Pour l'illustrer, un extrait de wikipedia

"Leo Breiman donne l'exemple de 100 observations couvrant l'intervalle unidimensionnel [0,1] dans les réels : il est possible de dresser un histogramme des résultats et d'en tirer des inférences. En revanche, dans l'espace correspondant à 10 dimensions [0,1]10, les 100 observations sont des points isolés dans un vaste espace vide, et ne permettent pas l'analyse statistique3. Pour réaliser dans [0,1]10 une couverture équivalente à celle des 100 points dans [0,1], il ne faut pas moins de 1020 observations – entreprise gigantesque et souvent impraticable.

 

Le fléau de la dimension est un obstacle majeur dans l'apprentissage automatique, qui revient souvent à tirer des inférences d'un nombre réduit d'expériences dans un espace de possibilités de dimension élevée. Il devient alors souvent nécessaire d'injecter des informations a priori de manière à contraindre le système d'apprentissage pour obtenir des inférences. Il doit être préparé au type d'information à extraire. On parle alors d'inférence bayésienne."

 

Une des techniques pour y faire face est soit "d'aplatir" c'est-à-dire de réduire le nombre de dimensions (potentiellement en utilisant une autre IA pour identifier les dimensions les moins pertinentes et donc susceptibles d'être aplaties avec un impact réduit), soit de réduire la résolution/la précision de l'image.

 

Pour cela, on utilise couramment les réseaux neuronaux convolutifs (dont Yann Le Cun est à l'origine). qui est une forme de filtre d'image (utilisé dans Photoshop pour améliorer la netteté, voir les contours...). Elle va appliquer à chaque pixel une mini-matrice à chaque pixel qui va transformer l'image et réduire sa taille. C'est sur cette base que va s'entraîner le réseau neuronal (avec des images de quelques centaines de pixels de large et long plutôt que des images beaucoup plus grandes.

 

La dernière technique que je propose est la vectorisation des images, dont je parle ci-dessous dont à ma connaissance je n'ai pas entendu parler.

Quantité de données nettement supérieures pour le DL Vs ML

Le DL de par ses couches a besoin de plus de données pour entraîner que du ML (réseau neuronal à une seule couche).
 
Pour des données structurées, issues notamment des base de données structurées, d'IoT, de logs.. le ML suffit généralement alors que la classification d'images, de vidéos nécessitera du DL.

Merci à Olivier Ezratty

Je remercie beaucoup Olivier qui a lu ma première version d'article publiée et que j'ai corrigé grâce à ses retours (notamment distinction entre ML / DL, curse of dimensionality, DL visuel de l'homme et de Google). je vous conseille très fortement de lire son eBook sur l'IA (plus de 300 pages,que je vais de ce pas lire :)

Problèmes des réseaux neuronaux

Problème de la boîte noire

Le premier problème est que nous n'avons aucune idée pourquoi un réseau neuronal va considérer une image comme un chat ou pas, plus largement on ne sait expliquer pourquoi il fait tel ou tel choix sur base des données qu’il reçoit ... C'est une boîte noire ou plutôt une boîte remplie de matrices de chiffres qui n'ont pas de sens pour nous.

 

La Chine a décidé récemment d'utiliser des robots dotés d'IA pour désengorger ses tribunaux ses décisions judiciaires. Il a été aussi utilisé pour revoir des décisions de justice, la moitié ont été corrigées et 541 condamnations ont été commuées ...

 

Imaginez que l'on condamne une personne à 20 ans de prison, mais qu'on soit incapable de lui dire pourquoi, juste parce que c'est fondé sur une IA surentraînée fondée sur des réseaux neuronaux. C’est un peu gênant …

Dans le même registre, Poutine a indiqué que le pays que l’IA apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui et que celui qui en deviendra le leader sera celui qui dominera le monde.». Il prône aussi la guerre préventive en disant « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. », ce qui comme je l’ai dit dans un autre article présente un risque de surenchère impossible à maîtriser …

 

… ce qui a fait dire à Elon Musk que le danger de l’IA est plus grand qu’une bombe nucléaire provenant de la Corée du Nord et serait sans doute à l’origine de la troisième guerre mondiale. 

Explainable IA

C’est une des raisons pour lesquelles, je pense, que le « buzz » autour des réseaux neuronaux devrait fort diminuer d’ici un ou deux ans pour laisser la place à l’ « Explainable IA » avec d’autres technologies d’IA comme les réseaux bayésiens, les algorithmes génétiques...

 

Même si, je propose ci-dessous une technique pour expliquer les réseaux neuronaux (je ne suis sans doute pas le premier à y avoir pensé ;)

 

Quantité de données nécessaires et non-détection des premiers cas, cas exceptionnels, cygnes noirs

Aujourd’hui, la création de réseaux neuronaux nécessite une quantité phénoménale de données et un temps d'apprentissage long (qui se réduit drastiquement néanmoins).

 

Une raison majeure de l’expansion des réseaux neuronaux est l’accès à des très grandes bases de données associées à la possibilité de réaliser des calculs massivement en parallèle (ex : architecture CUDA utilisée par NVidia pour ses puces GPU à la différence de puces CPU qui ont une architecture centralisée).

Lorsque les données sont accessibles ou générables automatiquement, cela n’est pas gênant. Le nouvel AlphaGo a joué contre lui-même 4,9 millions de parties et en 5 jours avant de dépasser le précédent AlphaGo qui a battu le champion du monde de Go, Ke Jie.

 

Il a appris par lui-même (sans historique préalable ou d’aide humaine). 

Les cas où il y a très peu de données 

Dans des domaines comme la santé, cela veut dire transmettre une quantité d'informations énormes qu'on ne souhaite pas particulièrement transmettre.  Tous les cas exceptionnels comme les maladies orphelines ne pourront être traitées à ce jour par les réseaux neuronaux en raison du manque de données.

 

Les cygnes noirs (catastrophes climatiques, tremblements de terre inattendus, crises financières…) sont aussi très difficiles à prévoir. Un réseau neuronal n’aurait pas été entraîné pour les détecter comme ils ne sont jamais apparus auparavant et donc par définition ne pourra les prévoir.

 

Même si l’accès à de très nombreuses données devient de plus en plus facile (accéléré par l’IoT ;), il y a de nombreux cas où le jeu de données est très faible et où vous ne pouvez pas tester une multitude de situations automatiquement (comme l'a fait AlphaGo en jouant contre lui-même). Même si la robotique devrait permettre notamment dans la biologie, la génétique d'avoir accès à de plus en plus de données. Par exemple, Eligo Bioscience, fondé par Xavier Duportet n'utilise pas aujourd'hui l'IA pour développer des biothérapies programmables au monde pour le microbiome. Imaginez que vous utilisez des cobots (robots collaboratifs) pour réaliser des tests biologiques en intégrant de l'IA pour faire des plans d'expérience et identifier les biothérapies le plus adéquates... En revanche, vous ne construirez pas de réseau neuronal sur base de tests cliniques avec des patients humains ! 

 

Dans d'autres domaines, une négociation commerciale en gré à gré (hors transactions standardisées), comprendre les réactions et les émotions de quelqu’un, savoir ce qui est juste ou non (différent de ce qui est légal ou pas qui est codifié et relatif en fonction des cultures, histoires de chacun…) sont autant de domaines qui ne permettent un test massif de données.

 

Ce problème pourrait être partiellement résolu si l'on trouve des solutions pour réduire drastiquement le besoin de données (un des axes majeurs de recherche de Yann Le Cun de Facebook) pour créer des réseaux neuronaux, d’autre part il y a d’autres systèmes comme les réseaux bayésiens, les réseaux multi-agents ... qui alimentent l’IA et nécessitent beaucoup moins de données.

 

Néanmoins, pour faire une analogie quantique (on en revient toujours au chat ... de Schrödinger), un des challenges de l'IA est que le test d'une hypothèse peut nous empêcher de la retester dans les mêmes conditions ou comme dirait Coco Chanel "Vous n'aurez pas deux fois l'occasion de faire une première bonne impression".

 

Enfin, s'il résout déjà les problèmes concernant un grand nombre de personnes où les données sont nombreuses, cela est déjà utile !

Règles claires nécessaires - des échecs à Starcraft

Echecs

Les réseaux neuronaux ont fortement évolué. Deep Blue a su battre Gary Kasparov aux échecs en 1997 qui est un jeu qui présentent un nombre élevé de possibilités mais accessible à l’époque (1,5^118 combinaisons – 30 possibilités de mouvement par joueur en moyenne et 40 coups par joueur) selon le mathématicien Claude Shannon.

 

En revanche ce n’était pas de l’IA mais de la « force brute», le super ordinateur calculait de 6 à 20 coups à l’avance  ce qui lui a permis de prendre le dessus sur Kasparov.

Go

Le go se joue sur un Goban de 19x19 (soit 361 cases au total), il est possible de jouer 361 combinaisons, soit 1,4 x 10^768 coups soit beaucoup plus que les échecs. Aujourd’hui, un ordinateur ne pourrait traiter l’ensemble des combinaisons.

 

AlphaGo développé par Deepmind (racheté par Google) utilise des techniques d’apprentissage supervisé (en intégrant des parties historiques, des conseils d’humains, et la méthode statistique de Monte-Carlo) et par renforcement (en jouant contre lui-même). En mars 2016, il bat Lee Sedol, un des meilleurs joueurs mondiaux (9e dan professionnel), le 27 mai 2017, il bat le champion du monde Ke Jie.

 

En octobre 2017, DeepMind dévoile AlphaGo Zero fondé sur une architecture simplifiée et n’utilisant plus ni la méthode de Monte-Carlo, ni des connaissances humaines. Il bat AlphaGo 100 à 0 après 21 jours à jouer contre lui-même.

 

Néanmoins, le jeu de Go et des échecs sont des jeux déterminés à informations complètes et parfaites (tous les joueurs disposent à tout moment des mêmes informations pour effectuer leurs choix, chaque joueur joue à tour de rôle (imparfaites si les joueurs jouent en même temps ce qui crée une incertitude).

Les différents types de jeu en fonction de la combinatoire, hasard, informations accessibles

Il y a une classification des jeux selon qu'il y ait un aspect combinatoire (joueur peut choisir parmi plusieurs options), le hasard et l'information.

 

Un jeu où un joueur n’a pas accès à la totalité des informations est un jeu à informations incomplètes. Un jeu intégrant du hasard est un jeu mixte (au lieu d'un jeu  déterminé).

 

"Les lignes A et B correspondent aux jeux où le hasard n'intervient pas, ces jeux déterminés peuvent être à information complète ou non. Les lignes C et D correspondent aux jeux mixtes où le hasard est associé à l'aspect purement combinatoire des jeux déterminés. Les lignes E et F n'ont pas de sens pratique dans le domaine des jeux. Les lignes G et H correspondent aux jeux de pur hasard.
01 - Les jeux déterminés à information complète (dames, échecs, jeu de go)
02 - Les jeux déterminés à information incomplète (Attaque, bataille navale)
03 - Les jeux mixtes à information complète (Backgammon, Pachisi)
04 - Les jeux mixtes à information incomplète (Poker, Rami, Tantalus, mah-jong)
05 - Les jeux de pur hasard (jeu de l'oie, serpents et échelles)"   

Michel Boutin, Le Livre des jeux de pions 

 

Tout l’enjeu ( ;), maintenant est de qu’une IA soit capable de battre des humains sur des jeux mixtes à informations incomplètes … par exemple le Poker.

Poker

Ca ne s’est pas fait attendre puisqu’une IA (Libratus développé par une équipe de l’Université Carnegie Mellon) en janvier 2017 a fait face à quatre des meilleurs joueurs professionnels de Poker en No-Limit Hold’em, en terminant gagnante de 1,76 million de dollars (virtuels) et a renouvelé l’expérience.  Pour réduire le facteur chance (et tester l'IA), deux règles ont été ajoutées : Les mains fonctionnaient en miroir, il n'y avait pas de tapis avant la fin.

 

D’autre part, la puissance de calcul nécessaire n’a pas coûté plus de 20 000 $.

Equilibre de Nash

Néanmoins, l'IA a un avantage car si elle n’a pas d’instinct, elle a appliqué une stratégie parfaite fondée sur l'équilibre de Nash (fameux mathématicien), qui a été vulgarisée dans le film "Un Homme d'exception" avec Russell Crowe.

 

"Pour tous les jeux dans lesquels le nombre de situations est fini, il existe un Équilibre de Nash."

 

L’équilibre de Nash est une stratégie qui garantit au joueur qui l’utilise, au minimum, de ne pas faire moins bien qu’un joueur utilisant toute autre stratégie.

Pour faire simple : en utilisant la stratégie de l’équilibre de Nash, vous ne pouvez perdre contre aucun joueur à long terme. L’existence de ces équilibres a été prouvée par John Nash en 1950, ce qui lui a permis d'obtenir le prix Nobel d’économie.

 

Cela signifie qu'en adoptant une stratégie parfaite dans le poker en appliquant l’équilibre de Nash, à long terme, ni l’instinct, ni les tells, ni l’intuition n’importent, ce que l'IA prouve ici. L'IA n'a donc aucun mérite ;)

 

Cela pose d'ailleurs un problème pour le poker en ligne qui doit évoluer car il est très difficile de distinguer un humain d'une IA.

Starcraft

Quelle est la prochaine étape ?

 

AlphaGo s’attelle à devenir le meilleur joueur à Starcraft II (jeu vidéo massivement multijoueurs) en tenant compte néanmoins des limites humaines (40 actions par minute maximum). Deepmind a réalisé un accord avec Blizzard pour lui permettre (via des API) à s’entraîner dessus.

 

La problématique pour DeepMind est de gérer une multiplicité d’objectifs annexes pour gagner (premier objectif) comme collecter des minéraux, la construction et l'évolution des infrastructures et des armes…  alors qu’il y a plus de 300 actions de base possibles dans StarCraft II. Un premier challenge a été réalisé, Song, parmi les meilleurs mondiaux à Starcraft a gagné 4 à 0 en moins de 27 minutes contre quatre IA... 

 

Quelques commentaires de sa part

"We professional gamers initiate combat only when we stand a chance of victory with our army and unit control skills. In contrast, the bots tried to keep their units alive without making any bold decisions." (In StarCraft, players have to destroy all of their competitors’ resources by scouting and patrolling opponents’ territory and implementing battle strategies.)
Song did find the bots impressive on some level. “The way they managed their units when they defended against my attacks was stunning at some points,” he said.

Les jeux de pur hasard : les seuls jeux où l'homme saura rester victorieux à 50/50 avec l'IA

Il reste heureusement des jeux ou l’IA ne pourra jamais battre les humains systématiquement … les jeux de pur hasard. La bataille et le jeu de l’oie seront-ils nos planches de salut ;)

 

 

 

IA face à des règles et des objectifs changeants, peu clairs, contradictoires ?

Pour tous ces jeux y compris Starcraft II, même si les moyens et sous-objectifs pour gagner sont extrêmement variés, il y a des règles du jeu claires avec un objectif final de gagner.

 

Qu'en est-il si les règles ne sont pas claires, varient avec le temps, les acteurs, que les objectifs sont variés, contradictoires ... est-ce que l'IA sera aussi bonne ?

 

Les réseaux neuronaux et la plupart des autres types d’IA ont besoin de règles strictes, d’un objectif clair à atteindre avec des données car l’IA apprend par rapport à cet objectif et doit calculer un écart entre ce qu’il a trouvé et l’objectif visé. Si cet objectif varie, n’est pas clairement défini, il est très difficile à l’IA de calculer un écart à réduire et donc d’apprendre.

 

Cela prendra encore un peu de temps pour l’IA de maîtriser des situations où il y a de nombreux objectifs à atteindre sans priorité claire entre elles, où les règles changent en cours de route ainsi que les objectifs.

 

Ces situations sont très nombreuses, réussir un partenariat commercial ou une négociation salariale en tenant compte des objectifs de l’entreprise, des objectifs des acteurs individuels qui peuvent être contradictoires (ex : chiffre d’affaires versus impact sur l’environnement, sur les salariés, impact à court terme versus long terme).

 

Faire plaisir à quelqu’un sur le long terme est d’une extraordinaire complexité pour une IA au-delà des cadeaux simples en fonction des goûts, de la culture, des valeurs, des liens que vous avez avec cette personne… Si une IA croit qu’en donnant le même cadeau à tous les anniversaires et fêtes, il fera plaisir, il se met le doigt dans l’œil ! On pourrait en faire un nouveau test de Turing, le "Gift Test" (ça sonne mieux en anglais ;) ! On mesurerait la capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau. 

 

Enfin, aujourd’hui, l’IA ne choisit pas les sujets sur lesquels il va s’améliorer, c’est l’homme qui le décide et qui le programme en conséquence (on en revient à la question de finalité que j'évoque avant).

 

L’IA n’est pas encore au stade de se programmer elle-même pour s’attaquer à un nouveau problème qui sort de son champ ( mais ça viendra… impatient de rencontrer la première IA philosophe).

Manque de priorisation et de bon sens de l'IA

Aujourd’hui, les réseaux neuronaux ne voient pas en perspective mais à plat. Ils ne priorisent pas les données par elles-mêmes, au départ, chaque donnée unitaire a autant de valeur qu’une autre.

 

L’apprentissage / machine learning va donner du poids aux différentes valeurs en fonction d’un objectif.

 

Pour les humains, l’univers des données est vallonné voire montagneux et non un océan plat de données, nous accorderons beaucoup de valeur à des données venant de certaines personnes, même si elles sont rares (ex : ces paroles que nos parents, grands-parents.. nous disent une fois et dont on se souviendra toujours et qui peuvent marquer notre vie). L’IA moyennise, pas l’intelligence humaine (sauf si un humain dit à une IA qu’il faut pondérer certaines données en fonction de la source.) l’IA n’a pas de jugement propre, elle lui est externe (aujourd’hui en tout cas …).

L’IA n’a pas de bon sens. C’est d’ailleurs un risque important car en croyant en son infaillibilité répétée, nous pourrions être victimes d’erreurs flagrantes.

 

Un exemple amusant est de tracer une ligne mixte (continue et discontinue)  en cercle, cela attirerait des véhicules autonomes comme un pot de miel dans le cercle mais elles seraient incapables d'en sortir ;). Dans le quotidien, il y a un exemple concret lorsqu'il y a un obstacle infranchissable sur notre voie (par exemple un véhicule en panne) et que la route est délimitée par une ligne continue. A un moment, il y a de fortes chances que nous transgressions la règle de la ligne continue ;) Nous pourrions intégrer dans l'IA qu'elle peut transgresser des règles mais c'est ouvrir la boîte de Pandore ...

Biais de confirmation  - Ex : Recrutement par des Startups RH intégrant de l’IA

Ce manque de priorisation favorise paradoxalement le biais de confirmation.

 

L’ IA est par essence biaisée par les données qui la nourrissent. Pour donner un exemple concret, si votre entreprise a l'habitude de recruter des hommes blancs de moins de 30 ans ayant fait une école de commerce et que vous nourrissez votre intelligence artificielle de ces éléments, il n'y a quasiment aucune chance pour que vous recrutiez une femme de plus de 30 ans ayant fait des études littéraires alors qu'elle correspondrait potentiellement beaucoup mieux à ce dont vous avez besoin. 

 

C'est la raison pour laquelle il faut être extrêmement attentif aux start-ups qui intègrent de l'intelligence artificielle pour vous aider à recruter, car potentiellement cela pourrait favoriser un biais de confirmation et réduire vos chances d'augmenter la diversité dans vos équipes. En plus, vous seriez incapable de justifier le choix de l’IA. On appelle ça aussi le GIGO … Garbage In Garbage Out.

Faillible/hackable via de l'Adversarial AI

Un autre problème est que les réseaux neuronaux sont faillibles, il est très facile de les tromper et de les hacker comme le montrent quelques exemples ci-dessous.

 

Pour vous donner un exemple de risque potentiel, on pourrait imaginer que quelques panneaux de signalisation soient légèrement modifiés avec un filtre en plastique transparent invisible pour le commun de mortels, mais qui tromperait tous les véhicules autonomes. Cela pourrait être à l’origine d’une multitude d’accidents.

 

En plus comme ils agissent comme des boîtes noires il est quasi impossible de les déboguer comme un programme informatique traditionnel. De manière plus pernicieuse, on pourrait entraîner un réseau neuronal avec un lot de données correctes, mais en intégrant des exceptions qui pourraient servir de backdoor.

 

Les risques des réseaux neuronaux open-source en raison des backdoors inauditables

 

Prenons un exemple concret, imaginons que nous utilisions des réseaux neuronaux pour identifier des menaces de cyberattaque, vous présenterez d'un côté des exemples de cyberattaques et de l'autre des exemples qui ne seraient pas des cyberattaques pour entraîner le réseau neuronal à les distinguer. 

 

Le problème est que si une personne / organisation malveillante ou qui veut se ménager une backdoor a introduit des exemples de cyberattaques durant la phase d'apprentissage en les faisant passer pour des actions normales, il sera quasi impossible de pouvoir le déterminer et celui qui a entraîné le réseau neuronal aura une backdoor pour infecter un système en dissimulant sa cyberattaque, car elle ne serait pas détectée par l'intelligence artificielle.

 

Cela signifie aussi que l’utilisation de réseaux neuronaux open source peut présenter un risque de contamination, car vous ne saurez pas avec quoi il a été entraîné et  s’il cache des backdoors.

 

Dans le domaine des spams, c’est une technique nommée "poisoning" qui peut être utilisée a posteriori car une IA va continuer à apprendre sur base des attaques reçues. Si des mails sont envoyés avec des caractéristiques qui le font passer pour un non-spam ou inversement alors que c’est l’inverse, il peut contaminer l’apprentissage et cela crée une porte d’entrée. Ces techniques fonctionnent avec toutes les IA (qui apprennent). Dans le cas des spams, on utilise en général des réseaux bayésiens. Le problème des réseaux neuronaux est qu’ils sont très difficiles à auditer.. 

Des solutions pour expliquer les réseaux neuronaux et accélérer l'apprentissage 

Rendre explicable un réseau neuronal - Mission impossible ... Peut-être pas !

Les réseaux neuronaux sont très bien adaptés lorsqu'on a une très grande quantité de données et que les informations déduites par cette intelligence artificielle sont facilement vérifiables par un être humain (comme en cryptographie avec des clés publiques / privées où il est très long à déchiffrer un code si l'on n’a pas la clé et très rapide si l'on a la clé. Dans cette analogie, la clé est l’explication rationnelle de la décision )

 

En revanche, ils ne sont pas du tout adaptés lorsque nous devons utiliser ces données pour prendre une décision majeure et que le résultat est difficile à vérifier par l'être humain.

 

Pour faire face à ce problème, il y a plusieurs solutions (en dehors d’utiliser des « Explainable AI »).

 

La première approche est de les tester via les programmes type bug Bounty (des hackers "white hat" testent sous toutes les coutures l'intelligence artificielle).

 

Mais on peut aussi utiliser l’IA pour tester l’IA, c’est un champ nommé Adversarial AI, qui a pour objectif notamment de trouver les failles de cette IA et de l’améliorer. On crée alors des Generative Adversarial Networks (GANs),  qui vont créer un nombre innombrable de simulations qui seront testées par le premier réseau neuronal.

 

Cela signifie néanmoins que le Generative Adversarial Networks soit à même de classifier de la bonne manière pour que son résultat puisse être comparé à celui du réseau neuronal initial. C’est la technique utilisée par AlphaGo en jouant contre soi-même.

Démarche avec l'Adversarial AI / IA

On peut utiliser aussi le GAN (Generative Adversarial Networks) pour expliquer un réseau neuronal.

 

Cette technique permet d’entr’ouvrir la boîte noire en réalisant de la rétro-ingénierie.

 

La technique est d’intercaler une phase explicative entre la phase d'apprentissage et la phase d'exécution.

 

Pour cela, il faut partir d’une base classifiée par multi-critères, par exemple on va avoir une base qui sera classifiée selon des critères permettant de classifier si c’est un chat ou non, pour tenir compte des exceptions, on peut pour chaque critère donner une probabilité et utiliser des critères excluant la possibilité que c'est un chat.

 

Exemple :

-       Critère 1 – a des poils ou pas (Si non : 90% de chances de ne pas être un chat)

-       Critère 2 – est de couleur rose, bleue,… ( Si oui, 95% de chances de ne pas être un chat)

-       Critère 3 – a une laisse ( Si oui, 80% de chances de ne pas être un chat)

 

Pour chaque branche, on a au moins un exemple d’image mais idéalement il en faudrait des milliers au minimum.

 

On fait passer chaque image dans le réseau neuronal, et cela nous permet de savoir quels critères sont utilisés par le réseau neuronal avec un niveau de probabilité. Si les critères sont divisés à 50% environ, cela signifie que ce n’est pas un critère utilisé par le réseau neuronal et on peut élaguer. 

Utilisation Random Forest comme input d'un réseau neuronal pour le rendre explicable

On a ainsi construit l’arbre de décision du réseau neuronal avec des critères qui ont du sens pour les humains.

 

Ayant une base classifiée, nous pouvons aussi un cran plus loin et apprendre au réseau neuronal sur base de ses erreurs et le retester avec une nouvelle base classifiée… 

 

On peut même combiner cette méthode avec la technique des random forest (ou forêt d'arbres décisionnels), qui va créer un très grand nombre d'arbres décisionnels de manière aléatoire. Pour chaque feuille de l'arbre, il faut néanmoins avoir des images (ou une matrice de données) entrante dans le réseau neuronal. 

 

En passant à travers le réseau neuronal on pourrait calculer l'écart entre un arbre (qui symboliserai les règles implicites du réseau neuronal) et le résultat du réseau neuronal. L'arbre se rapprochant le plus des outputs du réseau neuronal serait la meilleure représentation de réseau neuronal.

 

On peut même imaginer un système d'apprentissage par backpropagation, où de nouveau random forest seraient créés sur base des écarts entre la vague précédente de random forest et les résultats de réseaux neuronaux (ainsi que des écarts entre arbres).

 

Génération automatique de données via les réseaux neuronaux

Avec le GAN, la création d’images pourrait être issue directement de la classification. Les couches cachées de notre réseau neuronal (par exemple, la forme, la couleur, la taille relative entre les membres de son corps…) pourraient d’ailleurs coïncider avec un nœud sur l’arbre décisionnel.

 

Le GAN créerait alors des images « chimériques » ou « coquecigrue » par exemple en décomposant une image existante, la transformant, la détourant, cachant des parties (oreilles, pattes, face…) en caractérisant chaque image.

 

Il est déjà possible de faire ce type de test comme le montre le site Pix2Pix qui crée une image de chat à partir d’un dessin à la main (le dessin n'est pas mon fort ;).

Vous pourriez encore plus facilement créer cet arbre sur le plan décisionnel avec des données structurées, par exemple si vous utilisez un réseau neuronal pour scorer des dossiers de crédits.

 

a.    Vous pouvez prendre un dossier et vous faites varier (en utilisant un GAN par exemple) une multitude d’informations, ex : Banque, prénom, âge, ville …

b.    En fonction des variations des décisions de crédit données par le réseau neuronal initial, vous pouvez reconstituer un arbre de décision (pas nécessairement exhaustif, mais avec l’IA vous avez la possibilité de prévoir beaucoup de cas).

c.     Cela vous permet aussi de calculer des effets de seuil, de basculement et de vérifier les biais (ex : sur le prénom ou nom, l’adresse…).

 

Dans le cas où le pourcentage de chaque option correspond de manière significative sur le plan statistique à l'équiprobabilité  (donc s'il y a deux options, à 50% +/- marge d'erreur liée à la taille de la population testée), cela signifie que cette branche n'est pas un critère et peut être éliminé de l'arbre de décision.

 

La limite néanmoins est que les règles que vous allez tester sont une approximation des règles dans le réseau neuronal. Si le réseau neuronal utilise les trois premières lettres d’un prénom, pour faire un calcul de scoring et que vous ne le testez pas, vous ne pourrez pas le décrire dans les règles. D’autre part, vous n’allez pas tester a priori des critères qui n’ont aucun sens pour vous (ex : la 3ème lettre du prénom, le numéro de l’adresse et le 4ème chiffre du code postal)

Accelérer le processus d'apprentissage avec les réseaux neuronaux vectoriels

Je propose aussi une autre démarche (c’est hardi, il y a de fortes chances que quelqu’un y ait déjà pensé depuis des lustres mais ne sait-on jamais). Je serai heureux d’avoir le retour de celles et ceux qui connaissent les réseaux neuronaux.

 

Aujourd’hui, le réseau de neurones entrant (image d’un chat par exemple) est une image matricielle comme une image bitmap décomposée en pixels RGB (Red Green Blue). C’est une image qui pèse bien plus lourd (à l’image des Bitmap) que d’autres images jpg qui utilisent notamment des algorithmes pour compresser l’image (avec perte pour jpg).

 

L’objectif est de transformer cette image composée de points en image vectorielle. L’image vectorielle est composée d'objets géométriques individuels, des primitives géométriques (segments de droite, arcs de cercle, courbes de Béziers, polygones, etc.).  Chaque point dans une image est calculé par des fonctions de manière continue et non discrète. Ainsi  la qualité de l’image n’est pas affectée si l'on agrandit une image à la différence d’une image fondée sur des pixels.

Exemple en transformant une courbe (sinus) en fonction (développement limité)

Imaginons pour simplifier que j’ai une image représentant une partie de courbe sinusoïdale soit la fonction y=sin(x). On peut la représenter par une courbe (x entre -1,4 et 1,3) dans une matrice 28*28 points.

 

Comme toute fonction, il est possible d’en réaliser un développement limité qui transforme une fonction quelconque en une fonction polynomiale (du type y= a+bx+cx^2+dx^3+…)  qui approxime la fonction au voisinage d’une valeur, ici 0.

 

Les développements limités sont d’ailleurs utilisés par les calculatrices depuis la nuit des temps car ils sont beaucoup plus simples à calculer que la fonction elle-même.

 

Ici, le développement limité (dl) d’ordre n de sinus est de y=x-x^3/(2*3)+x^5/(2*3*4*5)-…(-1)^n*(X^(2n+1)/(2n+1)!  + ε ( sachant que ε = epsilon, valeur négligeable = x^n * ε(x))

soit pour un dl d'ordre 3 de la fonction sinus au voisinage de 0 : y= x- x^3/(2*3) + ε

 

Avec cette solution on passe d’une matrice de 784 points à une matrice de 4 points (les facteurs de x).

 

Je fais ici bien sûr quelques raccourcis car d’une part, il y a des calculs à réaliser pour utiliser cette matrice de 4 points (élever chaque chiffre à une puissance de x) et toutes les images ne sont pas facilement vectorisables et leur poids peut être supérieur à celui de l’image initiale non vectorisée en fonction de la complexité de l'image (son entropie de Shannon).

 

L'intérêt de réduire la taille de cette matrice est d’accélérer les calculs et aussi de créer de nouvelles structures de réseaux neuronaux.