Liste des articles - Lien vers version plus détaillée

Debrief CES Las Vegas à l'Assemblée Nationale avec Mounir Majhoubi et Cédric Villani (IoT, IA, Smart City, Véhicule autonome, eSanté, données personnelles)

Le CES est le temple de l'innovation, des gadgets aussi mais son intérêt est de voir les tendances, décrypter les signaux faibles et aussi de se projeter sur les impacts de ces innovations dans le futur.

 

C’est la raison pour laquelle, j'ai été vraiment heureux d'intervenir en mars auprès de députés pour réaliser le debrief du CES Las Vegas à l'Assemblée nationale avec les députés Didier Baichère, Eric Bothorel et Cédric Villani et avec la participation de Mounir Mahjoubi. car elles remettent ces innovations en perspective.

 

Nous avons eu de nombreux débats avec les députés sur les impacts législatifs et le développement des territoires. 

Les principaux thèmes étaient :

  • FrenchTech : au-delà du nombre, faire des startups les locomotives (ou sa version Hyperloop ;) des entreprises françaises
  • Véhicule autonome et la Smart City : les enjeux autour de la plateforme de données (qui la gère et utilisation de la blockchain), le désenclavement des territoires, les véhicules dépolluants et les piles à hydrogène
  • Intelligence Artificielle :
    • ses usages (Google Assistant, analyse d'images de caméras, Smart Home...) qui répond au besoin d'interface unifiée des utilisateurs
    • mais avec le fort risque de concentration des données par les GAFA (renforcée par la prochaine réglementation européenne e-Privacy)
    • en partie contrebalancée par le développement de l'IA embarquée (ex: Snips pour la voix) et des alternatives européennes comme Qwant, respectueuses de la vie privée
    • développer les outils à coûts réduits permettant aux enfants de comprendre et travailler avec l'IA afin de les étendre dans le plus grand nombre d'écoles en mobilisant les professeurs volontaires
  • Catastrophes Naturelles : comment peut-on faciliter la résilience avant, durant après sa venue (cf. Panne d'électricité au CES de 3h !) avec des panneaux solaires portables, des radiateurs à batterie, une application qui donne directement une photo certifiée par l'assureur ... utile juste avant d'être inondé ...
  • Environnement :
    • comment mesurer les problèmes environnementaux et les traiter (propagation des moustiques, suivi des abeilles, décontamination de l'eau...)
    • comment recycler des produits (vêtements, objets du quotidien...) qui intègrent de plus en plus d'électronique ou des produits personnalisés difficiles à réutiliser : pistes possibles : l'écoconception, la conception modulaire...
  • e-Santé :
    • facilité de réaliser des auto-diagnostics, de pouvoir à moindre coût contrôler par soi-même la composition d'un produit, s'il contient des pesticides ou pas ("Customer empowerment") et
    • comment résoudre la problématique de savoir sans comprendre (ex : Tests ADN qui nécessite un décryptage par des professionnels médicaux.
    • de fournir des prédiagnostics dans des zones rurales (cabines médicales connectées)
  • Handicap : solutions pour inclure les non-voyants (appareil text-to-braille), les fauteuils roulants autonomes pour les personnes à mobilité réduite ...

FrenchTech

Si on se réfère aux chiffres du CES, 80 % des entreprises françaises présentes au CES (352) étaient des startups situées à Eurêka Park, ce qui est énorme comparé aux autres pays (environ 40% pour GB et Israël, Allemagne 28%, USA: 15%).

 

Néanmoins, nous avons 69 entreprises françaises qui étaient en dehors d'Eurêka Park soit plus de 40% de plus que les autres pays (hors Chine, Corée du Sud et Etats-Unis ) (GB :48,  Allemagne:45, Israël: 32).

 

Il y a certainement un effet d'entraînement des startups vis-à-vis des autres entreprises (en particulier les PME et les ETI qui font l'objet du plan de transformation numérique évoqué par Mounir Mahjoubi). Je pense donc qu'il faut accélérer cet effet d'entraînement que peuvent avoir les startups vis-à-vis des autres entreprises afin de devenir une locomotive voire un Hyperloop de notre économie. ;)

Par exemple, Sensorwake s’est associé avec l’entreprise française Lexibook pour vendre des réveils olfactifs pour les enfants en utilisant la marque Reine des Neiges de Disney et Bananas d'Universal.

 

Lexibook est un levier commercial pour Sensorwake via ses licences Disney et Universal et Sensorwake un levier d’innovation pour Lexibook. Sensorwake n’aurait certainement pas réussi à obtenir ces licences sans Lexibook.

Startups dans l'industrie

Même si le CES n'est pas destiné à présenter des solutions purement B2B, cela était l'occasion de trouver plusieurs entreprises qui peuvent devenir des vrais leviers pour des PME et des ETI (en plus des grands groupes) dans le domaine industriel et logistique.

 

La première est Eyesee qui utilise des drones automatisés pour réaliser l'inventaire complet d'une usine en scannant les codes-barres de chaque palette.

 

La deuxième est Fieldbox.Ai.  Elle travaille aujourd'hui plutôt avec de grands groupes comme Total pour prévenir les pannes des pompes de ses puits de pétrole et l'aéroport à Roissy pour gérer le flux des bagages.

Mounir Majhoubi a rappelé à ce sujet que les deux axes prioritaires du gouvernement dans le domaine du numérique sont le plan de transformation numérique des TPE et des PME avec des financements de l'Etat et des régions ainsi qu'un programme d'inclusion concernant les 20 % de personnes qui n'accèdent aujourd'hui pas à Internet qui ne doivent surtout pas être laissées de côté.

 

J’ai détaillé plus sur la politique des régions sur les startups, les relations entre grands groupes et startups plus bas….

IA - Intelligence Artificielle

IA et la confidentialité des données personnelles

Les usages principaux de l'IA que nous avons vus au CES  sont dans le domaine

de la reconnaissance vocale et NLP (en particulier avec Google Assistant), la reconnaissance et compréhension des images, le véhicule autonome et le Smart home.

 

Google prédit que d'ici quelques années 50% des recherches se feront via commande vocale (20% aujourd'hui). Cela signifie que si je demande un Paris Marseille, c'est l'IA de Google qui choisira par défaut l'entreprise qui fournira ce service, SNCF, Blablacar ... ou à partir de 2020 Deutsche Bahn, problématique identique pour tous les achats du quotidien et le choix des informations du jour.

 

Cela peut mettre sous dépendance de nombreuses entreprises françaises à l'image de ce que Criteo a vécu quand Apple a décidé de modifier sa politique sur les cookies. Cela impacte aussi les distributeurs qui ont des marges plus élevées sur la plupart des consommables, qui font revenir les clients. Avec les commandes vocales, cela simplifie l’achat et réduit la nécessité de revenir en magasin et donc diminue le trafic…

Nouvelle directive européenne e-Privacy

Le règlement e-privacy de l’utilisateur qui aurait dû être mis en place en mai 2018 (mais cela prendra sans doute plus de temps en 2019 a priori) pourrait en l’état accentuer le pouvoir des acteurs ayant un accès direct aux clients (dont les GAFAM).

 

Sur le principe, l’intention est louable : demander le consentement préalable des utilisateurs avant de collecter toute information personnelle tout en simplifiant sa vie, concrètement en demandant un opt-in global à la 1ère connexion sur le navigateur, OS, terminaux (comme Google Home, Amazon Echo) ce que la plupart des utilisateurs refuseront (donc opt-out des utilisateurs). Aujourd’hui nous avons un opt-in local, avec le fameux bandeau quand on visite un site web. En revanche, on peut collecter les informations des utilisateurs dès lorsqu’ils se loggent à un site web ou à une application si cela est intégré dans les CGV à la création du compte utilisateur ce qui est le cas des Google, Amazon, Facebook et Apple …

 

Les entreprises n’ayant pas un accès direct au client dépendront de ceux qui l’ont (via navigateur, login) … Comme le sujet est complexe et mouvant, voici quelques articles avec des points de vue différents sur le sujet pour vous faire une opinion. (Usine digitalepropositions de la présidence bulgare de l’UE;  Quadrature du Net, Rapport de Tech in France, Tribune de Pierre Chappaz dans Les Echos). D’autre part, ce règlement est très difficile à appliquer pour de nombreux cas d’usages d’Internet des Objets (ex : demander un consentement préalable à un capteur de pollution public avant de transmettre ses données est compliqué ! )

On pourrait croire que c'est tout bénef pour les GAFAM. En réalité, en renforçant encore leur pouvoir, cela donne encore plus de raison à l’UE et d'autres États de les réglementer voire de les scinder (cf. article à ce sujet) (à l'image de ce qu'a vécu Standard Oil, ATT ou plus récemment les contraintes imposées à Microsoft).

 

A terme, c’est une épée de Damoclès pour les GAFAM, renforcée par l’affaire Facebook/Cambridge Analytica. A court terme et afin de plus équilibrer les forces en présence, cela incite des acteurs européens à plus se rapprocher des BATX (GAFA chinois : Baidu, Alibaba, Tencent et Xiaomi) qui signent de plus en plus d'accords avec des entreprises européennes (Auchan et Alibaba, Carrefour et Tencent, Renault-Baidu). (cf article à ce sujet)

Utilisation de l'IA dans la reconnaissance visuelle, aide à la décision

L'IA dans la vidéo a de nombreux usages, Netbelle Vue a présenté un interphone vidéo qui transmet  les messages vidéos aux bonnes personnes en fonction des interlocuteurs (une sorte de mini-workflow fondé sur l’identification des personnes… ce qui pose quelques soucis sur la vie privée…).

 

Kolibree l'utilise pour vérifier si un enfant s'est bien brossé les dents en utilisant un jeu qui l'incite à brosser partout. Enfin AI.Poly l'utilise dans les points de vente pour analyser vos comportements, c'est d'ailleurs une brique essentielle dans le Grab and Go, qui permet dans le magasin d'Amazon Go de pouvoir prendre un produit et repartir avec en débitant votre compte de la somme correcte.

Cédric Villani a précisé aussi les impacts de l'IA et que nous étions encore loin de l'intégration de l'IA dans la robotique. Les robots de Boston Dynamics par exemple sont fondés sur des algorithmes non-apprenants et non de l'IA.

 

Mounir Mahjoubi a souligné que le gouvernement soutient le développement de l'IA comme outil d'aide, d'assistance à la décision. En revanche, il insiste sur le fait que ce seront toujours les hommes et femmes qui doivent garder la maîtrise de la décision, du choix.

Comment faire face à cette capture de données massives 

Tout d'abord il faut inciter à traiter les informations localement (dans le microprocesseur du capteur ou sur un hub local). Cela passe notamment par l'intégration de l'intelligence artificielle dans les puces ( avec des puces GPU, puis FGPA (field-programmable gate array qui permet d’intégrer des réseaux de neurones spécialisés qui peuvent être reprogrammés/reconfigurés à distance) , prochainement  des puces neuromorphiques (spécifiques aux réseaux neuronaux) et bientôt des puces quantiques comme le font Intel, Nvidia et Qualcomm.

 

S'il est nécessaire de transmettre des données, on peut les agréger, les anonymiser (ou les hasher), avant de les transmettre sur Internet (un peu comme si au lieu d’envoyer votre numéro de sécurité sociale dans le cloud on ne transmettait que la clé, les deux derniers chiffres).

 

Enfin on peut favoriser aussi l'émergence d'acteurs français et européens respectant la vie privée comme Qwant et Snips (reconnaissance vocale qui se positionne en concurrent d’Amazon Alexa et Google Home en ne transmettant pas la voix sur Internet à la différence des Echos et Google Home).

 

Démocratiser l'intelligence artificielle dans les écoles

J’ai fait une petite digression concernant l'intelligence artificielle au sein des écoles.

 

J'ai vu beaucoup de solutions permettant aux enfants d'apprendre à coder ou à utiliser de l'intelligence artificielle comme des Legos au CES. Il me semble indispensable d'apprendre aux enfants à travailler avec l'intelligence artificielle avec ce type d’outils mais aussi sans.

 

 


C'est un peu comme le GPS et le sens de l'orientation, il faut savoir s'en passer, ne pas en être complètement dépendant car il suffit d'une panne d'électricité un peu longue pour que nous ne puissions plus y avoir accès.

 

 

Aujourd'hui ces solutions sont un peu chères pour qu'elles puissent être utilisées dans toutes les classes, néanmoins il y a certainement beaucoup de professeurs volontaires qui ont de très bonnes idées pour à la fois montrer ce que peut faire l'intelligence artificielle (par exemple via des applications , vidéos accessibles sur Internet ou un smartphone) mais aussi développer les capacités qui nous différencie par rapport à l'intelligence artificielle et apprendre à savoir-faire sans. (cf. article sur l'IA et l'éducation)

Véhicules autonomes de la voiture aux drones avec passagers

C'est aussi la raison pour laquelle il est indispensable que la France et que les autres membres européens fassent évoluer la Convention de Vienne rapidement afin d'éviter d'être à la traîne.

 

En revanche, cela présente un avantage à long terme car la législation sur les véhicules autonomes est différente entre chaque Etat américain (la Californie est à la pointe, pas sûr que l'Oklahoma, l’Utah et Wisconsin arrivent tout de suite à les rattraper). 

La conduite d'un véhicule est soumise à la Convention de Vienne signé en 1968, trois pays majeurs n’y sont néanmoins pas soumis les États-Unis et le Japon qui n'ont pas signés et la Grande-Bretagne qui ne l'a pas ratifié (sacrés Anglais ;)

 

 

Cela leur permet de favoriser le développement du véhicule autonome sur le plan national beaucoup plus rapidement que les autres pays signataires de la Convention comme la France.


Le jour où il faudra déployer massivement dans véhicules autonomes, les signataires de la Convention de Vienne, au minimum l’UE aura un marché, une réglementation bien plus harmonisée qu’aux US !

 

 

Le véhicule autonome est aussi dès le départ conçu pour être partagé, il est absurde de garder son véhicule autonome plus de 90 % du temps dans son garage (le cas pour les véhicules individuels en moyenne) pour des raisons économiques notamment. D'ailleurs, l'avènement d'un véhicule autonome individuel n'arrivera pas de manière massive avant 2030.  

Véhicules autonomes pour désenclaver les territoires

En revanche, le véhicule autonome devient un mini-transport en commun, il devrait rapidement se propager dans les prochaines années comme le montre déjà l'expérimentation à Rouen avec Transdev et la Renault Zoé en route ouverte ou les autres expérimentations avec Navya et Easy Mile sur des voies dédiées (car ils n’ont ni volant ni pédales !) même s'il reste de nombreux problèmes à régler (es: ne pas confondre la tombée des feuilles mortes avec un obstacle).

 

Cela peut être aussi un moyen de désenclaver des territoires en réalisant des navettes entre la gare et des centres-villes, des zones de commerce, des zones d’habitation … 

Drones avec passagers, camions et robots livreurs autonomes

En plus du véhicule autonome, il y a le camion autonome (ici Apollo de Baîdu) qui devrait fortement se développer pour de multiples raisons : plus de pauses toutes les deux heures, risque d'accident qui sera beaucoup plus réduit, trajet long principalement autoroutier, zone de confort des véhicules autonomes ...

 

En revanche, nous garderons pendant un certain temps des chauffeurs pour les trajets sur des courtes distances entre la zone de départ (usine, entrepôt..) et le point d'entrée de l'autoroute, et le point de sortie d'autoroute et la zone de destination (entrepôt, magasin...).

 

À terme, nous pourrions imaginer des mini-hub de transit automatisé, où des camions autonomes alimentent des robots livreurs qui viendront jusqu'à chez vous pour faire les derniers kilomètres. De nombreux robots livreurs ont aussi fait leur apparition au CES comme celui de Twinswheel.

 

La multiplication de ces véhicules autonomes de taille multiple (voir aussi celui de Segway) pose une vraie question autour de l'occupation de l'espace public et en particulier les chaussées, les trottoirs. Faut-il créer des voies dédiées aux véhicules autonomes ou les partager avec les voies de bus ? ...

 

À un horizon plus lointain, on verra apparaître petit à petit des drones avec passagers. Entre Volocopter, qui a volé au Mandala Bay, Air Taxi et le drone taxi Ehang  (présent au CES 2017) qui a déjà transporté ces premiers passagers et Vahana, drone d'Airbus, Uber...  les entreprises se bousculent pour lancer leurs premières versions commercialisables. Dubaï est sur les rangs pour proposer le premier service commercial. La réglementation est encore très loin de permettre la généralisation de ces drones. Ils devraient a priori rester dans les couloirs sub-aériens. 

 

Les législateurs doivent rester attentifs à ce mouvement pour le cas échéant adapter la réglementation afin de permettre leur utilisation progressive. Il permet comme les véhicules autonomes de réduire fortement le point mort d'utilisation et d'augmenter leur nombre puisque vous n'avez plus besoin de pilote d'hélicoptère ou d'avion. 

Avant même le transport de passagers, le premier axe de développement est le transport d'objets en utilisant les drones. Les drones pourraient par exemple sauver de nombreuses vies dans le cadre du transport des organes en vue de greffe. Cela prendra plus de temps avant de transporter des blessés ou malades...

Smart City et la question : qui gère la plateforme de données et l'usage de la blockchain dans ce cas

Le véhicule autonome est nécessairement intégré dans la ville, il communique avec les autres véhicules les piétons, les infrastructures, les feux rouges, les chaussées ...

 

La question majeure est : Qui va gérer cette plate-forme ?

 

Ford a proposé à Las Vegas, sa plateforme de gestion de mobilité dans la ville mais est-ce le plus légitime ? ... La ville a certainement le plus de légitimité (mais pas nécessairement le plus de compétences et d’agilité) sur ce sujet, mais doit travailler avec d'autres entreprises qui sont spécialisées dans la gestion de plateforme de données, en évitant d'utiliser des solutions propriétaires mais plutôt des solutions ouvertes ou open source comme Fiware.

 

Une autre solution est la mise en place de blockchain, qui évite d'avoir surmonter l'obstacle de faire accepter qu'un acteur ait la main mise sur une plate-forme agrégeant l'ensemble des données que les autres voudront bien lui donner !

 

La blockchain a un très gros potentiel dans les cas où il y a une multitude d'acteurs ayant des intérêts divergents qui doivent partager des informations mais dont aucun n’a la légitimité pour coordonner la totalité des données agrégées. Pour des villes un peu longues à réagir, on pourrait même imaginer des acteurs privés et publics créant une blockchain indépendamment de la ville, ce qui sera dommage pour elle.

Vidéo sur la géolocalisation et le respect de la vie privée

La collecte de ces données soulève quelques interrogations ... Ainsi, lors de l'Opening Keynote au CES Las Vegas 2018, Michael Sandel (Harvard) pose une question à James Hackett (PDG de Ford) et à une salle comble sur la géolocalisation et les problèmes de "privacy".

 

Voici ce que je réponds ... ;)


Changer les paradigmes des véhicules polluants avec des infrastructures dédiées

Un oxymore technologique : le véhicule dépolluant

Hyundai présentait un véhicule dépolluant qui associe un système qui décompose les éléments polluants en éléments inertes à son moteur à hydrogène (les deux sont dissociables).

 

On pourrait imaginer dans une dizaine d’années que les réglementations obligent non seulement les véhicules à atteindre zéro émission polluante mais des véhicules à « émissions négatives » ( qui dépolluent !), ce serait un juste retour des choses vu la pollution générée par les véhicules.

 

Une des grosses sources de pollution du véhicule électrique provient des batteries (en plus potentiellement de l’électricité si celle-ci est issue de centrales thermiques par exemple).

 

 

MyFC - Faire le plein dans un magasin plutôt qu'une station-service 

Les batteries lithium-ion omniprésentes dans nos smartphones et dans nos véhicules électriques ont un impact environnemental très négatif dans leur production ainsi que dû à leur manque de recyclage sans compter les problématiques géopolitiques d’extraction de lithium concentrée dans quelques pays (Bolivie, Chili, Chine, Australie).

 

Les piles à combustible (Fuel cell) sur base d’hydrogène sont sans doute une des techniques les plus prometteuses pour les remplacer car elles permettent de stocker l’énergie et d’être recyclées avec un impact nettement moindre que les batteries lithium-ion. Actuellement, l’une des problématiques de ces piles est leur coût de fabrication et l’utilisation de platine pour catalyser la réaction.

 

MyFC intègre une pile à hydrogène avec un chargeur de batterie pour smartphone (sans risque car l’hydrogène est stocké dans un compartiment sous forme d’eau (H2O ;) avec de la soude (NaOH) qui combiné dégage de la chaleur).

 

On pourrait imaginer qu’au lieu de distribuer de l’énergie par des stations-service, on achèterait nos piles à hydrogène dans n’importe quel magasin ce qui permettrait de sortir le problème de la poule et de l’œuf : comment vendre des véhicules à hydrogène s’il n’y a pas d’infrastructures pour les recharger Vs comment développer une infrastructure pour charger son véhicule à hydrogène, s’il n’y a pas de véhicules à hydrogène à recharger. A l'heure actuelle, ce ne sont que des "Range Extender" qui permettent d'augmenter les distances mais ne remplacent pas la batterie actuelle mais cela viendra ...

 

C’est intéressant de voir comment les nouvelles technologies peuvent disrupter des infrastructures et des paradigmes liés au développement du véhicule. Une autre infrastructure qui sera certainement disruptée, ce sont les parkings en ville qui deviendront majoritairement inutiles avec le véhicule autonome. Il faudra au fur et à mesure réfléchir à leur reconversion … Le détricotage des infrastructures spécifiques aux véhicules commence !

Résilience et solutions face aux catastrophes naturelles

Il y a eu une panne d’électricité d’environ trois heures environ au CES Las Vegas liée aux trombes d’eau qui se sont abattues sur la ville qui ont provoqué des courts-circuits (équipements mal couverts utilisés pour les travaux liés à l’agrandissement du Convention Center).

 

Cela m’a incité à rechercher les solutions au CES qui pourraient nous aider en cas d’inondation et plus largement de catastrophe naturelle, d’autant que nous en avons été victimes en France.

 

 

 

 

L’objectif de ces solutions est de nous aider à devenir résilients, c’est-à-dire être capables de surmonter rapidement ce type de situation.

 

On peut diviser une catastrophe naturelle en cinq phases, avant qu’elle ne soit détectée, quand elle est détectée, quand elle survient, juste après la catastrophe et la période de retour à la normale.

 

A chaque phase, correspond un objectif, prévenir, alerter et préparer, survivre, trouver des solutions transitoires pour vivre et reconstruire.

Avant la catastrophe naturelle

Pour la première et deuxième phase, il y avait un certain nombre de capteurs permettant de détecter et d’alerter en cas de fuite ou d’inondation. La solution néanmoins qui m’a le plus intéressé est celle de Monuma, qui permet de réaliser directement des photographies certifiées par huissier en association avec son assureur de son mobilier et appareils (en utilisant la blockchain pour certifier l’authenticité de la photo, la date et le lieu ). 

 

Si on est prévenu quelques heures avant l’arrivée d’une inondation, cela nous permet d’augmenter le taux de remboursement provenant des assurances. Une des évolutions prévues est l’utilisation de capteurs connectés (capteur de mouvement, d’inondation …) ce qui permettrait d’accroître la confiance de l’assureur en son assuré (en respectant bien sûr la vie privée, l’information pourrait être envoyée à l’assurer qu’en cas de sinistre). 

Durant la catastrophe naturelle

Lors de la catastrophe naturelle, nous avons vu un de nombreuses victimes n’ayant ni chauffage, ni électricité, ni moyen de communication (si le réseau télécom tombe).

 

Lancey a développé un radiateur avec une batterie intégrée, ce qui permet en cas de panne électrique d’augmenter la période de chauffage (la batterie sert en premier lieu à se charger en heure creuse lorsque l’électricité est moins chère). Dans le cas où la personne a un panneau photovoltaïque, il paraît plus logique que la batterie se situe à son niveau, néanmoins dans le cas inverse, cette batterie pourrait aussi servir pour alimenter d’autres appareils dans la maison.

 

Appi Technology permet via leur application Appi-Wi de communiquer avec d’autres personnes (40,50 m max) en utilisant une connexion directe wi-fi sans passer par une box ou une connexion mobile (off network). La première des applications destinées à ceux qui font du sport dans des zones non couvertes par le mobile.  Ils ont aussi une autre solution destinée au marché des professionnels (pompiers, chantiers…) avec des casques intégrant un micro pour communiquer sur environ deux kilomètres utilisant les fréquences libres (863 à 870 Mhz) mais à des prix nettement supérieurs (plusieurs milliers d’euros).

 

Enfin Supersola présentait ses panneaux photovoltaïques portables, qui permettent d’alimenter ces solutions.  Pour l’anecdote, des pompiers français les ont rencontrés à un salon, ils leur ont acheté directement les quatre panneaux solaires pour les utiliser pour les secours sur l’île Saint Martin. 

Reconstruction et infrastructure de partage en utilisant la blockchain

Une des clés de la reconstruction est la solidarité locale en plus des secours, celle-ci peut se manifester de multiples manières, avec un principe de base le partage.

 

Pour partager, il faut d’abord avoir et produire quelque chose qui puisse être partagé !

 

Ensuite, il faut savoir ce dont l’autre a besoin et pouvoir partager facilement cela avec lui, de manière si possible équitable par rapport aux autres personnes ayant le même besoin sans pénaliser celui qui partage.

 

Au CES, il y a de plus en plus de solutions qui permettent de produire des plantes aromatiques des légumes en appartement, les coûts ont aussi fortement baissés pour produire de l’électricité à partir de panneaux photovoltaïques, néanmoins ce qu’il manque le plus c’est l’infrastructure de partage. En France, à quelques exceptions près, il est impossible de partager l’électricité produite avec ses panneaux photovoltaïques à ses voisins, lorsque le réseau électrique tombe.

 

La seule solution qui commence à se dégager (mais qui n’est pas sans poser problème à RTE, qui gère le réseau électrique) est la création de mini-grid fondée sur la blockchain. La société Clem a mis en place des pilotes de ce type. A New York, Brooklyn Grid  permet à une cinquantaine de voisins de s’échanger de l’électricité. Face aux incessantes coupures d’électricité lors de l’ouragan Maria à Porto Rico, AES, une entreprise fournissant des solutions globales d’énergie a proposé de mettre en place des mini-grid pour y faire face au lieu de créer une infrastructure centralisée beaucoup plus fragile et chère. 

Environnement - Mesurer pour améliorer

Les produits dédiés à l’environnement ne sont certainement pas le clou du spectacle au CES Las Vegas, néanmoins il y avait des solutions dans ce domaine.

 

Comment on le dit souvent, ce qui ne peut être mesuré ne peut être amélioré. Qista le démontre avec son produit qui non seulement tue les moustiques mais surtout mesure leur nombre, ce qui permet de suivre les essaims de moustiques voire même de les cartographier si un réseau de Qista se développe.

 

Hostabee lui a développé un système qui s’installe dans tout type de ruche en se positionnant entre deux cadres du couvain. Il mesure en temps réel le taux d'humidité et la température au sein de la ruche, utilise les données météorologiques pour optimiser le travail de l'apiculteur.

 

Lavie est pour sa part, une solution qui transforme l’eau du robinet en eau minérale pure sans filtre ni produits ajouté, grâce à un rayonnement électromagnétique contenu dans le spectre solaire invisible, les UV-A. Cela stérilise l’eau de tout virus ou bactérie selon Lavie. Ils ont une version connectée, mais la version utilisant les rayons du soleil pour stériliser de l’eau retient le plus mon attention car il est utilisable dans les pays qui ont en ont le plus besoin et qui souvent n’ont pas de réseau électrique à proximité

Recyclage - Eco-concevoir et de manière modulaire pour réduire les déchets

Une des problématiques majeures des objets connectés est le recyclage en particulier lorsqu’on crée de nouveaux objets connectés ou que l’on rend connecté un objet qui n’avait aucune électronique à l’intérieur. Typiquement, les chaussettes SirenCare intègrent des fils électroniques pour mesurer la pression. On demande aux utilisateurs de renvoyer leurs chaussettes usées au bout de six mois  …  Pas sûre qu’ils le fassent sauf s’ils bénéficient de réductions pour le faire !

 

Ce problème s’applique aussi aux objets personnalisés car il est plus difficile de réutiliser ce type d’objet qu’un objet standard. Pour être caricatural, il vous sera plus facile de revendre un mug Star Wars et même blanc qu’un mug avec votre photo dessus.

 

Pour faire face à cela, il est indispensable d’éco-concevoir ses produits, et en particulier d’avoir une conception modulaire pour facilement séparer les parties recyclables des parties électroniques, les éléments standards des éléments personnalisés (ex : encre effaçable à très haute température pour le mug personnalisé).

 

 

Face à l'obsolescence programmée - le partage des appareils, véhicules - Ex: Vulog

Il y a néanmoins un bénéfice aux objets connectés en termes d’économie circulaire, un objet connecté est plus facile à partager, à louer qu’un objet non connecté. On peut déverrouiller/ verrouiller son utilisation à distance, savoir s’il a été utilisé correctement (détecter une chute, un choc et vérifier s’il a été utilisé dans les limites décrites d’une assurance par exemple), et même potentiellement être géolocalisé. Typiquement, un véhicule connecté se partage plus facilement qu’un véhicule non connecté, pas besoin de se déplacer pour donner les clés et les reprendre, on est rassuré car on sait où il se trouve et s’il a eu un accident.

 

 


Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !  

 

 

Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.

 

Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)

 

Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.

 

 

D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.

Le modèle économique du fabricant n’est plus alors de vendre le maximum de véhicules (fondé sur la propriété) mais que ses véhicules soient utilisés le plus possible et donc que ceux-ci soient le plus fiables et durent le plus longtemps possible (modèle fondé sur l’usage). Pour l’anecdote, j’avais imaginé le partage de voiture, l’e-car il y a douze ans (2006 !) à ce sujet sur Agoravox !  

 

 

Vulog a présenté sa solution (qui existe depuis un certain temps) qui permet de partager une flotte de véhicules existants. Ils installent un petit module qui permet de l'ouvrir à distance et un boitier qui donne accès aux clés et permet de déterminer le temps d'utilisation du véhicule. Une application permet de localiser et de réserver un véhicules mais aussi de réaliser un rapide état des lieux et de signaler s'il a des dommages sur le véhicule en photo.

 

Le développement d’un modèle économique fondé sur l’usage donnerait un coup de frein à l’obsolescence programmée et permettrait d’aligner le modèle économique du fabricant avec l’intérêt de notre chère planète ;)

 

Il serait aussi judicieux sur le plan économique d’utiliser comme premier indicateur de bonne santé d’une entreprise sa marge brute (CA- coûts totaux) plutôt que le chiffre d’affaires.

 

 

D’ailleurs, c’est déjà le cas dans certains secteurs d’activité, par exemple les banques sont évaluées en fonction de leur produit net bancaire (produits d'exploitation + intérêts et commissions perçus - charges d'exploitation, intérêts et commissions dus), que par extension on nomme chiffre d’affaires … même si cela est différent du chiffre d’affaires usuel et est similaire à la marge brute.

e-Santé

Innovation dans e-Santé

On peut collecter les données de santé n’importe où, même dans nos sous-vêtements… est-ce utile ? J’en doute.

 

Heureusement, il y a des applications concrètes et utiles des objets connectés dans la santé. Bonetag a ainsi développé un capteur RFID placé dans une prothèse qui permet de mesurer la température et la pression dans la prothèse.

 

Cela permet de suivre celles-ci, d’éviter en cas d’inflammation des opérations lourdes. Le RFID (utilisé pour le télépéage et par les bornes de sortie des magasins) a été choisi au lieu du NFC (utilisé dans votre carte Navigo, carte bleue, smartphone) car le NFC permet de capter les informations à une distance de 5 à 10 cm (ici, sans doute moins en raison de la peau).  Il aurait été impossible notamment de capter des informations d’une prothèse à la hanche par exemple. Le RFID pose néanmoins un problème car il ne me permet pas à l’utilisateur final de vérifier par lui-même sa température. A ce stade il doit aller chez le médecin pour le vérifier ce qui retire beaucoup de l’intérêt du produit.

 

C’est la raison pour laquelle j’ai préconisée à la startup, de proposer aux patients l’achat d’un lecteur RFID afin de pouvoir contrôler par eux-mêmes la température, pression… sans aller chez un médecin. Le coût d’un lecteur RFID associé à un smartphone est inférieur à cent euros. 

 

Il y avait aussi Diabeloop qui a développé une micro-pompe d’insuline qui injecte la dose d’insuline adéquate calculée par un mini-terminal sur base de la glycémie mesurée par un capteur, palliant le dysfonctionnement du pancréas.

 

 

Les données sont envoyées en parallèle à un service de suivi afin d’améliorer le traitement sur le long terme. Il est préférable qu’il soit impossible de commander ou de mettre à jour à distance l’appareil à moins de sécuriser totalement la chaîne de fabrication et de mise à jour en utilisant la blockchain pour s’assurer de l’intégrité du software et hardware (décrit dans l'article suivant). Un virus comme Wannacry sur ce type de produits mettrait en jeu des vies humaines.

Customer Empowerment

Avec la baisse des coûts des capteurs et des dispositifs connectés, il devient de plus en plus facile à des consommateurs de vérifier par eux-mêmes la véracité de ce que disent les industriels de l’agroalimentaire.

 

Itri (Industrial Technology Research Institute) propose par exemple un appareil capable de mesurer la quantité de pesticide dans les produits, Stratio permet d’identifier les composants d’un aliment grâce à spectromètre proche infrarouge  (comme l’avait fait auparavant Scio, mais avec un spectre de lumière plus large : de 450 à 1000 nm). Il permet aussi de vérifier l’authenticité de médicaments de distinguer les vrais des faux. Le coût est encore assez élevé (300 $) mais devrait certainement diminuer rapidement.

 

Au CES 2017, la société chinoise Changhong avait même montré un de ses smartphones intégrant le capteur Scio (racheté depuis par Analog Devices).

 

On pourrait même imaginer que les consommateurs puissent remonter des abus à la DGCCRF ce qui accroîtrait fortement son pouvoir de contrôle.

Le risque de « Savoir sans comprendre »

Ces capteurs permettent aussi de réaliser des autodiagnostics sur ses allergies, ses maladies, ses périodes de fertilité et sur ses gènes.  C’est l’activité d’Orig3n qui vous propose pour un prix variant de quarante dollars à un peu moins de deux-cents, si vous êtes un super héros, la qualité des gènes de vos enfants ou de leur potentiel père ou mère.

 

Le représentant de l’entreprise avait fait tous les tests et me montrait ses résultats sur son smartphone. Grâce à cela, il savait qu’il devait continuer à faire du sport car apparemment ses gènes indiquaient qu’il avait du mal à absorber les graisses, inversement, il est allé voir ses parents en leur reprochant de ne pas l’avoir poussé à chanter ou devenir musicien car il avait l’oreille absolue comme le révélaient ses tests.

 

L’anecdote peut prêter à sourire néanmoins il y a un vrai risque avec la propagation de ces tests d’une endogamie rampante (car les gens pourraient être enclins à refuser d’avoir des enfants avec des personnes ayant des « gènes moins bons » que les leurs !), ce qui mènerait vers un eugénisme individuel. Cela pourrait aussi stigmatiser certaines personnes qui auraient des gènes ne correspondant pas  à « la norme sociale ».

 

Cela est d’autant plus dangereux que les gènes ne sont qu’un facteur parmi les trois (comportement et environnement de la personne) qui explique les caractéristiques physiques et intellectuelles d’une personne et que l’expression de gènes peut très fortement varier d’un individu à l’autre, le phénotype n’est pas la  traduction exacte du génotype !

 

Il me semble très difficile d’interdire ces tests (il suffit de racler sa bouche avec un bâtonnet fourni avec le test et de l’envoyer par la poste) , en revanche il me semble crucial de les accompagner par une pédagogie, sur le packaging, dans les réseaux sociaux mais aussi dans les écoles et avec le personnel médical. De nombreuses personnes pourraient craindre de voir tomber une épée de Damoclès et vivre dans la frayeur de tomber malade sans que cela soit toujours pertinent. 

e-Santé dans les déserts médicaux ou la pénibilité au travail

On sait à quel point il est pénible de mesurer la pénibilité au travail ! De plus en plus d’entreprises rentrent sur ce créneau en associant la possibilité de détecter des chutes grâce à des capteurs intégrés par exemple dans les chaussures comme l’a fait Zhor Tech.

 

La cabine médicale  H4D n’était pas présente au CES Las Vegas néanmoins, je souhaitais les présenter aux députés car elle évite de se déplacer de dizaines de kilomètres pour des prédiagnostics médicaux, ce qui réduit l’impact des déserts médicaux et justifie d’autant plus l'investissement dans le Trés Haut Débit. 

 

A ce titre, il est toujours judicieux de partir des besoins des citoyens et des usages pour justifier l’investissement dans la fibre plutôt que déployer la fibre en se posant la question après coup à quoi concrètement elle servira.

Solutions innovantes dans le domaine du handicap

Il n’y a pas un très grand nombre de solutions destinées à aider les personnes handicapées au CES Las Vegas, néanmoins j’en ai identifié quelques-unes donc un fauteuil roulant autonome de Whill, ainsi que solution pour créer des prothèses de main.

 

Les textes digitaux sont aussi un bon moyen de faciliter la vie des non-voyants et mal voyants car  il peut proposer une version audio avec le text to speech mais aussi grâce à du text-to-braille, comme le propose Dot incorporation qui a une montre connectée en braille (qui traduit des alertes en braille) et Braibook qui utilise les e-book et les « traduit » directement en braille (présent au MWC Barcelone et pas au CES ).

 

Le problème est que bon nombre de textes ne sont pas structurés pour être lus, typiquement les emballages de produit. Une idée assez simple à mettre en œuvre serait que les industriels donnent accès à une version numérique de leur emballage ( via un QR code balisé par des points embossés ou mieux par un tag NFC ou par une application spécifique capable d’identifier le produit sur base de son emballage).

 

L’information serait accessible sur une plateforme en suivant toujours la même structure, par exemple nom du produit, nom de la marque, risque d’allergies, ingrédients … pour un produit alimentaire. De manière générale, cette base pourrait servir aussi pour faciliter l’accès aux informations d’un produit, voire réaliser du data mining dessus.

Pari : Un robot champion de Ping-Pong dans 5 ans, à la prochaine législature !

Enfin j'ai terminé sur à Paris, que le champion du monde de ping-pong serait battu par un robot d'ici 5 ans soit à la prochaine législature ;) Comme il y a peu, le champion de go a été battu par l'intelligence artificielle, Alpha Go.

 

Vu la vidéo... C'est à la portée d'un bras robotisé !


Autres éléments sur le CES

Du show-off du show must go on

Au CES, il y a un double mouvement : Le « Push » : Les fabricants de puces et d’infrastructures pousse leurs technologies via des spectacles (show de drones d’Intel), leur omniprésence (Google) en espérant que les clients (ou surtout les fabricants B2C) les adoptent.

 

La réalité du marché montre que le consommateur fait au final la loi, et douche souvent bien des espoirs. Le Pull ainsi est plus pragmatique en partant de vrais besoins clients pour aboutir à des solutions qui y répondent de manière innovante (comme on est au CES !) car à la fin quel que soit les événements (y compris les pannes d’électricité au CES), il faut vendre.

Show Off d’Intel : spectacle de drones et ses voxels (vidéo volumétrique)

Comme chaque année, Intel investit énormément au CES (sans doute moins que Google cette fois-ci), il nous a montré le vol autonome d'un Volocopter et offert un superbe show de drones en indoor (Record battu au Guinness Book of Records nous a indiqué Brian Krzanich, CEO d’Intel) et à l'extérieur près du Bellagio.

 

Il a ici mis aussi beaucoup l'accent sur la vidéo volumétrique, en créant un studio capable d'enregistrer une scène sous toutes ses coutures et permettant à chacun le prendre n'importe quel point de vue, y compris celui du cheval (présenté par Intel lors d'une scène de cow-boys !). L'unité de mesure de cette image en trois dimensions est le voxel qui devrait ringardiser le pixel d'après Intel. Belle course entre fabricants en perspectives ... ;)


Intel a aussi présenté Loihi, son processeur neuromorphique qui a pour objectif d'intégrer des réseaux neuronaux à apprentissage autonome directement dans leur puce. En embarquant l’IA, cela évite de transmettre vers une plateforme Internet.

 

Cette puce succède aux puces GPU (Graphiques), qui sont massivement parallèles. Scortex, une startup française et aussi sur le même créneau sans parler d'Another Brain, startup de Bruno Maisonnier (cf. article) mais qui pour le coup  n'intègre pas des réseaux neuronaux a priori.

 

Enfin, Intel se rapproche du Graal en dévoilant son premier processeur quantique (mais seulement 49 qbits !) qui pourrait de par sa conception dépasser n'importe quel processeur parallèle. Le processeur quantique n'est néanmoins pas pertinent dans tous les cas.  Il l’est surtout pour les opérations qui peuvent être découpées afin de les traiter en parallèle.

 

Cela aura aussi un impact énorme sur la cryptographie et donc la sécurité des transmissions puisqu'il pourrait résoudrait le fameux problème P=NP en résolvant les ex-problèmes NP en un temps polynomial plutôt qu'exponentiel (le cas avec les chips actuels). Si le cryptage type AES-256 bits est suffisamment sûr, c’est parce que le temps nécessaire pour trouver la clé de décryptage est inaccessible (50 super calculateurs capables de contrôler un trillion de trillions (1018) clés AES par seconde nécessiterait en théorie environ 3 × 1051 années pour obtenir la clé de 256 bits, c’est plus rapide de créer un ordinateur quantique !).

Le retour sur investissement d’Intel de tous ces investissements est sans doute faible car la vente de puces en IoT, drones... pour Intel reste encore très réduit (5% du CA mais en croissance de 20%) par rapport aux ventes de puces pour les serveurs et les data center.

 

Sans doute le rachat de MobilEye, startup israélienne dans l'analyse d'image pour les véhicules autonomes et connectés devrait aider.

Autre annonce faite par Intel, ils n’utilisent plus de matériaux provenant de zones de guerre ( Conflict free minerals – extraction minière de tantale, étain, tungstène ou or qui financent des groupes armés de la République démocratique du Congo ou de pays limitrophes – Définition de la U.S. Securities and Exchange Commission (SEC)). C’est un premier pas …

5G

Les fabricants de puces comme Intel et Qualcomm ainsi que les fabricants d'infrastructures réseau comme Huawei ou Ericsson poussent au maximum la 5G (cf. document de l’ARCEP sur les enjeux de la 5G) car c'est évidemment leur intérêt d'inciter les opérateurs télécoms et les fabricants de smartphones à investir dedans.

 

Il y a grosso modo trois types de 5G, eMBB (Enhanced Mobile Broadband qui est utile pour avoir un très haut débit et concurrencer potentiellement le très haut débit fixe), uRLLC (Ultra-reliable and Low Latency Communications : usages : transports en particulier véhicule autonome, santé, sécurité avec l'objectif de réduire les délais de latence et fortement accroître sa fiabilité et robustesse ), mMTC (Massive Machine Type Communications pour l'IoT avec une très faible consommation d'énergie).

 

On devrait commencer à voir les premiers tests en 5G en 2018, pour les deux premiers eMBB, uRLLC, en revanche pour le mMTC (pour IoT), cela ne devrait pas arriver au plus tôt avant 2023. C'est la seule des normes dont le standard n'a pas encore été finalisé. D'autre part, l'intérêt de la 5G par rapport aux autres protocoles LTE-M, Nb-IOT sur les fréquences licenciées et Lora et Sigfox sur les fréquences libres est assez faible (utilisation néanmoins de nouvelles fréquences), et le déploiement spécifique de la 5G pour l'IoT, ne serait pas du tout rentable, car les revenus générés par l'IoT pour un opérateur télécom sont très faibles alors que les coûts de maintenance seraient très élevés (sauf si c'est une antenne mutualisée avec d'autres usages générant des revenus élevés).

TV gigantesques

Toujours dans l'esprit show-off, on voyait des écrans gigantesques joints l'un à l'autre sans jointures, et même des écrans pliables, ce n'est pas demain la veille qu'on les verra dans notre salon mais c'est aussi l'esprit du CES.

Pub pour Altered Carbon de Netflix

Si jamais nous avions un doute sur le fait que le CES Las Vegas, était une formidable messe des nouvelles technologies heureusement que Netflix pour nous rappeler que c’est un gros levier de communication.

 

Il avait un stand nommé Psychotec où il présentait sa nouvelle technologie pour transférer un esprit humain dans n’importe quel autre cerveau et corps et ainsi changer d’âge, de sexe et de toute autre caractéristique possible...

 

Cela pourrait d’ailleurs être une idée pour condamner quelqu’un, lui faire prendre trente d’un coup sans possibilité de retour en arrière, en plus cela permettrait de libérer de la place en prison !

 

 En revanche, sachant qu’il y a une forte probabilité que nous vivions déjà dans une simulation, c’est petit joueur que de changer seulement le corps, pourquoi ne pas changer complètement d’univers :))))

Frenchtech

Dans le monde: France, 9e dans le Bloomberg Innovation Index 

Avant de rentrer sur les innovations technologiques, abordons ce qui a agité le microcosme français : la FrenchTech et la présence massive de startups financées par les régions.

 

La France était en 2017 le 5e pays par le nombre de visiteurs au CES (près de 5000) avec 2,5% des visiteurs (rapport complet ici, la version 2018 n’est pas encore publiée), 7% des exposants étaient français et un tiers des startups à Eurêka Park. 2018 confirme cette tendance. Cela montre une surreprésentation des startups françaises ce qui est à la fois une bonne chose (c'est un aiguillon) mais aussi un risque si on se repose uniquement dessus.

 

Pour rappel, le CTA, organisateur du CES a fait l’International Innovation Scorecard où sur 38 pays la France est 18e et est dans la moyenne de l’UE (l'Union européenne globalement est 16e). Pour nous rassurer l'Allemagne est à la 14e place, Israël 15e, la Corée du Sud 20e (!?!), le Japon 25e ( ?!?), la Chine 26e !

 

Il n'est pas impossible que des chiffres aient été un peu ajustés ;) Il est amusant de voir le Japon être un Innovation Champion et la Chine juste en dessous Innovation Adoptor. Ménagerait-on quelques susceptibilités … ?

Si ça peut nous rassurer le 2018 Bloomberg Innovation Index, donne des résultats très différents, puisque la Corée du Sud passe de 20e à la première position, l’Allemagne de la 14e à la 4e, les US de la 5e à la 11e (qui sort des 10 premières nations - y aurait-il un message subliminal destiné à Trump ? ;) et la France de la 18e à la 9e …

Allez comprendre Charles, derrière ces index, il y a certainement quelques enjeux politiques et commerciaux ;)

 

Pour l'anecdote, les pays représentés par Bloomberg représentent moins de 40% de la population mondiale et seuls 4 pays les plus peuplés (incluant l’UE ! mais exclus l’Inde, le Brésil, le Nigéria..) sont dans cet index. Vraiment représentatif ! Le CTA couvre un espace déjà plus large 4,6 Mds de personnes soit 60% de la population, 7 pays sur 15 les plusieurs peuplés font partie de l’index. C’est déjà beaucoup mieux (même s’ils ont oublié notamment la Russie !).

 

La France n’est pas à la tête mais dans la moyenne plutôt haute dans le domaine de l'innovation dans ces deux classements, ce qui contraste très fortement avec notre présence massive au CES en particulier avec les startups. C'est un peu comme si nous étions excellents en maths, et que nous négligions un peu plus les autres matières même si notre potentiel est élevé. Les efforts actuels dans notre pays nous permettront sans doute d’être aussi bons, voire excellents sur les autres matières …

La course à l’échalote des Régions concernant les Startups

 

Il y a certainement eu une surenchère entre les régions, l'espace occupé par les régions françaises est 3 fois supérieur à celle de Business France qui est censé représenter la French Tech à Eurêka Park. Cela faisait un peu zoo de logos, comme chaque métropole French Tech a son animal emblème. On risque une nouvelle dispersion et confusion dans l'image de la FrenchTech à l'international.

 

Mais restons confiant, l'année dernière il y avait un grand nombre de grands groupes français qui monopolisaient une partie de Eurêka Park, ça s’est réduit par rapport à l'année dernière (Air Liquide n'y est plus par exemple). 

Un des grands débats sur la présence française est le surinvestissement des régions dans la promotion des startups à Eurêka Park avec le risque d’un faible retour pour les startups participantes dont le CES n'est pas le coeur de cible.

 

 

Olivier Ezratty l'explique bien dans son rapport, il y a un accroissement d'erreurs de casting (le plus flagrant étant des entreprises qui proposent des services ou des plateformes qui n'ont rien à voir avec des produits électroniques. Petite illustration : cette startup certainement méritante qui propose de poster n'importe quel projet sur sa plateforme afin de former des équipes.


Pragmatisme des grands groupes

De l'autre côté, de nombreux acteurs sont devenus nettement plus pragmatiques. Plutôt que de pousser des technologies, ils partent des besoins clients pour apporter des solutions concrètes.

 

L'Oréal l’illustre bien passant de la brosse à cheveux connectée (avec Kérastase) en partenariat avec feu Withings, qui n'a pas dû passer le cap du prototype, à la mini-coccinelle, capteur d'UV sans batterie (avec La Roche-Posay), que l'on peut placer sur un ongle pour mesurer son exposition aux UVA et UVB.

 

Il y a eu un réel travail de miniaturisation, de design pour que cette petite capsule réponde à une problématique simple la surexposition au soleil, tout en en étant suffisamment petite et en évitant les marques de bronzage !

 

Dans le domaine du bien-être, Neutrogena filiale de Johnson & Johnson avait aussi créé sa caméra add-on au smartphone pour scanner la peau néanmoins c'est nettement moins innovateur car l'année dernière au CES, on en trouvait par brouettes.

Michelin a présenté son vélo e-Drive en association avec Wayscral, un fabricant de vélo et Cosmo Connected qui a imbriqué un feu arrière dans son dispositif électrique.

 

Michelin a utilisé une technique toute simple et très maline pour rendre un vélo électrique mais il fallait y penser.

 

Ses pneus (brevetés évidemment) présentent des petites stries qui sont entraînées par une dynamo « inversée » elle-même alimentée par la batterie électrique. Bien vu car Michelin fait le lien direct entre le pneu et l'électrification du vélo ce qui n'était pas évident à première vue.

 

Son système réduit aussi le poids de 3 kg par rapport à un vélo électrique traditionnel pour un coût total de 450€ HT (disponible en 2019).  Le premier prix pour un vélo Wayscral est 750€ TTC aujourd’hui.


Startups et Grands groupes – Partenariats utilisant des licences connues

Une des grosses problématiques des startups est évidemment le modèle économique en particulier dans le domaine des objets connectés où les coûts récurrents comme la mise à jour des applications, l'hébergement le support, font fondre comme neige au soleil leurs marges déjà faibles. C'est pourquoi elles sont de plus en plus à s'associer avec de grands groupes sous forme de marque blanche ou marque grise.

 

Comme je l’avais indiqué auparavant, Sensorwake s'est associé avec Lexibook qui possède une licence Disney et Universal pour créer et vendre des réveils matin pour enfants Reine des Neiges et Bananas.

 

C'est un très bon levier commercial pour Sensorwake qui aurait été incapable d’obtenir cette licence directement et pour Lexibook qui lui permet de présenter des produits innovants. Même si c'est écrit en tout petit, Sensorwake parvient néanmoins à garder sa marque sous celle de Lexibook sur ses produits. D'autres startups devraient réfléchir à ce mode de commercialisation qui peut générer de très importants volumes.

 

Des PME et ETI peuvent aussi y trouver leur compte comme un premier moyen d’étendre leur gamme et d’innover à coûts réduits puisque le produit est déjà développé.

Netatmo réalise depuis longtemps ce type de partenariat B2B après Engie, Legrand et Velux, il poursuit avec le groupe Muller sur les chaudières.

 

Enfin j'ai vu un certain nombre de startups qui n'étaient pas venus l’année dernière et qui reviennent au CES après deux ou trois ans après leur première apparition une fois leur produit commercialisable, c'est le cas de My Brain Technologies avec son casque Melomind (présent en 2015 et 2016) ou Romy (présent en 2016) qui a un appareil réalisant des cosmétiques sur-mesure.

PME ETI

J'ai vu aussi l'apparition d'entreprises leaders de leur domaine mais peu connues du grand public qui exposent au CES. Celle qui m'a le plus impressionné est CWD Sellier (étude française où ils sont nommés) qui fabrique des selles de chevaux depuis 1998 en intégrant des innovations comme les matériaux composites.

 

CWD a depuis quatre ans, développé iJump, une selle connectée sur base d’une selle déjà existante, tout en intégrant des capteurs permettant de mesurer la performance du cheval. Pour une PME, ce n’est pas encore commun, le soutien de la BPI a certainement été essentiel.

Surys qui est leader dans la fabrication de films holographiques destinés aux billets de banque et au passeport a aussi présenté sa technologie pour servir de moyen d'authentification de produits de luxe.

 

L'intérêt par rapport au QR Code est que l’ hologramme est  infalsifiable et qu’il coûte beaucoup moins cher qu'un tag NFC. Néanmoins l'inconvénient est qu'il est nécessaire de passer par une application sur le smartphone pour s'assurer de l'authentification la bouteille. L'intérêt est surtout pour des personnes qui contrôlent les bouteilles de manière régulière ou sur des marchés où il y a de nombreuses contrefaçons en Asie notamment. Le NFC est certes plus cher (0,1 à 0,2€ l’unité), néanmoins, on n’a plus besoin d'avoir une application et elle est compatible avec les smartphones Android et maintenant avec les nouveaux iPhone 8 et X.

 

J'ai demandé s’ils allaient s’étendre dans le domaine du NFC afin d'offrir des solutions complètes d'authentification et de relation avec le client en complément avec leurs solutions actuelles et ce n'est pas du tout prévu. Cela pose une question très intéressante lorsqu’on a développé une technologie unique et différenciante et qu’on la développe sur de nouveaux marchés.  Vaut-il mieux rester sur celle-ci ou étendre son expertise sur de nouvelles technologies pour répondre complètement au besoin ? En général, ce sont souvent deux sociétés expertes qui s’associent, fusionnent ou se rachètent ce qui évite de réinventer la roue !

Conclusion

Les innovations au CES Las Vegas peuvent paraître au prime abord comme des gadgets, en réalité si on gratte un peu, au-delà du produit, on recherche les tendances, les opportunités, les problématiques, de très nombreuses discussions apparaissent qui peuvent aboutir à des solutions concrètes pour tous, à mieux anticiper les impacts des innovations et intégrer cela dans la loi.

 

Le désenclavement des territoires, la protection des données personnelles, l’accès à tous aux services rendus possibles grâce au numérique (e-Santé, e-mobilité, e-éducation…)  font partie des nombreux sujets que nous avons débattus avec les députés

 

C'était passionnant car il y avait un réel intérêt pour les utiliser au bénéfice des citoyens.:)

 

Si vous souhaitez une présentation de ce type de solutions (ou sur les innovations dans l'IoT, robots et IA) et de leurs impacts dans vos organisations et entreprises, n’hésitez pas à me contacter :)

 

Dimitri Carbonnelle - Contact

Fondateur de Livosphere 

Conseil en IoT, IA et Robots collaboratifs / Cobots

Intelligence artificielle IA et Blackbox, Pouvoir, IA inclusive, où investir, libérer les données et GDPR, RGPD, stratégie industrielle IA à l'AI Night - Start

Le jeudi 8/2 a eu lieu l’AI Night au Palais de Tokyo, organisé par Artefact, France Is AI et France Digitale.

 

Comme le dit très bien, Damien Gromier, maître de cérémonie de la soirée, l'objectif est de réunir l'ensemble de l'écosystème intéressé par l’IA en France afin d'en faire la locomotive européenne de l’intelligence artificielle.

 

Oui, il y avait des startups qui ne font pas de l’AI Washing. Oui, il y avait de speakers sachant parler de l'IA, de leurs impacts mais surtout l'AI Night ouvre le débat indispensable sur ce que nous voulons faire de l'IA dans nos sociétés.

 

En quelques mots :

  • Est-ce que l’IA = Black box et IA = Pouvoir ou pas ? IA compatible avec la GDPR ? Doit-on rendre l’IA inclusive ?
  • Combien doit-on investir dans l’IA (30 ou 300 Md €) et surtout pourquoi faire ? Et Pourquoi ne pas mieux rémunérer les chercheurs de l'INRIA et dans l'IA ?
  • Pour contrer les GAFA, ne devrait-on pas avoir une stratégie industrielle de l’IA différenciante par rapport aux GAFA et BATX et européenne ? Une IA qui nécessite peu de données traitant localement les données plutôt qu’une IA plateforme ?
  • Comment libérer les données, fuel de l’IA en préservant la vie privée ?

Avec les interventions notamment de Laurent Alexandre, Moojan Asghari (Women in AI), Mounir Mahjoubi, Isabelle Ryl (INRIA) et Bruno Maisonnier (Another Brain)

Les questions en débat

L'AI Night ouvre le débat sur de nombreuses questions :

 

Doit-on accepter que l'IA soit une Black Box et l'instrument des puissants comme l’affirme Laurent Alexandre ou au contraire comme le défend Mounir Majhoubi, tout faire pour que les femmes, les outsiders, les élèves se joignent au débat et en deviennent acteurs car l'IA sans inclusion ne serait que ruine de notre société ? Aujourd’hui, l’IA est trop encore « Digital Man Centric ». Ce sera un des enjeux des prochaines AI Night que de diversifier encore plus les speakers et l’audience.

 

Doit-on investir 300 Md € dans le deep learning pour se battre contre les GAFA, chiffre minimum d'après Laurent Alexandre (Vs 30 Md€ selon Cédric Villani) ou la bataille est perdue et il faut investir dans d'autres formes d'IA, explicables et qui nécessitent peu de données comme le préconise Bruno Maisonnier en mettant en avant sa startup Another Brain (puces d’IA n’utilisant pas des réseaux neuronaux).

 

Quelle stratégie IA devons-nous adopter ?

Aujourd'hui il y a beaucoup d'initiatives dans le domaine de l'IA, qui sont dispersées avec des visions disparates (car nous sommes au début de son explosion). Au-delà de ces discussions, l'enjeu est d'avoir une vraie stratégie industrielle (partenariats, standardisation des protocoles, structures de données, harmonisation législative) non seulement sur le plan français mais surtout sur le plan européen pour faire face aux plates-formes de sociétés américaines et chinoises. 

 

La GDPR (RGPD / Règlement européen sur la protection des données) est à la fois un frein au développement de l'IA car il réduit la quantité de données utilisables néanmoins il peut être aussi un fort levier sur deux plans :

  • cela montre que les Etats européens sont capables d'avoir une vision cohérente sur le sujet des données personnelles et cette démarche pourrait être utilisée sur d'autres aspects de la réglementation ou de projets européens (tant qu'elle ne bride pas les initiatives et entrepreneurs !)
  • si les entreprises européennes développent des technologies innovantes qui respectent la GDPR (ex: en utilisant beaucoup moins de données avec l'IA formelle ou en embarquant l'IA dans des puces évitant de les transmettre sur une plateforme et donc d'être soumises à la GDPR)
  • et que la GDPR et GDPR-like deviennent un standard mondial (possible s'il y a un Techlash de la part des individus et surtout des Etats pour réduire la puissance des GAFA qui agrègent trop de données)

Un angle d’attaque serait que l’Europe ait une stratégie pour développer des technologies capables de réaliser de l’IA localement avec très peu de données (GDPR Compliant) Vs une IA engouffrant des quantités de données dans le cloud (IA des GAFA qui pose des problèmes de « privacy » et des risques de TechLash) à l’image du small data Vs big data. C’est une stratégie différenciante plus pertinente que d’adopter la même stratégie que les GAFA en les prenant de front.

  

Le plan proposé par Cédric Villani à ce sujet qui devrait sortir en mars donnera le ton et la vision souhaitée par la France. Sa présentation a été retardée afin d'être concomitante avec la présentation de la stratégie du gouvernement sur l'IA. La stratégie européenne devrait être présentée deux semaines après en coordination avec la stratégie française ce qui est de bon augure (cf interventions sur LCP notamment de Cédric Villani et Laurent Alexandre)

 

Libérer les données et la vie privée

Faut-il libérer les données de santé ou les protéger pour garder le peu de vie privée qui nous reste ? Est-ce possible d'avoir les deux en même temps ? (oui en agrégeant les données, en utilisant des IA capables de travailler sur des données cryptées et surtout si on explique pourquoi et comment on utilise les données et comment on respecte la vie privée en anonymisant ces données ).

 

Débattre de Laurent Alexandre dans les écoles car nous en aurons des millions dans nos smartphones ...

Toutes ces questions et une foultitude d'autres, nous devons en débattre de manière constructive, pas uniquement entre nous dans le monde du digital où les hommes sont d'une écrasante majorité (alors que les femmes sont bien mieux armées que les hommes face à l'IA (cf. ce post FB).

 

A ce titre, une idée complètement iconoclaste serait de diffuser des interventions de Laurent Alexandre dans les écoles, collèges, lycées et enseignement supérieur et aussi dans les entreprises et organisations publiques pour débattre de ses idées.

 

Laurent est l'incarnation humaine de l'intelligence artificielle générale de demain, il a une aura liée à son parcours (chirurgien et urologue, diplômé de l’IEP Paris, d'HEC et de l'ENA), à son charisme et bagou qui nous fait facilement tomber dans ce fameux biais cognitif, le biais d’autorité. Peut-être qu’à l’occasion, tombe-t-il dans le « Curse of knowledge » ;)

 

Il peut en quelques secondes basculer des analyses les plus pertinentes aux conclusions les plus spécieuses bâties sur des raisonnements certes bien ficelés parfois séduisants mais faux (cf. mon point de vue ci-dessous et je reste ouvert aussi à la critique !).

 

Regarder ses interventions, nous oblige à apprendre à séparer le bon grain de l'ivraie, à avoir l’esprit critique et le maintenir en éveil. En discuter, en débattre, nous permet de l’affûter.

 

Aujourd'hui, nous avons un seul Laurent Alexandre, demain nous en aurons des millions dans nos smartphones, nos voitures, nos maisons, nos objets capables de nous donner les meilleurs conseils et nous sortir les plus grandes inepties (potentiellement crédibles !).  Nous devons apprendre à savoir faire le tri et ce sera loin d'être évident car à l'image du GPS, nous aurons juste envie de nous reposer dessus quitte à perdre le sens de l'orientation. L'IA ne doit pas devenir une pensée magique sortie d’une black box, elle ne doit pas devenir un nouveau dieu capable de nous mener du jour au lendemain d’une Terre tant promise au royaume d'Hadès ou au terme d’une lente catabase.

 

Dernier point, l'IA fonctionne grâce à l'énergie, une coupure d'électricité et vous perdez l'IA, d'où la nécessité de ne pas se reposer uniquement dessus. Avec les catastrophes naturelles, ce type de situation risque de plus en plus d'arriver. C'est aussi une fragilité pour ceux qui croit prendre le pouvoir uniquement avec l'IA. 

 

Mais cela ne dépend que de nous... 

Vision globale

Startups

14 startups présentaient des cas d'usage de l’IA dans le domaine de

en plus de Startup Inside (développement de projets IA).

 

 


L'autre intérêt de cette soirée est celui des conférences et panels, le rythme, la durée, les conférences étaient bons ainsi que le pitch des start-up à la fin même si 30 minutes de moins auraient été bienvenues. À quelques exceptions près, les interventions étaient bonnes, voire excellentes. Il y a évidemment des partis pris et des personnes qui prêchent pour leur paroisse, pardon leur IA !, néanmoins le melting pot qui en résulte est très intéressant de par la variété des opinions comme j’en ai parlé en introduction.

 

 

Bien sûr, les objectifs des conférences étaient de montrer l'intérêt de l'IA,  de manière générale et sur des secteurs en particulier comme la santé, la mobilité, le marketing avec des intervenants multiples et variés (GoogleINRIAWomen in AIMalakoff MédéricRATPValeoEasy MileCardiologs et bien sûr Mounir Mahjoubi).

IA B2B : Automatisation, optimisation, innovation

Vincent Luciani (Artefact) nous expliquait ses trois axes de développement de l’IA en B2B :

  • l'automatisation (moins de tâches répétitives),
  • l'optimisation (prendre de bonnes décisions surtout si nous faisons face à beaucoup de données hétérogènes) et
  • l'innovation (découvrir de nouveaux champs).

Il est essentiel de commencer dès maintenant car il y a une prime aux early adopters. Il faut compléter par le fait que les changements organisationnels et culturels sont majeurs, plus tôt on s'y prépare, moins la pente sera raide.

 

Il sera de plus en plus difficile de faire la distinction entre les « fake news » et les « true lies » (cf fausse vidéo de Barack Obama). Cette confusion était l’un des 3 mots  (en plus d'inflexion et de confrontation) qui résumait mes prédictions pour 2018 et après : entre ce qui est vrai et faux, ce qui est humain ou pas,  vivant ou artificiel, créations humaines ou  d’IA, réel ou virtuel, nous allons perdre beaucoup de nos repères fondamentaux avec les nouvelles technologies comme l'IA, la VR/AR, les nanotechnologies ... et devrons apprendre à en trouver de nouveaux.

Retail

En retail, Guillaume de Roquemaurel précise aussi qu'on ne peut plus présenter sur un site e-commerce ou en rayon des centaines de marques sans distinction et qu’il est essentiel de personnaliser l'expérience en fonction de l'utilisateur.

 

Autre changement, Google prévoit que 50 % de ses recherches devraient passer par la voix d'ici 3 ans ce qui change fondamentalement la donne. Autant on accepte de voir des dizaines de résultats sur un écran, avec un assistant vocal, nous ne voulons qu’une réponse et si elle n'est pas pertinente, on l'abandonnera vite. Notre exigence est beaucoup plus élevée.

 

Pour l’anecdote, j’en avais parlé dans un petit ouvrage « Objets communicants au service des services » (cf. fin de la page 8, à ce moment-là, le terme objet connecté n'était pas encore consacré !) que j’avais écrit en septembre 2009 et de la nécessité d’intégrer une couche d’intelligence au-dessus ! Comme quoi, cela prend plus de temps qu’on ne croit …

Mobilité

Dans la mobilité, Valeo explique que la distinction entre le transport individuel et collectif se brouille avec le covoiturage le free-riding... 

 

Au CES Las Vegas, j’avais vu que pour les constructeurs automobiles, le véhicule autonome était conçu dès le départ pour être partagé, ce qui paraît cohérent. Utiliser un véhicule autonome moins de 10% du temps par moins de 1,5 personne (moyenne actuelle) serait un non-sens. Le modèle économique de partage permet de fortement réduire son coût total (avec les revenus générés notamment) même si son coût initial sera beaucoup élevé que le coût actuel d’un véhicule non-autonome.

 

La conduite assistée est un préambule aux véhicules autonomes, Valeo a été pragmatique et a simplement demandé aux conducteurs ce qui les ennuyait le plus dans la conduite : se garer en ville les embouteillages et les autoroutes ennuyeuses. Ils en ont tiré leurs trois axes d’innovations  et des solutions dans chaque cas.

Easymile serait la seule entreprise au monde avec Navya à commercialiser des navettes autonomes sans volant ni pédales.

 

Il est d'ailleurs possible de les tester dans le Bois de Vincennes sur un trajet déterminé et une voie dédiée. Le développement de ces véhicules se fera en parallèle et de manière complémentaire aux véhicules autonomes ayant un volant qui peuvent plus facilement être utilisés en route ouverte car un conducteur peut reprendre la main si nécessaire (ex : Rouen Normandy Autonomous Lab avec Transdev et Renault Zoé).

Cybersécurité

La cybersécurité a été abordée par Christopher Muffat de Dathena mais j'ai été déçu car j'étais persuadé qu'il nous parlerait de Generative Adversarial Networks (cf article sur GAN et sur les armes autonomes et la cyberguerre) pour contrer les cyberattaques et par exemple  les utiliser lors de Bug Bounty pour détecter des failles de sécurité. Il n’en a rien été. 

Fin du code

Jean-Philippe Desbiolles (IBM Watson) indique qu’il y a trois usages qui se développent très fortement pour Watson:

  • une nouvelle expérience client (personnalisation des services/produits grâce à l’IA et les données collectées),
  • l’Homme augmenté (santé et prévention en particulier),
  • le respect de la conformité / de la réglementation

Il prédit la fin du code, le passage de la programmation à l’apprentissage, du déterminisme à l’adaptation du savoir, savoir-faire et du savoir-être.

 

 

Nous verrons de moins de codeurs et de plus en plus de développeurs voire de dompteurs d’IA (IA qui sera en charge de créer le code). A ce titre, autant il est nécessaire de savoir comment coder, autant il ne faut pas créer des armées de codeurs à la sortie des écoles car ils seront pour la plupart sans emploi dans une dizaine d’années (cf. article sur l’IA et l'éducation).

 

Il cite aussi l’excellente intervention de Jack Ma au forum de Davos sur la nécessité de changer notre manière d’enseigner en développant les « soft skills » (« Values, believing, independent thinking, teamwork, care for others » :  avoir des valeurs, croire en quelque chose / quelqu’un, avoir un esprit critique, un esprit d’équipe, s’occuper des autres) sinon nous aurons de vrais problèmes dans 30 ans.

 

Il préconise de développer toutes les activités qui nous différenciera des machines pendant encore longtemps : sports, musique, peinture, art de manière générale.

 

 


Même s’il faut développer ses activités, il ne faut pas cesser d’apprendre les matières « dures » : maths, histoire, géographie, français et philo, SVT, physique/chimie … car ce sont des fondamentaux, des références qui nous seront indispensables pour bâtir notre créativité, créer des liens avec les autres et tout simplement pour ne pas être tout de suite larguées par les machines !

 

D'autre part, en plus d'apprendre, il est indispensable d'apprendre à apprendre, c'est dans ce sens que Cédric Villani préconise d'aller sur son rapport pour favoriser l'apprentissage des mathématiques. 

IA dans le domaine juridique et légal - respect de la conformité 

L’homme a été et est toujours prolifique pour créer des lois, règlements, contrats…

 

L’IA pourra proposer des solutions qui y répondent car il aura tout ingurgité et sera capable de filtrer les solutions en fonction du respect ou non des contraintes légales, contractuelles...).  L’IA pourrait certainement nous aider aussi à simplifier les lois et règlements en montrant toutes les aberrations, archaïsmes, contradictions, doublons que nous y avons laissés recouverts d’une grosse couche de poussière que personne n’a osé nettoyer vraiment depuis le code napoléonien. Cela pourrait être un challenge intéressant à relever pour des fournisseurs de solutions IA (en particulier s'ils sont dans le domaine juridique).

  

 

Pour l'anecdote, l'IA CaseCruncher a battu lors d'une compétition 100 des meilleurs avocats de Londres. Supervisée par deux juges, CaseCruncher Alpha et les avocats ont reçu les faits de bases concernant des centaines de cas de ventes abusives de PPI (Payment protection insurance, assurance emprunteur). Les deux entités étaient par la suite invitées à définir si l’Ombudsman financier autoriserait une réclamation ou non. Suite à la soumission des 775 prédictions, l’IA a finalement remporté la bataille avec un taux d’exactitude de 86,3% contre 66,3% pour les avocats. L'IA n'a pas pour vocation de remplacer les avocats mais plutôt l'assister, le guider dans ses choix.

Le débat !

Rentrons maintenant dans le vif du sujet sur des thèmes qui sont particulièrement polémiques dans domaine de l'intelligence artificielle :

  • L’ investissement dans l’IA : Combien ? Où ?  N'est-ce pas trop tard ?
  • Qu'est-ce que l'intelligence (est-ce l’attribut du pouvoir , et une blackbox comme dit Laurent Alexandre) ? Et les impacts de l'IA sur notre société .
  • Pourquoi l'intelligence artificielle doit-elle devenir un facteur d'inclusion et non d'exclusion dans nos sociétés pour Mounir Majhoubi ?
  • La libération des données personnelles versus notre vie privée

L’ Investissement dans l’IA : Combien ?  Où ?  n'est-ce pas trop tard ?

Progrès réels

Laurent Alexandre a été particulièrement beau joueur en acceptant pour la première fois d'avoir un discours positif sur l'intelligence artificielle à la demande de Damien. C'était un moment particulièrement émouvant  ;) après avoir entendu un certain nombre de discours catastrophistes sur le devenir de l'homme face à l'intelligence artificielle qui ont néanmoins le mérite de nous réveiller et de nous bousculer.

 

Laurent égrène les progrès réalisés par la France, par son gouvernement, son administration en matière de compréhension de l'intelligence artificielle et de ses impacts, en termes d'action pour favoriser son développement.

 

Fini les investissements dans les canards boiteux à la sauce Plan Calcul, il rend hommage aussi à Mounir Mahjoubi d'avoir essayé de faire comprendre aux sénateurs ce qu’est le deep learning même si un certain nombre d’entre eux n’auront sans doute pas le temps de voir ce qu’est l'Intelligence Artificielle Générale ou AGI (53,7% ont plus de 60 ans or l’AGI devrait arriver dans 30 ans environ, - néanmoins, l’âge moyen des sénateurs a baissé de 5 ans entre 2014 et 2017 pour être à 61 ans aujourd’hui :). Ils se sentent peut-être moins concernés. 

Salaires des chercheurs à l’INRIA

Laurent demande à ce que les chercheurs à l'INRIA (j’ai vérifié … cf. grille de salaire à l’INRIA – le maximum étant de 6000 € / mois pour un directeur de recherche de classe exceptionnelle, un chercheur peut gagner au maximum 3761 € brut /mois, selon Glassdoor sur un petit échantillon de chercheurs leur salaire moyen serait de 2600€/mois ce qui semble cohérent) soient payés plus que deux fois le salaire d'une femme de ménage chez AccorHotel (selon Indeed, le salaire moyen d’une femme de ménage est d’environ 1600€ / mois).

 

Laurent dit donc vrai, Isabelle Ryl (directrice de l’INRIA) confirme ses propos en regrettant amèrement de voir ses chercheurs partir en raison de la faiblesse des salaires au profit de nombreux GAFA.

 

 

Fidèle au credo qu'il avait quand il était à la tête d'Aldebaran, Bruno Maisonnier est encore plus affirmatif, trouve hérétique de laisser les GAFA installer en France des laboratoires d’intelligence artificielle où tous nos chercheurs sont aspirés et qu’il faut investir dans les entreprises françaises.

 

C’est sans doute un moindre mal que de les voir tous partir de France. D'une part, on aura beaucoup plus de chance de les revoir par la suite travailler sur des sujets qui ont un impact direct sur la société française ou européenne que s'ils partaient aux États-Unis (en particulier si on relève les salaires !), d'autre part leur expérience sera enrichie par toute la connaissance qu'ils ont eue chez ces entreprises.

 

En revanche, il est évident qu'il est indispensable de relever les salaires des chercheurs notamment dans le domaine de l'intelligence artificielle. La rémunération n’est pas leur première motivation dans bien des cas néanmoins si l'écart est trop grand et surtout s’ils tirent le diable par la queue tous les mois en raison de leur salaire, on peut comprendre qu'ils aillent voir ailleurs.

 

 

En valorisant mieux ces chercheurs, les entreprises et organisations françaises et notre pays en bénéficieront bien au-delà des coûts actuels.

Investissement national dans l’IA

Évidemment, Laurent ne saurait discourir sans manier le juron et l'hyperbole comme autrefois le scalpel en fustigeant les autorités européennes d'être ... trop mou (je vous laisse le soin de deviner ses termes exacts ;)

 

Il est à 100 % d'accord avec Cédric Villani concernant la stratégie sur l’IA a une petite exception près, ce n'est pas 30 milliards d'euros qu'il faudrait consacrer à l'intelligence artificielle mais 300 milliards, selon lui.

 

C'est, comme si au début du siècle, on préconisait d'investir la quasi-totalité des fonds sur les infrastructures ferroviaires en oubliant les routes et les avions. Oui il faut investir massivement, mais avec discernement et pas mettre tous ses œufs dans le même panier, L'IA ne représente pas toute la recherche ni toute la société.

 

Plus qu'une surenchère aux montants, il est indispensable d'avoir une stratégie industrielle. Plus que de partir d'un chiffre 300 ou 30 Md €, il est beaucoup plus judicieux de partir de la stratégie à adopter, d'en calculer le coût global et en fonction de prioriser pour arriver à un budget acceptable. Nous verrons mais certainement la stratégie préconisée par Cédric Villani dans son rapport sur l'IA.

Bruno Maisonnier dit même que ce montant d’investissement est absurde (ou un terme similaire). Il ne sert à rien d'investir des sommes phénoménales en deep learning car de toutes les manières, il est trop tard c'est foutu, car les GAFA ont déjà gagné cette guerre.

 

En revanche, il faut investir dans une IA explicable, nécessitant peu de données, comme la puce qu’il est en train de développer dans sa startup AnotherBrain ;)

 

J'ai une vision plus tempérée. D'une part, laisser complètement le champ libre dans le deep learning aux Américains et Chinois serait une erreur fondamentale, on ne sait jamais comment la roue peut tourner, les innovations majeures peuvent tout à fait provenir de la France dans ce domaine (rappelons notamment les contributions de Yann Le Cun, aujourd’hui chez Facebook à ce sujet). Enfin le deep learning (décrit en détail ici) pose un certain nombre de problématiques comme sa non-explicabilité (hors si on en fait la rétro-ingénierie cf. article), une grande quantité de données nécessaire, les biais de confirmation. La recherche dans ce domaine est essentielle pour bien les comprendre et aussi pour les réduire.

Another Brain - Puce de 3ème génération d'IA - Explicable et nécessitant peu de données

Tout le monde se pose la question : Qu’a de spécial la puce de Bruno ?  Elle est de troisième génération !  Bruno fait référence aux trois vagues d'IA décrits par la Darpa dans la vidéo suivante.

 

La première vague est une IA créée à partir de la main/cerveau de l'Homme (Handcrafted Knowledge). Ce sont en général des algorithmes (sans apprentissage).

 

La deuxième vague est une IA supervisée où on va entraîner sur base de très nombreux cas, un réseau neuronal par exemple dans un cadre pré-déterminé. Ils sont bons pour percevoir/classifier et apprendre mais peu efficaces pour raisonner et conceptualiser (cf article).

 

 


La troisième vague est capable de s'adapter au contexte et de construire une représentation (ontologie) du monde. Il a surtout la capacité d'expliquer un raisonnement (à la différence d'un réseau neuronal) avec très peu de données. En revanche, il n'est pas précisé la nature de cette 3ème IA.

 

Sur le plan technologique, la première vague de puces est fondée sur des processeurs usuels,  la deuxième vague utilise des processeurs GPU (multi-processeurs) et aujourd'hui des processeurs neuromorphiques qui sont en plein boom chez Intel et Nvidia qui permettent de simuler des réseaux neuronaux sur des puces de manière plus efficace que les cartes GPU actuelles.

 

Évidemment, j'ai questionné Bruno sur la nature de sa nouvelle intelligence artificielle et évidemment il ne m'a pas répondu. Néanmoins il nous a donné les indices en précisant que son intelligence artificielle était explicable et nécessite peu de données (caractéristique de la 3ème vague). A moins de créer un nouveau champ mathématique, il est probable que Bruno s'appuie sur l'IA symbolique qui nécessite beaucoup moins de données et est explicable.

 

Plusieurs candidats sont possibles, mais Bruno nous donne un coup de main, puisqu’il précise dans un article des Echos,  qu’il s’inspire aussi « directement du fonctionnement élémentaire du cortex cérébral pour construire une IA forte », or selon pas mal d’études, l’IA qui reproduirait le mieux le fonctionnement du cerveau humain (en utilisant peu de données et en étant explicable) sont les réseaux bayésiens. Il a dû aussi utiliser des techniques qu’il a utilisées pour la marche de Nao lorsqu’il se redresse une fois tombé.

 

L’intérêt de la puce par rapport à une plateforme est de permettre de réduire les délais de latence, d’éviter les problèmes liés au GDPR en ne transmettant pas de données et en traitant tout en local.

 

A mon avis, la puce doit générer et tester un grand nombre de réseaux bayésiens sous forme d’arbres de décisions. On parle aussi de random forest, je dirai plutôt des smarts forests. J’ai parlé de cette technique pour rendre explicables des résultats de réseaux neuronaux mais on peut l’utiliser en direct sur des données brutes sans avoir des résultats préalables par des réseaux neuronaux. D’autre part, la puce doit avoir un système d’auto-apprentissage qui permet soit d’ajuster les poids sur chaque nœud de l’arbre de décision soit de générer de nouveaux arbres de décision. En revanche, elle doit être capable de fonctionner avec très peu d'éléments de départ. Un peu comme un poulian qui apprend à trotter. Réponse dans 18 mois ...

 

 

Quelque soit la méthode, c’est une très bonne approche car malgré ce que dit Laurent Alexandre l’IA n’est pas nécessairement une black box, au contraire c'est une période transitoire.

IA et Black Box

Laurent Alexandre fait un amalgame très gênant entre IA et deep learning qui effectivement n’est pas explicable. Il fait fi de cette IA de 3ème génération qui repose notamment sur l’IA symbolique qui est tout à fait explicable.

 

Deuxième point, Laurent dit qu’il faut accepter que l’IA ne soit pas explicable, et que les sénateurs commencent à le comprendre. Je m‘insurge contre cette position (Eh oui, ça m’arrive ;). Qu’on ne puisse expliquer pourquoi un réseau neuronal sait faire la distinction entre un chien et un chat dans une image n'est pas un problème.

 

En revanche, cela en est un dès lors que l'intelligence artificielle devient décisionnelle. Refuser un prêt, un emploi à quelqu’un voire le condamner à 20 ans de prison, sans lui expliquer pourquoi pose un petit souci (cf. vidéo) ! 

GDPR / RGPD - Protection des données incompatible avec Deep Learning

Ce n’est pas un caprice de député européen si la RGPD (GDPR en anglais) oblige à pouvoir expliquer à un consommateur la raison d’un refus dans le cadre d’un traitement automatisé.

 

Cela signifie d'ailleurs que toutes les techniques de profiling, de scoring… fondées sur du deep learning sont interdites par la RGPD (on peut l’utiliser a priori pour faire un pre-scoring mais la décision d’acceptation ou de refus doit être réalisée par un algorithme explicable ou par un être humain) – Lien direct vers l’article du RGPD (article 63)

 

« En conséquence, toute personne concernée devrait avoir le droit de connaître et de se faire communiquer, en particulier, les finalités du traitement des données à caractère personnel, si possible la durée du traitement de ces données à caractère personnel, l'identité des destinataires de ces données à caractère personnel, la logique qui sous-tend leur éventuel traitement automatisé et les conséquences que ce traitement pourrait avoir, au moins en cas de profilage. »

 

Accepter que l’IA de manière générale soit inexplicable est selon moi le pire des messages à faire passer. C’est la transformer en parole d'évangile. Ce qui fait progresser l'homme, c'est sa capacité à expliquer, à comprendre, à réfuter ses croyances initiales et à bâtir ses propres théories. Le lever du soleil, le mouvement des étoiles et la naissance d'un enfant furent il y a des milliers d’années des boites noires pour les êtres humains. Voulons-nous retourner dans cet obscurantisme naïf en croyant aveuglément ce que nous dira une AGI (intelligence artificielle générale) ou une ASI (super-intelligence artificielle) ?

 

Il faut à tout prix éviter que l'intelligence artificielle devienne magique et se transforme en religion, lui accorder le droit de devenir inexplicable est un pas dans cette direction.

 

Bien sûr, on ne va pas essayer de rendre explicable le deep learning, mais son utilisation doit être cadrée, elle peut contribuer à la prise de décision sans être le décisionnaire final qui doit revenir à un humain ou une IA compréhensible par un être humain. 

Qu’est-ce-que l’intelligence et par extension l’IA ? IA <> Pouvoir !

Laurent Alexandre a balayé d’un revers de main la définition de son prédécesseur sur l’intelligence en disant que l'intelligence est la capacité de prendre le pouvoir sur autrui et rien d’autre. Pour moi, c’est une ineptie confirmée par l’histoire humaine.

 

Est-ce-que les nombreuses guerres gagnées par les Spartes contre les Athéniens sont dues à la supériorité de leur intelligence ? Non

 

Est-ce-que les peuples barbares ont vaincu les Romains grâce à la supériorité de leur intelligence ? Non

 

Est-ce-que la Révolution française résulte de l’intelligence accrue des bourgeois puis du peuple français sur la noblesse et le clergé ? Non

 

On pourrait multiplier les exemples, sans même évoquer le cas de la Seconde Guerre mondiale …

 

Ce n’est pas parce que l’on est plus intelligent qu’on prend le pouvoir, ce n’est pas parce que l’on prend le pouvoir qu’on est plus intelligent.

 

En période de paix ou lorsque les inégalités au sein d'une société restent tolérables, l'intelligence permet d’accéder à plus de pouvoir, c’est un facteur parmi d’autres. La relation entre l'intelligence et le pouvoir est similaire à celle d'un élastique, ceux qui auraient l'intelligence et le pouvoir tirent l'élastique d'un côté, face à eux, ceux qui ne les ont pas (la longueur de l'élastique représentant l'ampleur des inégalités). A force de tirer, un moment, il éclate et se transforme en révolution, en guerre... d'autant plus facilement que ceux qui auraient l'intelligence et le pouvoir font tout pour ne pas le diffuser et donc sont peu nombreux à la différence des autres beaucoup plus nombreux qui de par leur nombre peuvent par la force prendre le pouvoir.

 

Dès lors qu'un peuple à la volonté de prendre le pouvoir (lorsque les inégalités deviennent criantes et perçues comme telles ou parce qu'un dirigeant suivi par sa population veut envahir un autre pays) et que sa taille est suffisamment importante pour le faire par rapport au peuple  à combattre, il le fera quelque soit son intelligence te dans un certain nombre de cas gagnera.

 

Le raisonnement de Laurent peut même mener même à des conclusions dangereuses. En affirmant que l'intelligence appartient à ceux qui prennent le pouvoir, cela inciterait ceux qui l’ont, à empêcher les autres d’accroître la leur voire la réduire afin qu’ils deviennent ignorants. Cela crée plus d'inégalités. Certains dirigeants de communautés ont d’ailleurs fait leur cette doctrine en plongeant leurs membres dans l’ignorance en détruisant des pans entiers de leur histoire. A l’inverse, si nous voulions avoir une société égalitaire où personne ne pourrait prendre le pouvoir, il faudrait niveler par le bas l’intelligence de tous, selon cette logique. C’est pourquoi ce raisonnement ne tient pas, selon moi.

Inclusion

Si la conclusion du raisonnement de Laurent mène vers de profondes inégalités, à l’inverse Mounir Majhoubi, prône dès le départ une position inclusive qui pousse à un nivellement par le haut et réduit les inégalités.

Mounir met aussi l'accent sur la première inégalité, le manque de femmes visibles dans l’audience (ce n’est certainement pas dû aux organisateurs mais à une trop représentation féminine générale).

 

Mounir l’avait déjà évoquée dans des discours précédents.  Avant 13 ans, les vocations scientifiques sont équilibrées entre les garçons et les filles, il y a une forte réduction du pourcentage de vocation entre 13 et 19 ans qui est et ce n'est sans doute pas un hasard la période d'adolescence.

 

Sans être psychologue, voici une première idée de réponse : l'adolescence est une période où on construit son identité, on a souvent tendance à rejeter le modèle de ses parents et adopter de manière parfois grégaire le modèle de ses pairs. Cela signifie de manière caricaturale que si lors de l'adolescence, les « rôles modèles » pour les garçons c'est d'étudier les sciences et les technologies, beaucoup de garçons suivront cette voie. 

 

Si pour les filles, il y a plus de rôles modèles, en littérature,  en sciences humaines …,  elles suivront plus ces voies. Une suggestion serait alors pour les filles entre 8 et 12 ans et durant l'adolescence , de les inciter à poursuivre leur voie dans les sciences et technologies et faciliter  / encourager les rôles modèles féminins. C'est d'autant plus important, que les femmes sont mieux armées selon moi que les hommes face à l'IA (les hommes sont souvent trop experts, zone de prédilection de l'IA).

 

Le témoignage de Moojan Asghari, d'origine iranienne est à ce titre frappant. 70% des étudiants scientifiques et ingénieurs en Iran sont des femmes.

 

Il y a plusieurs raisons à cela, selon un article de Forbes,  la révolution en 1979 et la crise économique en Iran qui a suivi n'ont donné d'autre choix aux hommes que de permettre à leur femme d'étudier et de travailler, d'autre part le gouvernement souhaitait rivaliser avec l'ouest et a mis en place une éducation gratuite à tous, ce qui l'a ouverte aux femmes.  Khomeini a fait un discours qui disait à quel point il était fier d'avoir des femmes actives dans l'éducation et l'économie iranienne, qui a lancé de nombreuses vocations qu'il n'aurait sans doute pas imaginées.

 

La guerre Iran-Irak a aussi amené beaucoup de femmes sur le marché du travail de manière similaire à ce que les pays occidentaux ont vécu en particulier durant la Seconde Guerre mondiale.

 

Nous voyons deux choses, d'une part que ce n'est pas une fatalité d'avoir aussi peu de femmes dans la Tech, et qu'il faut certes agir sur beaucoup de leviers en même temps pour qu'elles accèdent à plus de responsabilités et mais qu'en agissant de concert nous parviendrons à changer la donne.

 

Petite digression, la lecture de l'article suivant est aussi éclairant, il montre que faciliter les périodes de congé maternité si cela accroît les différences de traitement entre hommes et femmes lors de la naissance d'un enfant a un impact négatif sur le travail et la promotion des femmes car les employeurs anticipant cela, proposent aux femmes des postes moins élevés et moins payés.

 

D'où la nécessité de fortement inciter les pères à prendre leurs congés parentaux et à rapprocher les droits et devoirs des congés paternité et des congés maternité, pour que les employeurs n'anticipent plus cet écart.

TechLash et Ecart énorme entre perception de l'IA en Chine Vs Europe et USA

De manière plus globale, il y a un risque dans les pays occidentaux par rapport à la Chine d'un TechLash (dont je parle ici). Un quart des Français ("mainstream consumers" considèrent que l'IA sera bénéfique pour l'humanité) contre 60% en Chine et 30% aux Etats-Unis. Sur une courbe de Gauss, nous serions des late adopters versus des early adopters. (Etude iLIfe - BETC)

Même si la Chine a une position trop « Tech fan » (relatée d'ailleurs par un édito éclairant de Laurent Alexandre à ce sujet), le risque est de faire face à un TechLash où notre société serait vent debout contre la technologie alors que d'autres pays l'embrassent pleinement. Il faut un juste milieu.


Faut-il interdire Laurent Alexandre ou au contraire en débattre à l’école ?

Interdire les propos de Laurent serait absurde pour moi  car  heureusement  nous avons la liberté d'expression.

 

Néanmoins, il y a deux raisons pour lesquelles certains pourraient vouloir réduire son exposition. La première est qu'il attise  la peur qui certes réveille mais n'incite pas à l'action positive mais à une action défensive et de rejet. Au contraire il faut favoriser l'action positive (c'est sans doute l'objectif de Laurent  aussi est-ce la raison pour laquelle peut-être adoucit-il son discours alarmiste).

 

Il  a fait des amalgames gênants lors de l'AI Night, comme je l'ai précisé plus haut, (IA=pouvoir, IA=Blackbox), c'est vrai qu'il est plus facile de présenter une vision simple pour se faire comprendre de tous néanmoins je pense qu'il faut élever  plus le débat au-delà des formules simples.

 

En revanche, est-ce que les discours de Laurent sont dangereux ? Non, à partir du moment où on fait appel à son sens critique. Il est même extrêmement utile car il  casse avec virulence certains dogmes, nous oblige à réfléchir et à agir autrement (en accord ou contre ses idées)  au lieu de nous endormir.

 

Laurent est aussi un vaccin contre la crédulité car il nous contraint à garder un esprit critique, à séparer le bon grain de l'ivraie. Cet esprit critique nous sera indispensable car ce sera des millions de Laurent Alexandre cachés dans nos smartphones, objets, maisons qui nous diront que faire et à qui nous serons capables de dire "Non, je ne suis pas d'accord, je choisis une autre voie" alors qu'il nous aura donné des conseils très pertinents juste avant.

Libérer les données : IA for good Vs Privacy

Lors de ces talks, une demande est revenue en force : libérer les données. Une entreprise comme Cardiologs n’a pu commencer à utiliser l’IA pour détecter des problèmes cardiaques que lorsqu’ils ont eu accès à des données d’hôpitaux US, chinois… car ils ne pouvaient avoir des données de santé venant de France. Leur chance est qu’un coeur américain ou chinois est très proche d’un coeur français.

 

Cédric Villani parle très bien lors de son allocution à l’Assemblée nationale de cet équilibre à trouver entre donner accès aux données pour permettre aux entreprises françaises, startups mais pas uniquement de se développer et respect de la vie privée.

 

Le mot d’ordre à l'AI Night est de créer un cadre qui permet de libérer les données. Si on reste là, je reste néanmoins perplexe, car la meilleure façon de faire peur à tout le monde et de créer une résistance de tous est de dire qu’on libère les données. Le terme me semble beaucoup trop fort et pourrait être remplacé par des termes plus communs comme utiliser des données anonymisées.

 

Cela a été évoqué mais trop peu, qu'il est possible de libérer les données tout en préservant la confidentialité  des données personnelles, en utilisant des IA et des algorithmes fonctionnant avec des données cryptées ou en agrégeant des données en empêchant un retour arrière sur des données personnelles.

 

Un exemple donné par David Giblas est saisissant. Le protocole d'utilisation de données dans la santé est celui utilisé pour les tests cliniques (donc sur des nombres beaucoup plus petits que le nombre généralement utilisé pour entraîner des algorithmes d'IA.) Ce cadre n'est pas du tout approprié pour des larges études épidémiologiques (aujourd'hui certes possibles, mais qui ne permet pas de croiser suffisamment de facteurs – vos retours sont bienvenus à ce sujet.)

Conclusion

Les débats sont nombreux et deviennent foisonnants. Assez rapidement, nous devons rentrer dans une première phase de synthèse de ces débats pour avoir une ligne directrice, une stratégie française et européenne.

 

Nous apprendrons en marchant afin que l'IA devienne un vrai levier pour l'ensemble des êtres humains et nous aide à faire face aux nombreux bouleversements que notre planète nous réserve tout en évitant les risques d'endormissement ou de diabète intellectuel si nous nous laissons faire l'IA sans esprit critique.

 

 

Dimitri Carbonnelle - Livosphere

Conseil en Internet of Things, Intelligence artificielle et Robots

Speaker / Modérateur

Prédictions 2018 - Inflexion (IA, Blockchain, IoT, Robots), Confusion (Homme-Artificiel, Vrai-Faux), Confrontation (Etats, GAFA, BATX, Individus, Planète)

Avant de commencer mon debrief du CES Las Vegas (fin janvier), comme chaque année, je fais quelques prédictions sur les tendances, les événements, les ruptures que j’anticipe pour l’année qui suit. *

 

Je brosse un tableau très large car les nouvelles technologies (IoT, IA, robots, blockchain…) auront des impacts sociétaux et même civilisationnels de plus en plus majeurs.

 

 

2018 pourrait se résumer pour moi en trois mots : inflexion, confusion et confrontation … 2019 et après seront le début de la transformation dans le bon sens du terme 😉

 

Inflexion car nous sommes à un point où les nouvelles technologies accessibles au plus grand nombre vont profondément bouleverser notre quotidien en plus et aussi en mal (selon les intentions de ceux qui l’utilisent)

 

Confusion nous allons perdre beaucoup de nos repères fondamentaux : humain / non humain, réel/virtuel, vivant/inerte, créations humaines / créations d’IA, vrai/faux car les technologies brouilleront les frontières

Confrontation entre les États qui voudront reprendre la main face au GAFA, entre GAFA/BATX, nouveaux et anciens, individus et entreprises/acteurs publics, créateurs, diffuseurs de contenus et opérateurs télécoms.

 

Enfin, Confrontation avec notre société Formule 1 face à notre propre planète qui nous obligera à devenir une société tout-terrain pour que la technologie soit au service de la résilience et non seulement de la performance.

 

Voici les différents éléments de l’article (avec des liens directs), il est très long (plus de 12 h de vol jusqu’à Vegas, ça aide 😉

 

IA dans nos vies :

IoT - Internet des Objets 

Intégration et assemblage des nouvelles technologies (IA, IoT, Blockchain, Robots)

  • Les nouveaux rentiers grâce aux entreprises autonomes (DAO et IA)
  • Usine 4.0 - Customisation de masse avec le Fog Manufacturing : des délais extrêmement raccourcis entre attente d’un client, création et production d’un produit et livraison

La confrontation des plaques tectoniques : Etat, GAFA/BATX, Anciens/Nouveaux, individus, Notre Planète

  • Le Techlash des États envers les GAFA
  • Course aux armements digitaux et IA des États
  • Combat de titans entre GAFA et BATX
  • Bataille d’Hernani entre l’ancien monde et le nouveau monde
  • Combat homérique entre contenant (telcos), contenu et diffuseurs (Google, Facebook…)
  • Customer et Citizen Empowerment en devenir face aux entreprises et acteurs publics
  • Nous face à notre planète – d’une société Formule 1 à une société tout-terrain

Je vous l’avoue, je suis quelque peu bavard et verse souvent dans les digressions mais c'est l'occasion de mettre un peu de matière pour étayer mes prédictions.

Inflexion

Inflexion car nous vivons une période où les nouvelles technologies (Intelligence artificielle, IoT, programmation génétique avec CrispR, robots ) deviennent accessibles au plus grand nombre

  • pour le meilleur (meilleure santé, meilleure gestion de nos ressources énergétiques, de la pollution …),
  • pour le pire (cyberguerre, bio-hacking, armes autonomes, dopage intellectuel, manipulation des opinions publiques ) et
  • pour le « impossible à prédire » (intégration massive d’IA comme assistant dans nos vies, augmentation de l’être humain, modification in vivo de nos gènes et de nos descendants avec CrispR…).

L’enjeu pour beaucoup d’acteurs n’est pas tant l’accès aux technologies mais l’accès aux données qui utilisent ces technologies. La bataille pour être le premier point de contact de l’utilisateur sera féroce car celui-ci sera La Plateforme (ou ubérisera…) qui « dispatchera » les différents services mais aura la plus grande marge, légitimité auprès du consommateur et ne deviendra pas une commodité.

 

Confusion

Confusion car nous perdrons des repères fondamentaux et millénaires pour l’être humain, les technologies vont brouiller les frontières :

  • entre l’humain / nonhumain (en raison de l’intégration de puces dans nos corps, d’appareils remplaçant des organes défaillants et de la perte de perception de notre supériorité sur le reste avec une IA qui nous dépassera dans plus en plus de domaines),
  • entre le réel / virtuel (cf. avec des objets qui imiteront la texture, la couleur, les odeurs de vrais objets avec qui nous interagirons naturellement par la voix, le geste, la montée en puissance de la réalité virtuelle/augmentée et surtout de la réalité mixte :  Hololens… et tout simplement le mélange entre IRL et IVL ), 
  • entre les vraies et fausses émotions (interactions avec des objets/robots simulant des émotions),  vrai / faux ( vrai news / fake news qui paraîtront de plus en plus vrais)
  • entre le vivant et l’inerte (l’intégration de cellules biologiques dans des objets et vice versa )
  • entre l’authentique, crée par l’Homme / de l’artificiel, crée par la machine (cf. Création de vidéos artificielles, voix artificielles),
  • entre le point de vente et le lieu de fabrication (avec le fog manufacturing moins radical que ce qui précède ;)

Confrontation

Cette confusion créée pour beaucoup d’acteurs, une formidable opportunité de rebattre les cartes ou au contraire est une terrible menace de tout perdre. États, GAFA/BATX, entreprises, individus … vont se confronter, nous assisterons aux chocs de plaques tectoniques, de tremblements de terre digitaux, sociétaux et mêmes planétaires.

 

Nous sommes à un moment de crise au sens étymologique du terme (κρίσιςkrisis – moment de choix, de décision ) où tout peut basculer dans un sens ou un autre mais où l’humanité devra faire ses choix.

 

Étant un éternel optimiste, ce n’est qu’une période de transition qui devrait aboutir à une profonde transformation de nos sociétés d’ici 3 à 5 ans. De toutes les manières, c’est notre planète qui au final sifflera la fin de la récré (11000 ans depuis les débuts de l’agriculture sur 4Md soit moins de 4 mn sur toute une scolarité, études supérieures incluses. ;)

 

Il y a de fortes chances que les États reprennent la main vis-à-vis des GAFA, entreprises, (Techlash via la réglementation …) soit de manière autoritaire comme cela se passe dans certains pays soit de manière concertée. Une Europe unie pourrait avoir un rôle majeur si nous ne voulons pas être écrasés par la Chine, l’Inde désormais 5ème puissance mondiale avant la GB et la France, les Etats-Unis, les autres BRICS (Brésil, Russie, Afrique du Sud) et l’Afrique (qui va connaître une très forte croissance), rien n’est joué…

Intelligence artificielle

Prolifération des agents/assistants intelligents

Un des grands intérêts de l’IA est de transformer des données complexes en décisions simples ou en actions automatiques.

 

Le nerf de la guerre étant l’argent, les GAFA investissent massivement dans l’IA pour nous faire acheter plus en supprimant le maximum de frictions (en facilitant le choix et le paiement), en étant présent au bon moment (achats contextuels en fonction du lieu, du moment, des personnes avec qui vous êtes) et en s’adaptant à vous (personnalisation de services et même de produits, cf. fog manufacturing ci-dessous ) qu’on pourrait traduire par : Sell the personalized product, to the right person at the time.

 

Fini le temps des bannières publicitaires avec des taux de clics inférieurs à 0,1% (cf. article sur Amazon), on va chercher des taux de transformation et d’achat de 10%, 20%, 50% voire 99% (il y aura toujours des récalcitrants !) d’autant plus facilement que nous fournissons toutes les données nécessaires. Un "Do you want to buy X" se transformera en « Yes, you can » et même « now and forever » … si on tient compte des services comme Amazon Replenishment Service qui automatiquement vous commande votre lessive dès que vous n’en avez plus en détectant via votre machine à laver connectée que votre réservoir de 5 litres n’a plus qu’un litre dans le ventre.

 

L'intelligence artificielle fleurira dans un très grand nombre d'applications comme Facebook Messenger, WhatsApp et sur les sites web d’Amazon, Google (recherche, Youtube, photos...) pour nous pousser de la pub contextuelle, achetable en un clic. C’est devenu très commun avec WeChat (cf. intervention TED sur le futur du shopping en Chine) qui intègre tout – messagerie instantanée, services, paiement. Il y a juste un petit souci, nous pousser à surconsommer, est-ce vraiment raisonnable quand nos ressources planétaires viennent de plus en plus à manquer … La réponse d’Angela Wang à la fin de ce TED est éloquente à ce sujet !

Confusion entre la création humaine et celles provenant de l'IA (avec des manipulations politiques)

Aujourd’hui, nous arrivons en très grande majorité à distinguer ce qui a été imaginé par l’homme de ce qui a été « imaginé » par une machine même si aujourd’hui, il est plus difficile de distinguer ce qui est fait par l’homme de ce qui est fabriqué par la machine.

 

En 2018, nous verrons de plus en plus de contenu « créatif » venant de l’IA, pas encore réellement original mais cela viendra. Aujourd’hui, les créations d’IA ressemblent plus à des mashups ou de l’interpolation d’images, sons, de vidéo. Des couches cachées d’un réseau neuronal extraient un style, les appliquent à des images, du texte ou des vidéos pour créer une nouvelle image dans le style d’un peintre, compositeur….

 

En 2018, nous verrons une explosion d’oeuvres d’IA créatives, dont nous serons incapables de distinguer des œuvres humaines. Vous en voulez un avant-goût …

 

Des scientifiques ont créé des œuvres en utilisant des réseaux neuronaux créatifs (CAN - Creative Adversarial Networks). À la différence des GAN (Generative Adversarial Network) qui font des « copies » d’œuvres existantes, les CAN produisent des oeuvres perçues comme nettement plus créatives. D’ailleurs, ils ont montré que des êtres humains n’étaient pas capables de faire la distinction entre ces créations et celles créées par des êtres humains (exposées à Art Basel 2016 et des œuvres d’expressionnisme abstrait).

Dans le même registre, Aiva est la première IA, compositrice enregistrée par la SACEM, comme vous l’entendrez, la musique conviendrait parfaitement pour des musiques de film... Vous avez sans doute entendu parler de Daddy’s Car composé sur base de chansons des Beatles il y a la version Bach pour les férus de classique. (projet Flow Machines de Sony CSL Research Lab avec un financement européen).


Pensez-vous qu’Alpha Go pourrait devenir créatif. Le fameux paradoxe du singe savant et la bibliothèque de Babel de Borges pourraient prendre tout son sens avec l’IA…

 

Il suffirait qu’elle soit capable de générer une quasi infinité de textes, de couper les branches non créatives et « absurdes », par exemple en mesurant l’entropie de Shannon (ni trop faible car peu originale, ni trop forte, car trop aléatoire et donc ayant trop peu de sens) ou faisant appel d’abord à des humains pour juger de la créativité puis en simulant via de l’Adversarial IA ce jugement. On applique grosso modo la méthode utilisée par Alpha Go Zéro (bottom-up) pour créer du contenu. La méthode top-down est plus proche du premier Alpha Go qui a battu Ke Jie, champion du monde de GO…) ! 

Pour un artiste, l’IA permet de démultiplier sa capacité créative mais aussi de béotiens. A partir d’une simple photo ou de quelques mots-clés, on pourrait créer un chef-d'œuvre digne de Degas ou de Van Gogh… enfin la plupart des gens le croiront.

 

On peut même imaginer d'ici quelques années que Spotify ou Deezer créent de vraies playlists personnalisées avec des musiques, des chansons créées de toute pièce et à la volée basée sur nos préférences avec des textes et mélodies qui nous sembleront complètement inédits. Sacré challenge à venir pour les artistes.

 

Petite question pour les juristes, à qui va les droits d’auteurs si un réseau neuronal utilise des chansons ou des œuvres protégées pour créer des chansons complètement originales, comment les répartit-on  Est-ce toujours du plagiat  Comment d’ailleurs pourrait-on le savoir dans le cas où un réseau neuronal puise dans des milliers d’artistes 

 

La réponse viendra peut-être d’une IA qui déterminera si l’IA incriminée intègre ou non tel ou tel artiste (Cf. article  sur les limites de l'IA…)...

Il aura une course à l’IA, entre une IA créant du faux contenu, et une IA cherchant à le détecter et l’éliminer, une surenchère incessante à l’intelligence en perspective … où Google, Facebook en particulier seront en première ligne.

 

Il y aura une recrudescence de fraudes où des personnes se font passer pour des amis ou des proches en reproduisant leur voix, en créant de fausses photos ou vidéos pour créer un faux sentiment de confiance.  

 

Vous voulez le tester par vous-même, faites le test sur cette page vous me direz si vous distinguez la voix humaine de la voix  d'une IA.

Bien sûr, le versant noir est la création de faux contenus pouvant se faire passer pour du vrai, la fausse vidéo de Barack Obama montre ce dont l’IA est capable. Il sera de plus en plus difficile de reconnaître ce qui est vrai, de ce qui est partiellement vrai et de ce qui a été créé de toute pièce. On arrive notamment à créer des voix qui ressemblent à celle d’êtres humains.

 

 


Il ne nous reste plus beaucoup de temps avant que toute création ne soit soupçonnée d’être au moins partiellement produite par l’IA. Je profite de ces derniers instants pour vous exposer une création 100% Human Inside… 

 

Un jour, il n’y a pas si longtemps, une amie titillait mon imagination avec une photo et un commentaire "La terre est bleue comme une orange." ... "on doit être hors saison"...

 

Avant qu’une IA ne me pique l’idée, je choisis de prendre le poème d’Eluard et la chanson de Cabrel de les mixer avec un zeste de moi pour les deux dernières lignes.

 

 La terre est bleue comme une orange 
On doit être hors-saison 
Sorti d'un rêve étrange
J'en garde le frisson

Dans les brouillards salés 
L'aube se passe autour du cou 
Que mon écharpe nouée
Du froid se joue

Les murs, les jardins, les rues
Un collier de fenêtres 
on croit connaître
on se voit perdu

Ils ne vous donnent plus à chanter 
Sa chanson vide "où es-tu "
Qu'une âme veuille l'entonner 
Elle ne sera entendue

Tout mon courrier déborde 
Tous les secrets tous les sourires 
Si nos lettres s'accordent
pour nous les offrir

Les guêpes fleurissent vert 
Au seuil de ton pavillon 
Tout le soleil sur la terre 

On doit être hors-saison


Combien de temps avant quelques étincelles créatives ne soient considérées comme d’une banalité confondante car tellement faciles à reproduire pour une IA 

 

 

Bravo en tout cas à celle ou celui qui parviendra à créer la première IA mixant poèmes et chansons. Prévenez- moi quand vous l’avez réalisée ! 

Premières répercussions massives sur l’emploi de l'intelligence artificielle 

Difficile de ne pas en parler, l’IA détruira des emplois (il en créera aussi bien sûr ;).

 

Les banques, les sociétés d’audit, les distributeurs (surtout en raison de la montée de l’e-commerce) devraient donner les premiers coups d’envoi aux plans de départs massifs dus à l’IA. Pour éviter que de trop nombreux ex-salariés restent sur le carreau, l’enjeu est non seulement de favoriser la formation professionnelle au sein des entreprises mais au-delà d'inciter et former ses salariés à apprendre à apprendre (cela commence d’ailleurs à l’école comme je le précise dans cet article).

 

Pour réduire l’impact d’une perte d’activité, il faut faciliter et encourager les activités rémunérées annexes ou connexes et le passage d’une activité à un autre (avec l’auto-entrepreneuriat, les revenus issus de l’économie du partage, l’autoconsommation, le troc de services …) .

 

L’entreprise deviendra de plus en plus une plateforme ouverte avec une vision et des projets réunissant internes et externes où le salariat exclusif diminuera au profit de formes flexibles de travail. Les couvertures sociales de chaque forme de travail devront se rapprocher du salariat pour faciliter le passage d’une forme à une autre.

 

Un exemple : favoriser les contrats de travail multi-entreprises où il serait très facile de basculer d’une entreprise à une autre en fonction de l’activité en particulier pour les bassins d’emploi restreints. Cela nécessite néanmoins une polyvalence et une flexibilité des salariés.

Premières retombées scientifiques majeures de l’IA et en politique mais l’AIpotism n'est pas pour tout de suite !

L’IA commence à devenir une aide précieuse pour les scientifiques, on devrait avoir une pluie d’avancées majeures en sciences :

 

  • dans l'astronomie  (la compréhension des trous noirs et trous blancs comme l’illustre la découverte d'exoplanètes par Google autour de l'étoile Kepler-90

 

  • la physique (sur la théorie du Tout qui unifierait les interactions fondamentales, la potentielle découverte des gravitons - n'oublions pas que le CERN stocke aujourd’hui plus de 200 pétaoctets (soit 200 000 disques durs de 1 téraoctet) de données générées notamment par le LHC lors de collision de deux protons. Beaucoup des données que pourraient ingurgiter une IA, qui ne sont certainement pas analysées pleinement aujourd’hui),
  • la génétique (aussi bien pour découvrir les gènes responsables de maladies génétiques, établir des liens entre génétique et l’intelligence humaine, trouver les ancêtres de LUCA – Last universal common ancestor qui serait vieux de 3,5 à 3,8 Mds d’années…)

L’IA pourrait faire son entrée en politique économique (de manière cachée au départ) pour étudier, simuler les impacts de décisions politiques mais aussi de manière pragmatique pour débusquer les fraudes fiscales.

 

L’AIpotism ou IApotisme n’est pas encore d’actualité mais qui sait dans 20 ans nous serons peut-être gouvernés par une forme de despotisme éclairé par l'IA (ci-contre Frédéric II de Prusse en exemple;) , nous n'aurons peut-être même plus le choix, car devant la complexité de notre monde et des répercussions que l’homme aura sur lui, seule une IA pourra vraiment y faire face ;)

Les évolutions de l’IA

La simulation numérique du monde réel au secours de l’IA

Une des prochaines « frontiers » que l’IA va dépasser en 2018 est la « compréhension » du monde physique.

Comme l'expose très justement Yann Lecun, l'intelligence artificielle, pour être précis, les réseaux neuronaux nécessitent énormément de données or autant pour le GO, il est facile de jouer contre soi-même des millions et des millions de parties afin d’entraîner un réseau neuronal, autant reproduire et apprendre du monde physique à partir d'expériences réelles semble matériellement impossible.

 

Pour donner un exemple, apprendre à marcher avec un réseau neuronal semble impossible pour une intelligence artificielle car le temps d'apprentissage sera beaucoup trop long néanmoins il y a une solution qui pourrait pallier au moins en partie à ce problème : la simulation numérique.

 

Une entreprise comme Dassault Systèmes (3DS) est devenue spécialiste pour reproduire virtuellement les effets physiques et mécaniques (en intégrant la gravité, les effets de lumière…) d’un très grand nombre d'objets physiques, ainsi que de structures telles que des bâtiments et même des villes (reconstitution de Paris à travers les âges par 3DS). Même si ces simulations ne reproduisent pas à 100 %, la réalité, elles permettent néanmoins d'avoir une très bonne approximation qui pourrait être utilisée largement par les IA. L'apprentissage sur le terrain pourrait se faire dans un deuxième temps, il permettrait d'affiner le réseau neuronal tout en contournant la limitation physique initiale.

 

Les GAFA/BATX (équivalents chinois des GAFA : Baïdu Alibaba Tencent Xiaomi) useront et abuseront des simulations pour comprendre et modéliser le monde physique.

Développement de l‘IA symbolique 

Aujourd'hui la plupart des développements d’IA tournent autour des réseaux neuronaux (IA connexionniste) et du deep learning. Ils sont parfaitement adaptés pour percevoir, classifier interpréter les images des sons, des vidéos.

 

Mais comme j'avais expliqué dans un récent article, ils ont des défauts intrinsèques. Le premier est la quantité de données nécessaires pour l’entraîner. Tout le monde s’affaire pour la  réduire ou plutôt pour générer de nouvelles données à partir de données actuelles (forme de PCR quantitative, processus d'amplification exponentielle de l’ADN mais pour l’IA ;) En effet, il est plus simple de générer des données imaginaires (avec l’Adversarial IA) à partir d’un nombre réduit de données que d’utiliser directement un nombre réduit de données.

 

Néanmoins, il reste d’autres défauts tels que l'incapacité à expliquer leur raisonnement, le biais de confirmation … qui les rendent peu adaptées pour prendre des décisions. L’IA symbolique ou formelle (l’IA à la papa diront certains car un peu reléguée aux oubliettes face à la déferlante du Deep Learning) n’est pas adaptée pour traiter et classifier des très grands nombres d’images…  en revanche, elle l’est beaucoup plus pour prendre des décisions car elles peuvent  justifier leur choix ( obligatoire d’ailleurs dans le cadre de la RGPD / GDPR Règlement général sur la protection des données.)

Les réseaux bayésiens, les systèmes experts apprenants, les arbres de décisions et "random forest" sont quelques unes des techniques de l’IA symbolique qui devraient fortement se développer en 2018.

 

S’il fallait comparer l’IA symbolique avec les réseaux neuronaux, c’est un peu comme si vous compariez l’algèbre moderne à l’arithmétique ou la géométrie classique à la géométrie analytique (comparaison imparfaite néanmoins car l’algèbre moderne couvre aussi la diagonalisation des matrices utilisées dans les réseaux neuronaux …).

  

L’IA symbolique peut être utilisée pour des assistants de preuve mathématique qui ont servi à formaliser la démonstration pour le théorème des quatre couleurs, en 2005 et la conjecture de Kepler en 1999.

Le développement des méta-IA et intégration de multiples IA

Comment choisir la bonne IA parmi cette foultitude d’IA avec des capacités différentes à traiter des problèmes de nature multiples et des contraintes différentes ? Il suffit de faire appel à notre ami magique, l’IA de nouveau !

 

Eh oui, une IA pourrait avoir le rôle de superviser de multiples IA, c’est d’ailleurs un des rôles de l’IA d’Alpha Go (pas Alpha Go Zéro qui n’a qu’un seul réseau neuronal ... qui est d’ailleurs plus performant… sauf si Alpha Go Zéro encapsule une forme d’IA régulatrice dans son réseau neuronal mais cachée dans l’une de ses couches neuronales …)

 

On peut imaginer une multitude de couches d'IA différentes composée d’un réseau neuronal générant des "randoms forests" (arbres de décision dont les noeuds seraient eux-mêmes composés de mini-réseaux neuronaux), le tout supervisé par une méta-IA symbolique ou un algorithme génétique.

 

On pourrait aussi inverser : un méta-réseau neuronal (adversarial IA, double système d’IA avec un générateur de données et un discriminateur) gérant une multitude de réseaux neuronaux, voire des IA mutants intégrant de multiples IA concurrentes et complémentaires à l’image d’un corps humain qui élimine les anti-corps et absorbe la nourriture. Nous ne sommes qu’aux prémices de l’IA, pas sûr d’ailleurs que nous soyons capables de bien comprendre leur évolution !

IoT - Internet des Objets

Le soufflé retombe pour les agents vocaux intelligents mais la voix spécialisée se décline dans les équipements

En 2018, nous verrons une chute d’usage des agents vocaux intelligents (en particulier Google Home).

 

À l'image des SmartWatch après un buzz et un succès commercial d'achat, la fort baisse des ventes risque de pointer son nez d'ici 6 mois. A l'image du lapin Nabaztag et de Mother de Sen.se, la fréquence d’usage de ces agents vocaux devrait fortement diminuer après quelques mois d’utilisation car aujourd'hui ils sont beaucoup trop génériques. Aujourd'hui, le premier usage (30%) est pour écouter la musique puis commander sa maison '20%), enfin réaliser des achats 10%)

 

Amazon Echo tirera son épingle du jeu pour la partie achat, le Home Pod d’Apple devrait avoir un destin similaire à l’Apple Watch, importantes ventes au début mais usage réel faible en dehors de la fonction enceinte.

 

En revanche, il devrait y avoir un développement des agents vocaux spécialisés au sein d'objets connectés comme dans l’électroménager, la télévision pour des usages spécifiques et simples comme j'en ai parlé dans l'article suivant.

De plus en plus de puissance et d’ « intelligence » embarquée

De plus en plus d’industriels préféreront embarquer la puissance de calcul et l’« intelligence » dans des processeurs plutôt que la déporter dans le cloud pour de multiples raisons :

  • délai de latence beaucoup plus réduit, plus de résilience en cas de panne réseau,
  • moins de risques concernant la confidentialité et le hacking des données et
  • plus de facilité à gérer les données en regard de la GDPR

sachant que le coût des puces et leur consommation d’énergie se réduisent de plus en plus pour une puissance croissante.

Des objets émotifs

Le rapport aujourd'hui entre les humains avec les objets est encore très utilitaire (moins le cas en Asie et Afrique qui ont des cultures animistes bien plus développées qu’en Occident).

 

On verra de plus en plus d’objets exprimer de fausses émotions et sentiments pour créer de l’empathie, de l‘attachement de la part de l’utilisateur. Même si c’est encore tôt, l’intelligence artificielle sera mise à contribution pour créer ces émotions et s’adapter à nous. 


Je suis curieux de voir comment l’IA va apprendre à nous manipuler et si comme au GO, les techniques comme le pied dans la porte, la culpabilisation… seront découvertes toutes seules et les nouvelles techniques qu’elle va développer à l’image des coups imaginés par Alpha Go Zéro !

 

Pour info, la meilleure manière d’échapper à la manipulation, c’est d’en connaître les techniques ;)

 

 

Autre moyen pour développer les émotions, avoir un design se rapprochant d’êtres vivants. Aïbo, le premier robot de Sony, Nao avec sa tête plus grande que le corps pour nous faire penser aux bébés l’illustrent. Je pense notamment que les agents vocaux intelligents sous forme de cylindre feront place au fur à mesure à des robots ressemblant à des animaux pour susciter plus d’interactions.

Plus d’interfaces naturelles et d’objets digitaux

Les interfaces naturelles comme la voix, le geste se développeront, ce qui sèmera de plus en plus la confusion entre le réel et virtuel, le physique et le digital.

 

Nous verrons de plus en plus d’objets écrans (avec des écrans souples), qui changent de couleur, de motif voire même de texture (comme le montre la startup française Hap2U qui modifie la texture d’un écran grâce à des ondes acoustiques.).

 

Au début, beaucoup de ces objets seront des gadgets néanmoins, quelques-uns devraient sortir du lot, ceux qui répondent à de vrais usages, où cela a du sens d’intégrer du digital à l’objet. 

Centre-villes autorisés seulement aux véhicules autonomes

Des villes commenceront à n’autoriser que les véhicules électriques et autonomes dans leur centre-ville (mais cela pose des problèmes à la fois lors de recharges simultanées par exemple vers 19h, de la capacité à produire de l’électricité décarbonée et d’avoir des solutions de stockage massif d’électricité) 

Énergie et transmission

Développement des réseaux bas-débits en B2B

Les réseaux d'objets connectés en B2B se développeront de plus en plus massifs, le NB-IoT fera petit à petit son apparition, mais ce sont surtout des objets connectés en Lora et SigFox qui seront déployés en 2018.

 

La 5G (bas débit car il y a plusieurs 5G …) pour l'IoT ne devrait pas apparaître commercialement avant 2023 (en étant optimiste) même s'il y aura beaucoup de tapage médiatique de la part des fabricants de puces (comme Qualcomm et Intel) et d’infrastructures réseau (Huawei, Nokia, Ericsson).

 

Les raisons principales sont que les gains apportés sont très faibles par rapport aux autres technologies (Lora, Sigfox, NB-IoT et LTE-M), le gain financier pour les opérateurs ridiculement bas (un abonnement annuel inférieur à 10€ !) et un coût de déploiement et de maintenance en infrastructure beaucoup trop cher (fog /edge computing), avec une myriade de petites bases stations à maintenir pour réduire les délais de latence notamment. En revanche, la 5G à très faible délai de latence destinée aux véhicules autonomes devraient commencer à se déployer sur les autoroutes (là où c’est le plus intéressant d’avoir des véhicules autonomes :)

 

J’en ai parlé l’année dernière et cela tarde mais je crois que le Bluetooth 5.0 devrait mettre au rebut la plupart des protocoles propriétaires et plus ou moins ouverts dans la maison (Zigbee, Zwave, Enocean, Thread..) car d’une part les puces coûtent très peu chères, elles sont intégrées dans les smartphones, le BLE 5.0 est many-to-many (le BLE 4.0 était one-to-one – appairage seulement de deux devices) et il est mesh (réseau maillé). 

Le développement du chargement sans fil QI

À l'image du micro USB et USB-C, la norme QI va devenir un standard de fait dans la recharge.

 

Apple a intégré la recharge par induction QI sur iPhone X, iPhone 8, et iPhone 8 Plus et la norme devrait se diffuser de plus en plus pour simplifier la recharge. 

 

Intégration et assemblage des nouvelles technologies (IA, IoT, Blockchain, Robots)

Les nouvelles technologies s’intégreront et s’imbriqueront de plus en plus entre IA, IoT, robotique, Blockchain, génétique. Theranos a complètement échoué dans les tests sanguins automatisés mais d’autres startups prennent la relève. Eligo BioScience dirigé par Xavier Duportet n’utilise pas encore de robots associés à l’IA pour réaliser ces tests biologiques mais mon petit doigt me dit que d’ici 2, 3 ans, cela deviendra une évidence.

 

D'autre part, surviendra la première implantation de puce neuronale destinée à des malades d'Alzheimer pour augmenter leur mémoire. Une question se pose néanmoins autorisera-t-on les malades d'Alzheimer à avoir plus de mémoire que les autres êtres humains ?

Les nouveaux rentiers grâce aux entreprises autonomes et DAO

Il devient possible de créer des entreprises autonomes générant du CA automatiquement. Un site e-commerce proposera de personnaliser votre produit, personnalisation qui aboutira directement à une mini-usine qui fabriquera et transmettra directement le produit au client via un logisticien avec un support dédié en cas de problème.

 

Il « suffit » de construire un mashup de briques logistiques, de production, d’e-commerce connectées via des API… En ajoutant de l’IA et de la DAO (Decentralized Autonomous Organization, une organisation fondée sur le blockchain fonctionnant grâce à un programme informatique qui fournit des règles de gouvernance à une communauté) , vous pouvez même créer une plateforme collaborative automatisée.

 

Cela pourrait même être un nouveau placement financier ! En revanche, une entreprise autonome peut aussi selon sa construction générer automatiquement du déficit !

Usine 4.0 - Customisation de masse avec le Fog Manufacturing

  • la customisation de masse via le fog manufacturing (production décomposée en plusieurs parties, éléments standards produits de manière centralisée et plus on se rapproche du consommateur, plus les quantités produites par unité de production sont faibles, plus la personnalisation est élevée. On devrait ainsi voir l’arrivée de mini-sites de production en France (le frog manufacturing diront les anglais ;) pour se rapprocher des clients.

Potentiellement, un point de vente peut devenir un lieu de production pour la personnalisation finale. Lancôme propose son fonds de teint fondé sur un scan en magasin de l’incarnation de votre peau sachant que trouver le bon fond de teint est extrêmement fastidieux (70€ ! )  bien sûr beaucoup plus élevé.

  • l’utilisation de Cobots et de robots industriels flexibles qui permet très rapidement de changer une production voire de personnaliser à la demande …
  • l’éco-conception pour dès le départ anticiper la réutilisation et le recyclage du produit

Le défi pour les entreprises est de livrer des produits personnalisés aux utilisateurs de manière quasi instantanée (tout en évitant une surconsommation des ressources by the way).

 

Pour résoudre cette quadrature du cercle, il y a plusieurs moyens :

 

  • la VR/AR et le vidéo mapping (comme le fait Smart Pixels pour Nike et Berluti pour personnaliser leurs chaussures) qui permet de visualiser un produit personnalisé avant qu’il ne soit fabriqué,

Le choc des plaques tectoniques - la confrontation

Comme je le disais en introduction, 2018 sera l'année où de nombreuses plaques tectoniques (les États, les GAFA/BATX, les citoyens et utilisateurs, notre planète vont se percuter et provoquer des tremblements de terre numérique, sociétaux voire civilisationnels.

Le Techlash des États envers les GAFA

Evasion fiscale des grands groupes, bitcoin, collecte massive de données personnelles par les GAFA, influence des citoyens (via des médias concentrés , les fake news…), recherche et mise en œuvre de nouvelles technologies (blockchain, IoT, Intelligence artificielle, génétique …) menées par des sociétés privées alors qu’elles transformeront profondément nos sociétés : … montrent que les États ont nettement perdu de leur pouvoir et influence face aux entreprises en particulier les GAFA.

 

Mais les États ne vont pas se laisser faire … L’espérance de vie d’un Etat est nettement plus grande qu’une entreprise privée ce qui lui permet d’agir sur le long terme (certes, les élections influent sur un pays, mais il y a une inertie beaucoup plus grande ce qui a aussi ses avantages !), il peut agir de conserve avec d’autres États sur le plan international et mondial et actionner des leviers puissants en particulier la loi, sur lequel nul autre acteur ne peut agir directement.

 

Les États feront leur grand retour en 2018 via la réglementation (fiscalité et financement, travail, environnement, solidarité nationale, alimentation…), leurs prérogatives régaliennes (sécurité des individus, défense nationale, le contrôle des mouvements de population…). Le GDPR qui réglemente la protection des données personnelles et les premières amendes records aux GAFA. 100 Me à Facebook concernant son rachat de What’s App, 2,4 Md€ à Google pour abus de position dominante concernant Google Shopping et 1,1 Md € pour redressement fiscal (au final rejeté par le Tribinal administratif  de Paris). Ce n’est que le début … 2018 sera l'année où des amendes supérieures à 5 Md$ seront infligées à des GAFA.

 

Je parie sur une réglementation sévère sur les bitcoins et autres monnaies virtuelles (je prédis qu’il devrait chuter à moins de 5000 USD, minimum ;) Je vois mal les États accepter de se faire piquer un de leurs prés carrés les plus chers : l’argent ! Les ICO (initial coin offering, levée de fonds en Bitcoin) sont déjà interdits en Chine, ce n’est qu’un début.

Course aux armements digitaux et IA des États

La nouvelle arme de dissuasion et potentiellement destruction massive est le hacking et la cyber-guerre. Chaque État va tester les défenses de ses ennemis et alliés.

 

Il est possible qu’on assiste à des pannes géantes en raison de ce type d’attaque. L’arrivée de l’IA à ce sujet va certainement accélérer cette course (cf article). Ce n’est pas anodin, si Vladimir Poutine a dit que l'Etat qui deviendra le leader en IA sera celui qui dominera le monde (cf article sur les risques des armes autonomes)

 

L’influence et les risques de déstabilisation via les divulgations d’informations secrètes, fausses… sont loin d’être terminés. Cela devrait avoir deux effets, accroissement de la protection mais aussi un effet positif :  plus grande « honnêteté » des entreprises (moins de corruption, de travail d’enfants de discriminations..).

 

Comme les secrets ne le demeurent de moins en moins longtemps, que quelqu’un va fuiter l’information, tant qu’à faire, on évitera de prendre des risques qui peuvent mettre en péril votre entreprise parc qu’un conciurrent, un État a décidé de saborder votre entreprise. Cela n’empêche pas la divulgation de fausses informations mais il est toujours plus facile de se battre contre des calomnies que des vérités à cacher.

 

Il est aussi possible qu’on voit apparaître les premiers dopages intellectuels dans des États ayant des régimes dictatoriaux ou proches... Cela devrait d'ailleurs poser de très grands dilemmes éthiques pour les États démocratiques qui ne pourraient normalement lutter à armes égales ;) 

Combat de titans entre GAFA et BATX 

2018, sera aussi le théâtre de combats homériques entre les GAFA et les BATX  (GAFA chinois – Baïdu, AliBaba, Tencent (Wechat), et Xiaomi), d’une part les GAFA pour s’étendre doivent plus s’implanter en Chine et inversement pour les BATX (qui investissent de plus en plus dehors de la Chine : la tentative échouée de rachat de MoneyGram par Alibaba, les participations croisées entre Spotify et Tencent, les accords entre Baidu et QNX BlackBerry pour la voiture autonome. 

 

On peut s’attendre à ce qu’un des 8 parmi les GAFA et BATX mette un genou à terre (forte chute des résultats, plan de départs massifs, rachat par un autre GAFA/BATX).

Bataille d’Hernani entre l’ancien monde et le nouveau monde 

La première bataille entre les anciens et les nouveaux est celle de la Net Neutralité, assurée depuis toujours elle a permis le développement fantastique des GAFA. Mais la roue a tourné, puisque la FCC s'est prononcée mi-décembre pour la fin de ce principe obligeant les fournisseurs d'accès internet (FAI) à traiter tous les contenus en ligne de la même manière.

 

Cela signifie concrètement que les telcos vont faire payer les GAFA pour utiliser leurs tuyaux et leur assurer une bonne qualité de service alors qu’avant ils ne pouvaient le faire avant. Cela pose de nombreux problèmes, notamment que potentiellement n’importe quel site internet devra payer les telcos pour pouvoir être vu correctement par les internautes. La facture pourra alors être répercutée sur les clients ... sauf si vous prenez les services préconisés par votre opérateur ! Typiquement, les opérateurs pourraient proposer des forfaits intégrant les services/contenus avec qu'ils ont des partenariats commerciaux et un package plus cher si vous prenez d'autres services, contenus ... Voyez les risques de distorsion de concurrence et de "risque de "silotisation" d'Internet. Cela donne un pouvoir énorme aux opérateurs telcos au détriment des GAFA d’où d’ailleurs leur action légale contre le FCC pour empêcher l’abandon de la Net Neutralité

 

En 2018, cette bataille montrera la réussite triomphante ou la chute brutale des nouveaux face aux anciens qui font de plus en plus et de mieux en mieux la résistance (Tesla contre les offres constructeurs automobiles, Sigfox contre les opérateurs télécoms, Uber contre les taxis, AirBnB Vs les groupes hôteliers, GAFA / Telcos, producteurs de contenus…)

 

Certains disrupteurs ayant le vent en poupe passeront  du Capitole à la Roche Tarpéienne, périront ou se feront avaler par un ancien et d’autres au contraire se renforceront. Les Etats et les acteurs publics via la réglementation en particulier sont  de puissants arbitres de ces combats pour favoriser ou freiner  (comme on l’a vu pour Sigfox, Uber, AirBnB…)

 

Comme des éléphants dans un magasin de porcelaine, il y aura aussi de la casse pour toutes les entreprises trop dépendantes des GAFA comme on l’a vu avec la forte des résultats de Criteo en raison de la politique anti-cookies d’Apple (chute de 22% de son CA). …

 

D'autre part, les startups en France vont de plus en plus s'associer voire être rachetées par des grands groupes en particulier dans l'IoT très consommateur de cash. Netatmo ainsi risque fortement d'être racheté par Legrand car il y a un réel intérêt pour Legrand qui est déjà actionnaire (minoritaire) de Netatmo et pour Netatmo qui comme pour toute startup IoT a besoin de cash et de circuits de distribution. 

 

Autre question, est-ce que la marque Netatmo disparaîtra comme Withings après le rachat par Nokia ou pas si cela arrive ? Dans un premier temps, je pense que c'est préférable de la garder pour être garant des partenariats avec d'autres groupes. Legrand a intérêt à maintenir les partenariats de Netatmo avec d'autres entreprises comme Velux ou Muller (chaudières) et de développer un éco-système ouvert. Comme les frontières se brouillent entre les activités des acteurs dans le smart home (Legrand, Somfy, Delta Dore), 

Combat homérique entre contenant (Telcos : AT&T, Vodafone, Orange…), contenu (Disney, Time Warner, ligues de Sports...) et diffuseur (Facebook, Youtube, Netflix…)

Les coups de butoir sur la net neutralité aux États-Unis fin 2017 sont un prélude aux combats de titans en 2018 entre contenant (Telcos), créateur de contenu et diffuseur.

 

Déjà, des méga-fusions commencent à avoir lieu au sein de chaque division ( Disney rachetant Fox dont 21st Century Fox), les telcos (gestionnaires de tuyaux ;) rachètent des producteurs de contenus  (ex: ATT rachetant Time Warner-AOL , Comcast rachetant NBCUniversal, des diffuseurs sont convoités par des telcos et gestionnaire de contenus ( Yahoo racheté par Verizon, Hulu possédé par ComCast, Fox, Comcast et Time Warner) et les GAFA sont à l’affût des contenus emblématiques  (Amazon rachète les droits de tennis en Grande-Bretagne, et les droits d’adaptation à la TV du « Seigneur des Anneaux «  pour 200 M$, Youtube s’accord avec Universal Musics et Sony pour lancer son offre de musique en ligne, discussion entre la Ligue de Football et Facebook et Amazon).

 

Cela crée d’ailleurs de sacrés conflits d’intérêts (en particulier Disney et Comcast) qui peuvent aboutir à des cartels. Ce n’est pas pour rien que le Département de Justice US essaie de bloquer ou de revoir des rachats AT&T/Warner, Comcast / NBC Universal.

En revanche, je ne vois pas de telcos réussir à intégrer des créateurs de contenus car leur stratégie est profondément orthogonale avec celle des créateurs de contenus ( les résultats récents d’Altice plaident en ce sens et nous verrons ce qui résulte du rachat de Time Warner par ComCast).

 

L’objectif des producteurs de contenus est de le diffuser au maximum alors que celui des telcos, ayant une infrastructure limitée (bande passante, réseau fibre et ADSL)  est de valoriser au maximum le contenu (avec une logique de Yield Management en évitant du contenu largement diffusé ailleurs et favorisant le contenu exclusif).

 

A moins d’être une entreprise assumant sa schizophrénie et donc de séparer complètement les deux entités productrices de contenus et gestionnaire de tuyaux, ça ne marche pas. La tentation est trop grande pour le gestionnaire de contenu de rendre son contenu exclusif. On pourrait voir en Netflix ou HBO, une exception. Ce n’est pas le cas.

 

D’abord, ils sont diffuseurs et ont une logique proche des créateurs contenus, être diffusés le plus possible pour pousser du contenu. Ensuite, ils ne rachètent pas des sociétés qui créent du contenu, ils créent du contenu exclusif pour leurs abonnés sachant qu’ils ont une base client suffisamment grande pour le faire. La logique est similaire aux chaînes comme TF1 et Canal Plus qui produisent du contenu propre en plus du contenu acheté par des droits (films, sports).

Customer et Citizen Empowerment en devenir face aux entreprises et acteurs publics

En 2018, on commencera à voir plus de Customer / Citizen Empowerment auprès des entreprises et acteurs publics. En agrégeant leurs données et leur voix, ils représentent un pouvoir d’achat et électif qui peut changer le comportement d’entreprises et d’acteurs publics.

 

Mais cela prend du temps d’agréger tout ce monde, qui sait en 2018, nous aurons peut-être droit à des class actions retentissantes visant des GAFA ou des marques célèbres.

 

Déjà, Intel doit faire face à des 3 class action à la suite du  Failles Meltdown et Spectre car ils n'ont pas communiqué suffisamment rapidement dessus? 

 

Nous face à notre planète – d’une société Formule 1 à une société tout-terrain

Nous sommes face à une montée des catastrophes naturelles en 2017 et des situations extrêmes sur le plan climatique liée ou amplifiée par l’Homme, nous faisons face à de plus en plus d’attaques de cybersécurité (WannaCry…), à des mouvements migratoires massifs qui peuvent impacter durablement notre « way of life ».

 

Nous avons créé une société Formule 1 avec des routes conçues pour la vitesse, le problème est qu’aujourd’hui nous créons massivement des nids de poule qu’il sera de plus en plus difficile à éviter, d’où la nécessité de passer à une société tout-terrain (électrique !), comme je l’avais proposé il y a quelques années dans cet article.

 

Concrètement, il y a de fortes chances malheureusement qu’en 2018, une grande capitale ou une ville de plus de 2 millions d’habitants n’aient plus accès à l’électricité, l’eau et/ou aux télécoms pendant 1 mois ou plus et que cela s’empire avec le temps.

La technologie a aujourd’hui un objectif de performance, d’efficacité, avec ce type de catastrophes, nous prendrons conscience qu’il faut basculer à une technologie de résilience pour surmonter ce type de crise , car nous serons au pied du mur (c’est déjà le cas néanmoins !).

 

Pour donner un exemple concret, si vous n’avez plus d’électricité dans votre maison et que vous avez un voisin avec un panneau solaire, il ne pourra vous dépanner au-delà d’une distance de quelques rallonges électriques, car le réseau électrique actuel est centralisé et ne permet pas de partager l’électricité dans un quartier (peer-to-peer trading) et encore moins en partageant les coûts. L’utilisation notamment de la blockchain est une des briques permettant le déploiement de ce type de réseau (nommé aussi mini-grid).

 

L’IA embarquée, les réseaux locaux maillés comme Lora sont aussi des technologies qui permettraient d’assurer un premier niveau de services associés à des solutions low tech (nous pourrions nous inspirer des pays en voie de développement et de l’innovation Jugaad ).

 

Autant nous savons faire face à des urgences mais actuellement, au-delà de quelques semaines, si nous ne parvenons pas à rétablir  le réseau usuel, nous sommes fortement démunis, et cette situation devrait arriver de plus en plus souvent. Comme d’habitude, c’est une fois au pied du mur que nous réagissons, et en 2018, selon moi, nous serons massivement au pied du mur, voire le nez cassé contre la paroi.

Conclusion

Vu comme ça, 2018 ne semble pas une année des plus roses, je dirai que c’est une année où nous prendrons massivement conscience de la nécessité de modifier nos modes de vie.

 

Comme toujours, nous saurons surmonter ces crises même si on perdra quelques plumes. Il faut anticiper l’étape d’après ce bouleversement et faire en sorte que les chocs futurs soient plus amortis et que nous puissions nous relever plus rapidement par la suite.

 

N'hésitez pas à réagir à ce trop article sur les parties qui vont intéressent.

 

Dimitri Carbonnelle 

Fondateur de Livosphere 

Conseil en IoT, IA et Robots collaboratifs / Cobots

 

Les limites de l'IA, intelligence artificielle, réseaux neuronaux et des solutions pour y faire face

Après le Green Washing et l'IoT Washing, n'est-on pas face à du AI Washing. De nombreuses entreprises en particulier des startups se prévalent d'intégrer de l'intelligence artificielle, en font-elles vraiment et n'y a-t-il pas de fausses promesses derrière ?

 

N'y a-t-il pas des risques à utiliser de l'IA sans comprendre les impacts ? Est-ce que les réseaux neuronaux sont la panacée pour résoudre tous les problèmes ou au contraire ne nous mènent-ils pas vers une impasse en étant une boîte noire ? Est-ce que l'IA est robuste ou au contraire un géant à pied d'argile ? Qu'en est-il de l'IA forte qui supplanterait les hommes ? 

 

Il y a encore du chemin avant qu'une IA soit capable de rivaliser avec un être humain de manière complète. Le "Gift Test", test du cadeau (capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau) serait un bon indicateur de l'avancée de l'IA. On pourrait bien sûr inverser la situation de la photo, un homme à la place de la femme et un robot à l'apparence féminine et non masculine (ou encore homme/robot apparence homme ou femme, robot apparence femme), l'objectif de cette photo est d'illustrer le challenge pour un IA d'intégrer et d'anticiper la réaction de l'autre sans avoir la possibilité de la tester au préalable. 

 

Cet article a pour but de couvrir ces différents thèmes, il sera décomposé en trois parties. Dans cette première, j’aborderai l’intelligence artificielle de manière générale et je ferai un focus sur les réseaux neuronaux, ses limites et comment rendre explicable les réseaux neuronaux...

 

Dans les deux prochains articles, j’aborderai les autres types d’IA (réseaux bayésiens, algorithmes génétiques, logique floue, systèmes multi-agents ...) et les problèmes, interrogations posés par l’IA pour notre société (de l'ANI - IA faible à l"ASI - IA dépassant tous les hommes ("Singularity") en passant par l'AGI, équivalent à l'IH, intelligence humaine, les risques sur la  perte de créativité et la normalisation...) .

 

En bref, cet article-ci couvre :

 

Préambule sur l’AI Washing

Entre nous, qu’une startup fasse ou pas de l’IA n’est pas ce qu’il y a plus important voire pire pourrait vous alerter, l’IA est un moyen et non une fin.

 

La question principale est pourquoi font-ils de l’IA ? Est-ce qu’ils sont plus rapides à répondre, plus fiables, capables de couvrir un champ plus large, de donner des données introuvables autrement ou d’intégrer plus de données ? Quels sont les biais potentiels lorsqu’ils utilisent leur IA ? Peut-on expliquer les choix réalisés par leur IA (Si une startup vous dit qu’ils utilisent des réseaux neuronaux pour leur IA et qu’ils sont capables d’expliquer les décisions prises par cette IA … Il y a un petit souci, soit ils ne font d’IA soit ils en utilisent, mais ne la comprennent pas ou pire … )

 

Souvent des algorithmes simples auditables sont beaucoup plus efficaces qu’un réseau neuronal boîte noire dont on ne peut prédire de manière certaine les résultats. Pour donner quelques exemples, les statisticiens connaissent des tests comme

  • l’analyse multi-variée (très utilisée dans les sondages pour connaître la contribution de facteurs implicites dans une satisfaction globale),
  • le test de la médiane de Mood (fondé sur les écarts entre deux groupes de données sur base de la médiane (50% donc beaucoup moins sensible aux valeurs extrêmes) plutôt que la moyenne),
  • les modèles de CHAID (technique de type arbre de décision fondée sur Chi2 pour sélectionner par exemple un groupe de consommateurs et prédire comment leurs réponses à certaines variables affectent d'autres variables),
  • les plans d'expérience ( qui est une version multi-variables du test A/B et permet de mesurer des relations de cause à effets)   …
  • et encore plein d'autres 

Cela vous permet avec relativement peu de données comparées aux réseaux neuronaux de relever des différences significatives entre des groupes de données de les catégoriser, classifier, déterminer les principaux facteurs de variation et les corrélations, des relations de cause à effets... … Ces outils statistiques peuvent aussi servir de première base de travail pour l’IA (ex : pour créer un arbre de décision).

Définition de l'IA - intelligence artificielle

Il y a de multiples définitions de l'IA, selon Wikipedia, c’est « l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ».  Certains illuminés diront que c’est une pensée magique hors de la compréhension humaine, que des mauvaises langues traduiront par un ensemble d’algorithmes et d’opérations que l’intelligence humaine ne peut pas comprendre. Nous ne sommes pas loin du transhumanisme ...

 

C'est John McCarthy qui l'a défini en premier en 1956, comme "the science and engineering of making intelligent machines". Grosso modo, John nous a sorti  une définition de ce qui est artificiel, c’est-à-dire une machine et non une définition de l'intelligence artificielle ;)

 

L'IA est le Canada Dry de l'intelligence humaine, cela ressemble à de l'intelligence humaine, mais ça n'en est pas vraiment.

Opposer l’IA de l’intelligence humaine uniquement par son caractère non humain est pour moi, beaucoup trop réducteur.

 

A titre personnel, je pense que c'est une erreur de réduire la définition de l'IA à une IH (intelligence humaine)  qui n'en est pas, car cela génère tous les biais, généralisations, anthropomorphismes erronés et en premier cela oppose IA à IH alors qu’elles peuvent être complémentaires.

 

D’autres définitions décrivent l’IA par ce qu’elle contient, des poupées russes, une grande intégrant des systèmes experts / de règles, une plus petite avec du machine learning (système apprenant par elle-même ses règles) puis du deep learning (lié aux réseaux neuronaux cf. ci-dessous).

L'intelligence selon Platon

On oublie sans doute de définir d'abord ce qu'est l'intelligence. 

 

Selon les Définitions de Platon, l’intelligence est l' «activité qui permet d’acquérir la science»

 

Selon Wikipedia, l'intelligence est l'ensemble des processus de pensée d'un être vivant qui lui permettent de comprendre, d'apprendre ou de s'adapter à des situations nouvelles. C'est une faculté d'adaptation (apprentissage pour s'adapter à l'environnement ou au contraire, faculté de modifier l'environnement pour l'adapter à ses propres besoins).

 

L'intelligence peut être également perçue comme la capacité à traiter l'information pour atteindre ses objectifs. Le terme est dérivé du latin intelligentĭa, « faculté de comprendre », dont le préfixe ĭnter- (« entre »), et le radical legĕre (« choisir, cueillir ») ou ligāre (« lier ») suggèrent essentiellement l'aptitude à lier des éléments entre eux, à faire preuve de logique, de raisonnement déductif et inductif. 

IA nécessite la faculté d'apprendre pour des êtres non vivants

Pour ma part, j’ai aussi ma petite définition de l'IA 

 

C’est la faculté d'apprendre à transformer des données complexes et variées en décisions simples et pertinentes… pour des êtres non-vivants.

 

Je préfère dire ici "faculté d'apprendre" que "faculté de s'adapter", on pourrait avoir un système qui s'adapte, mais qui n'apprend pas (pour pousser un peu le raisonnement, l'eau liquide s'adapte à toutes les formes, mais n'apprend pas ;)

IA : finalité externe (venant de l'homme mais pas que...) - IH - finalité interne

D’autre part, selon moi, les êtres vivants se caractérisent par le fait qu'ils aient une finalité (consciente ou non) (par exemple survivre et se perpétuer).

 

Aujourd’hui, la finalité d’une IA vient de l’extérieur et non de l’intérieur, c’est l’homme qui la lui donne, mais on pourrait imaginer qu’un animal voire une plante transmette sa finalité à une IA (se perpétuer) et qu’elle l’aide à se nourrir, à se perpétuer … (exemple d'expérience : confronter une IA à une souris dans un labyrinthe géré par cette IA via des portes coulissantes donnant accès à de la nourriture. La survie de l'IA serait directement dépendante de celle de la souris. On pourrait même introduire plusieurs souris...).

 

Je pousse encore plus loin, une IA pourrait même tirer sa finalité et apprendre d’un environnement extérieur non vivant (observation des vagues de la mer, des transformations d’une montagne au cours des saisons, cycle d'un écosystème )… La survie de l'IA pourrait dépendre de la pérennité de l'écosystème (équilibre de la température, du taux de CO2...). En revanche, il y a au départ une intelligence humaine qui indiquera à l’IA d'où elle devra tirer sa finalité et apprendre à partir d’autres êtres vivants, de l’observation de la Nature…

 

J'ai une vision aristotélicienne à ce sujet : notre téléologie / finalité est intrinsèque (le "telos" est un principe de développement immanent et interne à tout être naturel).

 

Une IA n’a pas besoin de finalité pour survivre à la différence des êtres humains en revanche et des autres êtres vivants. Est-ce à dire qu’un homme qui deviendrait immortel perdrait sa finalité …

 

Après, rien ne nous empêche de revenir à Platon et de croire à une téléologie/finalité extrinsèque qui proviendrait d'un démiurge (une des idées de Elon Musk qui pense très probable et préférable que nous fassions partie d'une simulation et donc notre finalité pourrait être extrinsèque et non intrinsèque), mais alors qu'est-ce qui nous différencierait alors encore d'une IA ...

 

Bon, je vais arrêter de spéculer sinon je vais vous perdre définitivement ! (même si les thuriféraires et pourfendeurs de l'IA devraient se replonger dans la philosophie, un des rares métiers qui restera longtemps l'apanage des êtres humains ;) 

IA perceptive et décisionnelle

Il y a aussi de nombreuses manières de classifier l'IA en fonction de sa finalité, de son fondement mathématique, de la taille de son spectre ....

 

Aujourd'hui, les principales applications massives de l'intelligence artificielle sont dans la perception de son environnement, les images, les vidéos, la reconnaissance vocale, d'écriture, de texte (text mining), mais ça pourrait s'appliquer aussi notamment avec l'Internet des Objets dans la perception de matériaux, d'aliments, d'odeurs... sur base de leur signature chimique, spectrale... 

 

Les applications concrètes de l'IA dans la prise de décision sont comparativement encore peu visibles (mais cela évolue très rapidement). Son impact sur nos vies quotidiennes sera nettement plus important que l'IA perceptive, c'est là où résident toutes nos peurs et tous nos fantasmes (cf. article sur les armes autonomes, décisions juridiques...) avec cette peur ultime d'être mis au rebut par une IA supérieure... 

 

Pour donner un exemple concret, un véhicule autonome utilisera l'IA perceptive pour visualiser les autres automobilistes, panneaux de signalisation, piétons ...C'est l'IA décisionnelle qui prendra la décision de freiner, de changer de voie et potentiellement de faire le choix de sauver la vie du conducteur ou de sauver la vie des deux enfants et trois mamies qui se trouvent face à lui.

IA décisionnelle et le paradoxe du véhicule autonome

Pour l'anecdote, j'ai vu une étude où on demandait aux personnes quelle devrait être la réaction d’une voiture autonome face à ce choix. La très grande majorité des personnes ont dit qu'il fallait que la voiture sauve les enfants et mamies, quand on leur a demandé juste après s'ils étaient prêts à acheter ce type de voiture, ils ont quasiment tous répondu non.

 

Cela nous amène à un énorme paradoxe, le véhicule autonome a priori devrait sauver un très grand nombre de vies humaines (rappelons, qu’il y a eu 3477 décès en 2016 en France en raison d’accidents de la route), mais en choisissant de ne pas protéger en premier lieu le conducteur, on n'achètera de véhicules autonomes et donc au final il y aura plus de personnes victimes d'accidents de la route, conducteurs, passagers, piétons ...

 

Cela a d'ailleurs certainement motivé Mercedes qui a indiqué qu'il protégerait en premier lieu le conducteur. Si cela vous dit, vous pouvez passer le test réalisé par le MIT, pour voir ce que vous feriez si vous étiez à la place de l'IA (privilégeriez-vous les personnes âgées, les enfants, les piétons, les passagers, les animaux ou vous-même ?)

 

Autre point, ce type de dilemmes insolubles sera à mon avis rarissime comparativement à tous les accidents que nous avons aujourd'hui, mais peut nous bloquer dans l'adoption de ce type de technologies. Il est certes essentiel de se poser ces questions. C'est à la fois une bonne chose de prendre un peu de temps, car cela nous donne plus de temps de les assimiler et de décider quelles sont les règles à appliquer. Néanmoins, à un moment il faut décider, car en restant bloqué trop longtemps sur ces sujets, c'est la vie de nombreuses personnes que nous mettons en péril. Le port de la ceinture, les limitations de vitesse ... ont permis de réduire les accidents (il y avait plus de 18000 tués sur les routes en 1972 soit 5 fois plus qu'aujourd'hui), le véhicule autonome le permettra aussi certainement.

Décryptage des réseaux neuronaux 

Aujourd'hui, nous parlons beaucoup des réseaux neuronaux qui simulent très grossièrement le réseau de neurones humains. En gros, si vous vous rappelez vos cours de mathématiques de Terminale, les réseaux neuronaux reproduisent la multiplication de matrices.

 

En gros, vous avez des matrices d'entrée (par exemple une image de chat décomposée en points avec une valeur RGB)  et des matrices intermédiaires (avec des coefficients pondérateurs) qui vont la réduire (en agrégeant et sommant plusieurs données avec ces coefficients) en une probabilité entre deux choix ce soit un chat ou ce n'est pas un chat.

Machine Learning (ML dans des réseaux neuronaux)

Le machine learning couvre toutes les techniques d'apprentissage automatique. Il ne couvre pas uniquement les réseaux neuronaux mais d'autres types d'IA comme les resaeau xbayésiens, les algorithmes génétiques...

 

Ici, je ne couvrirai que le machine learning pour les réseaux neuronaux.

 

Au début, les réseaux neuronaux étaient créés manuellement, et l'apprentissage était réalisé par l'homme qui transformait ces réseaux neuronaux. Le machine learning intégré dans les réseaux neuronaux consiste à ce que cette phase d'apprentissage soit automatisée.   

 

Pour réaliser du machine learning (sur des réseaux neuronaux), au départ, les coefficients dans les matrices/couches intermédiaires sont aléatoires. Le machine learning consiste à faire passer au crible une quantité d'images, par exemple avec un chat et d'autres sans à un réseau neuronal (donc des matrices ayant des coefficients aléatoires).

 

Au début, le résultat est complètement aléatoire. On peut alors comparer le résultat avec celui donné par des humains ayant qualifié auparavant ces images. Si le réseau neuronal qualifie bien l'image (au début c'est par pur hasard), un mécanisme de rétropropagation (backpropagation) qui va renforcer les "neurones" ou plus simplement les coefficients de la matrice en leur donnant plus de poids (par exemple un coefficient de 1 devient 1,5), inversement si le réseau neuronal considère que c'est un chat alors que ce n'en est pas un, il va réduire la valeur des coefficients. En faisant cela des millions de fois, on peut arriver à une matrice qui se stabilise sur des coefficients précis. La rétropropagation utilise une technique qui permet de modifier la matrice de chiffres afin de minimiser l'erreur (nommée la descente de gradient via des fonctions de dérivation partielles calculable. L'avantage de celles-ci est qu'elles sont calculables en un temps linéaire et non exponentiel). La backpropagation peut être encore optimisée en utilisant le SGD  (Descente de gradient stochastique)

 

Néanmoins, il peut arriver que le réseau neuronal ne se stabilise pas ou atteigne des minimas locaux (il y a une meilleure solution, mais le réseau neuronal se stabilise sur une moins bonne solution). Si certains se rappellent d'autres cours de maths, c'est le même problème que les techniques de résolution d'équations et la recherche d'optima.

 

Le machine learning signifie que le réseau neuronal possède ce mécanisme de rétropropagation, car les coefficients vont au fur et à mesure évoluer pour se stabiliser (c'est ce qu'on appelle de l'apprentissage !). 

Deep learning (DL)

Le deep learning (DL) est une technique utilisée dans le machine learning qui utilise plusieurs matrices ou couches qui vont "voir" différentes choses (cf. schéma), typiquement pour un chat cela pourra être la couleur, la forme, la position....

 

Le machine learning (avant le deep learning/DL) était initialement doté d'une seule couche, au départ c'était des hommes qui a la mano devaient créer ces matrices.

Dans le deep learning, les multiples couches cachées (nommées "features") présentent l'avantage est de réduire drastiquement le taux d'erreur (de reconnaissance par exemple d'images) par rapport au ML (les chats seront mieux reconnus avec de multiples couches qu'avec une seule).

 

En gros, une image va passer chaque filtre (couleur, forme...), avec une probabilité d’appartenir à la catégorie "chat", en combinant les différents filtres. A la fin on sera à même de dire si c'est un chat ou pas (avec une probabilité).

La vraie revolution et explosion du ML puis DL est liée aux technologies actuelles (notamment la parallélisation des calculs comme le montre l'exemple de Nvidia Cuda et la quantité de données accessibles) qui permettent  de créer automatiquement une couche (machine learning mono-couche) puis plusieurs et même des centaines de couches (deep learning).

 


De manière très schématique, c’est comme si vous aviez des tamis avec des formes différentes, des tailles différentes, seuls les objets passant l’ensemble des tamis seraient considérés comme exacts (modulo le fait qu'à la différence d'un tamis où ça passe ou pas, chaque tamis donne une probabilité de faire partie de la catégorie) . 

Chaque filtre correspond à une abstraction différente de l’image (couleur, forme…). En revanche, cette abstraction n'est pas en général intelligible pour un être humain. Avant le deep learning, il y avait un seul filtre qui devait être créé manuellement et transformait une image en chat, avec le deep learning, les filtres (ou abstractions) se créent automatiquement grâce à l’apprentissage et permettent d’être beaucoup plus précis dans la détermination de l’image.

 

Pour citer Olivier Ezratty  "le DL visuel de Google utilise 152 couches alors que l’Homme n’en utilise que 5 dans son cortex visuel. Il y a une divergence des méthodes entre l'Homme et le DL. L’Homme a un cortex visuel plat « large » et faiblement profond. Le DL de vision est plus profond que large. Par contre, l’explicabilité du DL est plus simple, en théorie, pour les réseaux récurrents et à mémoire, qui servent surtout au NLP (Natural Language Processing - reconnaissance vocale et traitement ), même si leur fonctionnement est très mal expliqué dans la littérature."

Différences spécifiques entre ML et DL

Curse of dimensionality ou fléau de la dimension

D'autre part, le deep learning pose un autre problème, nommé le "curse of dimenonsiality" ou fléau de la dimension, pour résumer plus vous augmentez le nombre de dimensions (ou de couches), plus les données sont dispersées et éloignées les unes des autres, et donc moins il est facile de leur trouver un lien.

 

Pour l'illustrer, un extrait de wikipedia

"Leo Breiman donne l'exemple de 100 observations couvrant l'intervalle unidimensionnel [0,1] dans les réels : il est possible de dresser un histogramme des résultats et d'en tirer des inférences. En revanche, dans l'espace correspondant à 10 dimensions [0,1]10, les 100 observations sont des points isolés dans un vaste espace vide, et ne permettent pas l'analyse statistique3. Pour réaliser dans [0,1]10 une couverture équivalente à celle des 100 points dans [0,1], il ne faut pas moins de 1020 observations – entreprise gigantesque et souvent impraticable.

 

Le fléau de la dimension est un obstacle majeur dans l'apprentissage automatique, qui revient souvent à tirer des inférences d'un nombre réduit d'expériences dans un espace de possibilités de dimension élevée. Il devient alors souvent nécessaire d'injecter des informations a priori de manière à contraindre le système d'apprentissage pour obtenir des inférences. Il doit être préparé au type d'information à extraire. On parle alors d'inférence bayésienne."

Quantité de données nettement supérieures pour le DL Vs ML

Le DL de par ses couches a besoin de plus de données pour entraîner que du ML (réseau neuronal à une seule couche).
 
Pour des données structurées, issues notamment des base de données structurées, d'IoT, de logs.. le ML suffit généralement alors que la classification d'images, de vidéos nécessitera du DL.

Merci à Olivier Ezratty

Je remercie beaucoup Olivier qui a lu ma première version d'article publiée et que j'ai corrigé grâce à ses retours (notamment distinction entre ML / DL, curse of dimensionality, DL visuel de l'homme et de Google). je vous conseille très fortement de lire son eBook sur l'IA (plus de 300 pages,que je vais de ce pas lire :)

Problèmes des réseaux neuronaux

Problème de la boîte noire

Le premier problème est que nous n'avons aucune idée pourquoi un réseau neuronal va considérer une image comme un chat ou pas, plus largement on ne sait expliquer pourquoi il fait tel ou tel choix sur base des données qu’il reçoit ... C'est une boîte noire ou plutôt une boîte remplie de matrices de chiffres qui n'ont pas de sens pour nous.

 

La Chine a décidé récemment d'utiliser des robots dotés d'IA pour désengorger ses tribunaux ses décisions judiciaires. Il a été aussi utilisé pour revoir des décisions de justice, la moitié ont été corrigées et 541 condamnations ont été commuées ...

 

Imaginez que l'on condamne une personne à 20 ans de prison, mais qu'on soit incapable de lui dire pourquoi, juste parce que c'est fondé sur une IA surentraînée fondée sur des réseaux neuronaux. C’est un peu gênant …

Dans le même registre, Poutine a indiqué que le pays que l’IA apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui et que celui qui en deviendra le leader sera celui qui dominera le monde.». Il prône aussi la guerre préventive en disant « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. », ce qui comme je l’ai dit dans un autre article présente un risque de surenchère impossible à maîtriser …

 

… ce qui a fait dire à Elon Musk que le danger de l’IA est plus grand qu’une bombe nucléaire provenant de la Corée du Nord et serait sans doute à l’origine de la troisième guerre mondiale. 

Explainable IA

C’est une des raisons pour lesquelles, je pense, que le « buzz » autour des réseaux neuronaux devrait fort diminuer d’ici un ou deux ans pour laisser la place à l’ « Explainable IA » avec d’autres technologies d’IA comme les réseaux bayésiens, les algorithmes génétiques...

 

Même si, je propose ci-dessous une technique pour expliquer les réseaux neuronaux (je ne suis sans doute pas le premier à y avoir pensé ;)

 

Quantité de données nécessaires et non-détection des premiers cas, cas exceptionnels, cygnes noirs

Aujourd’hui, la création de réseaux neuronaux nécessite une quantité phénoménale de données et un temps d'apprentissage long (qui se réduit drastiquement néanmoins).

 

Une raison majeure de l’expansion des réseaux neuronaux est l’accès à des très grandes bases de données associées à la possibilité de réaliser des calculs massivement en parallèle (ex : architecture CUDA utilisée par NVidia pour ses puces GPU à la différence de puces CPU qui ont une architecture centralisée).

Lorsque les données sont accessibles ou générables automatiquement, cela n’est pas gênant. Le nouvel AlphaGo a joué contre lui-même 4,9 millions de parties et en 5 jours avant de dépasser le précédent AlphaGo qui a battu le champion du monde de Go, Ke Jie.

 

Il a appris par lui-même (sans historique préalable ou d’aide humaine). 

Les cas où il y a très peu de données 

Dans des domaines comme la santé, cela veut dire transmettre une quantité d'informations énormes qu'on ne souhaite pas particulièrement transmettre.  Tous les cas exceptionnels comme les maladies orphelines ne pourront être traitées à ce jour par les réseaux neuronaux en raison du manque de données.

 

Les cygnes noirs (catastrophes climatiques, tremblements de terre inattendus, crises financières…) sont aussi très difficiles à prévoir. Un réseau neuronal n’aurait pas été entraîné pour les détecter comme ils ne sont jamais apparus auparavant et donc par définition ne pourra les prévoir.

 

Même si l’accès à de très nombreuses données devient de plus en plus facile (accéléré par l’IoT ;), il y a de nombreux cas où le jeu de données est très faible et où vous ne pouvez pas tester une multitude de situations automatiquement (comme l'a fait AlphaGo en jouant contre lui-même). Même si la robotique devrait permettre notamment dans la biologie, la génétique d'avoir accès à de plus en plus de données. Par exemple, Eligo Bioscience, fondé par Xavier Duportet n'utilise pas aujourd'hui l'IA pour développer des biothérapies programmables au monde pour le microbiome. Imaginez que vous utilisez des cobots (robots collaboratifs) pour réaliser des tests biologiques en intégrant de l'IA pour faire des plans d'expérience et identifier les biothérapies le plus adéquates... En revanche, vous ne construirez pas de réseau neuronal sur base de tests cliniques avec des patients humains ! 

 

Dans d'autres domaines, une négociation commerciale en gré à gré (hors transactions standardisées), comprendre les réactions et les émotions de quelqu’un, savoir ce qui est juste ou non (différent de ce qui est légal ou pas qui est codifié et relatif en fonction des cultures, histoires de chacun…) sont autant de domaines qui ne permettent un test massif de données.

 

Ce problème pourrait être partiellement résolu si l'on trouve des solutions pour réduire drastiquement le besoin de données (un des axes majeurs de recherche de Yann Le Cun de Facebook) pour créer des réseaux neuronaux, d’autre part il y a d’autres systèmes comme les réseaux bayésiens, les réseaux multi-agents ... qui alimentent l’IA et nécessitent beaucoup moins de données.

 

Néanmoins, pour faire une analogie quantique (on en revient toujours au chat ... de Schrödinger), un des challenges de l'IA est que le test d'une hypothèse peut nous empêcher de la retester dans les mêmes conditions ou comme dirait Coco Chanel "Vous n'aurez pas deux fois l'occasion de faire une première bonne impression".

 

Enfin, s'il résout déjà les problèmes concernant un grand nombre de personnes où les données sont nombreuses, cela est déjà utile !

Règles claires nécessaires - des échecs à Starcraft

Echecs

Les réseaux neuronaux ont fortement évolué. Deep Blue a su battre Gary Kasparov aux échecs en 1997 qui est un jeu qui présentent un nombre élevé de possibilités mais accessible à l’époque (1,5^118 combinaisons – 30 possibilités de mouvement par joueur en moyenne et 40 coups par joueur) selon le mathématicien Claude Shannon.

 

En revanche ce n’était pas de l’IA mais de la « force brute», le super ordinateur calculait de 6 à 20 coups à l’avance  ce qui lui a permis de prendre le dessus sur Kasparov.

Go

Le go se joue sur un Goban de 19x19 (soit 361 cases au total), il est possible de jouer 361 combinaisons, soit 1,4 x 10^768 coups soit beaucoup plus que les échecs. Aujourd’hui, un ordinateur ne pourrait traiter l’ensemble des combinaisons.

 

AlphaGo développé par Deepmind (racheté par Google) utilise des techniques d’apprentissage supervisé (en intégrant des parties historiques, des conseils d’humains, et la méthode statistique de Monte-Carlo) et par renforcement (en jouant contre lui-même). En mars 2016, il bat Lee Sedol, un des meilleurs joueurs mondiaux (9e dan professionnel), le 27 mai 2017, il bat le champion du monde Ke Jie.

 

En octobre 2017, DeepMind dévoile AlphaGo Zero fondé sur une architecture simplifiée et n’utilisant plus ni la méthode de Monte-Carlo, ni des connaissances humaines. Il bat AlphaGo 100 à 0 après 21 jours à jouer contre lui-même.

 

Néanmoins, le jeu de Go et des échecs sont des jeux déterminés à informations complètes et parfaites (tous les joueurs disposent à tout moment des mêmes informations pour effectuer leurs choix, chaque joueur joue à tour de rôle (imparfaites si les joueurs jouent en même temps ce qui crée une incertitude).

Les différents types de jeu en fonction de la combinatoire, hasard, informations accessibles

Il y a une classification des jeux selon qu'il y ait un aspect combinatoire (joueur peut choisir parmi plusieurs options), le hasard et l'information.

 

Un jeu où un joueur n’a pas accès à la totalité des informations est un jeu à informations incomplètes. Un jeu intégrant du hasard est un jeu mixte (au lieu d'un jeu  déterminé).

 

"Les lignes A et B correspondent aux jeux où le hasard n'intervient pas, ces jeux déterminés peuvent être à information complète ou non. Les lignes C et D correspondent aux jeux mixtes où le hasard est associé à l'aspect purement combinatoire des jeux déterminés. Les lignes E et F n'ont pas de sens pratique dans le domaine des jeux. Les lignes G et H correspondent aux jeux de pur hasard.
01 - Les jeux déterminés à information complète (dames, échecs, jeu de go)
02 - Les jeux déterminés à information incomplète (Attaque, bataille navale)
03 - Les jeux mixtes à information complète (Backgammon, Pachisi)
04 - Les jeux mixtes à information incomplète (Poker, Rami, Tantalus, mah-jong)
05 - Les jeux de pur hasard (jeu de l'oie, serpents et échelles)"   

Michel Boutin, Le Livre des jeux de pions 

 

Tout l’enjeu ( ;), maintenant est de qu’une IA soit capable de battre des humains sur des jeux mixtes à informations incomplètes … par exemple le Poker.

Poker

Ca ne s’est pas fait attendre puisqu’une IA (Libratus développé par une équipe de l’Université Carnegie Mellon) en janvier 2017 a fait face à quatre des meilleurs joueurs professionnels de Poker en No-Limit Hold’em, en terminant gagnante de 1,76 million de dollars (virtuels) et a renouvelé l’expérience.  Pour réduire le facteur chance (et tester l'IA), deux règles ont été ajoutées : Les mains fonctionnaient en miroir, il n'y avait pas de tapis avant la fin.

 

D’autre part, la puissance de calcul nécessaire n’a pas coûté plus de 20 000 $.

Equilibre de Nash

Néanmoins, l'IA a un avantage car si elle n’a pas d’instinct, elle a appliqué une stratégie parfaite fondée sur l'équilibre de Nash (fameux mathématicien), qui a été vulgarisée dans le film "Un Homme d'exception" avec Russell Crowe.

 

"Pour tous les jeux dans lesquels le nombre de situations est fini, il existe un Équilibre de Nash."

 

L’équilibre de Nash est une stratégie qui garantit au joueur qui l’utilise, au minimum, de ne pas faire moins bien qu’un joueur utilisant toute autre stratégie.

Pour faire simple : en utilisant la stratégie de l’équilibre de Nash, vous ne pouvez perdre contre aucun joueur à long terme. L’existence de ces équilibres a été prouvée par John Nash en 1950, ce qui lui a permis d'obtenir le prix Nobel d’économie.

 

Cela signifie qu'en adoptant une stratégie parfaite dans le poker en appliquant l’équilibre de Nash, à long terme, ni l’instinct, ni les tells, ni l’intuition n’importent, ce que l'IA prouve ici. L'IA n'a donc aucun mérite ;)

 

Cela pose d'ailleurs un problème pour le poker en ligne qui doit évoluer car il est très difficile de distinguer un humain d'une IA.

Starcraft

Quelle est la prochaine étape ?

 

AlphaGo s’attelle à devenir le meilleur joueur à Starcraft II (jeu vidéo massivement multijoueurs) en tenant compte néanmoins des limites humaines (40 actions par minute maximum). Deepmind a réalisé un accord avec Blizzard pour lui permettre (via des API) à s’entraîner dessus.

 

La problématique pour DeepMind est de gérer une multiplicité d’objectifs annexes pour gagner (premier objectif) comme collecter des minéraux, la construction et l'évolution des infrastructures et des armes…  alors qu’il y a plus de 300 actions de base possibles dans StarCraft II. Un premier challenge a été réalisé, Song, parmi les meilleurs mondiaux à Starcraft a gagné 4 à 0 en moins de 27 minutes contre quatre IA... 

 

Quelques commentaires de sa part

"We professional gamers initiate combat only when we stand a chance of victory with our army and unit control skills. In contrast, the bots tried to keep their units alive without making any bold decisions." (In StarCraft, players have to destroy all of their competitors’ resources by scouting and patrolling opponents’ territory and implementing battle strategies.)
Song did find the bots impressive on some level. “The way they managed their units when they defended against my attacks was stunning at some points,” he said.

Les jeux de pur hasard : les seuls jeux où l'homme saura rester victorieux à 50/50 avec l'IA

Il reste heureusement des jeux ou l’IA ne pourra jamais battre les humains systématiquement … les jeux de pur hasard. La bataille et le jeu de l’oie seront-ils nos planches de salut ;)

 

 

 

IA face à des règles et des objectifs changeants, peu clairs, contradictoires ?

Pour tous ces jeux y compris Starcraft II, même si les moyens et sous-objectifs pour gagner sont extrêmement variés, il y a des règles du jeu claires avec un objectif final de gagner.

 

Qu'en est-il si les règles ne sont pas claires, varient avec le temps, les acteurs, que les objectifs sont variés, contradictoires ... est-ce que l'IA sera aussi bonne ?

 

Les réseaux neuronaux et la plupart des autres types d’IA ont besoin de règles strictes, d’un objectif clair à atteindre avec des données car l’IA apprend par rapport à cet objectif et doit calculer un écart entre ce qu’il a trouvé et l’objectif visé. Si cet objectif varie, n’est pas clairement défini, il est très difficile à l’IA de calculer un écart à réduire et donc d’apprendre.

 

Cela prendra encore un peu de temps pour l’IA de maîtriser des situations où il y a de nombreux objectifs à atteindre sans priorité claire entre elles, où les règles changent en cours de route ainsi que les objectifs.

 

Ces situations sont très nombreuses, réussir un partenariat commercial ou une négociation salariale en tenant compte des objectifs de l’entreprise, des objectifs des acteurs individuels qui peuvent être contradictoires (ex : chiffre d’affaires versus impact sur l’environnement, sur les salariés, impact à court terme versus long terme).

 

Faire plaisir à quelqu’un sur le long terme est d’une extraordinaire complexité pour une IA au-delà des cadeaux simples en fonction des goûts, de la culture, des valeurs, des liens que vous avez avec cette personne… Si une IA croit qu’en donnant le même cadeau à tous les anniversaires et fêtes, il fera plaisir, il se met le doigt dans l’œil ! On pourrait en faire un nouveau test de Turing, le "Gift Test" (ça sonne mieux en anglais ;) ! On mesurerait la capacité d'une IA à faire plaisir à une personne en lui faisant un cadeau. 

 

Enfin, aujourd’hui, l’IA ne choisit pas les sujets sur lesquels il va s’améliorer, c’est l’homme qui le décide et qui le programme en conséquence (on en revient à la question de finalité que j'évoque avant).

 

L’IA n’est pas encore au stade de se programmer elle-même pour s’attaquer à un nouveau problème qui sort de son champ ( mais ça viendra… impatient de rencontrer la première IA philosophe).

Manque de priorisation et de bon sens de l'IA

Aujourd’hui, les réseaux neuronaux ne voient pas en perspective mais à plat. Ils ne priorisent pas les données par elles-mêmes, au départ, chaque donnée unitaire a autant de valeur qu’une autre.

 

L’apprentissage / machine learning va donner du poids aux différentes valeurs en fonction d’un objectif.

 

Pour les humains, l’univers des données est vallonné voire montagneux et non un océan plat de données, nous accorderons beaucoup de valeur à des données venant de certaines personnes, même si elles sont rares (ex : ces paroles que nos parents, grands-parents.. nous disent une fois et dont on se souviendra toujours et qui peuvent marquer notre vie). L’IA moyennise, pas l’intelligence humaine (sauf si un humain dit à une IA qu’il faut pondérer certaines données en fonction de la source.) l’IA n’a pas de jugement propre, elle lui est externe (aujourd’hui en tout cas …).

L’IA n’a pas de bon sens. C’est d’ailleurs un risque important car en croyant en son infaillibilité répétée, nous pourrions être victimes d’erreurs flagrantes.

 

Un exemple amusant est de tracer une ligne mixte (continue et discontinue)  en cercle, cela attirerait des véhicules autonomes comme un pot de miel dans le cercle mais elles seraient incapables d'en sortir ;). Dans le quotidien, il y a un exemple concret lorsqu'il y a un obstacle infranchissable sur notre voie (par exemple un véhicule en panne) et que la route est délimitée par une ligne continue. A un moment, il y a de fortes chances que nous transgressions la règle de la ligne continue ;) Nous pourrions intégrer dans l'IA qu'elle peut transgresser des règles mais c'est ouvrir la boîte de Pandore ...

Biais de confirmation  - Ex : Recrutement par des Startups RH intégrant de l’IA

Ce manque de priorisation favorise paradoxalement le biais de confirmation.

 

L’ IA est par essence biaisée par les données qui la nourrissent. Pour donner un exemple concret, si votre entreprise a l'habitude de recruter des hommes blancs de moins de 30 ans ayant fait une école de commerce et que vous nourrissez votre intelligence artificielle de ces éléments, il n'y a quasiment aucune chance pour que vous recrutiez une femme de plus de 30 ans ayant fait des études littéraires alors qu'elle correspondrait potentiellement beaucoup mieux à ce dont vous avez besoin. 

 

C'est la raison pour laquelle il faut être extrêmement attentif aux start-ups qui intègrent de l'intelligence artificielle pour vous aider à recruter, car potentiellement cela pourrait favoriser un biais de confirmation et réduire vos chances d'augmenter la diversité dans vos équipes. En plus, vous seriez incapable de justifier le choix de l’IA. On appelle ça aussi le GIGO … Garbage In Garbage Out.

Faillible/hackable via de l'Adversarial AI

Un autre problème est que les réseaux neuronaux sont faillibles, il est très facile de les tromper et de les hacker comme le montrent quelques exemples ci-dessous.

 

Pour vous donner un exemple de risque potentiel, on pourrait imaginer que quelques panneaux de signalisation soient légèrement modifiés avec un filtre en plastique transparent invisible pour le commun de mortels, mais qui tromperait tous les véhicules autonomes. Cela pourrait être à l’origine d’une multitude d’accidents.

 

En plus comme ils agissent comme des boîtes noires il est quasi impossible de les déboguer comme un programme informatique traditionnel. De manière plus pernicieuse, on pourrait entraîner un réseau neuronal avec un lot de données correctes, mais en intégrant des exceptions qui pourraient servir de backdoor.

 

Les risques des réseaux neuronaux open-source en raison des backdoors inauditables

 

Prenons un exemple concret, imaginons que nous utilisions des réseaux neuronaux pour identifier des menaces de cyberattaque, vous présenterez d'un côté des exemples de cyberattaques et de l'autre des exemples qui ne seraient pas des cyberattaques pour entraîner le réseau neuronal à les distinguer. 

 

Le problème est que si une personne / organisation malveillante ou qui veut se ménager une backdoor a introduit des exemples de cyberattaques durant la phase d'apprentissage en les faisant passer pour des actions normales, il sera quasi impossible de pouvoir le déterminer et celui qui a entraîné le réseau neuronal aura une backdoor pour infecter un système en dissimulant sa cyberattaque, car elle ne serait pas détectée par l'intelligence artificielle.

 

Cela signifie aussi que l’utilisation de réseaux neuronaux open source peut présenter un risque de contamination, car vous ne saurez pas avec quoi il a été entraîné et  s’il cache des backdoors.

 

Dans le domaine des spams, c’est une technique nommée "poisoning" qui peut être utilisée a posteriori car une IA va continuer à apprendre sur base des attaques reçues. Si des mails sont envoyés avec des caractéristiques qui le font passer pour un non-spam ou inversement alors que c’est l’inverse, il peut contaminer l’apprentissage et cela crée une porte d’entrée. Ces techniques fonctionnent avec toutes les IA (qui apprennent). Dans le cas des spams, on utilise en général des réseaux bayésiens. Le problème des réseaux neuronaux est qu’ils sont très difficiles à auditer.. 

Des solutions pour expliquer les réseaux neuronaux et accélérer l'apprentissage 

Rendre explicable un réseau neuronal - Mission impossible ... Peut-être pas !

Les réseaux neuronaux sont très bien adaptés lorsqu'on a une très grande quantité de données et que les informations déduites par cette intelligence artificielle sont facilement vérifiables par un être humain (comme en cryptographie avec des clés publiques / privées où il est très long à déchiffrer un code si l'on n’a pas la clé et très rapide si l'on a la clé. Dans cette analogie, la clé est l’explication rationnelle de la décision )

 

En revanche, ils ne sont pas du tout adaptés lorsque nous devons utiliser ces données pour prendre une décision majeure et que le résultat est difficile à vérifier par l'être humain.

 

Pour faire face à ce problème, il y a plusieurs solutions (en dehors d’utiliser des « Explainable AI »).

 

La première approche est de les tester via les programmes type bug Bounty (des hackers "white hat" testent sous toutes les coutures l'intelligence artificielle).

 

Mais on peut aussi utiliser l’IA pour tester l’IA, c’est un champ nommé Adversarial AI, qui a pour objectif notamment de trouver les failles de cette IA et de l’améliorer. On crée alors des Generative Adversarial Networks (GANs),  qui vont créer un nombre innombrable de simulations qui seront testées par le premier réseau neuronal.

 

Cela signifie néanmoins que le Generative Adversarial Networks soit à même de classifier de la bonne manière pour que son résultat puisse être comparé à celui du réseau neuronal initial. C’est la technique utilisée par AlphaGo en jouant contre soi-même.

Démarche avec l'Adversarial AI / IA

On peut utiliser aussi le GAN (Generative Adversarial Networks) pour expliquer un réseau neuronal.

 

Cette technique permet d’entr’ouvrir la boîte noire en réalisant de la rétro-ingénierie.

 

La technique est d’intercaler une phase explicative entre la phase d'apprentissage et la phase d'exécution.

 

Pour cela, il faut partir d’une base classifiée par multi-critères, par exemple on va avoir une base qui sera classifiée selon des critères permettant de classifier si c’est un chat ou non, pour tenir compte des exceptions, on peut pour chaque critère donner une probabilité et utiliser des critères excluant la possibilité que c'est un chat.

 

Exemple :

-       Critère 1 – a des poils ou pas (Si non : 90% de chances de ne pas être un chat)

-       Critère 2 – est de couleur rose, bleue,… ( Si oui, 95% de chances de ne pas être un chat)

-       Critère 3 – a une laisse ( Si oui, 80% de chances de ne pas être un chat)

 

Pour chaque branche, on a au moins un exemple d’image mais idéalement il en faudrait des milliers au minimum.

 

On fait passer chaque image dans le réseau neuronal, et cela nous permet de savoir quels critères sont utilisés par le réseau neuronal avec un niveau de probabilité. Si les critères sont divisés à 50% environ, cela signifie que ce n’est pas un critère utilisé par le réseau neuronal et on peut élaguer. 

Utilisation Random Forest comme input d'un réseau neuronal pour le rendre explicable

On a ainsi construit l’arbre de décision du réseau neuronal avec des critères qui ont du sens pour les humains.

 

Ayant une base classifiée, nous pouvons aussi un cran plus loin et apprendre au réseau neuronal sur base de ses erreurs et le retester avec une nouvelle base classifiée… 

 

On peut même combiner cette méthode avec la technique des random forest (ou forêt d'arbres décisionnels), qui va créer un très grand nombre d'arbres décisionnels de manière aléatoire. Pour chaque feuille de l'arbre, il faut néanmoins avoir des images (ou une matrice de données) entrante dans le réseau neuronal. 

 

En passant à travers le réseau neuronal on pourrait calculer l'écart entre un arbre (qui symboliserai les règles implicites du réseau neuronal) et le résultat du réseau neuronal. L'arbre se rapprochant le plus des outputs du réseau neuronal serait la meilleure représentation de réseau neuronal.

 

On peut même imaginer un système d'apprentissage par backpropagation, où de nouveau random forest seraient créés sur base des écarts entre la vague précédente de random forest et les résultats de réseaux neuronaux (ainsi que des écarts entre arbres).

 

Génération automatique de données via les réseaux neuronaux

Avec le GAN, la création d’images pourrait être issue directement de la classification. Les couches cachées de notre réseau neuronal (par exemple, la forme, la couleur, la taille relative entre les membres de son corps…) pourraient d’ailleurs coïncider avec un nœud sur l’arbre décisionnel.

 

Le GAN créerait alors des images « chimériques » ou « coquecigrue » par exemple en décomposant une image existante, la transformant, la détourant, cachant des parties (oreilles, pattes, face…) en caractérisant chaque image.

 

Il est déjà possible de faire ce type de test comme le montre le site Pix2Pix qui crée une image de chat à partir d’un dessin à la main (le dessin n'est pas mon fort ;).

Vous pourriez encore plus facilement créer cet arbre sur le plan décisionnel avec des données structurées, par exemple si vous utilisez un réseau neuronal pour scorer des dossiers de crédits.

 

a.    Vous pouvez prendre un dossier et vous faites varier (en utilisant un GAN par exemple) une multitude d’informations, ex : Banque, prénom, âge, ville …

b.    En fonction des variations des décisions de crédit données par le réseau neuronal initial, vous pouvez reconstituer un arbre de décision (pas nécessairement exhaustif, mais avec l’IA vous avez la possibilité de prévoir beaucoup de cas).

c.     Cela vous permet aussi de calculer des effets de seuil, de basculement et de vérifier les biais (ex : sur le prénom ou nom, l’adresse…).

 

Dans le cas où le pourcentage de chaque option correspond de manière significative sur le plan statistique à l'équiprobabilité  (donc s'il y a deux options, à 50% +/- marge d'erreur liée à la taille de la population testée), cela signifie que cette branche n'est pas un critère et peut être éliminé de l'arbre de décision.

 

La limite néanmoins est que les règles que vous allez tester sont une approximation des règles dans le réseau neuronal. Si le réseau neuronal utilise les trois premières lettres d’un prénom, pour faire un calcul de scoring et que vous ne le testez pas, vous ne pourrez pas le décrire dans les règles. D’autre part, vous n’allez pas tester a priori des critères qui n’ont aucun sens pour vous (ex : la 3ème lettre du prénom, le numéro de l’adresse et le 4ème chiffre du code postal)

Accelérer le processus d'apprentissage en vectoriser les réseaux neuronaux 

Je propose aussi une autre démarche (c’est hardi, il y a de fortes chances que quelqu’un y ait déjà pensé depuis des lustres mais ne sait-on jamais). Je serai heureux d’avoir le retour de celles et ceux qui connaissent les réseaux neuronaux.

 

Aujourd’hui, le réseau de neurones entrant (image d’un chat par exemple) est une image matricielle comme une image bitmap décomposée en pixels RGB (Red Green Blue). C’est une image qui pèse bien plus lourd (à l’image des Bitmap) que d’autres images jpg qui utilisent notamment des algorithmes pour compresser l’image (avec perte pour jpg).

 

L’objectif est de transformer cette image composée de points en image vectorielle. L’image vectorielle est composée d'objets géométriques individuels, des primitives géométriques (segments de droite, arcs de cercle, courbes de Béziers, polygones, etc.).  Chaque point dans une image est calculé par des fonctions de manière continue et non discrète. Ainsi  la qualité de l’image n’est pas affectée si l'on agrandit une image à la différence d’une image fondée sur des pixels.

Exemple en transformant une courbe (sinus) en fonction (développement limité)

Imaginons pour simplifier que j’ai une image représentant une partie de courbe sinusoïdale soit la fonction y=sin(x). On peut la représenter par une courbe (x entre -1,4 et 1,3) dans une matrice 28*28 points.

 

Comme toute fonction, il est possible d’en réaliser un développement limité qui transforme une fonction quelconque en une fonction polynomiale (du type y= a+bx+cx^2+dx^3+…)  qui approxime la fonction au voisinage d’une valeur, ici 0.

 

Les développements limités sont d’ailleurs utilisés par les calculatrices depuis la nuit des temps car ils sont beaucoup plus simples à calculer que la fonction elle-même.

 

Ici, le développement limité (dl) d’ordre n de sinus est de y=x-x^3/(2*3)+x^5/(2*3*4*5)-…(-1)^n*(X^(2n+1)/(2n+1)!  + ε ( sachant que ε = epsilon, valeur négligeable = x^n * ε(x))

soit pour un dl d'ordre 3 de la fonction sinus au voisinage de 0 : y= x- x^3/(2*3) + ε

 

Avec cette solution on passe d’une matrice de 784 points à une matrice de 4 points (les facteurs de x).

 

Je fais ici bien sûr quelques raccourcis car d’une part, il y a des calculs à réaliser pour utiliser cette matrice de 4 points (élever chaque chiffre à une puissance de x) et toutes les images ne sont pas facilement vectorisables et leur poids peut être supérieur à celui de l’image initiale non vectorisée en fonction de la complexité de l'image (son entropie de Shannon).

 

L'intérêt de réduire la taille de cette matrice est d’accélérer les calculs et aussi de créer de nouvelles structures de réseaux neuronaux.


D'une matrice de 784 points à une matrice de 4 points ;)

Vectorisation d'une image

Dans l’exemple ci-dessous, je suis parti d’une image jpg que j’ai vectorisée (sous format SVG). La qualité est moins bonne, et le poids beaucoup plus élevé (10 fois – 1,5 MB). Néanmoins, si l'on réduit la qualité et on le met en deux couleurs, la taille est de 40k (et si l"on agrandit cette image, on ne perd plus en qualité). 

 

On pourrait utiliser des traitements pour simplifier l’image de départ afin de réduire le nombre de points. D’autre part, si l'on part d’une image vectorielle, le poids est bien inférieur à une image bitmap voire jpg (en fonction de la complexité de l’image et de sa représentation sous forme de formules).

Image Initiale en JPG (133ko)


Pour des données qui ne constituent pas des images, on peut utiliser d’autres formules mathématiques qui peuvent être similaires à celles utilisées pour compresser des données (Zip, RAR...).

 

Plus l'entropie de Shannon d'une matrice de données est faible (moins les données sont aléatoires), plus la taille de la matrice de fonctions sera réduite (comme la matrice 4*1 correspondant au développement limité du sinus) et donc plus li est intéressant d'utiliser cette méthode plutôt que la matrice originelle.

Image en SVG (1,5 MB) 

 et en 2 couleurs - 40 Ko


Conclusion

Les réseaux neuronaux existent depuis belle lurette, mais la puissance de calcul et la parallélisation massive des ordinateurs et la disponibilité de nombreuses données ont permis l'explosion de ces usages (qui a aussi permis le développement du deep learning).

 

Dans des domaines comme la perception (reconnaissance vocale, d'images...) ou pour donner des "insights" non explicatifs (ex: pour signaler qu'il y a des anomalies mais sans pouvoir expliquer lesquelles, analysées dans un second temps par une intelligence humaine ou un autre type d'IA), les réseaux neuronaux sont extrêmement puissants dès lorsque le nombre de données sont massives. 

 

Néanmoins il est essentiel de ne pas oublier leurs failles et faiblesses (quantité de données nécessaires, inexplicablité intrinsèque, faillibilité avec l'existence potentielle de backdoors indétectables, biais de confirmation ...).

 

La combinaison de plusieurs IA (dans l'Adverserial IA) pour tester une autre IA ou comme je le proposais pour créer un arbre de décision sont des possibilités qu'ils offrent pour réduire ces problèmes. 

 

Enfin, il faut toujours garder un esprit critqiue dans l'utilisation des IA car comme pour le GPS, si l'on se repose trop dessus, on en perd le sens de l'orientation au risque de se perdre définitivement ...

 

Dimitri Carbonnelle 

Livosphere - Agence Conseil en IoT / Internet des Objets, Intelligence artificielle et nouvelles technologies 

Conférence sur l'IA intelligence artificielle (Qu'est ce l'IA ?, GAFA, education, travail, IA depassant l'homme)

J'ai été ravi d'intervenir à une conférence sur l'IA , intelligence artificielle avec Florence Guthfreund Roland (avocate) et Patrice Slupowski en présence d'André Santini, maire d'Issy-les-Moulineaux.

 

Nous avons abordé beaucoup de thèmes différents :

 

 

 

  • Qu'est ce que l'intelligence artificielle et ses risques (IA boîte noire avec les réseaux neuronaux versus IA explicative avec les réseaux bayésiens)
  • le rôle des GAFAM (pourquoi ils investissent autant, l'implant des puces avec Neuralink par Elon Musk)
  • les risques et les impacts de l'IA sur l'emploi et l'éducation (développer la curiosité, IA n'est pas infaillible)
  • Proposition concrète : #1HumanPoint : ajouter un bonus d'un point sur les notes sur 20 pour les élèves ayant fait particulièrement preuve de créativité, d'inventivité

 

Définition sur l'intelligence artificielle (16m04)

  • Différents types d' IA (perceptive et décisionnelle)
  • Problème de l'IA boîte noire des réseaux neuronaux (ex: pour les décisions judiciaires ou les recrutements qu'on ne pourrait expliquer), et les IA explicatives (réseaux bayésiens...)
  • Différents horizons entre IA fortes dépassant l'homme (1 à 2 générations) et IA faibles, spécifiques aujourd'hui

 


L'emprise des GAFAM sur l'IA et les risques éthiques (36m14)

  • Pourquoi les GAFAM investissent-ils tant dans l'IA et la raison de la gratuité de beaucoup de solutions IA
  • Les risques de rejet massif en cas de trop forte emprise
  • Position sur Neuralink d'Elon Musk (implants de chips d'IA dans le cerveau) (avec un exemple des malades d'Alzheimer "augmentés")

Les risques de domination de l'IA sur les hommes (51m19)

  • Impact de l'IA sur les différents emplois avant que l'IA domine l'homme
  • Antécédent : Réaction US face à l'arrivée des tracteurs pour les agriculteurs au début du XXe siècle
  • Pour l'école : Apprendre à apprendre, travailler avec l'IA et les robots 
  • Garder un esprit critique car l'IA est faillible
  • Cultiver la créativité, la curiosité, avec une proposition concrète :
  • #1humanPoint - Ajouter un point de bonus pour les élèves ayant fait particulièrement preuve de créativité, inventivité

Questions / réponses de la salle :

  • Création d'un "GAFA" en Europe
  • Qu'est-ce qui empêcherait le moteur de recherche Qwant de rivaliser avec Google ?
  • Est-ce que la France, l'Europe peut encore gagner face aux GAFA, aux USA ?
  • Sécurité des IoT, IA avec les problèmes de résilience en cas de pannes... notamment en cas de catastrophes naturelles
  • Dangers des armes autonomes et des robots tueurs
  • Taxe sur les robots

J'ai écrit ausi un article sur le futur de l'éducation et du travail face à l'IA et les robots, si vous êtes intéressés :

http://bit.ly/livo_IA

 

Dimitri Carbonnelle Fondateur de Livosphere

Agence Conseil en Nouvelles technologies IoT, IA ...

 

 

#1HumanPoint - Le futur de l'éducation et du travail face à l'IA et aux robots

Nous sommes à l'aube d'une nouvelle ère, après avoir démultiplié notre force physique grâce aux moteurs thermiques, électriques, nous avons la capacité de démultiplier notre force intellectuelle avec l'intelligence artificielle associée pot aux robots.

 

Cela bouleversera profondément notre manière de travailler, de vivre et aussi d'éduquer. A l'image des luddites, il serait vain et contre-productif d'interdire IA et robots. Il faut que nous apprenions à les comprendre, à prendre appui sur eux mais aussi à les critiquer, y faire face en gardant et en cultivant nos différences tout en apprenant ne pas se reposer systématiquement

 

Il y a en particulier une proposition que je souhaite mettre en avant pour favoriser nos différences en particulier la créativité :

  •  ajouter un bonus d'un point sur une note sur 20 pour les enfants interrogés qui ont démontré une démarche, un esprit particulièrement inventif audacieux créatif.

En plus de favoriser la créativité, cela favorisera le goût de l'effort pour tous les enfants qui ne se contentent pas de ce qu'on leur apprend mais qui veulent aller plus loin. C'est un premier vers l'esprit d'entreprendre, oser prendre des risques.

 

Aussi, c'est un signe fort pour montrer que nous les femmes et les hommes sommes capables d'avoir 21 sur 20 ce qui restera inaccessible pour l'intelligence artificielle très longtemps, espérons jamais.

 

 

Pour paraphraser une phrase très connue c'est un petit point pour les enfants aujourd'hui, ce sera un Grand Point pour l'Humanité demain

Nous sommes faces à un monde de plus en plus complexe devant lequel nous sommes de plus en plus démunis

Aujourd'hui nous sommes confrontés à un monde de plus en plus chaotique, incertain où les catastrophes climatiques se succèdent aux menaces terroristes, où les mouvements de population deviennent de plus en plus difficiles à contenir face aux inégalités criantes, où les ressources se raréfient dramatiquement alors que les besoins explosent et que nous sommes de moins en moins d'actifs à pouvoir y répondre.

 

Il n'y a pas de solutions complètes à tous ces problèmes qui nécessitent des changements massifs de comportements, d'habitudes, nous demandent de revoir nos modes de pensées et vont bouleverser nos civilisations.

 

Face à la complexité, à la nécessité de pouvoir répondre en temps réel, l'être humain est souvent démuni car il ne peut traiter toutes ces informations en tenant compte de tous les impacts potentiels.

 

L'intelligence artificielle, sans être une panacée, peut apporter des réponses car elle a cette capacité. Les robots peuvent eux aussi pallier au manque cruel de bras que nous avons, sachant qu'il n'aura plus que 2 actifs (20-65 ans) pour un senior (>65 ans) à partir de 2040 au lieu de 4 dans les année 1990

L'intérêt de l'IA dans nos sociétés

Les applications de l'IA sont extrêmement nombreuses et pour donner quelques exemples peuvent fortement réduire la mortalité en réduisant le nombre d'accidents mortels grâce au véhicule autonome ou de malades et de décès de dus au cancer grâce à un diagnostic précoce qu'un médecin serait incapable de réaliser seul.

 

Les robots peuvent dans les pays occidentaux réduire la désindustrialisation voire même permettre une réindustrialisation partielle (très difficile de connaître la balance positive ou négative à ce sujet) car une main d'oeuvre peu qualifiée située dans des pays en voie de développement peut être remplacée par des robots pilotés par des hommes situés dans les pays consommateurs.

Le coût de la main d'oeuvre devenant moins important dans le coût total de production alors qu'une relocalisation près des lieux de consommation permet d'accroître la flexibilité, de réduire les fuites de technologies comme le fait Devialet avec ses usines françaises parmi les plus robotisées.

 

Enfin, les robots permettent aussi de réduire les tâches répétitives causant notamment des troubles musculo-squelettiques (TMS).

Les impact de l'IA sur l'emploi

Evidemment, tout n'est pas rose dans le monde de l'intelligence artificielle et des robots. Un des grands problèmes qu'ils soulèvent est le risque massif de perte d'emploi pour de nombreux salariés.

 

Les trois domaines qui risquent le plus de perdre des emplois sont liés à la vente de produits (en raison de distributeurs automatiques, de la réduction du nombre de magasins devenant des showrooms et remplacés par des sites Internet...), les emplois industriels et toutes les tâches administratives ( comptabilité, finance, support client de premier niveau...).

 

Il est très difficile d'évaluer la balance entre les emplois gagnés et perdus. Un très grand nombre d'emplois dont nous n'aurions jamais imaginé l'existence il y a 20 ans sont apparus. Nous avons vécu une situation similaire quand les tracteurs sont arrivés au début du siècle.

 

Aux États-Unis, c'est posé une vraie question sur tous les emplois perdus en raison des tracteurs. Les États-Unis ont alors décidé d'accroître l'âge de la scolarité obligatoire de 13 ans à 16 ans qui leur a permis de former des hommes et femmes pour les emplois de demain.

Impact principal IA, pas la destruction mais le bouleversement des emplois

Des études anticipent que seulement 10 % des emplois seront quasiment totalement automatisés et donc détruits par l'intelligence artificielle (ex: les comptables qui appliquent à la lettre les règles comptables sans apporter de conseil additionnel). 40 % des emplois seraient faiblement touchés par l'automatisation comme le métier d'infirmière en raison notamment du lien humain indispensable.

 

En revanche, 50% des emplois seront fortement automatisés de l'ordre de la moitié des tâches ce qui signifie que les métiers seront profondément modifiés mais que les emplois ne sont pas détruits si les personnes concernées s'adaptent à ce bouleversement. Cela signifie aussi qu'il y a une vraie nécessité d'apprendre à travailler avec les robots.

L'intelligence artificielle est multiple

Il y a parfois une vision simplifiée de l'intelligence artificielle assimile à une intelligence monolithique qui croit progressivement. Il serait donc facile que l'intelligence artificielle dépasse un jour ou l'autre l'homme grâce aux capacités de calcul qui croissent exponentiellement.Il serait donc facile pour l'intelligence artificielle de dépasser celle d'un homme.

 

C'est une vision complètement erronée de l'intelligence qui est réduite alors à un chiffre, le quotient intellectuel qui certes mesure une partie d'intelligence mais n'est pas représentative du toute l'intelligence d'un être humain ou d'une machine. L'intelligence est multiple que ça soit sur la perception, la compréhension, l'analyse des images, des sons, des émotions, les capacités de synthétiser de faire des analogies, la créativité ...

Aujourd'hui l'intelligence artificielle est surtout très bonne pour percevoir des images des sons, analyser des données dans un champ réduit. C'est une intelligence artificielle spécifique, l'IA qui a battu le champion du monde de Go est bien incapable de lire la moindre mammographie pour détecter un cancer.

 

Même si aujourd'hui il doit pas y avoir beaucoup de cancérologues qui sont champions du monde de Go en revanche l'être humain a la capacité de comprendre un très grand nombre de sujets et de domaines avec très peu de données.  

L'IA forte rivalisant avec les hommes pas avant 30 ans

Le mythe de l'intelligence artificielle forte ("High level machine intelligence " (HLMI), capable de rivaliser avec un humain qui est d'ailleurs le vecteur de communication du transhumanisme est loin d'arriver (mais ça arrive vite...).

 

Même si les prévisions dans ce domaine sont extrêmement difficiles à faire actuellement 50 % des experts pensent que cela devrait arriver dans une cinquantaine d'années au plus tôt. En résumé, nous avons entre une et deux générations pour nous y préparer.  

L'IA est faillible

L'autre élément essentiel est que l'intelligence artificielle n'est pas infaillible au contraire, elle est faillible.

 

L'intelligence artificielle est directement dépendante des informations qu'on lui donne et dans bien des cas a beaucoup de difficultés à voir des incohérences qui sauteraient aux yeux de n'importe quel humain.

 

Pour l'anecdote lors de la finale de Jeopardy sur le thème de villes aux Etats-Unis, Watson, l'intelligence artificielle d'IBM a certes gagné contre les humains en revanche elle a fait des erreurs manifestes que nous n'aurions pas faites.

 

Elle a situé la ville de Toronto comme une ville américaine (thème des questions) et non comme une ville canadienne. La raison probable est que Toronto fait partie d'un certain nombre d'associations, organisations américaines (Hockey, civils...) et que l'intelligence artificielle a conclu qu'elle faisait partie des États-Unis.

 

Diabète intellectuel si les enfants et adultes se reposent sur l'IA

Parlons maintenant de l'impact de l'intelligence artificielle sur l'éducation, déjà aujourd'hui un certain nombre d'études montreraient qu'il y a une baisse de QI (qui bien que ne représentant pas l'intelligence totale est un indicateur intéressant à suivre) sur le plan mondial qui serait notamment lié à l'utilisation massive d'écrans par les enfants en bas âge et qui pour cette raison aurait beaucoup moins d'interactions avec leurs proches et l'extérieur et empêcherait ainsi le développement normal de leur cerveau.

 

Un des premiers risques est celui de "diabète intellectuel", cela signifie que les enfants et les adultes se reposent de plus en plus sur l'intelligence artificielle pour prendre leurs décisions, lui fasse confiance de plus en plus aveuglément sans esprit critique et perdant en cela leur créativité, leur esprit critique, leur capacité à transgresser les règles et les inventer car prescrits par les robots avec le consentement le consentement passif des humains.

Collaborer, travailler, programmer avec des robots, IA

L'arrivée de l'intelligence artificielle et de robots me semble inexorable mais aussi indispensable compte tenu des défis à surmonter sur notre planète (réduire et optimiser les consommations énergétiques et des ressources comme l'eau potable, réduire la mortalité sur les routes, les cancers...).

 

Vouloir l'interdire me semble contre-productif en revanche il faut apprendre à vivre avec et empêcher ses dérives.

 

Si on se focalise sur l'éducation, la clé est que les enfants apprennent à apprendre en plus d'apprendre. Apprendre la démarche pour résoudre un exercice est aussi voire plus importante que de savoir appliquer strictement une démarche aboutissant au bon résultat sans la comprendre.

 

Les principes qui me semblent essentiels à appliquer dans l'éducation c'est tout d'abord apprendre à travailler avec l'intelligence artificielle et les robots plutôt que de s'y opposer. Cela peut se matérialiser par des cours de codage où les cours pour programmer des robots en revanche l'objectif n'est pas que tous les élèves deviennent des super développeurs comme ce n'est pas l'objectif du sport à l'école que tous les élèves deviennent des sportifs de haut niveau, d'autant que l'intelligence artificielle va automatiser et rendre caduc beaucoup de programmation.

... Et savoir qu'il est faillible et pouvoir s'en passer

Un autre principe essentiel est de comprendre les limites, les failles de l'intelligence artificielle, ne pas se reposer sur lui aveuglément et gardez toujours l'esprit critique.

 

Il est important qu'ils apprennent la résilience, la capacité à se passer d'IA, de robots (séance sans ordinateur, smartphone…)

 

 

Cultiver ce qui nous distingue : Créativité, travail en équipe, esprit critique

 

L'homme se distingue par sa créativité, ses capacités à créer de nouvelles règles pour les adapter, à avoir l'esprit critique et curieux, apprendre sur un très peu nombre d'exemples ou sur de bases informations dans structure et avoir un esprit et l'intelligence généraliste qui tient compte de l'humain qui a des valeurs qui s'est croisé les informations qui sait aussi sortir des sentiers battus transgresser s'insurger.

 

Il faut cultiver ce qui nous différencie comme la créativité, la relation humaine, le travail en équipe, l'ouverture sur des domaines extrêmement variés, la capacité à transposer des expériences, pratiques dans des domaines très différents

 

 

 

L'école doit aussi faciliter l’expérimentation / le travail par projet d’équipe ("hands-on experience") y compris pour des matières telles que la géographie / histoire en renforçant les « serious game », les simulations et la découverte et l’expérimentation sur le terrain (aller chez un agriculteur pour servir de complément aux cours sur la géographie française, ) sont quelques pistes aussi pour apprendre aux enfants à sortir du cadre.

 

 

L'objectif est que les enfants d'aujourd'hui puissent créer et développer les métiers de demain sans les connaître à l'avance.

#1HumanPoint - BONUS +1 sur une note sur 20 si démarche créative, audacieuse, inventive

J'ai une dernière proposition ajouter un point de bonus à un élève qui aura une démarche particulièrement créative audacieuse inventive indépendamment du résultat final.

 

Ce point est essentiel car il va inciter les enfants à être créatif, à oser, à être curieux, à entreprendre, à prendre des risques.

 

Il symbolise aussi le fait que seul l'homme peut atteindre 21 sur 20 à la différence de l'intelligence artificielle et des machines.

 

C'est un petit point pour les enfants aujourd'hui et ce sera un grand point pour l'humanité demain.

 

Dimitri Carbonnelle - Fondateur de Livosphere

(Mise en place de Nouvelles technologies - IoT, IA...)

 

Risques des robots tueurs, armes autonomes et les solutions pour y faire face

Les robots associés à l’intelligence artificielle promettent de révolutionner notre monde en simplifiant notre vie en s’occupant de tout ce qui est "Dirty, Dangerous, Dull" ( Sale, Dangereux et Ennuyeux) parfois trop d’ailleurs…

 

En ces temps, où guerres larvées ou déclarées, terrorisme, attentats percutent notre quotidien, Elon Musk avec 115 autres experts redemandent à interdire les robots tueurs alors que l’ONU vient de reporter sa réunion sur le sujet (novembre 2017, initiée en 2013).

 

En parallèle, la Russie a annoncé le développement de missiles capables de choisir leur propre cible (« À ce jour, certains succès sont disponibles, mais il faudra plusieurs années de développement pour obtenir un résultat précis. » dixit Boris Obsonov PDG de Tactical Missiles Corp.)

 

Je suis extrêmement inquiet des risques de surenchère et de propagation incontrôlée qui risquent d’advenir avec les armes autonomes et robots tueurs car ils risquent de donner à un individu lambda la capacité de tuer une multitude de personnes extrêmement facilement sans se faire prendre. Si on se réfère à l’anneau de Gygès, une vieille fable de Platon (République, Livre II - Wikipedia), ce n’est pas bon signe.

 

Ce sont des milliers voire des millions de Kim Jong-un en puissance qui risquent d’apparaître. On voit à quel point il est difficile de contrôler quelqu’un qui joue à balancer des allumettes dans la poudrière mondiale, imaginez si vous multipliez leur nombre ... Et nous n’avons que quelques années avant d’éteindre la mèche car il sera très difficile de revenir en arrière une fois que les armes autonomes commenceront à apparaître.

.

Plutôt que d’attendre de voir les missiles et armes autonomes passer, je préfère réfléchir, faire réfléchir et dire

  • en quoi les armes autonomes et ce que j’appelle les assbots (version robotisée des troufions, pardonnez-moi pour mon langage !) sont un danger majeur pour l’humanité par rapport aux armes traditionnelles,
  • en quoi « Imagine a war with no dead people ...with no wounded people too » grâce aux armes autonomes est un non-sens,
  • quels sont les problèmes majeurs pour les interdire (choix cornélien : se protéger Vs désarmer tous) tout en posant la question à partir de quand dit-on qu’un robot prend la décision de tuer,
  • le duo avec la cyberguerre et
  • quelques pistes et recommandations pour interdire / freiner leur développement.

Je n’ai aucune compétence et expérience dans le domaine de l'armement, j'ai juste souhaité anticiper ce qui peut nous arriver comme je le fais sur d'autres sujets (e-santé, ville - smart city, futur du travail et de l'éducation…) qui impliquent des nouvelles technologies.

 

Alors si quelques idées germent et permettent de prévenir certains risques et de réduire le développement de ces armes, ce sera cela de gagné.

 

N’hésitez pas à partager et commenter cet article pour faire avancer ces idées complétées avec les vôtres.

Dérives possibles de l'IA et des robots avec les robots tueurs

Elon Musk avec 115 autres experts veulent interdire les robots tueurs (un premier appel avait déjà été lancé en 2015, par Elon Musk, Stephen Hawking, Noam Chomsky et Steve Wozniak, cofondateur d’Apple.. ) alors que l’ONU vient de reporter sa réunion sur le sujet (initiée en 2013).

 

L’objectif est d’interdire les armes autonomes capables de prendre la décision de choisir et de tuer des cibles sans intervention humaine (ex : armes automatiques, drones, tanks…).

 

Avec la baisse drastique des coûts des technologies robots, IA / intelligence artificielle, Internet des Objets/IoT…), cela entraîne aussi la baisse dramatique des coûts et une facilité accrue pour tuer un être humain. Nous fournissons un accès quasiment libre à des poudrières. Beaucoup s’en empareront et volontairement ou pas allumeront la mèche … déclenchant une réaction en chaîne avec des explosions dévastatrices, sans même qu’ils aient toujours imaginé l’impact de leur geste.

« Imagine a war with no dead people ...with no wounded people too »

Certains contradicteurs chantonneront sur l’air de John Lennon « Imagine a war with no dead people ...with no wounded people too » en imaginant une guerre propre avec une armée d’assbots. N’est-ce pas le rêve de tout général, de toute famille de soldat et d'une opinion publique de gagner une guerre sans verser le sang de ses compatriotes.

 

Aussi, une guerre sans victimes serait plus accessible, plus facile à déclarer, moins gênante vis-à-vis de l'opinion publique. En plus, remplacer un robot détruit par un nouveau robot ferait tourner l'industrie manufacturière, alimenterait des armées de data scientists, d’experts en IA …

 

D’autre part, avec les armes autonomes, la prime reviendrait à l'attaquant et non à la défense, nous pourrions ainsi assister à une multiplication des guerres préventives comme nous en avons connu avec la 2e Guerre en Irak, afin de détruire toutes les capacités offensives de nos rivaux potentiels.

Une guerre commencée sans douleur accélère l'escalade vers la guerre totale

Malheureusement, le risque est une surenchère à la guerre préventive où chaque Etat aurait intérêt à attaquer l'autre juste pour réduire le risque d'être attaqué.

   

Imaginons deux Etats qui s'affronteraient avec une armée d’Assbots  chacun, face à l’autre. Nous pourrions faire une analogie avec deux soldats sous morphine (les assbots étant la morphine car leur perte n’entraîne pas de douleur) qui ne sentant plus la douleur se battraient jusqu'au bout, l'un contre l'autre .

 

Jusqu'au bout mais jusqu'au bout de quoi ?

 

Jusqu'à ce que le seuil de douleur devienne inacceptable par la perte d’êtres humains ou jusqu'à ce que l'Etat prenne conscience qu'il a beaucoup plus à perdre en poursuivant la guerre qu'en acceptant d'être vaincu aux conditions de l'adversaire. 

Oui mais si votre adversaire a déjà détruit tant que vous n'ayez plus grand-chose à perdre, ne seriez-vous pas tenté d'emmener votre adversaire dans votre chute vers une guerre totale ?

 

Après deux bombes atomiques, les Japonais ont accepté de cesser la guerre. Que faudrait-il pour faire cesser une guerre de robots. Si a priori vos robots ne tuent pas pas hommes, femmes et enfants, les robots de vos adversaires risquent de passer à la vitesse supérieure pour vous faire céder, ils ne se contenteront pas de briser de la belle mécanique et électronique. 

 

A l'image de ces deux soldats sous morphine, le seuil de douleur devient plus élevé alors que leurs blessures seront nettement plus profondes. La douleur est une limite à franchir avant de poursuivre l’escalade, s'il n'y a plus de douleur, il n'y a plus de limites.

 

Les robots tueurs accélèrent l’escalade guerrière vers le point de non-retour et poussent à la guerre totale, à l’anéantissement de l’adversaire et … le sien. La différence entre les guerres passées et les guerres avec des robots tueurs est que les premières ont mis à genoux de nombreux pays, la France, l’Angleterre, l’Allemagne, le Japon …  mais ne les ont pas anéantis, les deuxièmes ne permettront pas à ces nations voire nos civilisations de se relever.

 

C’est une hérésie de croire à une guerre propre avec des robots tueurs car ce qui dissuade des pays de déclarer la guerre à d’autres ou les inciteraient à capituler et empêcher la guerre totale est l’insupportable douleur de sa population et ses pertes humaines.

 

Alors oui, il est d’une absolue nécessité de les interdire mais est-ce possible ?

Est-il possible d’interdire les robots tueurs et autres armes autonomes ?

Nous sommes face à ce choix cornélien : pour nous protéger vaut-il mieux être armé avec le risque d’armer nos adversaires ou que nous soyons tous désarmés sachant qu’il est de plus en plus facile de créer des armes autonomes, de les utiliser sans risquer de se faire détruire.

 

Nous pouvons faire le parallèle avec la convention sur l’interdiction et la destruction des armes chimiques (1997) et le récent traité d’interdiction des armes nucléaires adopté à l’ONU, voté par 122 Etats mais aucun des neuf pays détenteurs de la bombe, à savoir les six Etats « dotés » au sens des traités internationaux (Etats-Unis, Russie, France, Royaume-Uni, Chine et Inde), auxquels s’ajoutent les Etats non déclarés (Pakistan, Israël et Corée du Nord) ne l’ont signé ..). 

 

Cela vide quasiment de toute sa substance le traité, c’est comme si tous les citoyens n’ayant jamais porté d’arme s’engageaient à ne porter d’armes ! (même si cela n’influence les autres …)

 

 

La position de la France dans ce dernier cas est très instructive :

Mettant en avant la force dissuasive de l’arme nucléaire encadrée par le traité de non-prolifération, mais aussi ses efforts en matière de désarmement, Paris estime que « le désarmement nucléaire ne se décrète pas ». Selon le communiqué du ministère des Affaires étrangères, « un traité d’interdiction des armes nucléaires risque d’affecter la sécurité de la région euro-atlantique et la stabilité internationale », et il est « susceptible de fragiliser le traité sur la non-prolifération des armes nucléaires, pierre angulaire du régime de non-prolifération ».

Dilemme du prisonnier - O.K. Corral mondialisé, tous avec le doigt sur la gâchette

Nous sommes face à un dilemme du prisonnier sauf qu’au lieu d’avoir deux prisonniers vous en avez des milliers voire des millions (Etats, organisations terroristes, individus isolés…) si un seul trahit, il peut mettre en danger tous les autres. C’est à l’image d’un O.K. Corral mondialisé réunissant Etats, organisations, individus main sur le revolver, prêts à dégainer sur un malentendu ou un cliquetis suspect.

 

Personne n’ayant confiance en personne, cela risque de se traduire sous forme de guerre froide démultipliée où chaque Etat et organisation se gardent la possibilité d’utiliser ces armes de manière défensive … voire préventive en surveillant les autres, en essayant de réduire leur accès de technologies sensibles et en se donnant les moyens de les saboter (via des virus ou chevaux de Troie dormants activés si la menace se précise).

Robots tueurs - Prolongements physiques de la CyberGuerre

La cyberguerre collabore étroitement avec la guerre par les robots tueurs. Le robot tueur est le prolongement physique de la cyberguerre. Les nombreuses attaques récentes comme WannaCry ou Stuxnet peuvent être un moyen de tester et d’infiltrer des systèmes informatiques tiers pour devenir une arme de dissuasion ou saboter les systèmes adverses. 

 

Grosso modo, tout le monde se tient par la barbichette jusqu’au jour l’un d’eux n'ayant pas grand-chose à perdre et beaucoup à gagner fasse craquer l’allumette.

 

Il y a un intérêt additionnel d’avoir une armée de cyberguerriers. Autant retourner une armée de soldats, n'est guère aisée, vous trouverez toujours une backdoor comme on l’a vu dernièrement pour retourner une armée d'assbots contre son Etat d’origine. Le Brain Washing est bien plus efficace et facile sur des robots que sur des humains.

Hommes augmentés par Neuralink (Elon Musk) hackés ?

Il ne reste plus qu’à mettre en œuvre le projet d’Elon Musk (Neuralink … le même qui est contre les robots tueurs … il a dû certainement comprendre les risques de son projet dans ce domaine …) pour intégrer des puces dans le cerveau afin de l’augmenter.

 

Un petit court-circuit ou DDOS et vous pourriez éradiquer une armée entière d’humains augmentés. Cela rend les possibilités de destruction pardon d'auto- destruction quasi illimitées et surtout aussi faciles à déclencher qu'un jeu vidéo comme Call of Duty.

             

On voit donc que même s’il sera extraordinairement difficile d’interdire à tous les Etats d’utiliser des armes autonomes, il y a quelques arguments qui pourraient, je le souhaite, les faire réfléchir.

Pourquoi les armes autonomes / robots tueurs sont si dangereux ?

On pourrait se demander pourquoi une arme autonome est si dangereuse par rapport à une arme traditionnelle ?

 

 

 

 

 

 

 

 

Une arme conventionnelle

  • est difficile a priori d’accès et coûte chère (en particulier si elle a la capacité de faire beaucoup de victimes),
  • peut faire des victimes collatérales  qui peut dissuader
  • est facile généralement à associer avec son propriétaire (registre des armes à feu associées à des n° de série et des personnes, surveillance satellitaire pour les missiles)
  • donne suffisamment de temps (une fois que vous êtes identifié comme l’auteur) à l’adversaire pour vous détruire / neutraliser (ou votre organisation)
    • ce qui peut réduire le nombre de victimes

    • ce qui peut le dissuader à agir équilibre de la terreur / dissuasion avec l’arme nucléaire de son adversaire). Pour un homme armé, il risque d’être capturé, tué par des forces de polices et de mettre en péril son organisation et pour des missiles nucléaires, il risque d’être détruit par des anti-missiles en plus des attaques de rétorsion d’où l’équilibre de la terreur / dissuasion nucléaire.

Une arme autonome

  • est accessible à tous et peu chère (ex : associer quelques drones avec certains produits du commerce peut faire de nombreuses victimes),
  • peut de plus en plus facilement discriminer les cibles des personnes à ne pas tuer (via de la reconnaissance d’image, signature thermique, le smartphone de la cible, des objets connectés en Bluetooth)
  • peut être très difficile et long pour retrouver son auteur et donc rendre impossible de répliquer ou avec un risque élevé d’erreur (car autonomes et programmés à l’avance avec de l’IA pour s’adapter à la situation et donc ne nécessite pas de personne à proximité, interagissant directement avec l’arme)
  • ne donne pas de temps de réaction à l’adversaire pour les détruire et est difficile à neutraliser (en particulier s’il y a de nombreuses armes disséminées comme une myriade de drones ou des jumping sumo explosifs et non une arme centralisée)
  • Enfin, une des conséquences de ces éléments est leur capacité à faire beaucoup plus de victimes qu’une arme traditionnelle pour un coût et une facilité de mise en œuvre beaucoup plus faible.

Donc, OUI je me répète, les armes autonomes sont un danger absolu pour le futur des hommes.

Interdire aux robots de décider de tuer - Oui mais quelle décision accepterons-nous de déléguer ?

D’autres questions se posent aussi :

 

On veut interdire aux robots de prendre la décision de tuer, de quelle décision parle-t-on ? de tuer un individu, un groupe d’individus, un groupe d’individus ayant certaines caractéristiques … et quelle part délègue-t-on à la machine ?

 

Les bombes ou missiles lancées d’un avion après qu’un homme appuie sur un bouton ne sont pas considérés comme des robots tueurs même s’ils ont un dispositif qui détecte la chaleur ou un signal (ex : smartphone) et poursuivent leur cible en conséquence.

 

  • Si ce même homme appuie sur un bouton, et envoie des mini-missiles intégrant une mini-caméra capable de reconnaître les visages et de ne tuer que des barbus portant des chemises à fleurs (caractéristiques définies par l’homme avant d’appuyer sur le bouton), est-ce que le mini-missile est une arme autonome ou pas ?
  • Si cet homme appuie sur ce bouton, et que cela déclenche l’envoi de ces mêmes mini-missiles sur une période de plusieurs jours ou mois, est-ce que ce sont des armes autonomes ?
  • Si cet homme appuie sur ce bouton, et que cela déclenche l’envoi des mini-missiles dès qu’il détecte une cible ayant des caractéristiques définies à l’avance, est-ce que ce sont des armes autonomes ?
  • Si cet homme appuie sur un seul bouton, pour anéantir un pays grâce à une armée d’assbot, de missiles, de drones tueurs, est-ce que ce sont des armes autonomes ?

Un homme a pris la décision d’appuyer sur un bouton, donc on pourrait dire que ces armes ne sont pas autonomes car c’est lui qui l’a décidé et non l’arme de tuer…

 

En réalité, l’homme a délégué aux robots tueurs le choix de tuer. Celui qui décide de tuer peut avoir l’impression d’être dans un jeu vidéo et oublier que celui qui meurt n’a pas de deuxième vie après Game Over.

Robots détruisant des infrastructures vitales, est-ce des robots tueurs ?

D’autre part, à partir de quel moment on considère un appareil comme un robot ou une arme autonome, un pistolet intégrant de l’IA pour ajuster un tir à l’image des systèmes de stabilisation pour appareil photo, est-ce un robot tueur ?

 

Imaginons, un gilet pare-balle capable de tirer et tuer un assaillant s’il a été touché. Est-ce que cette arme défensive et autonome aurait le droit de tuer en cas de légitime défense de son propriétaire ?

 

Le débat ne s’arrête pas aux robots tueurs mais aussi aux robots de guerre en général (et tueurs indirects) qui peuvent transmettre des maladies, détruire toute une infrastructure d’énergie, d’accès à l’eau, à la santé, aux communications qui peuvent entraîner par impact une multitude de décès par maladie, faim, froid, déshydratation …

 

Il y a beaucoup de questions qui se posent, il est essentiel qu’en premier lieu le maximum de questions et de problématiques soient clairement posées afin de pouvoir prendre des décisions dessus. Il faut aussi inclure les licenciés de tir sportifs et chasseurs dans cette réflexion.

Comment les interdire / réduire leur propagation ?

Même si cela semble une gageure d’interdire des armes autonomes aux Etats (d’autant qu’elles commencent à exister comme le montre la récente déclaration de la Russie pour développer leurs missiles capables de choisir leur propre cible lors du salon aérien moscovite MAKS 2017… ), on peut avoir une approche pour restreindre au maximum leurs conception, vente, utilisation et propagation et au final parvenir à les interdire avant qu’il ne soit trop tard.

 

Pour cela, il faut augmenter au maximum la barrière à l’entrée pour accéder à ce type d’équipement afin de la rendre inaccessible.

 

Un des problèmes des armes autonomes, est qu’à la différence des armes nucléaires ou d’armes chimiques, nul besoin de s'approvisionner en uranium et de l'enrichir, ou de souches de virus et d’usines chimiques pour obtenir une arme de destruction massive  

La technologie peut se diffuser suffisamment rapidement pour qu’un Etat ou une organisation non terroriste ne puisse empêcher sa propagation vers des organisations criminelles ou terroristes. La guerre ne sera plus réservée aux Etats mais se démocratisera aux terroristes de toute confession et aux organisations criminelles de tout poil, voire même aux individus, hackers solitaires ou anonymes.

 

La réglementation pourrait a minima être nationale afin de servir d’exemple et proposer à nos partenaires européens et pousser sur le plan international, en particulier les Nations Unies. Je sais, certains d’entre vous, me taperont sur l’épaule, en m’indiquant que l’industrie de l’armement française est fortement exportatrice et il ne faut pas la brider. Le point n’est pas d’interdire la recherche sur l’intelligence artificielle mais d’éviter d’atteindre ce fameux dilemme du prisonnier où on aura à choisir entre anéantir l’adversaire et être anéanti grâce à l’IA et être anéanti car nous n’aurons pas utilisé l’IA.


Solutions et recommandations en fonction du type d’armes

Il faut distinguer deux types d’armes,

  • les armes par nature (pistolet, bazooka, poignards mais aussi bombe lacrymogène …) et
  • les armes par destination (chandelier, couteau de cuisine, bouteille de verre, mais pas la tarte à la crème comme l’avait demandé Jean-Pierre Chevènement lors de son procès contre Noël Godin qui l’avait entartré) dont la fonction première n’est pas d’être une arme mais qui sont utilisées, ou destinées à être utilisé, comme tel dans certaines situations. 

Armes par nature

Pour les armes en général possédées par des Etats (avions de combat, missiles, tanks…)

 

Idéalement, on pourrait interdire toute arme autonome dans le monde, le problème est qu’il faut être un peu réaliste et tenir compte que c’est plus facile d’interdire ce qui n’existe pas encore que ce qui existe, d’où l’urgence de la réglementation internationale compte tenu des avancées des fabricants d’armes.

 

D’autre part, il vaut mieux été concret, avoir des définitions précises quitte à les modifier plutôt que de partir sur des bonnes volontés qui sont inapplicables sur le terrain.

 

J’exclus dans mes recommandations ci-dessous les armes autonomes qui ont pour seul objectif de détruire une arme lancée par un adversaire (ex : batterie anti-missile dotée d’IA), celle-ci ayant un but uniquement défensif et n’ayant pas d’impact sur des personnes ou du matériel.

 

J’utilise à escient le mot cible plutôt que victime, car la cible peut être aussi une cible en carton … pour les armes utilisées par des tireurs sportifs par exemple.

Recommandation 1 – Interdire les armes autonomes à déclenchement différé ou conditionnel (hors si vise d’autres armes attaquantes) – Décision ONU

Cela signifie que toute action de mise à feu doit obligatoirement déclencher la mise à feu instantanément.

 

Par exemple, si on appuie sur le bouton Fire, le missile ne doit pas partir dans les 10 minutes qui suivent ou être programmé mardi matin à 8h45. De même, il ne doit pas y avoir un IFTTT (If This Then That) de mise à feu, style si la Corée du Nord a envoyé un missile, je tire automatiquement sans intervention humaine un missile visant la Corée du Nord. Comme je dis plus haut, en revanche, une arme anti-missile peut détruire le missile nord-coréen !

 

Se pose la question des combats par exemple un avion de chasse, un tank peut-il déclencher le feu automatiquement sans l’intervention d’un être humain s’il combat un avion de chasse ou tank adverse ? Difficile d’interdire cela à un avion de combat s’il est attaqué. Je pense que l’IA pourrait être utilisé que de manière défensive.

Mais qu’est-ce que défensif ? Si nous sommes plusieurs avions de combat, mon voisin est attaqué, est-ce que l’IA de mon avion peut attaquer les avions adverses. Plus largement, si mon pays est attaqué, est-ce que tous mes avions pourraient utiliser l’IA …

 

Et dans l’exemple précédent si les Etats-Unis sont attaqués, est ce interdit ou autorisé qu’une IA envoie un missile directement sur la base qui a lancé le missile voire d’autres qui pourraient menacer … même s’il y des populations civiles …

Recommandation 2 – Interdire aux armes autonomes de surenchérir à une attaque – Décision ONU

L’esprit est d’avoir une réponse proportionnée à l’attaque, l’IA ne doit jamais être capable de surenchérir.

 

Seul l’homme doit avoir le pouvoir de le faire sinon le risque est l’escalade jusqu’au double anéantissement total (cf. un vieux film Wargames de 1983 qui l’évite car l’IA comprend qu’il fait face au même problème que pour le Tic-Tac-Toe («  A strange game. The only winning move is not to play ;), et une version alternative où l’IA ne le comprend pas …)

 

L’homme a montré à quel point il était capable de bafouer les règles aux dépens de l’humanité lors des guerres, espérons qu’il ne l’enseigne jamais à l’IA. 

Recommandation 3 – Interdire l’intégration de code dans les armes et munitions discriminant les cibles des non-cibles. - Décision ONU

L’objectif est d’empêcher qu’une arme / une munition intégrant par exemple une caméra avec reconnaissance visuelle ou un autre signal puisse « choisir » sa cible. Il faut que le tireur prenne conscience qu’il peut tirer sur des innocents, des personnes à préserver afin de le dissuader de tirer.

 

Il existe déjà des missiles qui se dirigent en fonction du signal d’un smartphone (utilisés par les Etats-Unis notamment, la Russie travaille sur des missiles avec IA…).

 

Ce sera difficile d’interdire ces missiles néanmoins on peut au minimum interdire des armes et munitions qui visent des cibles non identifiées individuellement mais caractérisées ( ex : sur base d’habits, caractéristiques …)

 

Recommandation 4 – Intégrer dans les systèmes de commande actuels un système additionnel en open source - Décision Internationale

A l'image des avions actuels, les armes types missiles, tanks … ont des systèmes de commande résilients et redondants mais propriétaires.

 

L’objectif est d’ajouter un système de commande additionnel en open source strictement séparé du système propriétaire. Si deux ordres sont contradictoires entre les deux systèmes, cela empêche la mise à feu. Cela peut sembler contre-intuitif, néanmoins le code open source étant très challengé par des « bug bounty », des hackers… les failles peuvent être identifiées très rapidement à la différence de systèmes propriétaires (plus difficiles d’accès mais moins challengés et corrigées dans la foulée).

 

J’avais décrit aussi un système pour sécuriser les objets connectés en utilisant la blockchain et le hashage dans un article spécifique

 

Recommandation 5 - Interdire l’intégration de microprocesseurs dans le corps humain (hors cas médical si sans augmentation de capacité) – Décision Française pour l’étendre à l’Europe puis l’ONU

Interdire l’intégration de microprocesseurs dans le cerveau ou dans d’autres parties du corps hormis les cas médicaux spécifiques (épileptiques, malades d’Alzheimer, tétraplégiques…) et à condition que cela n’augmente pas la capacité de la personne au-delà des capacités normales humaines (ex : intégrer des chips dans le cerveau qui donnent à un malade d’Alzheimer, une mémoire dépassant celle d’un être humain normal, permettre à un aveugle de voir de l’infrarouge via des yeux électroniques). 

 

Tout dispositif qui permet d’augmenter les capacités d’un être humain (un smartphone, des lunettes infrarouges, un véhicule …) doit être externe au corps humain et non relié directement au système nerveux ou au cerveau.

 

L’objectif est d’éviter qu’un jour quelqu’un puisse prendre la main sur des êtres humains (soldats ou non) et les transformer en robots tueurs ou les tuer.


Pour les armes qui peuvent être possédées par des particuliers (dont certaines sont interdites)

II y a une réglementation en place qui scindent les armes en plusieurs catégories (de A à D) elle interdit, autorise sous condition, nécessite une déclaration et pour certaines autorise la vente libre (bombes aérosol, certaines armes à impulsion électrique…).

Recommandation 6. Interdiction de connecter à Internet ou d’intégrer du code logiciel dans ces armes et leurs munitions (au pire dans le système de mise à feu) - Réglementation au minimum européenne, si possible ONU

Il est indispensable d’intervenir auprès des fabricants d’armes pour leur interdire de connecter à Internet (directement ou via Smartphone) ou d’intégrer de l’intelligence artificielle, du code logiciel dans ces armes, au pire obliger ces fabricants à dissocier totalement le code intégré dans l’arme (par exemple pour identifier son utilisateur, et empêcher qu’un autre utilise son arme) de la partie mise à feu de l’arme (à l’image des systèmes critiques d’un véhicule) qui doit être exempte de tout logiciel et ne peut être déclenchée que manuellement.

 

L’objectif est d’interdire une mise à feu à distance sans la présence de son propriétaire ou d’un hacking des pistolets qui permettent de tirer sans la décision expresse de son propriétaire.

 

Ce sera aussi difficile d’imposer aux fabricants d’armes ces restrictions d’autant que les lobbys d’armes comme la NRA sont très puissants (cf. article ici) et les objets connectés sont pour eux une nouvelle source de revenus.

 

Recommandation 7.  Interdire la stabilisation mécanique d’une arme – Réglementation européenne puis internationale 

Il est nécessaire d’interdire l’intégration de code dans les armes et munitions permettant de stabiliser une arme (armes A à D) en fonction d’une cible.

 

L’objectif est d’éviter que l’arme facilite mécaniquement l’atteinte de la cible. La réglementation peut interdire la vente de ces armes en Union Européenne puis sur le plan international.

 

Il est en revanche difficile d’interdire des lunettes de visée stabilisées qui existent déjà.


Armes par destination

Est-ce possible d’interdire des robots tueurs alors qu’on pourrait imaginer un drone associé à des objectifs a priori inoffensifs et accessibles dans le commerce pour tuer, blesser … ?

 

Il est possible de limiter certains risques sans éliminer totalement les risques.

 

Recommandation 8. - Déclaration des objets autonomes mobiles – Réglementation européenne puis internationale 

Tout objet

  • capable de se mouvoir seul (par exemple si d’un poids supérieur à 800 g comme les drones et allant au-delà de 6 km/h, limite utilisée pour les transports autorisés sur les trottoirs comme les trottinettes électriques, et si va au-delà de 25 km/h, quelque soit son poids, limite utilisée dans les transports nécessitant la délivrance d’un numéro d’identification unique, qui devra être gravé sur une partie inamovible de l’engin et qui devra également figurer sur une plaque d’identification fixée sur celui-ci.… )
  • et capable d’emporter une charge de plus d’une centaine de grammes (à préciser mais plus compliqué à évaluer)
  • devrait nécessiter une déclaration obligatoire avec une pièce d’identité auprès du vendeur transmise à la préfecture.

 

Cela concernerait les robots, drones, véhicules télécommandés avec potentiellement des spécificités pour chacun. On le fait déjà pour acheter une carte Sim et dans le cas des drones cela va devenir obligatoire si le poids dépasse 800 grammes. Ces drones « lourds » devront être équipés de signaux lumineux et sonores afin d’être facilement identifiables dans le ciel. 

Recommandation 9. – Renforcer et sécuriser les limitations de vitesse  sur les véhicules autonomes à l'approche de personnes – Réglementation européenne puis internationale 

Il est nécessaire que les véhicules autonomes ne puissent perpétrer des attentats comme à Nice ou à Barcelone. Pour cela, on peut intégrer du code non modifiable qui réduit la vitesse puis met à l’arrêt un véhicule si un piéton, un obstacle est détecté dans une zone inférieure ou égale à la distance de sécurité de freinage. (voir l’article sur sécurisation des objets connectés)

 

Il y a d’autres risques à tenir compte comme le risque que des engins explosifs soit situés dans le coffre d’une voiture autonome.

 

Mais comment faire la distinction avec des bagages ? Cela me paraît difficile de demander aux constructeurs de mettre des capteurs d’explosifs dans les coffres ! Ce serait complètement disproportionné par rapport à la probabilité qu’un coffre contienne des explosifs. Compliqué aussi de pister chaque véhicule en temps réel, gardons encore les quelques libertés qu’ils nous restent.

 

Néanmoins, on peut imaginer des boites noires pour les véhicules autonomes (ou pour ceux qui sont utilisés par plusieurs utilisateurs comme les VTC), idéalement intégrées dans le véhicule (et ne transmettant pas les données sur un serveur) ou virtuelles (sur un serveur sécurisé, mais qui l’est vraiment ?). Ces données ne seraient accessibles que sur réquisition judiciaire (comme sur les appels téléphoniques).

 

Recommandation 10 - A l’image de la sécurité routière, vigilance citoyenne – France et Europe

Sans traumatiser tout le monde, c’est important que la population soit au fait des risques et soit vigilante par rapport à ceux-ci.

 

Cela peut se faire par des campagnes de presse, des ateliers dans les écoles… à l’image ce que se fait dans le domaine de la sécurité routière mais ici pour la sécurité de tous en expliquant aussi bien comment se protéger et protéger ses objets connectés (mots de passe, bases de sécurité informatique, les risques de certains appareils comme les drones…).

 

Recommandation 11 - Intégrer la sécurité des objets connectés dans le norme CE – Réglementation Européenne 

Il est nécessaire de sécuriser les objets connectés qui sont aujourd’hui des passoires pour la plupart. Dans ce cadre, il est nécessaire d’intégrer dans la norme de certification CE (nécessaire pour vendre des produits en Union Européenne), avec des principes tels que la Privacy by Design et Security by default. J’ai écrit un article donnant les principaux principes pour sécuriser un objet connecté.

 

La sécurité devrait être encore plus accrue pour les équipements médicaux comme les pompes à insuline qui peuvent devenir des armes par destination en injectant des doses mortelles.

 

L’objectif est de réduire les risques d’un hacking massif de drones, robots, objets connectés qui se transforment en armes par destination

 

Conclusion

Beaucoup d'autres recommandations pourraient être faites, ce ne sont que quelques idées, certaines sont applicables rapidement d’autres à long terme enfin d’autres ne le seront jamais pour de bonnes et mauvaises raisons. 

 

L’objectif est de participer à ce débat qui nous concerne tous (alors que je n’ai aucune expertise sur le sujet de l’armement) et de faire bouger le slignes avant qu'il ne soit trop tard.

 

Sans doute est-ce idéaliste de croire que ce type d'article puisse changer la donne, mais sans idéal il n'y a plus d'espoir.

 

Dimitri Carbonnelle - Fondateur de Livosphere

Agence Conseil en Nouvelles technologies : Internet des Objets, Intelligence artificielle 

 

0 commentaires

Sécuriser l' Internet des Objets avec la Blockchain et le hashage

A la suite de plusieurs échanges avec Antoine Yeretzian de Blockchain Partner, j’ai écrit cet article sur les moyens de sécuriser l’Internet des Objets avec la blockchain et le hashage de données. L’objectif avec Blockchain Partner et Livosphere est de proposer des solutions clés en main pour les fabricants et les entreprises utilisant des objets connectés (banques, assureurs, services à la personne…), les opérateurs télécoms …

 

Pour sécuriser complètement un objet connecté ou une plateforme, il y a trois étapes : prévenir et réduire les risques de hacking d’un objet, le détecter et empêcher / réduire les conséquences d’un hacking (sur l’appareil et en termes de propagation).

(If you want to see this article in English click here)

 

J’avais parlé de la partie prévention dans l’article suivant : Sécuriser l'IoT après l'attaque DDos par des objets connectés sur Twitter, Netflix, Amazon via le service DNS Dyn qui relate aussi les mesures telles que Privacy by Design et Security by Default.

 

Cet article décrit la partie détection d’un hacking (dès lors qu’il y a une modification). Il faudra compléter par des moyens pour détecter des hacking sans modification. Dès lors qu’une attaque est détectée, on peut à distance bloquer ou réduire les fonctionnalités de l’appareil, alerter…

 

Il y a trois éléments à sécuriser dans la chaîne reliant un objet connecté à une plateforme digitale en utilisant la blockchain et les techniques de hashage.

 

1.     Sécuriser l’intégrité d’un objet connecté (pas de hacking de celui-ci)

2.     Sécuriser l’envoi de données d’un objet connecté vers une plateforme

3.     Sécuriser la réception de données provenant d’une plateforme vers un objet connecté

 

Rappel sur la blockchain

Il y a un grand nombre d'usages possibles pour la Blockchain dans l'Internet des Objets  :

 

Le plus évident est de permettre la création de plateformes décentralisées et collaboratives pour partager ses biens connectés avec des coûts de transactions très réduits ne nécessitant pas d'intermédiaire (hors création de la blockchain).

 

En effet, en connectant un produit, on facilite son partage, car on peut donner / retirer son accès/usage via des clés virtuelles (comme InBlue de Valeo ou les serrures connectées d'Opendoors de Somfy, ex-Okidokeys ...).

 

D’autre part, en plus de gérer l’accès, on a des informations sur l'usage, la localisation, facteurs, cela permet d’accroître la confiance d’un propriétaire d’un bien envers des utilisateurs potentiels (grosso modo, il sait ce qu’il sera fait de ses objets dans le respect bien sûr de la confidentialité des données personnelles). En plus de sa maison via une serrure connectée et des solutions de Smart Home, sa voiture via des clés virtuelles reconnues par le véhicule connecté, tous les objets qu'on utilise qu'occasionnellement, comme des perceuses, des échelles, des outils de bricolage pourraient aussi être partagés facilement.

 

On peut aussi imaginer des Smarts contracts tels que proposent Slock.it sur Ethereum pour déclencher le paiement dès que la personne ouvre l'appartement, la voiture ou utilise un appareil partagé.

 

Ces plateformes, comme je l'évoquais dans mes prédictions 2017, pourraient d’ailleurs "blockchainiser" (et non "ubériser" qui serait un oxymoron car par définition, ubériser centralise le pouvoir sur un seul acteur à la différence de la blockchain)  les plateformes collaboratives actuelles et  remplacer les acteurs connus tels que AirBnB, Blablcar ou Uber. En revanche, la blockchain ne remplacerait que la partie transactionnelle et non tout le reste, service client, innovation en terme de services, de plateforme, Marketing et commercial, animation de la communauté … 

 

Autre usage : sécurisation des données

Je vais évoquer un autre usage : la sécurisation des objets connectés qui est un sujet de plus en plus critique. Imaginez juste un ransomware sur des pompes à insuline connectées qui ferait un chantage auprès d'un fabricant sur la vie de ses utilisateurs en les menaçant d'une overdose mortelle…

 

Une des grandes faiblesses des objets connectés par rapport à la sécurisation de plateformes digitales est la sécurisation de la transmission et de l'objet lui-même. (Schéma). (cf aussi article sur la prévention)

Les trois étapes à sécuriser sont

  • s'assurer que l'objet même n'a pas été hacké / modifié par rapport à l'objet d'origine (hors évolutions du fabricant et données utilisateur)
  • s'assurer que les données transmises n'ont pas été modifiées / hackées entre l'envoi et la réception par la plateforme
  • s'assurer que les données transmises par la plateforme vers l'objet connecté ne sont pas modifiées / hackées

Le hashing ou hashage

Pour s'assurer de cela, l'idée est simple : comparer une version originale non modifiable (d’un code intégré dans un objet connecté par exemple d'où l'utilisation de la blockchain) et sa version actuelle sur ces trois étapes (la sécurisation des trois étapes est essentielle sinon il y a une brèche). S'il y a une différence (en tenant compte des évolutions logicielles et matérielles et en sortant les données utilisateurs), cela signifie que le code a été hacké.

 

Pour le faire, on utilise un élément simple de la blockchain l'ancrage combiné au hashage de données.

 

Qu'est-ce le hachage ?

 

Le hachage (hashing) est une technique qui permet de créer une signature (ou hash) quasi-unique à partir de n'importe quelles données. Si l'on modifie une des données d'origine (même infime grâce à l'effet avalanche), on modifie totalement la signature. Il y a des similarités à la technique de compression de données mais avec une différence fondamentale, deux images proches pourraient avoir un fichier compressé identique, ce qui n'est pas le cas du hachage. Dans l'image ici, la Déclaration universelle des droits de l'homme ont été hashées (fichier sous format texte via un outil en ligne en SHA 256) en deux versions avec et sans le H ! Les deux hashs sont complètement différents.

 

L'intérêt est ici de vérifier si le programme ou les données d'origines sont modifiés. Pour cela, on peut hasher la totalité du programme (OS, code embarqué…), un numéro de série unique  et des données qui seront incluses dans un objet connecté juste avant l’injection du code embarqué dans le produit (à la chaîne de fabrication). 

 

Pour prévenir un hack combiné de la plateforme et de l’objet connecté, on peut mettre ce hash dans une blockchain publique en plus d’une plateforme du fabricant (ou autre entreprise en charge de l’objet connecté). Ce hash initial sera le hash officiel du produit auquel on pourra comparer les hashs calculés par la suite de l’objet. Toute différence signifie qu’il y a une modification non voulue, et donc potentiellement un hack du produit et peut même interdire l’utilisation du produit (définitive ou temporaire car les bugs sont toujours possibles), ou une alerte vers l’utilisateur et le fabricant.

 

Cela signifie néanmoins qu’il faut gérer des bases de données avec des versions multiples pour un même objet connecté en cas d’évolution/upgrade logicielle du produit. Les données modifiables, elles ne seraient pas a priori hashées pour vérifier l’intégrité de l’appareil (sauf potentiellement la structure des données si elle est suffisamment pérenne).

 

On peut utiliser une fonction de hashage publique (et open source) car il sera très long et difficile de passer du hash aux données d'origine ou de créer un même hash à partir de données falsifiées (problème NP-complet donc pour calculer le hash à partir de données c’est très rapide (temps polynomial) mais pour retrouver les données qui correspond à un hash c’est très long si la taille du hash est suffisamment long (temps exponentiel ex : cryptage AES 256bits)). 

Pour l'anecdote (Guardtime), le gouvernement estonien hasherait la totalité de ses données et imprimerait le hash sur des journaux papiers ce qui permettrait de s'assurer que les données n'ont pas été modifiées par des hackers (en gardant bien sûr un log quotidien des hashs de chaque jour et un hash des modifications apportées entre deux jours consécutifs ainsi que les journaux papier !)

 

Sans rentrer dans une description détaillée sur ce qu'est la Blockchain, voici une rapide définition en très simplifié de BlockChain Partners.

 

La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle.

Par extension, une blockchain constitue une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaires, ce qui permet à chacun de vérifier la validité de la chaîne. 

La blockchain permet d'enregistrer ainsi des transactions, des signatures ... dans un registre partagé parmi tous ses utilisateurs. L'objectif est de s'assurer que personne ne modifie après coup le registre de transactions.

 

Il n'est pas possible de modifier ce registre sauf si plus de 50% de la puissance de calcul des serveurs (les mineurs) reliés à la blockchain l’acceptent (d’où l’importance d’avoir des blockchains publics avec un très grand d’utilisateurs et d’éviter des concentrations autour de quelques utilisateurs). Une blockchain avec un seul utilisateur (!) est l'équivalent d'une plateforme centralisée. On pourrait aussi faire un parallèle avec une assemblée générale d’actionnaires où le nombre de votes correspond à la puissance de calcul. 

Petite digression : Les nouveaux schismes ... le Hard Fork d'Ethereum

D’autre part, s’il y a une modification, tout le monde le saura. Donc, plus il y a d'utilisateurs indépendants dans la blockchain, plus il sera sécurisé. Ainsi une blockchain public est donc plus sécurisé normalement qu'une blockchain privée. Enfin, en fonction des règles de la blockchain, une partie des utilisateurs peuvent faire un "fork" (crée un deuxième registre identique au premier sur une première partie et qui devient indépendant par la suite.

 

C‘est ce qui s’est passé le 20 juillet 2016 avec Ethereum. Il ne faut pas s’en étonner … on en a vécu quelques forks dans d’autres domaines …  En 1204 entre l’Église catholique romaine et l'Église orthodoxe et 1517 entre l’Eglise catholique et protestante (nommé schisme mais ce n’est pas reconnu par les protestants, qui gardent la Bible comme Grand Livre Commun et sans parler des autres religions … pardon pour la digression ;).

 

L'ancrage associé à l'horodatage est une des composantes de la blockchain et permet de créer une transaction dans la blockchain en indiquant la date. Ici, ce sera le hash qui sera enregistré dans la blockchain. 

1. Pour sécuriser le code d'origine et le matériel

Rentrons dans les principes sur les 3 étapes :

 

1. Pour sécuriser le code d'origine et le matériel

Afin de s'assurer de l'intégrité du matériel et que celui-ci n'a pas été corrompu ou modifié entre sa version originale et la version effective reçue par l'utilisateur, on peut associer à chaque version du code à embarquer (OS, programme, numéro de série…) dans l'objet un hash code, potentiellement il pourrait y avoir plusieurs hash codes par type de code pour faciliter le traçage d'une corruption (quelle partie du code a été corrompue). Le hash serait intégré dans une blockchain publique, en plus d’une plateforme du fabricant pour s'assurer qu’il ne puisse être corrompu en accédant aux serveurs de l'entreprise.

 

Il est même possible de faire un hash du matériel lui-même en photographiant l’intérieur du matériel (avec des fonctions de « perceptual image hashing » ou « image fingerprinting » qui maintiennent un hash similaire pour des images similaires). Le SAV pourrait photographier le matériel et s’assurer que celui n’a pas été modifié par rapport à la version photographiée à la sortie d'usine (via la comparaison des deux hash).

 

D’autre part, la fonction de hashage sera aussi intégrée au code. Celui-ci doit être open-source, accessible à l’utilisateur (averti ou via des applications) qui pourra vérifier son authenticité en le comparant avec la version originale open-source, accessible en ligne.

 

Lors de la fabrication, le code, le hash (caché dans le code) et la fonction de hashage sont injectés dans la mémoire du processeur. On peut pour sécuriser encore plus, l’intégrer dans la ROM (Read Only Memory ou mémoire morte) pour empêcher toute écriture ultérieure (y compris par flashage). En revanche, pour tenir compte des upgrades du produit, il faudra aussi l’intégrer dans une RAM (Random Access Memory ou mémoire vive) afin d’intégrer de nouveaux hashs. Si nécessaire, une réinitialisation complète du produit pourrait être réalisée avec l’installation des évolutions si un objet a été corrompu.

 

Au démarrage de l'objet connecté 

Lors du premier démarrage de l'objet connecté, d'une part, la fonction de hashage va sur base de la totalité du code, calculer le hash et le comparer au hash intégré dans l'objet.

 

Si ce n'est pas le cas, on pourrait demander à réinitialiser l'appareil car il aurait été corrompu. Il n’y a pas besoin de connecter le produit à ce stade.

 

D'autre part, en se connectant à la plateforme, ce même hash ainsi que la fonction de hashage  (ou le hash de la fonction de hashage) pourraient être comparés à la base de données du fabricant ainsi qu'à la blockchain, s'il y a une différence, cela bloquerait le produit et demanderait une réinitialisation.

 

On pourrait imaginer qu’un hacker remplace complètement le code d’un produit pour renvoyer le bon hash du code à la plateforme (indépendamment de son calcul), le problème est que comme la fonction de hashage est publique, on pourra facilement voir que même si le hash transmis correspond à la blockchain, en revanche la fonction de hashage ou le hash de la fonction de hashage ne correspond pas à la blockchain.

 

L'intérêt en deux étapes (hors connexion) et avec connexion est de s'assurer que le code n'est pas corrompu même s'il n'y a pas de connexion (hors remplacement complet du code) et de s’assurer ensuite que le code complet n’a pas été complètement remplacé. 

 

2. Pour sécuriser la transmission de l'objet connecté vers la plateforme

L'objectif est de s'assurer que ce qui est transmis n'est pas modifié par un tiers (ex: via la technique du "middle man" même si cela ne permet pas de savoir si cela a été intercepté )

 

L'objet connecté transmet dans son mode usuel (WiFi, Bluetooth via Smartphone, GPRS/3G) les données plus un hash calculé par l'algorithme de hashage dans le code embarqué.

 

Ce même hash est transmis via un réseau bas débit type Sigfox ou Lora, enfin  le hash du code embarqué est aussi transmis par les deux moyens.

 

Les deux hash de données sont comparés aux données (en hashant de nouveau les données) et entre eux pour s'assurer qu'elles ne sont pas corrompues ainsi que le hash du code pour s'assurer de l'intégrité de la machine.

 

L'intérêt d'utiliser deux modes de transmission est de créer de la redondance et de la résilience. Cela complique la tâche du hacker qui doit hacker les deux modes de transmission en plus de trouver l'algorithme de hashage. Cela utilise vraiment le rôle de backup d’un réseau bas débit en intégrant ses contraintes (très peu de données transmises via le hash).

 

Les hashs de données pourraient être intégrés dans la blockchain (potentiellement agrégés par jour et re-hashés pour réduire les accès à la blockchain) afin aussi de sécuriser le relevé de données. 

3. Pour sécuriser la transmission de la plateforme vers de l'objet connecté 

Pour éviter aussi que des ordres soient transmis malicieusement vers l'objet connecté, de la même manière, il faut à la fois hasher les données constituant l'ordre et le transmettre idéalement via deux modes de transmissions (WiFi, Bluetooth via Smartphone, GPRS/3G) et Sigfox (dans la fenêtre de réception qui peut être ouverte lors d'une transmission de l'objet connecté vers le serveur) ou Lora.

 

Cela permet d'assurer la résilience et la redondance des modes de transmission. De la même manière, il est nécessaire aussi de transmettre le hash de l'appareil et de la fonction de hashage pour s’assurer de l’intégrité de l’appareil. Si le hash envoyé ne correspond à celui dans l’appareil, il pourrait être bloqué automatiquement ou alerter l’utilisateur, le fabricant ...

 

Les hashs de données pourraient être intégrés dans la blockchain (potentiellement agrégés par jour et re-hashés pour réduire les accès à la blockchain) pour s’assurer de leur non-modification.

 

Même si cela peut paraître compliqué ces solutions sont en réalité beaucoup plus faciles à mettre en œuvre qu’on ne pourrait le croire pour sécuriser les données. Le minimum étant d’intégrer un algorithme de hashage open source dans l’équipement et de s’assurer de l’intégrité des données en interne et lors des transmissions.

 

Si cela vous intéresse de réaliser un projet sur ces sujets, n’hésitez pas à me contacter. Nous serons heureux avec Blockchain Partner de le réaliser.

 

Dimitri Carbonnelle 

Fondateur de Livosphere 

Conseil en Open Innovation, et nouvelles technologies : Internet des Objets, intelligence artificielle ...

 

0 commentaires

USI - Future of humanity with AI, artificial intelligence with Cedric Villani, Kevin Kelly, Mark Esposito, Kevin Klein, Ingrid Betancourt

I was really excited to be invited at USI, Unexpected Sources Technologies, an event that gathers great thinkers and opinion leaders to exchange ideas, draw inspiration, and discuss the digital transformation of our societies. (Link towards videos). 
I wanted to tell a story about the Future of Humanity facing Artificial Intelligence (AI) by picking in  each conference some food for thought and assembling them.
We'll go through the following steps :
  • Our challenges : DRIVE : Demographic & social changes, Resource scarcity, Inequalities, Volatile scale complexity, Enterprising dynamics (with Mark Esposito)
  • Our current reactions : procrastination (Tim Urban), punishment (Emmanuel Jaffelin), creating a butterfly by plugging wings to a caterpillar (Eddie Obeng )
  • One solution : Artificial intelligence becoming a commodity, however there are many intelligences (Kevin Kelly) that could lead us to augmented humans (wings, x-ray eyes...  Moran Cerf )  
  • But AI could outpace us as Lee Sedol experienced when facing AlphaGo (Nick Bostrom) and create major turmoils (loss of jobs, inequalities - Laurent Alexandre). Artificial intelligence Complementary Quotient would outdate IQ. However, we should never violate three rules : lose our body, our autonomy and randomness (still Laurent Alexandre ;)
  • Thankfully, there is still hope, as long as we provide the nutrients to give birth to ideas (Cédric Villani). We must go beyond easy tricks to lure masses (Dan Ariely) and ride the light as Einstein did to foresee our future (Etienne Klein)
  • Start by Design (AI) is a first step (John Maeda), giving a share to people in need (Leila Janah), extensively test AI by hackers (Keren Elazari)  are others. 
  • If ever strong AI overcomes us, we will have one last thing it will never get Faith (Ingrid Betancourt) 
It was a great opportunity before summertime to stick our heads out the day-to-day and think where our world would be going with a little help from my friends ;)

 

What I wanted to do is to take all the sessions I have been to and create a story that drives you through what could be our potential futures. I didn't respect the order of the conferences I went to, but like notes of a song, I tried to put them together in a special order ... I hope you'll like the song(s) ;).

To summarize, our world is going through major challenges and trends, that Mark Esposito has coined into a keyword DRIVE :

  • Demographic & social changes : world rise of elderly people), 
  • Resource scarcity ( moving away from  a resourceful planet),
  • Inequalities (growing between poor and rich and greatly magnified by perception, thanks to Internet everybody knows to what they can aspire but unfortunately can hardly obtain), 
  • Volatile scale complexity (our world is almost completely unpredictable), but with 
  • Enterprising dynamics (that could help us to face : Customer-focused, efficiency driven, engineering-based, science-based ). 

 

As Tim Urban, in his personal life, human beings are the best in procrastinating and we are waiting for the Panic Monster to get out of our lazy bed. It starts to really scare us after the little (instant gratification) monkey fooled us (a rational-decision maker) by luring us that we have a planet full of resources, technology will always save us).

 

John Maeda show we have moved from people around a table to people with their nose glued to their smartphones which won't help us to face this situation.

 

Punishment would certainly be one of the solutions for Emmanuel Jaffelin but I am not sure it will create much enthusiasm ;)  


Our challenge is not put wings on a caterpillar as would say Eddie Obeng but become a butterfly which means being able to break our usual barriers, stranglehold and deploy our wings Kevin Kelly would certainly say AI is a good thing because it would solve some major issues.

 

For me, artificial intelligence is a way to transform complex information into simple decisions. AI will become a commodity and flow like electricity or internet access for Kevin Kelly.  It is powering objects with intelligence as electricity powered before objects.

 

However, there is a long way before, the arrival of strong AI. Today, there are many intelligences that we can already observe in nature (humans, animals and in a way vegetals), AI might be better than us in certain fields (especially perception) but it is certainly not better than us as a whole and not before a few decades. That's why he recommends that humans work together with AI to become centaurs (preferred to the word cyborg to express that we are taking the best of the two worlds)  ... I think it's better than doing nothing and delegating eveything to AI ;)

 

Moran Cerf would even go further to enhance the human being : human with wings, or people seeing from gamma and x rays to radio waves. As blinds develop new senses, our brain could embrace new functionalities according to him. Sure, it would create some ethics issues ! We could even reach immortality, but who wants to live forever ?  It gives me the shivers... Not sure, I'd like to have chips under my skin :) In AI, we are absolute beginners.

 

As Nick Bostrom, describes it, AI can go much quicker than we think. When facing AlphaGo, Lee Sedol went from "winning by a near landslide" to "powerless" in 6 months, one year later AlphaGo defeated Ke Jie, the best Go player in the world, 3 to null.

 

 

AI starts even fooling us, making us thinks they could become creative artists, by applying well-known painter styles to pictures.  Are we doomed to become contemplative and passive beings, letting AI become our guide ?


Laurent Alexandre would say that we play with fire with AI, he goes even further saying we are in front of great challenges : disappearance of whole swathes of jobs, increasing inequalities between people in terms of intelligence (that could lead to massive upheaval, intellectual discrimination...), exacerbated by the introduction of chips in brains. Concerning jobs, best chances are those that mix manual ability and intelligence.
 

 

In the future, our AICQ  (Artificial intelligence Complementary Quotient - Quotient de complémentarité à l'IA in French QCIA) would outdate IQ. AICQ would measure how much our intelligence can leverage from AI. This raises one question, if two people had respectively IQ's of 80 and 120, would AI add intelligence, for instance +20 : 100 and 140 (which would relatilvely reduce people difference) or multiply it, for instance, *1,5 : 100 and 150 (which would increase people difference).
After asking the question to Laurent, he told me he thinks it would be the latter ... I think that after diabetes epidemy there is a real risk of intellectual diabetes (where we would rest on AI, as today people rest on junk food to eat).
To avoid this, Laurent stated three red lines, humanity should never cross, lose our body (if we were able to download / upload our mind to silicon ), delegate our autonomy (humans must be the final decision-maker), and get rid of randomness ("hasard" in French)

However there are reason for hope, it will come from an idea. But giving birth to an idea is not just a miracle says Cédric Villani, we gotta get up and try, and try, and try.  Like earth, ideas grow in a fertile ground full of nutrients :  documentation, motivation, enabling environment, exchanges between other people, interest, constraints, work and enlightenment.
By using Dan Ariely clever tricks, we could accept to drive the masses by opting in or out towards the right direction by reducing their efforts to decide but humankind is worth more than that.  
As would advocate Etienne Klein, he pushes towards another experience, a thought experiment. Einstein was riding light to discover that it has an absolute speed, why couldn't we take a ticket to ride our light to understand our limits and use it to make our world sustainable and better.

For John Maeda, the first step must be Design and not be the "fifth wheel of the carriage". By analogy, when we create and design AI now, we should in advance anticipate a few things, like a "Stop Button", a track log to understand what is going on...
 

 

Building AI can even be a factor of inclusion as explained Leila Janah, training people from developing countries to recognize images to feed artificial intelligence engines. It is a way to give them a share of new technologies. There is a risk to cut the branch on which they are sitting, however it gives people also the opportunity to move up of the ladder and go on the other side of the branch.
Another interesting analogy we can make between helping developing countries and AI, we shouldn't give Care (as usually do NGO / ONG or in case of AI, being assisted by AI ) but give means to work as Leila Janah did (and for AI, facilitate, help to work and not replace it).

Also, to avoid AI going crazy and hijacked, Keren Elazari says it needs to be widely and extensively tested by anticipation, so find all failures. Keren Elazari shows how hackers can help to reach that goal and gain precious time through bug bounties particularly.
 

 

But if ever, strong AI came over and overwhelmed humanity, there would be one thing that humans would have left that robots and Artificial Intelligence would never have : Faith, source of Hope and Will.  
Faith that Ingrid Betancourt had to survive of captivity among FARC, hope to escape one day and will to do it.
She may be coming from hell. Whereas all chances were against her, despite all logic and reasoning,  she broke free and reunited with her loved ones.
Dimitri Carbonnelle - Founder Livosphere 
Conseil Open Innovation - IoT, AI
Helping businesses to use new technologies (IoT, AI, VR...) as leverage

0 commentaires

VivaTech - Conférences Voice is the new UI (User Interface) / Frugal and Sustainable Innovation with Dimitri Carbonnelle Livosphere with Facebook, Snips, Navi R

Voice is the New UI : June 15th  10:45 to 11:15 with Facebook, Snips, Livosphere

 

I was really happy to moderate the following session on the voice is the new UI.

 

Here are the introduction and questions I asked

 

- Alex Lebrun Facebook AI and Co-founder of Wit.AI

- Yann Lechelle COO Snips  - lien image : 

- Dimitri Carbonnelle Livosphere

 

Here is the audio file :

Introduction by Dimitri Carbonnelle - Livosphere

Voice - quickest and most natural way for humans to transmit complex information

 

When I went to the CES Las Vegas in January Voice was everywhere, to be accurate Alexa, Amazon intelligent Voice control system. was everywhere in alarms, fridge, cars. I haven’t seen it in a toothbrush, but it should soon come ?...

 

The question is Why ?

 

Voice is the quickest and most natural way for humans to transmit complex information, compared to any other UX like typing or gesture. Voice recognition and voice understanding is a major shift because you don't need anymore a screen, our usual digital interface. You can cut the umbilical cord between a connected device and a smartphone and have a natural interaction with it.

 

The biggest challenge isn’t anymore transforming speech to text which became today a commodity as told me Alex. It is to understand, answer and react which means integrate artificial intelligence after voice recognition, we call it natural language processing. Of course, there are some issues about voice : one of them is privacy

 

Facebook intelligent speaker -  Voice versus text - Question to Alex Lebrun - Facebook

Hello Alex,

There is a lot happening around Voice recognition, and natural language processing.

On one side, we see Apple that will launch Homepod , after Amazon Echo and Google Home

on the other side, Facebook made some major moves in AI and vocal understanding, by buying for instance Wit.ai, from which you are the founder.

Everyone is asking the question : « What is the next move of Facebook to make voice as the new UX, are you gonna show your muscles and not be the only one among the GAFA to not have an intelligent. » But i won’t ask this question, as you wouldn’t be able to disclose this type of information here.

So, what I would I like to know is what are the specific uses cases for Voice recognition compared with text use cases ?

 

Pivot of Snips, value-added of Snips Question to Yann Lechelle - Snips

Hello Yann,

 

Snips really made a real pivot from making mobile assistants including AI to Natural Language processing, which is good move as you just raised 12M€ recently.

First point, why did you make this pivot ?

In addition, what is the value added by Snips compared to Amazon Echo, Google Home and Apple Homepod ?

 

General uses Vs Specific uses - Question to Alex Lebrun - Facebook

Facebook recently refocused its application of "artificial intelligence", intelligent chatbot didn't work so well and unveiled a bot API for its Messenger. With all the components you have and combined this with Wit.Ai, you could make an intelligent voice platform that could even be sold in B2B and compete with the Amazon Alexa plateform.

Without revealing any secrets, do you think voice recognition will be used for general purpose devices or limited first to specific tasks.(dishwasher, coffee machines) ?In this last case, manufacturers could rely on an intelligent voice plateform.

 

Alexa - Key witness of murder - Privacy - Question to Yann Lechelle - Snips

 You might have heard of this story :James Bates, in Arkansas has been recently accused of murder of his friend Victor Collins. You would ask ? What the heck ?

Well, James has an Amazon Echo that overheard a certain number of conversations so Amazon Echo could become a key witness in this murder investigation. This raise the question, of Privacy, because my conversations are sent to the cloud, accessible potentially to anybody. Yann, how Snips are you dealing with this issue ?

 

Question to Alex and Yann

Other interactions like gesture

We are talking about Voice, but there are other ways to interact naturally with objects. Will you include them in your solutions ?

 

I must admit I have a terrible handwriting, and it's getting worse and worse as I type more than I hand write . In the same way, do you think that voice will outdate writing ? Are we going back to an oral civilization enriched with plenty of videos ?

 

They are many languages to tackle , what strategy do you use ? Are you translating each language one to one or are you using pivotal language like English ?

Frugal and Sustainable Innovation with L'Oréal, Siemens, Navi Radjou and Dimitri Carbonnelle Livosphere

Introduction by Dimitri Carbonnelle - Livosphere

"More for more" no more sense - Emmanuel Macron, pionner in Frugal Innovation ;)

 

Here is the audio file:

 

 

Today when we innovate, we usually do more with more. Just to give an example to build a new factory of chips it costs over 1 billion USD and often 3,4 billion USD.

The next generation of factory that will make 450mm wafers would cost 10 / 15 billion USD. Does it really make sense ?

 

Today we are no more in a world plenty of resources but of scarcity. Often human beings starts being creative when they got a knife under their throat.

Frugal innovation is all about anticipating this moment to avoid it. It is doing more and better with less.

 

One of the first step to push people towards being creative is by reducing their resources.

 

Well I have got good news, because the French President Emmanuel Macron is pioneering Frugal Innovation to drive France. One of its first decision was to drastically reduce the number of collaborators in the Ministries cabinet (between 5 and 10). So, I am pretty sure, Ministries are now putting in place Frugal innovation strategies to do more and better with less people. In fact it compells them also to be open, to work with others.

 

Frugal Innovation and Europe - Question to Navi Radjou

Navi, Often we make the link between frugal innovation and emerging countries. You pointed out that the European Commission made a study on how to use Frugal Innovation as a leverage for Europe ?

Could you tell us why Frugal innovation is key in Europe and how we can become a forerunner in front of the Silicon Valley in that field ?

 

Reduction of CO2 emission - Question to Christophe de Maistre - Siemens

One main goal of Frugal innovation is making our world sustainable. However, industry and construction is a big contributor to climate warming, it's responsible for about 20% CO2 emissions in the world.

 

Siemens has decided to reduce by 50% its CO2 emission and to zero carbon emission by 2030. Can you tell us how you making this possible through innovation and can you give us some examples ?

 

Question to Stéphane Lannuzel - L'Oreal

One problem with Mass production is that One size fits all. As Henry Ford says, you can choose any color for your car as long as it is black. At the end, it doesn't fit so many people which means waste of time, money, resources

 

One principle of Frugal Innovation is mass customization and to be make it possibleyou need to flex your assets, which means being able to transform your production line to adapt to the demand.. And L'Oréal has exactly done that on its ines of production can you tell us more about it and why did you dit it ?

 

Products - Question to Navi Radjou

 You came up with a few products. They may that comes from Frugal Innovation can you show them and explain us in what they are different ?

 

Co-creation - Question to Christophe de Maistre - Siemens

On of the key of frugal innovation, is co-creation, and this goes from building proof of concept, prototype and solutions. I have heard the cornerstone of co-creation in Siemens with your customers but also startups is your platform Mindsphere. Can you tell us what it is and how it works ?

 

Customization and Production in shop - Question to Stéphane Lannuzel - L'Oreal

The next step is that the customers would be able to directly customize at the shop their product and buy it directly ?

I have understood you are doing this for foundations (fond de teit for french speakers) ?

Is it a big trend for you, that distributors, produce directly in their shop ?

 

Question to all speakers

Often we may think that Frugal innovation means low tech. How do you integrate new technologies like Iai? As we need less resources, Does Frugal innovation means also less Growth for companies? Is it an issue or a good thing?

 

 

 

Dimitri Carbonnelle - Livosphere 

Apple HomePod, Google Home et Amazon Echo, assistants intelligents, cellules souches des futurs objets intelligents

Apple vient de lancer son Home Pod, assistant intelligent incarné dans une enceinte concurrençant ainsi Amazon Echo et Google Home.  

 

On pourrait se demander si pour compléter le tableau du GAFA (voire GAFAM), Facebook ne va pas s'y mettre aussi ainsi que Microsoft. [UPDATE 4/8/2017] : Il va le faire ;) 

 

Pour moi, les assistants intelligents sont  comme des cellules souches  (cellules plénipotentiaires), pas bien différenciées,  dont on ne sait pas encore la place qu’elles prendront . Elles peuvent tout faire mais ne savent rien faire (ou presque). En revanche, ces assistants vont donner naissance à de nombreuses cellules différenciées et seront le départ d'une révolution beaucoup plus profonde : l'intégration de la reconnaissance vocale et l'IA dans un très grand nombre d'objets avec un usage beaucoup plus clair qu'aujourd'hui et peut-être un jour une trajectoire similaire au Smartphone.

 

J'aborderai plusieurs points :

  • Est-ce que ces agents vont  prospérer ou retomber comme un soufflé à l'image des smartwatches ?
  • Qu'est ce qu'il faut pour qu'ils se développent et n'atterrissent pas dans des placards comme des reliques à l'image de feu les lapins Nabaztag ou des appendices inutiles de smartphone ?
  • Comment vont-ils évoluer ? Vers des robots ou être intégrés directement dans les appareils électriques ? 
  • Quels problèmes cela pose d'avoir nos conversations envoyées systématiquement dans le cloud ? Qu'en est-il de nos données personnelles, face à ce micro branché 24h/24h ?