Intelligence artificielle IA et Blackbox, Pouvoir, IA inclusive, où investir, libérer les données et GDPR, RGPD, stratégie industrielle IA à l'AI Night - Start

Le jeudi 8/2 a eu lieu l’AI Night au Palais de Tokyo, organisé par Artefact, France Is AI et France Digitale.

 

Comme le dit très bien, Damien Gromier, maître de cérémonie de la soirée, l'objectif est de réunir l'ensemble de l'écosystème intéressé par l’IA en France afin d'en faire la locomotive européenne de l’intelligence artificielle.

 

Oui, il y avait des startups qui ne font pas de l’AI Washing. Oui, il y avait de speakers sachant parler de l'IA, de leurs impacts mais surtout l'AI Night ouvre le débat indispensable sur ce que nous voulons faire de l'IA dans nos sociétés.

 

En quelques mots :

  • Est-ce que l’IA = Black box et IA = Pouvoir ou pas ? IA compatible avec la GDPR ? Doit-on rendre l’IA inclusive ?
  • Combien doit-on investir dans l’IA (30 ou 300 Md €) et surtout pourquoi faire ? Et Pourquoi ne pas mieux rémunérer les chercheurs de l'INRIA et dans l'IA ?
  • Pour contrer les GAFA, ne devrait-on pas avoir une stratégie industrielle de l’IA différenciante par rapport aux GAFA et BATX et européenne ? Une IA qui nécessite peu de données traitant localement les données plutôt qu’une IA plateforme ?
  • Comment libérer les données, fuel de l’IA en préservant la vie privée ?

Avec les interventions notamment de Laurent Alexandre, Moojan Asghari (Women in AI), Mounir Mahjoubi, Isabelle Ryl (INRIA) et Bruno Maisonnier (Another Brain)

Les questions en débat

L'AI Night ouvre le débat sur de nombreuses questions :

 

Doit-on accepter que l'IA soit une Black Box et l'instrument des puissants comme l’affirme Laurent Alexandre ou au contraire comme le défend Mounir Majhoubi, tout faire pour que les femmes, les outsiders, les élèves se joignent au débat et en deviennent acteurs car l'IA sans inclusion ne serait que ruine de notre société ? Aujourd’hui, l’IA est trop encore « Digital Man Centric ». Ce sera un des enjeux des prochaines AI Night que de diversifier encore plus les speakers et l’audience.

 

Doit-on investir 300 Md € dans le deep learning pour se battre contre les GAFA, chiffre minimum d'après Laurent Alexandre (Vs 30 Md€ selon Cédric Villani) ou la bataille est perdue et il faut investir dans d'autres formes d'IA, explicables et qui nécessitent peu de données comme le préconise Bruno Maisonnier en mettant en avant sa startup Another Brain (puces d’IA n’utilisant pas des réseaux neuronaux).

 

Quelle stratégie IA devons-nous adopter ?

Aujourd'hui il y a beaucoup d'initiatives dans le domaine de l'IA, qui sont dispersées avec des visions disparates (car nous sommes au début de son explosion). Au-delà de ces discussions, l'enjeu est d'avoir une vraie stratégie industrielle (partenariats, standardisation des protocoles, structures de données, harmonisation législative) non seulement sur le plan français mais surtout sur le plan européen pour faire face aux plates-formes de sociétés américaines et chinoises. 

 

La GDPR (RGPD / Règlement européen sur la protection des données) est à la fois un frein au développement de l'IA car il réduit la quantité de données utilisables néanmoins il peut être aussi un fort levier sur deux plans :

  • cela montre que les Etats européens sont capables d'avoir une vision cohérente sur le sujet des données personnelles et cette démarche pourrait être utilisée sur d'autres aspects de la réglementation ou de projets européens (tant qu'elle ne bride pas les initiatives et entrepreneurs !)
  • si les entreprises européennes développent des technologies innovantes qui respectent la GDPR (ex: en utilisant beaucoup moins de données avec l'IA formelle ou en embarquant l'IA dans des puces évitant de les transmettre sur une plateforme et donc d'être soumises à la GDPR)
  • et que la GDPR et GDPR-like deviennent un standard mondial (possible s'il y a un Techlash de la part des individus et surtout des Etats pour réduire la puissance des GAFA qui agrègent trop de données)

Un angle d’attaque serait que l’Europe ait une stratégie pour développer des technologies capables de réaliser de l’IA localement avec très peu de données (GDPR Compliant) Vs une IA engouffrant des quantités de données dans le cloud (IA des GAFA qui pose des problèmes de « privacy » et des risques de TechLash) à l’image du small data Vs big data. C’est une stratégie différenciante plus pertinente que d’adopter la même stratégie que les GAFA en les prenant de front.

  

Le plan proposé par Cédric Villani à ce sujet qui devrait sortir en mars donnera le ton et la vision souhaitée par la France. Sa présentation a été retardée afin d'être concomitante avec la présentation de la stratégie du gouvernement sur l'IA. La stratégie européenne devrait être présentée deux semaines après en coordination avec la stratégie française ce qui est de bon augure (cf interventions sur LCP notamment de Cédric Villani et Laurent Alexandre)

 

Libérer les données et la vie privée

Faut-il libérer les données de santé ou les protéger pour garder le peu de vie privée qui nous reste ? Est-ce possible d'avoir les deux en même temps ? (oui en agrégeant les données, en utilisant des IA capables de travailler sur des données cryptées et surtout si on explique pourquoi et comment on utilise les données et comment on respecte la vie privée en anonymisant ces données ).

 

Débattre de Laurent Alexandre dans les écoles car nous en aurons des millions dans nos smartphones ...

Toutes ces questions et une foultitude d'autres, nous devons en débattre de manière constructive, pas uniquement entre nous dans le monde du digital où les hommes sont d'une écrasante majorité (alors que les femmes sont bien mieux armées que les hommes face à l'IA (cf. ce post FB).

 

A ce titre, une idée complètement iconoclaste serait de diffuser des interventions de Laurent Alexandre dans les écoles, collèges, lycées et enseignement supérieur et aussi dans les entreprises et organisations publiques pour débattre de ses idées.

 

Laurent est l'incarnation humaine de l'intelligence artificielle générale de demain, il a une aura liée à son parcours (chirurgien et urologue, diplômé de l’IEP Paris, d'HEC et de l'ENA), à son charisme et bagou qui nous fait facilement tomber dans ce fameux biais cognitif, le biais d’autorité. Peut-être qu’à l’occasion, tombe-t-il dans le « Curse of knowledge » ;)

 

Il peut en quelques secondes basculer des analyses les plus pertinentes aux conclusions les plus spécieuses bâties sur des raisonnements certes bien ficelés parfois séduisants mais faux (cf. mon point de vue ci-dessous et je reste ouvert aussi à la critique !).

 

Regarder ses interventions, nous oblige à apprendre à séparer le bon grain de l'ivraie, à avoir l’esprit critique et le maintenir en éveil. En discuter, en débattre, nous permet de l’affûter.

 

Aujourd'hui, nous avons un seul Laurent Alexandre, demain nous en aurons des millions dans nos smartphones, nos voitures, nos maisons, nos objets capables de nous donner les meilleurs conseils et nous sortir les plus grandes inepties (potentiellement crédibles !).  Nous devons apprendre à savoir faire le tri et ce sera loin d'être évident car à l'image du GPS, nous aurons juste envie de nous reposer dessus quitte à perdre le sens de l'orientation. L'IA ne doit pas devenir une pensée magique sortie d’une black box, elle ne doit pas devenir un nouveau dieu capable de nous mener du jour au lendemain d’une Terre tant promise au royaume d'Hadès ou au terme d’une lente catabase.

 

Dernier point, l'IA fonctionne grâce à l'énergie, une coupure d'électricité et vous perdez l'IA, d'où la nécessité de ne pas se reposer uniquement dessus. Avec les catastrophes naturelles, ce type de situation risque de plus en plus d'arriver. C'est aussi une fragilité pour ceux qui croit prendre le pouvoir uniquement avec l'IA. 

 

Mais cela ne dépend que de nous... 

Vision globale

Startups

14 startups présentaient des cas d'usage de l’IA dans le domaine de

en plus de Startup Inside (développement de projets IA).

 

 


L'autre intérêt de cette soirée est celui des conférences et panels, le rythme, la durée, les conférences étaient bons ainsi que le pitch des start-up à la fin même si 30 minutes de moins auraient été bienvenues. À quelques exceptions près, les interventions étaient bonnes, voire excellentes. Il y a évidemment des partis pris et des personnes qui prêchent pour leur paroisse, pardon leur IA !, néanmoins le melting pot qui en résulte est très intéressant de par la variété des opinions comme j’en ai parlé en introduction.

 

 

Bien sûr, les objectifs des conférences étaient de montrer l'intérêt de l'IA,  de manière générale et sur des secteurs en particulier comme la santé, la mobilité, le marketing avec des intervenants multiples et variés (GoogleINRIAWomen in AIMalakoff MédéricRATPValeoEasy MileCardiologs et bien sûr Mounir Mahjoubi).

IA B2B : Automatisation, optimisation, innovation

Vincent Luciani (Artefact) nous expliquait ses trois axes de développement de l’IA en B2B :

  • l'automatisation (moins de tâches répétitives),
  • l'optimisation (prendre de bonnes décisions surtout si nous faisons face à beaucoup de données hétérogènes) et
  • l'innovation (découvrir de nouveaux champs).

Il est essentiel de commencer dès maintenant car il y a une prime aux early adopters. Il faut compléter par le fait que les changements organisationnels et culturels sont majeurs, plus tôt on s'y prépare, moins la pente sera raide.

 

Il sera de plus en plus difficile de faire la distinction entre les « fake news » et les « true lies » (cf fausse vidéo de Barack Obama). Cette confusion était l’un des 3 mots  (en plus d'inflexion et de confrontation) qui résumait mes prédictions pour 2018 et après : entre ce qui est vrai et faux, ce qui est humain ou pas,  vivant ou artificiel, créations humaines ou  d’IA, réel ou virtuel, nous allons perdre beaucoup de nos repères fondamentaux avec les nouvelles technologies comme l'IA, la VR/AR, les nanotechnologies ... et devrons apprendre à en trouver de nouveaux.

Retail

En retail, Guillaume de Roquemaurel précise aussi qu'on ne peut plus présenter sur un site e-commerce ou en rayon des centaines de marques sans distinction et qu’il est essentiel de personnaliser l'expérience en fonction de l'utilisateur.

 

Autre changement, Google prévoit que 50 % de ses recherches devraient passer par la voix d'ici 3 ans ce qui change fondamentalement la donne. Autant on accepte de voir des dizaines de résultats sur un écran, avec un assistant vocal, nous ne voulons qu’une réponse et si elle n'est pas pertinente, on l'abandonnera vite. Notre exigence est beaucoup plus élevée.

 

Pour l’anecdote, j’en avais parlé dans un petit ouvrage « Objets communicants au service des services » (cf. fin de la page 8, à ce moment-là, le terme objet connecté n'était pas encore consacré !) que j’avais écrit en septembre 2009 et de la nécessité d’intégrer une couche d’intelligence au-dessus ! Comme quoi, cela prend plus de temps qu’on ne croit …

Mobilité

Dans la mobilité, Valeo explique que la distinction entre le transport individuel et collectif se brouille avec le covoiturage le free-riding... 

 

Au CES Las Vegas, j’avais vu que pour les constructeurs automobiles, le véhicule autonome était conçu dès le départ pour être partagé, ce qui paraît cohérent. Utiliser un véhicule autonome moins de 10% du temps par moins de 1,5 personne (moyenne actuelle) serait un non-sens. Le modèle économique de partage permet de fortement réduire son coût total (avec les revenus générés notamment) même si son coût initial sera beaucoup élevé que le coût actuel d’un véhicule non-autonome.

 

La conduite assistée est un préambule aux véhicules autonomes, Valeo a été pragmatique et a simplement demandé aux conducteurs ce qui les ennuyait le plus dans la conduite : se garer en ville les embouteillages et les autoroutes ennuyeuses. Ils en ont tiré leurs trois axes d’innovations  et des solutions dans chaque cas.

Easymile serait la seule entreprise au monde avec Navya à commercialiser des navettes autonomes sans volant ni pédales.

 

Il est d'ailleurs possible de les tester dans le Bois de Vincennes sur un trajet déterminé et une voie dédiée. Le développement de ces véhicules se fera en parallèle et de manière complémentaire aux véhicules autonomes ayant un volant qui peuvent plus facilement être utilisés en route ouverte car un conducteur peut reprendre la main si nécessaire (ex : Rouen Normandy Autonomous Lab avec Transdev et Renault Zoé).

Cybersécurité

La cybersécurité a été abordée par Christopher Muffat de Dathena mais j'ai été déçu car j'étais persuadé qu'il nous parlerait de Generative Adversarial Networks (cf article sur GAN et sur les armes autonomes et la cyberguerre) pour contrer les cyberattaques et par exemple  les utiliser lors de Bug Bounty pour détecter des failles de sécurité. Il n’en a rien été. 

Fin du code

Jean-Philippe Desbiolles (IBM Watson) indique qu’il y a trois usages qui se développent très fortement pour Watson:

  • une nouvelle expérience client (personnalisation des services/produits grâce à l’IA et les données collectées),
  • l’Homme augmenté (santé et prévention en particulier),
  • le respect de la conformité / de la réglementation

Il prédit la fin du code, le passage de la programmation à l’apprentissage, du déterminisme à l’adaptation du savoir, savoir-faire et du savoir-être.

 

 

Nous verrons de moins de codeurs et de plus en plus de développeurs voire de dompteurs d’IA (IA qui sera en charge de créer le code). A ce titre, autant il est nécessaire de savoir comment coder, autant il ne faut pas créer des armées de codeurs à la sortie des écoles car ils seront pour la plupart sans emploi dans une dizaine d’années (cf. article sur l’IA et l'éducation).

 

Il cite aussi l’excellente intervention de Jack Ma au forum de Davos sur la nécessité de changer notre manière d’enseigner en développant les « soft skills » (« Values, believing, independent thinking, teamwork, care for others » :  avoir des valeurs, croire en quelque chose / quelqu’un, avoir un esprit critique, un esprit d’équipe, s’occuper des autres) sinon nous aurons de vrais problèmes dans 30 ans.

 

Il préconise de développer toutes les activités qui nous différenciera des machines pendant encore longtemps : sports, musique, peinture, art de manière générale.

 

 


Même s’il faut développer ses activités, il ne faut pas cesser d’apprendre les matières « dures » : maths, histoire, géographie, français et philo, SVT, physique/chimie … car ce sont des fondamentaux, des références qui nous seront indispensables pour bâtir notre créativité, créer des liens avec les autres et tout simplement pour ne pas être tout de suite larguées par les machines !

 

D'autre part, en plus d'apprendre, il est indispensable d'apprendre à apprendre, c'est dans ce sens que Cédric Villani préconise d'aller sur son rapport pour favoriser l'apprentissage des mathématiques. 

IA dans le domaine juridique et légal - respect de la conformité 

L’homme a été et est toujours prolifique pour créer des lois, règlements, contrats…

 

L’IA pourra proposer des solutions qui y répondent car il aura tout ingurgité et sera capable de filtrer les solutions en fonction du respect ou non des contraintes légales, contractuelles...).  L’IA pourrait certainement nous aider aussi à simplifier les lois et règlements en montrant toutes les aberrations, archaïsmes, contradictions, doublons que nous y avons laissés recouverts d’une grosse couche de poussière que personne n’a osé nettoyer vraiment depuis le code napoléonien. Cela pourrait être un challenge intéressant à relever pour des fournisseurs de solutions IA (en particulier s'ils sont dans le domaine juridique).

  

 

Pour l'anecdote, l'IA CaseCruncher a battu lors d'une compétition 100 des meilleurs avocats de Londres. Supervisée par deux juges, CaseCruncher Alpha et les avocats ont reçu les faits de bases concernant des centaines de cas de ventes abusives de PPI (Payment protection insurance, assurance emprunteur). Les deux entités étaient par la suite invitées à définir si l’Ombudsman financier autoriserait une réclamation ou non. Suite à la soumission des 775 prédictions, l’IA a finalement remporté la bataille avec un taux d’exactitude de 86,3% contre 66,3% pour les avocats. L'IA n'a pas pour vocation de remplacer les avocats mais plutôt l'assister, le guider dans ses choix.

Le débat !

Rentrons maintenant dans le vif du sujet sur des thèmes qui sont particulièrement polémiques dans domaine de l'intelligence artificielle :

  • L’ investissement dans l’IA : Combien ? Où ?  N'est-ce pas trop tard ?
  • Qu'est-ce que l'intelligence (est-ce l’attribut du pouvoir , et une blackbox comme dit Laurent Alexandre) ? Et les impacts de l'IA sur notre société .
  • Pourquoi l'intelligence artificielle doit-elle devenir un facteur d'inclusion et non d'exclusion dans nos sociétés pour Mounir Majhoubi ?
  • La libération des données personnelles versus notre vie privée

L’ Investissement dans l’IA : Combien ?  Où ?  n'est-ce pas trop tard ?

Progrès réels

Laurent Alexandre a été particulièrement beau joueur en acceptant pour la première fois d'avoir un discours positif sur l'intelligence artificielle à la demande de Damien. C'était un moment particulièrement émouvant  ;) après avoir entendu un certain nombre de discours catastrophistes sur le devenir de l'homme face à l'intelligence artificielle qui ont néanmoins le mérite de nous réveiller et de nous bousculer.

 

Laurent égrène les progrès réalisés par la France, par son gouvernement, son administration en matière de compréhension de l'intelligence artificielle et de ses impacts, en termes d'action pour favoriser son développement.

 

Fini les investissements dans les canards boiteux à la sauce Plan Calcul, il rend hommage aussi à Mounir Mahjoubi d'avoir essayé de faire comprendre aux sénateurs ce qu’est le deep learning même si un certain nombre d’entre eux n’auront sans doute pas le temps de voir ce qu’est l'Intelligence Artificielle Générale ou AGI (53,7% ont plus de 60 ans or l’AGI devrait arriver dans 30 ans environ, - néanmoins, l’âge moyen des sénateurs a baissé de 5 ans entre 2014 et 2017 pour être à 61 ans aujourd’hui :). Ils se sentent peut-être moins concernés. 

Salaires des chercheurs à l’INRIA

Laurent demande à ce que les chercheurs à l'INRIA (j’ai vérifié … cf. grille de salaire à l’INRIA – le maximum étant de 6000 € / mois pour un directeur de recherche de classe exceptionnelle, un chercheur peut gagner au maximum 3761 € brut /mois, selon Glassdoor sur un petit échantillon de chercheurs leur salaire moyen serait de 2600€/mois ce qui semble cohérent) soient payés plus que deux fois le salaire d'une femme de ménage chez AccorHotel (selon Indeed, le salaire moyen d’une femme de ménage est d’environ 1600€ / mois).

 

Laurent dit donc vrai, Isabelle Ryl (directrice de l’INRIA) confirme ses propos en regrettant amèrement de voir ses chercheurs partir en raison de la faiblesse des salaires au profit de nombreux GAFA.

 

 

Fidèle au credo qu'il avait quand il était à la tête d'Aldebaran, Bruno Maisonnier est encore plus affirmatif, trouve hérétique de laisser les GAFA installer en France des laboratoires d’intelligence artificielle où tous nos chercheurs sont aspirés et qu’il faut investir dans les entreprises françaises.

 

C’est sans doute un moindre mal que de les voir tous partir de France. D'une part, on aura beaucoup plus de chance de les revoir par la suite travailler sur des sujets qui ont un impact direct sur la société française ou européenne que s'ils partaient aux États-Unis (en particulier si on relève les salaires !), d'autre part leur expérience sera enrichie par toute la connaissance qu'ils ont eue chez ces entreprises.

 

En revanche, il est évident qu'il est indispensable de relever les salaires des chercheurs notamment dans le domaine de l'intelligence artificielle. La rémunération n’est pas leur première motivation dans bien des cas néanmoins si l'écart est trop grand et surtout s’ils tirent le diable par la queue tous les mois en raison de leur salaire, on peut comprendre qu'ils aillent voir ailleurs.

 

 

En valorisant mieux ces chercheurs, les entreprises et organisations françaises et notre pays en bénéficieront bien au-delà des coûts actuels.

Investissement national dans l’IA

Évidemment, Laurent ne saurait discourir sans manier le juron et l'hyperbole comme autrefois le scalpel en fustigeant les autorités européennes d'être ... trop mou (je vous laisse le soin de deviner ses termes exacts ;)

 

Il est à 100 % d'accord avec Cédric Villani concernant la stratégie sur l’IA a une petite exception près, ce n'est pas 30 milliards d'euros qu'il faudrait consacrer à l'intelligence artificielle mais 300 milliards, selon lui.

 

C'est, comme si au début du siècle, on préconisait d'investir la quasi-totalité des fonds sur les infrastructures ferroviaires en oubliant les routes et les avions. Oui il faut investir massivement, mais avec discernement et pas mettre tous ses œufs dans le même panier, L'IA ne représente pas toute la recherche ni toute la société.

 

Plus qu'une surenchère aux montants, il est indispensable d'avoir une stratégie industrielle. Plus que de partir d'un chiffre 300 ou 30 Md €, il est beaucoup plus judicieux de partir de la stratégie à adopter, d'en calculer le coût global et en fonction de prioriser pour arriver à un budget acceptable. Nous verrons mais certainement la stratégie préconisée par Cédric Villani dans son rapport sur l'IA.

Bruno Maisonnier dit même que ce montant d’investissement est absurde (ou un terme similaire). Il ne sert à rien d'investir des sommes phénoménales en deep learning car de toutes les manières, il est trop tard c'est foutu, car les GAFA ont déjà gagné cette guerre.

 

En revanche, il faut investir dans une IA explicable, nécessitant peu de données, comme la puce qu’il est en train de développer dans sa startup AnotherBrain ;)

 

J'ai une vision plus tempérée. D'une part, laisser complètement le champ libre dans le deep learning aux Américains et Chinois serait une erreur fondamentale, on ne sait jamais comment la roue peut tourner, les innovations majeures peuvent tout à fait provenir de la France dans ce domaine (rappelons notamment les contributions de Yann Le Cun, aujourd’hui chez Facebook à ce sujet). Enfin le deep learning (décrit en détail ici) pose un certain nombre de problématiques comme sa non-explicabilité (hors si on en fait la rétro-ingénierie cf. article), une grande quantité de données nécessaire, les biais de confirmation. La recherche dans ce domaine est essentielle pour bien les comprendre et aussi pour les réduire.

Another Brain - Puce de 3ème génération d'IA - Explicable et nécessitant peu de données

Tout le monde se pose la question : Qu’a de spécial la puce de Bruno ?  Elle est de troisième génération !  Bruno fait référence aux trois vagues d'IA décrits par la Darpa dans la vidéo suivante.

 

La première vague est une IA créée à partir de la main/cerveau de l'Homme (Handcrafted Knowledge). Ce sont en général des algorithmes (sans apprentissage).

 

La deuxième vague est une IA supervisée où on va entraîner sur base de très nombreux cas, un réseau neuronal par exemple dans un cadre pré-déterminé. Ils sont bons pour percevoir/classifier et apprendre mais peu efficaces pour raisonner et conceptualiser (cf article).

 

 


La troisième vague est capable de s'adapter au contexte et de construire une représentation (ontologie) du monde. Il a surtout la capacité d'expliquer un raisonnement (à la différence d'un réseau neuronal) avec très peu de données. En revanche, il n'est pas précisé la nature de cette 3ème IA.

 

Sur le plan technologique, la première vague de puces est fondée sur des processeurs usuels,  la deuxième vague utilise des processeurs GPU (multi-processeurs) et aujourd'hui des processeurs neuromorphiques qui sont en plein boom chez Intel et Nvidia qui permettent de simuler des réseaux neuronaux sur des puces de manière plus efficace que les cartes GPU actuelles.

 

Évidemment, j'ai questionné Bruno sur la nature de sa nouvelle intelligence artificielle et évidemment il ne m'a pas répondu. Néanmoins il nous a donné les indices en précisant que son intelligence artificielle était explicable et nécessite peu de données (caractéristique de la 3ème vague). A moins de créer un nouveau champ mathématique, il est probable que Bruno s'appuie sur l'IA symbolique qui nécessite beaucoup moins de données et est explicable.

 

Plusieurs candidats sont possibles, mais Bruno nous donne un coup de main, puisqu’il précise dans un article des Echos,  qu’il s’inspire aussi « directement du fonctionnement élémentaire du cortex cérébral pour construire une IA forte », or selon pas mal d’études, l’IA qui reproduirait le mieux le fonctionnement du cerveau humain (en utilisant peu de données et en étant explicable) sont les réseaux bayésiens. Il a dû aussi utiliser des techniques qu’il a utilisées pour la marche de Nao lorsqu’il se redresse une fois tombé.

 

L’intérêt de la puce par rapport à une plateforme est de permettre de réduire les délais de latence, d’éviter les problèmes liés au GDPR en ne transmettant pas de données et en traitant tout en local.

 

A mon avis, la puce doit générer et tester un grand nombre de réseaux bayésiens sous forme d’arbres de décisions. On parle aussi de random forest, je dirai plutôt des smarts forests. J’ai parlé de cette technique pour rendre explicables des résultats de réseaux neuronaux mais on peut l’utiliser en direct sur des données brutes sans avoir des résultats préalables par des réseaux neuronaux. D’autre part, la puce doit avoir un système d’auto-apprentissage qui permet soit d’ajuster les poids sur chaque nœud de l’arbre de décision soit de générer de nouveaux arbres de décision. En revanche, elle doit être capable de fonctionner avec très peu d'éléments de départ. Un peu comme un poulian qui apprend à trotter. Réponse dans 18 mois ...

 

 

Quelque soit la méthode, c’est une très bonne approche car malgré ce que dit Laurent Alexandre l’IA n’est pas nécessairement une black box, au contraire c'est une période transitoire.

IA et Black Box

Laurent Alexandre fait un amalgame très gênant entre IA et deep learning qui effectivement n’est pas explicable. Il fait fi de cette IA de 3ème génération qui repose notamment sur l’IA symbolique qui est tout à fait explicable.

 

Deuxième point, Laurent dit qu’il faut accepter que l’IA ne soit pas explicable, et que les sénateurs commencent à le comprendre. Je m‘insurge contre cette position (Eh oui, ça m’arrive ;). Qu’on ne puisse expliquer pourquoi un réseau neuronal sait faire la distinction entre un chien et un chat dans une image n'est pas un problème.

 

En revanche, cela en est un dès lors que l'intelligence artificielle devient décisionnelle. Refuser un prêt, un emploi à quelqu’un voire le condamner à 20 ans de prison, sans lui expliquer pourquoi pose un petit souci (cf. vidéo) ! 

GDPR / RGPD - Protection des données incompatible avec Deep Learning

Ce n’est pas un caprice de député européen si la RGPD (GDPR en anglais) oblige à pouvoir expliquer à un consommateur la raison d’un refus dans le cadre d’un traitement automatisé.

 

Cela signifie d'ailleurs que toutes les techniques de profiling, de scoring… fondées sur du deep learning sont interdites par la RGPD (on peut l’utiliser a priori pour faire un pre-scoring mais la décision d’acceptation ou de refus doit être réalisée par un algorithme explicable ou par un être humain) – Lien direct vers l’article du RGPD (article 63)

 

« En conséquence, toute personne concernée devrait avoir le droit de connaître et de se faire communiquer, en particulier, les finalités du traitement des données à caractère personnel, si possible la durée du traitement de ces données à caractère personnel, l'identité des destinataires de ces données à caractère personnel, la logique qui sous-tend leur éventuel traitement automatisé et les conséquences que ce traitement pourrait avoir, au moins en cas de profilage. »

 

Accepter que l’IA de manière générale soit inexplicable est selon moi le pire des messages à faire passer. C’est la transformer en parole d'évangile. Ce qui fait progresser l'homme, c'est sa capacité à expliquer, à comprendre, à réfuter ses croyances initiales et à bâtir ses propres théories. Le lever du soleil, le mouvement des étoiles et la naissance d'un enfant furent il y a des milliers d’années des boites noires pour les êtres humains. Voulons-nous retourner dans cet obscurantisme naïf en croyant aveuglément ce que nous dira une AGI (intelligence artificielle générale) ou une ASI (super-intelligence artificielle) ?

 

Il faut à tout prix éviter que l'intelligence artificielle devienne magique et se transforme en religion, lui accorder le droit de devenir inexplicable est un pas dans cette direction.

 

Bien sûr, on ne va pas essayer de rendre explicable le deep learning, mais son utilisation doit être cadrée, elle peut contribuer à la prise de décision sans être le décisionnaire final qui doit revenir à un humain ou une IA compréhensible par un être humain. 

Qu’est-ce-que l’intelligence et par extension l’IA ? IA <> Pouvoir !

Laurent Alexandre a balayé d’un revers de main la définition de son prédécesseur sur l’intelligence en disant que l'intelligence est la capacité de prendre le pouvoir sur autrui et rien d’autre. Pour moi, c’est une ineptie confirmée par l’histoire humaine.

 

Est-ce-que les nombreuses guerres gagnées par les Spartes contre les Athéniens sont dues à la supériorité de leur intelligence ? Non

 

Est-ce-que les peuples barbares ont vaincu les Romains grâce à la supériorité de leur intelligence ? Non

 

Est-ce-que la Révolution française résulte de l’intelligence accrue des bourgeois puis du peuple français sur la noblesse et le clergé ? Non

 

On pourrait multiplier les exemples, sans même évoquer le cas de la Seconde Guerre mondiale …

 

Ce n’est pas parce que l’on est plus intelligent qu’on prend le pouvoir, ce n’est pas parce que l’on prend le pouvoir qu’on est plus intelligent.

 

En période de paix ou lorsque les inégalités au sein d'une société restent tolérables, l'intelligence permet d’accéder à plus de pouvoir, c’est un facteur parmi d’autres. La relation entre l'intelligence et le pouvoir est similaire à celle d'un élastique, ceux qui auraient l'intelligence et le pouvoir tirent l'élastique d'un côté, face à eux, ceux qui ne les ont pas (la longueur de l'élastique représentant l'ampleur des inégalités). A force de tirer, un moment, il éclate et se transforme en révolution, en guerre... d'autant plus facilement que ceux qui auraient l'intelligence et le pouvoir font tout pour ne pas le diffuser et donc sont peu nombreux à la différence des autres beaucoup plus nombreux qui de par leur nombre peuvent par la force prendre le pouvoir.

 

Dès lors qu'un peuple à la volonté de prendre le pouvoir (lorsque les inégalités deviennent criantes et perçues comme telles ou parce qu'un dirigeant suivi par sa population veut envahir un autre pays) et que sa taille est suffisamment importante pour le faire par rapport au peuple  à combattre, il le fera quelque soit son intelligence te dans un certain nombre de cas gagnera.

 

Le raisonnement de Laurent peut même mener même à des conclusions dangereuses. En affirmant que l'intelligence appartient à ceux qui prennent le pouvoir, cela inciterait ceux qui l’ont, à empêcher les autres d’accroître la leur voire la réduire afin qu’ils deviennent ignorants. Cela crée plus d'inégalités. Certains dirigeants de communautés ont d’ailleurs fait leur cette doctrine en plongeant leurs membres dans l’ignorance en détruisant des pans entiers de leur histoire. A l’inverse, si nous voulions avoir une société égalitaire où personne ne pourrait prendre le pouvoir, il faudrait niveler par le bas l’intelligence de tous, selon cette logique. C’est pourquoi ce raisonnement ne tient pas, selon moi.

Inclusion

Si la conclusion du raisonnement de Laurent mène vers de profondes inégalités, à l’inverse Mounir Majhoubi, prône dès le départ une position inclusive qui pousse à un nivellement par le haut et réduit les inégalités.

Mounir met aussi l'accent sur la première inégalité, le manque de femmes visibles dans l’audience (ce n’est certainement pas dû aux organisateurs mais à une trop représentation féminine générale).

 

Mounir l’avait déjà évoquée dans des discours précédents.  Avant 13 ans, les vocations scientifiques sont équilibrées entre les garçons et les filles, il y a une forte réduction du pourcentage de vocation entre 13 et 19 ans qui est et ce n'est sans doute pas un hasard la période d'adolescence.

 

Sans être psychologue, voici une première idée de réponse : l'adolescence est une période où on construit son identité, on a souvent tendance à rejeter le modèle de ses parents et adopter de manière parfois grégaire le modèle de ses pairs. Cela signifie de manière caricaturale que si lors de l'adolescence, les « rôles modèles » pour les garçons c'est d'étudier les sciences et les technologies, beaucoup de garçons suivront cette voie. 

 

Si pour les filles, il y a plus de rôles modèles, en littérature,  en sciences humaines …,  elles suivront plus ces voies. Une suggestion serait alors pour les filles entre 8 et 12 ans et durant l'adolescence , de les inciter à poursuivre leur voie dans les sciences et technologies et faciliter  / encourager les rôles modèles féminins. C'est d'autant plus important, que les femmes sont mieux armées selon moi que les hommes face à l'IA (les hommes sont souvent trop experts, zone de prédilection de l'IA).

 

Le témoignage de Moojan Asghari, d'origine iranienne est à ce titre frappant. 70% des étudiants scientifiques et ingénieurs en Iran sont des femmes.

 

Il y a plusieurs raisons à cela, selon un article de Forbes,  la révolution en 1979 et la crise économique en Iran qui a suivi n'ont donné d'autre choix aux hommes que de permettre à leur femme d'étudier et de travailler, d'autre part le gouvernement souhaitait rivaliser avec l'ouest et a mis en place une éducation gratuite à tous, ce qui l'a ouverte aux femmes.  Khomeini a fait un discours qui disait à quel point il était fier d'avoir des femmes actives dans l'éducation et l'économie iranienne, qui a lancé de nombreuses vocations qu'il n'aurait sans doute pas imaginées.

 

La guerre Iran-Irak a aussi amené beaucoup de femmes sur le marché du travail de manière similaire à ce que les pays occidentaux ont vécu en particulier durant la Seconde Guerre mondiale.

 

Nous voyons deux choses, d'une part que ce n'est pas une fatalité d'avoir aussi peu de femmes dans la Tech, et qu'il faut certes agir sur beaucoup de leviers en même temps pour qu'elles accèdent à plus de responsabilités et mais qu'en agissant de concert nous parviendrons à changer la donne.

 

Petite digression, la lecture de l'article suivant est aussi éclairant, il montre que faciliter les périodes de congé maternité si cela accroît les différences de traitement entre hommes et femmes lors de la naissance d'un enfant a un impact négatif sur le travail et la promotion des femmes car les employeurs anticipant cela, proposent aux femmes des postes moins élevés et moins payés.

 

D'où la nécessité de fortement inciter les pères à prendre leurs congés parentaux et à rapprocher les droits et devoirs des congés paternité et des congés maternité, pour que les employeurs n'anticipent plus cet écart.

TechLash et Ecart énorme entre perception de l'IA en Chine Vs Europe et USA

De manière plus globale, il y a un risque dans les pays occidentaux par rapport à la Chine d'un TechLash (dont je parle ici). Un quart des Français ("mainstream consumers" considèrent que l'IA sera bénéfique pour l'humanité) contre 60% en Chine et 30% aux Etats-Unis. Sur une courbe de Gauss, nous serions des late adopters versus des early adopters. (Etude iLIfe - BETC)

Même si la Chine a une position trop « Tech fan » (relatée d'ailleurs par un édito éclairant de Laurent Alexandre à ce sujet), le risque est de faire face à un TechLash où notre société serait vent debout contre la technologie alors que d'autres pays l'embrassent pleinement. Il faut un juste milieu.


Faut-il interdire Laurent Alexandre ou au contraire en débattre à l’école ?

Interdire les propos de Laurent serait absurde pour moi  car  heureusement  nous avons la liberté d'expression.

 

Néanmoins, il y a deux raisons pour lesquelles certains pourraient vouloir réduire son exposition. La première est qu'il attise  la peur qui certes réveille mais n'incite pas à l'action positive mais à une action défensive et de rejet. Au contraire il faut favoriser l'action positive (c'est sans doute l'objectif de Laurent  aussi est-ce la raison pour laquelle peut-être adoucit-il son discours alarmiste).

 

Il  a fait des amalgames gênants lors de l'AI Night, comme je l'ai précisé plus haut, (IA=pouvoir, IA=Blackbox), c'est vrai qu'il est plus facile de présenter une vision simple pour se faire comprendre de tous néanmoins je pense qu'il faut élever  plus le débat au-delà des formules simples.

 

En revanche, est-ce que les discours de Laurent sont dangereux ? Non, à partir du moment où on fait appel à son sens critique. Il est même extrêmement utile car il  casse avec virulence certains dogmes, nous oblige à réfléchir et à agir autrement (en accord ou contre ses idées)  au lieu de nous endormir.

 

Laurent est aussi un vaccin contre la crédulité car il nous contraint à garder un esprit critique, à séparer le bon grain de l'ivraie. Cet esprit critique nous sera indispensable car ce sera des millions de Laurent Alexandre cachés dans nos smartphones, objets, maisons qui nous diront que faire et à qui nous serons capables de dire "Non, je ne suis pas d'accord, je choisis une autre voie" alors qu'il nous aura donné des conseils très pertinents juste avant.

Libérer les données : IA for good Vs Privacy

Lors de ces talks, une demande est revenue en force : libérer les données. Une entreprise comme Cardiologs n’a pu commencer à utiliser l’IA pour détecter des problèmes cardiaques que lorsqu’ils ont eu accès à des données d’hôpitaux US, chinois… car ils ne pouvaient avoir des données de santé venant de France. Leur chance est qu’un coeur américain ou chinois est très proche d’un coeur français.

 

Cédric Villani parle très bien lors de son allocution à l’Assemblée nationale de cet équilibre à trouver entre donner accès aux données pour permettre aux entreprises françaises, startups mais pas uniquement de se développer et respect de la vie privée.

 

Le mot d’ordre à l'AI Night est de créer un cadre qui permet de libérer les données. Si on reste là, je reste néanmoins perplexe, car la meilleure façon de faire peur à tout le monde et de créer une résistance de tous est de dire qu’on libère les données. Le terme me semble beaucoup trop fort et pourrait être remplacé par des termes plus communs comme utiliser des données anonymisées.

 

Cela a été évoqué mais trop peu, qu'il est possible de libérer les données tout en préservant la confidentialité  des données personnelles, en utilisant des IA et des algorithmes fonctionnant avec des données cryptées ou en agrégeant des données en empêchant un retour arrière sur des données personnelles.

 

Un exemple donné par David Giblas est saisissant. Le protocole d'utilisation de données dans la santé est celui utilisé pour les tests cliniques (donc sur des nombres beaucoup plus petits que le nombre généralement utilisé pour entraîner des algorithmes d'IA.) Ce cadre n'est pas du tout approprié pour des larges études épidémiologiques (aujourd'hui certes possibles, mais qui ne permet pas de croiser suffisamment de facteurs – vos retours sont bienvenus à ce sujet.)

Conclusion

Les débats sont nombreux et deviennent foisonnants. Assez rapidement, nous devons rentrer dans une première phase de synthèse de ces débats pour avoir une ligne directrice, une stratégie française et européenne.

 

Nous apprendrons en marchant afin que l'IA devienne un vrai levier pour l'ensemble des êtres humains et nous aide à faire face aux nombreux bouleversements que notre planète nous réserve tout en évitant les risques d'endormissement ou de diabète intellectuel si nous nous laissons faire l'IA sans esprit critique.

 

 

Dimitri Carbonnelle - Livosphere

Conseil en Internet of Things, Intelligence artificielle et Robots

Speaker / Modérateur