kiss my frogs
Contribuer
Twitter Facebook LinkedIn RSS
[ Rechercher ]
Accueil Contribuer TwitterTwitter FacebookFacebook LinkedInLinkedIn RSSRSS

La première fois que j’ai entendu parler de Stéphane Mallard, c’est en tombant sur un article titré “La Société Générale paye un jeune premier pour faire un show à l’américaine sur l’intelligence artificielle”. Cadeau empoisonné ? D’un côté l’article a ramené des lecteurs…et des clients à Stéphane. De l’autre, à l’heure du scepticisme généralisé à l’égard des “experts”, l’IA à toutes les sauces et les conférences expéditives sur les sujets complexes, le ton est donné, surtout que Stéphane n’a pas que des amis dans le monde des startups, de son propre aveu. Intrigués, nous sommes allés converser avec Stéphane sur le fond de l’affaire, à savoir son parcours et sa compréhension de ce qu’est l’IA et où elle nous emmène.

 

Diana Filippova : Hello Stéphane. Avant d’en venir à l’IA et en accord avec la tradition KMF, parlons de toi. Que fais-tu, d’où viens-tu ?

Stéphane Mallard : J’ai grandi seul avec ma mère dans une cité (mais à Versailles !). Ma mère bossait dans une boîte d’ingénieurs donc j’ai baigné dans cet univers. J’avais des serveurs chez moi qui hébergeaient des sites Internet, j’ai appris à coder en C sous Linux quand j’avais une dizaine d’années. Très tôt, je suis parti aux États-Unis dans une famille d’accueil, j’ai adoré ça ! Je voulais vivre là-bas et y faire mes études. Mais c’était trop cher, donc je suis allé au Canada juste après mon bac pour faire un Bachelor en économie à l’Université du Québec à Montréal. J’avais découvert les bases de la finance avec mon prof de maths, qui lançait un courtage en crédits immobiliers et qui avait besoin de quelqu’un pour programmer un logiciel de finance.

Au Canada, j’ai fait un peu de politique pour les français expatriés. J’étais au Mouvement Démocrate de François Bayrou, à l’époque où il était encore sympa et pertinent ! Ensuite je suis revenu en France pour continuer mes études. J’ai intégré Sciences Po à Paris et j’ai voulu participer à un mouvement politique un peu plus large. J’ai donc participé à la création des clubs DSK. Un parcours classique de jeune diplômé, en somme.

 

Comment as-tu fait pour te retrouver à la Société Générale après Sciences Po ?

Après avoir terminé Sciences Po en 2012, j’ai bossé un peu dans une startup qui faisait de la com’ sur les réseaux sociaux pour les boîtes, un peu dans le conseil aussi. Puis j’ai été recruté  à la Société Générale dans une équipe de transformation digitale des salles de marché.

 

C’était quoi en une phrase ton job ?

Sensibiliser à la révolution digitale en particulier à l’arrivée de l’intelligence artificielle.

 

Et comment es-tu passé de “promoteur interne” de l’IA dans une banque à “expert en disruption digitale ” ?

En juin 2016, je suis appelé par Blu Age, une boîte de tech qui a développé une technologie de transformation du code, qui me dit : « On fait un déjeuner avec des membres de Comex du CAC40, viens nous parler dix minutes d’intelligence artificielle. » Je pitch. Les gens ont été super enthousiastes. Deux jours après, le patron de la boîte me rappelle et me dit : « Faut qu’on bosse ensemble ». Ça avait parfaitement fité, Je réponds : « Ça tombe bien car j’ai envie de quitter la banque pour ne faire que de la tech ».  Je suis donc recruté chez Blu Age en tant qu’évangéliste digital. Pour faire exactement la même chose mais avec une liberté totale dans mes convictions : parler du futur et de la révolution digitale, sans vendre quoi que ce soit d’autre que mes idées sur le sujet. Je bosse avec les ingés de Blu Age qui m’éclairent sur les aspects purement techniques pour ne pas dire trop de conneries dans mes conf’ !

Un évangéliste doit changer les mindsets. On nous appelle pour aller en entreprise, auprès des dirigeants ou lors d’événements pour donner des idées et de l’inspiration. C’est de l’évangélisation. C’est un métier qui existe aux US et qui commence à arriver en Europe. Tout simplement car les consultants ne font plus leur job. Il faut expliquer au client que c’est ce “knowledge” qui a de la valeur. C’est ce que je fais : je diffuse  de la connaissance sur l’IA et la disruption digitale en général. Des idées qui éclairent les gens pour prendre des décisions et éviter de se faire avoir par des startups et des cabinets de conseil qui cherchent à vendre leurs solutions.

 

Rentrons alors dans le vif de cette “connaissance” qu’est l’IA. Quelle est ta vision de l’IA ? Substitution ou – complémentarité tendue ? IA forte ou IA faible ? Homme augmenté ou Homme supprimé ?

C’est exactement ce dont je traite dans mes confs.

Moi je crois aux mouvements exponentiels. On est en train de vivre une accélération de la mondialisation avec le digital. On échange des données qui sont partagées et mélangées dans toutes les industries. Ce qu’on utilise dans un secteur peut en débloquer un autre : les flux accélèrent avec la mondialisation, et encore plus avec le digital.

Du coup, je pense qu’il y aura deux mouvements successifs. D’abord, tous les jobs vont être augmentés par l’IA pour nous rendre plus productifs. Mais dans un deuxième temps, ils vont être très vite remplacés. Pourquoi ? Parce que le but de l’IA c’est de faire progressivement tout ce que fait notre cerveau, nos fonctions cognitives. On fait du traitement du langage, de la reconnaissance visuelle, de la manipulation de concepts, du raisonnement. Mais aussi de la  “créativité artificielle”, qui consiste à rassembler des éléments existants pour créer quelque chose de nouveau. On a des algo qui font ça aujourd’hui, pour l’instant ça reste très basique, mais c’est le début.

Par contre, l’interaction et l’humain ne sont pas substituables. Ils demeureront nos atouts les plus précieux,  quoi qu’il arrive.

 

Qu’est-ce que tu entends exactement par “interaction” et “humain” ?

Je te donne un exemple. Aujourd’hui avec le digital, la connaissance ne vaut plus rien. C’est une commodité car c’est accessible partout. Ce qui a de la valeur c’est le traitement de cette connaissance. Ça aussi avec l’IA, ça deviendra une commodité.  T’iras plus chez le médecin pour qu’il fasse un diagnostic, l’expertise sera faite sur ton smartphone. Par contre, tu continueras à le fréquenter car tu auras une interaction humaine avec lui. Moi, mes confs vont être écrites par une IA, c’est sûr. Mais j’irai sur scène pour les faire. Car les gens veulent de l’énergie, un regard et des émotions.

 

Concrètement, quelles sont les “interactions” humaines qui seront, elles, irremplaçables ?

Toutes les interactions humaines. C’est la seule chose qui aura de la valeur économiquement parlant, parce que le reste deviendra une commodity.

 

C’est ta vision à long terme, et soyons honnête, ça ne mange pas de pain de faire des projections à cent ans 🙂 Qu’en est-il dans des années à venir ? Car aujourd’hui, on n’y est pas encore. Une machine qui a été programmée pour une chose n’est pas forcément capable de se réadapter pour faire autre chose, et de nombreuses compétences maîtrisées même par des enfants leur restent inaccessibles.

Justement, c’est ça la différence ! C’est qu’on ne les programme plus avec ces algo, on les entraîne à faire des choses. Ce que tu cites là, « être capable de le faire pour autre chose », ça s’appelle le transfert. (Transfer learning en anglais). Tu transfères une compétence pour faire autre chose que tu as pu généraliser. C’est un domaine qui explose en ce moment en IA ! Et Google est le leader mondial dans le domaine.

 

Enfin, pour l’instant l’écrasante majorité de ce qu’on appelle IA est en fait de l’apprentissage itératif reposant sur la grande disponibilité d’une énorme quantité de données. Quant à l’IA qui ne repose pas sur la data, mais qui a une spontanéité qui peut mimer celle du cerveau humain, l’IA “pauvre en data”, elle est encore balbutiante. Pour l’instant une voiture “autonome” a besoin de rentrer d’innombrables fois dans un obstacle pour comprendre qu’il faut l’éviter. L’homme le fait spontanément.

Pas toujours ! Parfois il comprend mais ne sait pas le faire. Un exemple, le tennis. Tu peux avoir compris que tu tiens mal ta raquette mais tu dois refaire des milliers de fois le mouvement pour avoir le bon mouvement. Par contre on commence à avoir des algo capables de généraliser avec très peu d’exemples. L’algorithme de Brenden Lake de NYU qui a été publié dans Science par exemple : une IA est maintenant capable de conceptualiser ce qu’il y a sur une photo à partir de très peu d’exemples.

 

Donc selon toi, on est en train de se diriger vers une IA beaucoup moins gourmande en données, qui pourra imiter certaines fonctions d’apprentissage ?

Oui, on parle de généralisation de concepts. Ma perception c’est qu’on va entraîner les intelligences artificielles par essai-erreur en les supervisant pour gagner du temps. Aujourd’hui tu peux laisser une IA faire de l’essai-erreur pour atteindre une tâche. Elle va faire des millions d’itérations pour y arriver. Elle va se programmer. Le problème c’est que ce n’est pas efficace. C’est comme si tu laissais un enfant jouer au tennis des milliards de fois. Il finirait par y arriver mais il perdrait du temps. S’il a un prof qui lui dit « Tiens ta raquette comme ça », il gagne des millions d’heures d’apprentissage. C’est cette approche là qu’on commence à avoir en IA.  Ce qui se passe, c’est que depuis le deep learning, on a donné aux machines la capacité de reconnaître leur environnement. Et qu’on utilise aussi le « reinforcement learning » pour entraîner les machines à atteindre les objectifs. On leur donne un environnement visuel avec des pixels, comme nous avec notre champ de vision.

Exemple. Au début, on apprenait à des machines à jouer aux jeux vidéo, au jeu de go. La machine observe et s’entraîne contre elle-même des millions de fois. Et elle bat les êtres humains. Le problème, c’est que c’est scindé domaine par domaine. L’objectif de la recherche en ce moment c’est d’agréger tout ça pour faire des IA générales.

Aujourd’hui elles savent reconnaître ce qu’il y a sur des photos, comprendre du texte, remplir des formulaires mais elles ne savent pas jongler entre toutes ces tâches pour réserver un billet d’avion par exemple. L’objectif est qu’elles puissent enchaîner un certain nombre de tâches qui n’ont rien à voir entre elles. Et qu’est ce que fait un cerveau quand on lui fixe un objectif ? Il le décompose.

 

On le fait spontanément ! C’est cette spontanéité qui n’existe pas vraiment chez les machines.

Spontanément, lorsqu’on a déjà fait la tâche parce qu’on l’a apprise. Quand on ne l’a jamais apprise, on utilise une autre partie du cerveau pour décomposer et apprendre la tâche. L’autre gros problème c’est  le bon sens que la machine n’a toujours pas.

 

Et beaucoup de nos compétences sont innées, il suffit de voir pour cela tout ce que sait faire un nouveau né. Et d’autres, même apprises, ne le sont pas de façon consciente, réflexive. Et le cerveau est en quelque sorte le terrain du libre jeu entre tous ces phénomènes. L’IA en est encore loin, non ?

Il y a trois types d’IA. L’IA faible, spécialisée, limitée, dont on a déjà parlé. L’IA générale qui est polyvalente, c’est à dire capable de faire un grand nombre de tâches qui demandent des compétences bien différentes. Et l’IA forte, que l’on appelle la conscience artificielle. C’est la capacité pour un système de s’observer en train de fonctionner, selon la définition qu’en donne Selmer Bringsjord, chercheur au RPI. Après, il y a plein de définitions de la conscience, par exemple selon Stanislas Dehaene, la conscience est un espace de travail  du cerveau.

Pour le dire schématiquement, tu as une boucle d’IA qui fait des tâches intelligentes, et une boucle au-dessus qui l’observe en train de fonctionner et qui adapte son comportement en fonction de ce qu’elle voit. C’est comme un bébé que tu mets devant un miroir et qui se rend compte qu’il est responsable de ses mouvements.

 

Tu veux dire qu’il y a des algos qui miment la conscience en superposant une couche observante au-dessus des couches qui exécutent et apprennent ?

Oui, on commence à en avoir. Il y a une vidéo sur YouTube qui traite de ça (ndlr: expérience réalisée par Selmer Bringsjord du RAIR Lab). Ils ont programmé des robots en leur donnant une pilule pour leur couper la parole. Ils éteignent deux robots, ils en laissent un allumé. Ils leur disent « Il y a un placebo parmi les trois pilules ». Ils demandent au troisième robot : « Quelle pilule on t’a donné ? ». Le robot commence par dire qu’il n’en sait rien. Sauf qu’en parlant il se rend compte qu’il est en train de parler et dit au chercheur « Je peux t’affirmer avec certitude que j’ai eu le placebo car je suis en train de parler. » C’est les balbutiements des algo de conscience artificielle.

 

Donc, on est déjà pas mal engagé dans cette voie.  

En fait,  nous avons trois challenges en IA :

  • Donner le “bon sens” aux machiness, c’est-à-dire capable de tirer des conséquences directes (pour l’humain, un objet qui se trouve caché derrière un autre est toujours là, pour l’IA, il a tout bonnement disparu)
  • Apprendre à jongler entre les tâches qu’on leur apprend pour faire des choses plus générales
  • Comprendre comment ça marche. L’algo de deep learning, c’est des milliards et des milliards de variables. Si t’en bouges une, ça fait bouger toutes les autres. Mais ça ne te dit pas comment fonctionne ton modèle. C’est un vrai problème. Dans les salles de marché, tu ne peux pas traiter avec du deep learning parce que tu ne peux pas expliquer à ton client comment marche le modèle. La Google Car, quand tu l’as entraînée, tu sais comment elle se comporte dans un domaine donné mais tu ne sais pas comment elle se comporte dans un nouveau contexte.

 

Finalement, on sait que l’intelligence artificielle est véritablement “intelligente”quand il y a quelque chose d’imprévisible et hors de contrôle qui se passe.

Et qui est apprenant en fonction de l’environnement mais que l’on ne maîtrise pas encore. Google est en train de développer une IA qui crée elle-même d’autres IA. En plus de générer de meilleurs modèles, ça pourrait permettre de comprendre comment l’IA marche.  ! Pour faire simple, lorsque tu ne peux pas expliquer comment fonctionne ton algorithme, et qu’il apprend de son expérience ou peut abstraire des concepts à partir de données simples, c’est considéré comme de l’IA.

Si tu lui donnes des règles assez libres, tu peux obtenir des résultats bizarres. Je donne un exemple un peu loufoque qui permet de comprendre : le robot aspirateur. Si tu dis à ton robot auto-apprenant (supervisé) que l’objectif est d’enlever la poussière qu’il y a sur le tapis, il peut comprendre en s’entraînant que c’est plus efficace de mettre la poussière sous le tapis. C’est de l’optimisation (non pas par ruse ou compréhension de ce qu’il faisait) !

 

Ta définition de l’IA est assez étroite. Le genre d’IA qu’on ne verra pas de notre vivant !

Oui, tout le monde n’est pas d’accord avec cette définition. C’est une définition qui énerve les startups, et elles ne veulent généralement pas trop qu’on rentre dans les détails de leur techno, car elles ont des algos super qui font plein de choses, mais pour exister elles disent que c’est de l’IA. Parce qu’il y a un buzz en ce moment.

 

C’est une affirmation très osée, surtout que notre Startup Nation est d’abord réputée pour ses startups en IA.

Bien sûr, il y a des startups qui font de l’IA, mais 99% des startups n’en font pas. Ce qu’elles font, c’est ce que Laurent Alexandre appelle des “algorithmes à la papa”. La plupart se servent du buzz pour exister et elles ont raison. Les capitaux risqueurs jouent le jeu. Ils investissent à fond dans les médias pour les valoriser et les revendre au plus vite. Certains ne savent pas que ce n’est pas de l’IA. D’autres le savent mais ils voient autre chose dans la boîte qu’ils souhaitent valoriser. Je pense qu’il faut que les startups soient honnêtes et disent : « On utilise l’IA fournie par les géants du web pour utiliser les services et créer les usages de demain. » Comme Uber qui ne cartographie pas toutes les routes de la planète mais qui utilise Google Maps pour bâtir son service par dessus.

Les startups qui disent faire de l’IA sont comme les sauces bolognaises en supermarché : une jolie photo de viande sur l’emballage mais en regardant les ingrédients très peu de viande en réalité.

En soulevant le capot on voit très peu voire pas d’IA chez les startups qui disent en faire. Pensez-vous vraiment qu’une startup dont la techno est capable de reconnaître des cancers sur de l’imagerie médicale ait besoin de crier haut et fort qu’elle utilise de l’IA pour le faire ? Évidemment que non, le problème qu’elle résout est suffisamment révolutionnaire. Une startup qui met en avant l’IA avant le problème qu’elle résout n’inspire pas confiance. Mais toutes sont obligées d’utiliser l’argument sinon on ne les voit pas. Il faut rendre hommage à celles qui travaillent dur à résoudre des vrais problèmes sans mettre en avant l’argument IA même si elles en font. Et puis l’IA sera bientôt partout comme internet ou les bases de données. Vous imaginez une startup dire aujourd’hui “on a un site internet” ou “on utilise des bases de données” ? Ce sera normal pour tout le monde d’en utiliser.

 

Les bots, par exemple, c’est de l’IA pour toi ?

Ça dépend des bots. L’immense majorité ne sont que des scripts préprogrammés qui donnent l’impression d’IA. En réalité, seuls les bots des GAFA ont les modèles les plus avancés en traitement du langage. Quand une startup a de bons résultats en NLP elle se fait immédiatement racheter par un GAFA.

 

Ta position sur le sujet, assez originale, c’est qu’en matière d’IA, aucune startup n’a encore égalé de près ou de loin les géants tech.

Aujourd’hui, la révolution vient d’eux, et il y a une guerre massive entre les géants du web sur l’IA. Ils rachètent les meilleures startups au monde dès qu’il y a un petit bout de code pertinent pour faire avancer leur recherche, leur IA. Elles mettent donc des millions, voire des milliards, pour racheter les meilleures startups de l’IA. Parce qu’elles savent et qu’elles ont les fonds pour ça. Un bon moyen de savoir si une startup fait de l’IA ? Elle se fait racheter pour plusieurs millions et intégrer par un GAFA.

 

Comment on fait à l’échelle d’un pays ou d’une région pour jouer dans la même division que les géants tech ?

On doit créer un géant tech nous-mêmes sous forme d’un écosystème massif avec des capitaux et un environnement favorable à la prise de risque, pour attirer les meilleurs sur le territoire et leur donner envie de jouer. Aujourd’hui, il y a des spécialistes qui ont un bout de code qui a beaucoup de la valeur et qui ont l’intention de se faire racheter par un GAFA pour continuer à se développer… Deep Mind c’est ça ! Le mec avait un bout de code de génie, des compétences en IT et en neurosciences, il a créé DeepMind et il s’est fait racheter par Google !

 

Qui pourrait jouer ce rôle en France ?

Personne. C’est trop petit. Ça doit se faire au niveau européen. La concurrence se fait maintenant entre les géants tech américains et les acteurs chinois. Baidu en est un exemple. Ils publient autant de papiers de recherche que Google. Nous, on n’existe pas.

 

La faute à qui ?

C’est un phénomène d’attractivité. La recherche privée a pris le dessus sur la recherche publique en IA.

 

C’est la première fois que j’entends ça ! Si la France n’avait qu’un point fort, ce serait notre recherche en IA, non ?

On a d’excellents chercheurs français oui, mais ils sont dans les labo privés américains ! Yann Le Cun et Alexandre Lebrun chez Facebook, Luc Julia qui est l’un des créateurs de Siri qui est chez Samsung maintenant… Il y a plein d’excellents chercheurs français ! Selon Yann Le Cun de chez Facebook, l’industrie a raté le virage. Et bien, la recherche publique, aussi. Même si les résultats actuels des géants américains s’appuient énormément sur des travaux d’origine publique. En off beaucoup de chercheurs rêveraient de se faire recruter par un GAFA mais c’est très compétitif.

 

Qu’est-ce qu’il faut faire ? Leur offrir des salaires compétitifs ?

Problème économique classique. Création d’un gros écosystème avec fiscalité basse pour attirer des talents, des salaires attractifs, la possibilité de jouer entre passionnés. Un Hub. Les salaires sont nécessaires mais pas suffisants.

 

Quels conseils donnerais-tu à une entreprise qui veut réussir, justement, le tournant IA ? A Microsoft, par exemple, qui s’est associé à Station F pour construire une communauté autour de l’IA, en partenariat avec l’INRIA ?

Trois conseils.

Le premier : ne surtout pas chercher à mettre de l’IA pour mettre de l’IA. La plupart des boîtes font cette erreur en ce moment. Elles vont finir comme Kodak. Ils ont investi dans le digital mais ils n’ont pas compris que le digital tuait leur métier qui était d’imprimer des photos. Les entreprises doivent d’abord se demander si leur activité, celle qui leur fait gagner de l’argent aujourd’hui existera encore demain, et si oui à quoi elle ressemblera avec l’IA. Mettre de l’IA pour mettre de l’IA c’est de l’optimisation de process, pas de la création de valeur.

Deuxième conseil : être la référence incontournable quand on pense IA. Et pour ça, il faut être cool !

 

Pour le dire dans un langage plus châtié, devenir non seulement un standard technique mais aussi un standard symbolique ! Un 3e conseil pour finir ?

Voir plus large. Faire un écosystème européen. Lancer depuis la France, élargir à l’Europe pour permettre à la France d’avoir un écosystème de la taille des États-Unis ou de la Chine. Un exemple frappant : Carlos Ghosn avec Renault-Nissan. Il a compris que sur la voiture autonome, il était en concurrence avec les GAFA. Il s’est dit : « on va être dépendant, on est en retard, on ne va jamais y arriver. » ll a donc organisé un partenariat stratégique entre Nissan et la NASA (ndlr : l’alliance date de 2015), se mettant aussi en position de rattraper les géants du web.

Microsoft respecte votre vie privée. Veuillez consulter notre Déclaration de confidentialité.

Les commentaires sont fermés pour cet article