kiss my frogs
Contribuer
Twitter Facebook LinkedIn RSS
[ Rechercher ]
Accueil Contribuer TwitterTwitter FacebookFacebook LinkedInLinkedIn RSSRSS

Comment faire entrer l’intelligence artificielle dans le domaine du droit ? Au coeur de l’AI Factory de Microsoft, la start-up Case Law Analytics s’y attèle. Avec sa solution de machine learning, elle est capable de quantifier les risques d’une décision judiciaire, ce qui encourage ses clients à rejoindre la table des négociations, désengorgeant ainsi les tribunaux. Aujourd’hui prisée par des assureurs et cabinets d’avocats prestigieux, la start-up n’a même pas un an. Mais le projet date : il a été développé par le mathématicien Jacques Lévy Véhel – alors directeur de recherche à l’INRIA – et un magistrat en disponibilité, Jérôme Dupré. Leur préoccupation majeure : améliorer le système judiciaire et mettre l’intelligence artificielle au service de l’éthique. Rencontre avec le CEO, Jacques Lévy Véhel.

Bonjour Jacques. Commençons par quelques mots sur vous. Comment êtes-vous passé de directeur de recherche de l’INRIA à startuper ?

C’est né du sentiment que nous pouvions faire quelque chose pour améliorer notre système judiciaire. Aujourd’hui, il y a un manque critique de moyens et les durées de traitement des dossiers sont énormes. Avec Jérôme Dupré, aujourd’hui avocat au barreau de Nantes, nous avons développé un outil fondé sur l’intelligence artificielle, et nous avons constaté qu’il était capable de reproduire de façon fiable l’éventail des décisions qui seraient prises par une cour d’appel sur un cas donné. D’autre part, les solutions que l’on voyait arriver d’outre-Atlantique nous semblaient dangereuses, car prédictives et appuyées sur des statistiques, dont on sait que l’on peut leur faire dire ce que l’on veut. Nous avons aussi réalisé que si nous restions dans la recherche, nous ne parviendrons pas à imposer notre solution sur le marché.

 

A titre personnel, qu’est-ce que cela a changé pour vous ?

Depuis la création de Case Law Analytics, je suis monté dans un train qui va à 2000 à l’heure, et en même temps j’ai le sentiment que tout va trop lentement. C’est une expérience étrange mais extrêmement stimulante.

 

A quels écueils du système judiciaire votre start-up Case Law Analytics répond-t-elle ?

Nous nous attaquons au problème de l’aléa juridique et judiciaire. Quand on lance une procédure en justice, il y a toujours de grandes incertitudes sur la durée et l’issue potentielle. Pour le dire simplement, notre outil est capable de fournir l’ensemble des décisions qui pourraient être prises sur un dossier, et les probabilités associées. Par exemple, nous pouvons dire : dans ce dossier, 20 juges sur 100 vous condamneraient, et voilà combien vous êtes susceptibles de payer le cas échéant. Il s’agit d’une aide à la décision, exclusivement réservée aux professionnels du droit.

 

Très concrètement, quels cas d’usage rencontrez-vous aujourd’hui ?

Prenons un exemple dans le secteur de la grande distribution : si un distributeur souhaite interrompre son contrat avec un producteur, la loi lui impose de donner un préavis pour que le producteur ait le temps de se retourner. En cas de litige, un jugement est prononcé par un tribunal de commerce, puis s’il y a contestation, par la Cour d’Appel de Paris. La variabilité dans ce contentieux est énorme, les gens n’ont qu’une idée assez floue des condamnations potentielles qui les attendent. Case Law Analytics intervient pour informer et aider les deux parties à prendre une décision. L’objectif étant de favoriser la négociation avant qu’une bataille juridique ne soit lancée.

 

Dans les faits, votre solution est plutôt employée par le grand distributeur ou par le petit producteur ?

Les deux. C’est important pour nous de rester neutres. Notre outil est très puissant, donc il est nécessaire de ne pas favoriser une partie plutôt qu’une autre. Les petites entreprises ont moins besoin de l’outil parce que, dans les faits, elles sont moins souvent confrontées aux contentieux. Mais on travaille avec des intermédiaires pour donner à tous les types d’entreprise l’accès à Case Law Analytics .

 

Qui sont aujourd’hui vos clients ?

Nous avons trois sortes de clients : les cabinets d’avocats (par exemple Flichy Grangé ou Quinn Emanuel), les directions juridiques d’entreprise (comme SNCF Réseau) et les assureurs (Axa, Allianz). Et bien sûr, des magistrats, qui ne sont pas des clients mais qui acceptent pour certains d’utiliser l’outil et de nous faire des retours essentiels.

 

Pourquoi fonder une start-up s’est imposé comme la meilleure solution ?

Pendant deux ans, j’ai mené un projet de recherche sur la quantification du risque dans le domaine judiciaire à l’INRIA. C’était une phase essentielle, et bénéficier de l’environnement d’un institut de recherche de la qualité de l’INRIA a été crucial. Mais nous ne pouvions pas industrialiser l’outil de façon agile et rapide, comme peut le faire une start-up. Pour autant, nous restons attachés à l’INRIA, dont le fonds d’investissement est au capital de Case Law Analytics. Nous avons commencé en fonds propres, avec quelques dizaines de milliers d’euros. Aujourd’hui, nous nous finançons aux deux-tiers avec notre CA. Et je préfère consacrer mon énergie à développer de nouveaux produits et à rechercher des clients plutôt qu’à lever des fonds.

 

Vous êtes une start-up d’intelligence artificielle, membre de l’AI Factory. Qu’est-ce que cela vous apporte ?

Nous recevons beaucoup d’attention à ce titre. Concernant la candidature à l’AI Factory, au début je n’y croyais pas, car nous n’avions même pas encore de CA ! Mais l’équipe a été convaincue par notre technologie. C’est un plus énorme pour nous. Nous sommes régulièrement mis en contact avec des équipes juridiques de sociétés clientes de Microsoft, nous bénéficions d’un accompagnement technologique autour de la plateforme cloud Microsoft Azure et d’un accès gratuit à Station F. Comme nous sommes une start-up nantaise, et que la majorité de nos clients sont en région parisienne, c’est très intéressant pour nous. Récemment, nous avons aussi été sélectionné par Challenges dans la liste des 100 start-ups où investir. Enfin, l’équipe qui s’occupe de nous au sein de l’AI Factory est très agréable.

 

La justice prédictive – autant que l’intelligence artificielle – intéresse et questionne de plus en plus. Comment l’envisagez-vous ?

“Justice prédictive” est une expression que nous n’employons jamais. Elle signifierait que l’on peut prédire la décision d’un juge, or, nous faisons justement le constat opposé, celui qu’il n’y a pas d’autre solution que d’apprendre à mieux gérer l’aléatoire. De plus, qui dit prédire dit prescrire. On glisse alors sur un terrain dangereux.

 

Celui des biais algorithmiques ou des boîtes noires, par exemple. Comment vous positionnez-vous face à cela ?

Certains disent que les algorithmes devraient être ouverts, open source. Je ne crois pas trop à cela, parce que ce n’est pas en regardant l’algorithme que l’on se rend compte de ses effets, il faut plutôt analyser les résultats. Ce que nous souhaitons mettre en place, c’est un comparatif : mettre les décisions d’un groupe de juges face à ceux de la machine. Plus c’est proche, plus l’on peut croire la machine. Pour chaque contentieux que nous modélisons, nous travaillons déjà avec un juge. Mais un seul ne suffit pas, c’est pourquoi nous rêvons de pouvoir consulter à intervalles réguliers un collège de juges.

Il faut réaliser aussi que les algorithmes sont déjà tout autour de nous, et qu’ils prennent des décisions sans que nous en ayons toujours conscience. Un airbag se déclenche grâce à un algorithme assez complexe, qui décide de la vie des gens. Dans le domaine médical, des algorithmes traitent des images à partir desquelles le médecin prend une décision. Il est donc essentiel qu’un contrôle soit fait. Ce sont des entreprises privées qui développent de tels algorithmes, et des autorités certifient qu’ils sont bien fiables.

 

Dans le domaine de la santé justement, on constate aussi des effets pervers dans la gestion des risques. Par exemple, un chirurgien dont les patients évaluent le travail peut être conduit à refuser les cas compliqués pour ne pas voir sa note chuter en cas de complications ou décès. Comme votre outil vise à quantifier le risque, comment appréhendez-vous ses conséquences potentielles sur les comportements des magistrats ?

Nous ne travaillons qu’avec des données anonymisées. Certaines sociétés permettent la notation des juges et des avocats, cela se fait aux Etats-Unis, et cela commence à arriver en France. Techniquement, rien ne s’oppose à collecter ces informations, mais pour nous, ce n’est pas éthique.

 

N’y a-t-il pas, tout de même, un risque d’uniformisation des décisions de justice ? Si un magistrat constate en utilisant l’outil qu’un verdict est rendu par la majorité de ses pairs, ne va-t-il pas de s’y conformer ?

C’est en effet le premier commentaire que nous a fait Robert Badinter quand nous avons eu l’honneur de présenter Case Law Analytics à l’IHEJ. Cette question de la “performativité” m’a longuement occupé quand j’étais chercheur :  il s’agit du fait qu’un outil mathématique, employé dans les sciences humaines, contribue par sa simple utilisation à changer la réalité, ce qui n’arrive pas dans les sciences naturelles. Dans les sciences humaines, la subjectivité joue un rôle crucial. Et donc, oui, si l’on n’y prend pas garde, un juge pourra être amené à prendre une décision plutôt qu’une autre si l’algorithme lui montre qu’elle est rendue en majorité par ses pairs.

Vous savez, on constate déjà les effets pervers de l’uniformisation des algorithmes de calcul dans la finance, comme encouragé par les autorités de régulation au niveau européen. Or, par principe, tout modèle mathématique est faux, car c’est un modèle ! Et s’il est très faux, et que tout le monde l’utilise, cela peut créer des bulles. C’est l’une des raisons des crises financières que nous avons connues récemment.

Pour en revenir à Case Law Analytics, l’essentiel est de conserver de la diversité dans les résultats. Dans le domaine du droit, il arrive très rarement que 80% des juges donnent le même verdict. C’est toujours très diffus. Pour éviter l’uniformisation, il faut être formé aux statistiques, ce que les juristes sont encore trop peu. Nous profitons de formations continues à l’Ecole Nationale de la Magistrature pour tenter d’expliquer que la décision la plus fréquente mise en évidence par nos algorithmes n’est typiquement prise que par 30 % des juges, et donc que plus des deux tiers ont raisonné différemment.

 

Au-delà des statistiques, comment utilisez-vous le machine learning ?

Nous n’utilisons pas de statistiques, mais des modèles probabilistes et de l’intelligence artificielle pour modéliser le processus de prise de décision des juges. Nous enseignons à la machine à prendre des décisions indistinguables de celle d’un juge, en analysant des arrêts de jurisprudence. Pour cela, nous nous appuyons sur des critères entre 20 et 100 pour caractériser un dossier dans un domaine contentieux donné. Un magistrat n’en utilise probablement pas plus, mais c’est une limitation de la machine qui montre que nos critères sont statiques, c’est-à-dire les mêmes pour tous les dossiers du contentieux modélisé, alors qu’un juge humain saura adapter les siens à chaque situation particulière.

 

Quand vous dîtes que l’outil imite le raisonnement d’un juge, dans le sens où il se réfère à des précédents juridiques pour évaluer un cas, êtes-vous en train d’automatiser ce qui relève des fonctions d’un magistrat ?

On a un effort de pédagogie immense à faire pour expliquer que nous n’automatisons pas le métier de juge ou de magistrat. Malheureusement, d’autres sociétés se sont lancées sur ce créneau, ce qui ne nous facilite pas la tâche. Nous sommes un instrument, capable de mesurer ce qui est fait dans une cour d’appel à un moment donné. Comme un thermomètre. La machine ne fait que dire ce que font les juges, elle ne les remplace pas et s’il n’y avait plus de juges, elle serait muette. In fine, nous fournissons un cadre d’analyse pour aider à la prise de décision, mais l’homme reprend toujours la main pour affiner la décision au regard de sa connaissance du dossier et de son appréciation personnelle.

 

En ce sens, peut-on parler d’intelligence artificielle ?

Contrairement par exemple au cas du jeu de Go, dans la justice, les règles sont vivantes. Il y a les évolutions de la jurisprudence, l’appréhension humaine de ce qui acceptable. Or cela, la machine ne peut pas le voir, encore moins le comprendre. Elle n’a pas cette “intelligence”. Tout ce qu’elle peut faire, c’est dire : sur un dossier présentant les 20 ou 100 caractéristiques données, l’éventail des décisions qui seraient prises par les magistrats de telle cour d’appel est le suivant. Cet éventail n’est pas un simple reflet statistique des décisions passées, mais est issu de modèles mathématiques et de techniques avancées d’intelligence artificielle.

 

Quel est votre regard sur l’évolution du machine learning, les applications qui vous semblent les plus prometteuses ?

En tant que chercheur dans ce domaine, nous vivons vraiment une période exceptionnellement stimulante ! Il y a tellement de perspectives et de choses à essayer, c’est un bouillonnement et l’on ne peut pas deviner où cela va nous mener. Les applications qui m’intéressent le plus sont en médecine, en finance et en droit. Je suis par exemple très impressionné par la start-up Cardiologs, qui fait du machine learning sur des électrocardiogrammes, et permet de reproduire l’expertise d’un cardiologue professionnel en quelques secondes.

 

Comment Case Law a-t-elle été accueillie au niveau de l’institution ?

Les réactions sont à 95% positives. D’une part, parce que l’outil a été créé par un ancien magistrat, et que nous avons une approche éthique. Nous sommes prudents, nous commençons toujours par dire ce qui ne marche pas, les limites de l’approche, et les juges n’ont pas l’impression que l’on va les déposséder. Côté avocats, une grosse minorité a compris que l’outil allait les aider. Nous avons d’ailleurs un avocat au capital de la société. Je ne vous cache pas qu’il existe malheureusement aussi des réactions corporatistes, certains pensant par exemple qu’une legal tech qui n’aurait pas été créée par un avocat n’a pas de légitimité. Pour moi, c’est un combat d’arrière-garde. Enfin, de la part des autres professionnels du droit comme les directions juridiques et les assureurs, nous recevons un accueil très favorable. Notre approche de quantification des risques leur parle tout de suite.

 

Dans la legaltech, il y aurait donc des acteurs légitimes et d’autres moins aux yeux de la profession ?

Il y a une diversité d’acteurs et de solutions. Du B2B, comme du B2C. Certains font de l’automatisation de contrats, d’autres de la mise en relation, du partage d’information. Case Law Analytics est au coeur de cet écosystème. Nous avons créé un club à Station F : Legal F avec trois autres start-ups, Le droit pour moi, LexDev et Share Your Knowledge. Les motivations originales étaient d’une part le fait que nous partagions une approche commune, éthique de notre apport dans ce domaine, et d’autre part de mettre en place des synergies commerciales :  les directions juridiques sont par exemple souvent en attente d’offres plus complètes que celle d’une seule start-up. C’est aussi un bon moyen de donner de la visibilité à nos activités, et de créer un label reconnu par la profession.

 

De nombreuses start-ups dans l’AI se heurtent à des difficultés pour recruter des profils scientifiques, comment encourager ces profils à s’intéresser au droit ?

C’est une bonne question. Case Law attire de nombreux juristes, mais comme toutes les start-ups de l’IA, nous avons plus de difficulté à recruter de bons profils scientifiques : ils sont très sollicités. Je n’ai pas la réponse, mais c’est un véritable enjeu.

Microsoft respecte votre vie privée. Veuillez consulter notre Déclaration de confidentialité.

Les commentaires sont fermés pour cet article