Des bases de données dédiées à la numérisation du droit… Tel est le pari fait depuis plus de 100 ans par LexisNexis, société pionnière dans le secteur de la legaltech. Aujourd’hui la firme offre des solutions d’information pour les professionnels de ce secteur. Grâce à l’intelligence artificielle (IA) et à l’open data, LexisNexis numérise, stocke, met à jour et analyse les textes de lois et les décisions de justice. Alors que les nouvelles technologies suscitent parfois des craintes au sein de l’opinion publique, « il est nécessaire de rappeler que derrière l’IA il y a toujours un cerveau humain » explique Sébastien Bardou, directeur de la stratégie chez LexisNexis.
Vous aimerez aussi
De quelle façon LexisNexis insère des outils d’intelligence artificielle dans le travail des professionnels du droit ?
SB : Tout d’abord il faut noter que dès les années 1970, LexisNexis s’est saisie des outils numériques pour aider les professionnels du droit dans leur métier. A l’époque notre société a créé l’une des premières base de données de jurisprudence dans le monde. Utiliser l’informatique afin de regrouper et d’analyser les décisions de justice constitue donc le cœur de notre ADN. Désormais, à l’ère du numérique, 80% de notre activité se fait grâce à des logiciels internet.
« L’intelligence artificielle doit ne peut se substituer à la réflexion humaine »
Notre vitrine de référence reste la plateforme Lexis 360, dans laquelle on retrouve toutes les ressources primaires du droit, comme la législation, la réglementation, la jurisprudence et les journaux officiels. A ces quelques 23 millions de contenus, nous ajoutons plusieurs couches de traitement. La première, basée sur l’intelligence artificielle, permet d’extraire des informations depuis les documents, en recherchant des mots clefs dans les textes. La seconde couche de traitement est une analyse de fond, menée par notre réseau de 8.000 auteurs. Ces derniers interviennent là où l’IA atteint sa limite, c’est à dire tirer une doctrine juridique pour expliciter le droit. Très concrètement cela se matérialise sous la forme d’encyclopédies, qui représentent des centaines de milliers de pages de commentaires et d’interprétations du droit.
Nous développons bon nombre d’autres produits numériques. C’est le cas, par exemple, du logiciel Poly. Ce dernier permet, là encore grâce à l’IA, la rédaction automatique d’actes juridiques, de contrats, de clauses, en seulement quelques minutes. Enfin plus récemment, LexisNexis a fait l’acquisition de la startup Closd. Une plateforme en ligne qui sert notamment à dématérialiser, archiver et sécuriser tous les flux d’informations et de documents relatifs à des transactions économiques. Cela peut correspondre à l’acquisition ou la vente d’une entreprise, ou bien à une opération immobilière.
Peut-on craindre des dérives liées à l’utilisation de l’intelligence artificielle dans le domaine du droit ?
SB : Effectivement à l’origine le débat sur ce sujet a été très animé avec les professionnels du droit. Du fait, particulièrement de l’alimentation de quelques fantasmes. Certaines personnes ont notamment associé l’utilisation de l’IA à des concepts comme la « justice prédictive, le robot avocat ou le robot juge ». En effet, des individus ont imaginé que les nouvelles technologies risquaient de déshumaniser la justice et remplacer les professionnels du droit. Toutefois, rapidement, nous avons dressé un constat : cette hypothèse n’est ni souhaitable, ni possible.
« La France épargnée des dérives »
En droit, les technologies d’intelligence artificielle servent essentiellement à extraire des informations. Il peut s’agir des dates, des montants, des lieux ou des qualifications juridiques de faits. Ce n’est donc pas l’IA qui applique un raisonnement juridique et prend une décision finale. A titre d’exemple dans le cadre d’une rupture brutale de relation commerciale entre un prestataire et une entreprise, l’IA peut identifier la partie en tord. Cependant elle ne pourra pas identifier les montants des indemnisations puisque pour cela il faut évaluer les résultats des sociétés. Or ces derniers ne sont pas nécessairement inscrits dans le dossier judiciaire. Voilà pourquoi il est inconcevable d’envisager une justice uniquement assurée par la technologie.
Ce qui ne veut pas dire que les usages abusifs et dangereux de l’IA n’existent pas. Néanmoins en France, la CNIL nous préserve de ces dérives. Elle a notamment interdit les services de profilage ou les algorithmes de prédiction de la récidive.