Les systèmes experts deviennent infiniment performants et apprennent à adapter leur raisonnement à chaque situation. Les machines délivrent des consultations juridiques. Certains sites rendent disponibles des millions de documents juridiques adaptables. Les legaltech bousculent le marché du droit et génèrent une forme de gouvernance par les nombres. En effet, les ordinateurs et l’intelligence artificielle n’obéissent pas à la loi mais à un programme et c’est un homme qui le rédige. Nous ignorons son passé, son éthique et ses objectifs. Un programme n’est ni indépendant, ni impartial. Il est loin d’être neutre. Les algorithmes n’ont pas pour objectif la recherche de la meilleure solution pour un particulier mais celle du plus grand profit pour celui qui a fait le programme ou qui l’utilise. Leur mission est définie par le programmeur et non par la loi.
Des artistes suisses ont programmé un robot délinquant. Entre octobre 2014 et janvier 2015, ce robot d’achat en ligne a acheté sur le web des pilules d’ectasy, des copies de jeans de marque, une contrefaçon de sac d’une marque de luxe, … Ces objets ont été exposés lors d’une exposition. La police a détruit l’ectasy et les autres produits. Elle a décidé de ne pas poursuivre les deux artistes car ils n’avaient pas l’intention de consommer la drogue. Quant au robot, elle ne savait quelle décision prendre. Il n’a pas été incriminé. Face à l’arrivée massive de robots dotés d’intelligence artificielle, le législateur doit se doter d’une règlementation. En droit anglo-saxon, le robot commettant une faute est le responsable premier. Il est donc à blâmer. Mais il n’a aucun statut juridique et sa responsabilité est systématiquement écartée. Personne n’est responsable. En droit français, on se heurtera à la question de la multi-responsabilité puisque la plupart des robots intelligents ont été conçus avec des logiciels fabriqués par diverses entreprises y compris des personnes de droit public. Seul un droit des robots permettra de résoudre cette difficulté. Mais le veut-on au moment où les projets de « robot tueur » aboutissent, munis d’armes autonomes capables de choisir leur cible et de les abattre, comme ces drones utilisés par l’armée américaine ? Les robots intelligents doivent avoir un statut de « personnalité juridique » permettant d’identifier et de préciser les responsabilités en cas de faute du robot. Dès lors, les propriétaires et les fabricants du robot se retrouveront dans la situation de personnes possédant des animaux sauvages et seront tenus pour responsables de leurs actions.
Mais cette régulation doit aller au-delà. On évoque, pour la profession d’avocat, une ubérisation, une révolution numérique. Nous ne sommes pas les seuls.
Le système blockchain valide des transactions par un consensus entre des milliers, des dizaines de milliers de machines. Personne ne peut modifier la transaction sans détenir plus de la moitié des serveurs l’ayant générée. Il faudrait refaire tous les calculs avec les modifications apportées. Cela serait impossible. Or, la technologie blockchain sert déjà pour résoudre les problèmes de propriété des terres au GHANA. Au HONDURAS, on peut l’utiliser pour stocker les données du cadastre. Elle peut être utilisée dans le domaine de l’enregistrement des titres de propriété foncière, comme registre des transactions financières ou immobilières. Les notaires, ne pouvant faire barrière à cette révolution, tentent de la fagociter. Ils ont conscience que ce concept et cette technologie utilisant la décentralisation du calcul et une chaine cryptée d’informations sur des milliers de serveurs à travers le monde, peut menacer jusqu’à l’existence de leur profession.
Parallèlement, se développe la justice prédictive. Il s’agirait de fournir toute la jurisprudence d’une juridiction, d’une chambre et d’un juge sur un point déterminé de droit, souvent en matière de préjudice et d’indemnisation. Se pose alors la question de l’indépendance du juge. Comment un juge pourra-t-il changer de jurisprudence alors même qu’il subira la pression de cette justice prédictive qui indique que, depuis des années, il juge de la même façon et attribue la même indemnisation aux personnes du même âge ayant le même préjudice corporel ? Ne va-t-on pas le soupçonner, en changeant sa jurisprudence, en augmentant l’indemnisation ou en la baissant, de partialité en ce cas précis ? Qui contrôle la pertinence des données récoltées et s’assure de la fiabilité des algorithmes et des logiciels utilisés ? Tout recours aux nouvelles technologies implique un encadrement. Il s’agit d’avoir « confiance » en cet algorithme.
Dès lors, la règlementation est nécessaire pour assurer l’indépendance, la transparence, la fiabilité. Il faut une information loyale et claire. La loi pour une « République Numérique » promulguée le 7 octobre 2016 ne suffira pas. C’est un texte ambitieux qui vise à responsabiliser les opérateurs. Il consacre le principe de la neutralité d’internet, conformément au règlement de l’Union Européenne 2015/2120 du 25 novembre 2015, et pose le principe de la loyauté des plateformes (articles 49 à 53 de la LRN). Des obligations d’information sont imposées (article L111-7 du Code de la consommation). Mais, il s’agit de la protection de l’internaute conçu comme un consommateur. Il ne s’agit donc nullement des relations entre plateformes et professionnels. En cette matière, l’opacité de fonctionnement des plateformes peut modifier le comportement du marché. Le Conseil National du Numérique avait voulu inclure, dans la règlementation, les relations entre plateformes et acteurs professionnels. Il proposait que les plateformes soient tenues d’informer dans des délais raisonnables les acteurs professionnels des modifications importantes de leur politique tarifaire, leur politique d’accès ou de changements substantiels dans les critères de classement par algorithme.
Le gouvernement a considéré que le droit existant permettait de répondre aux manœuvres déloyales. C’est une erreur. Il conviendra de réglementer pour sauvegarder le marché. Le libéralisme, sans régulation, c’est introduire un renard « libre » dans un poulailler « libre ». Il convient de se presser avant qu’il ne soit trop tard.
Enfin, la profession d’avocat ne pourra échapper à la réflexion concernant sa règlementation ainsi que le rappelait, lors du colloque du CCBE d’octobre 2016 à PARIS, la Présidente de l’Association Internationale des Jeunes Avocats. Pour relever les défis que posent la technologie de pointe et les nouvelles attentes des clients, les jeunes avocats doivent se préparer. Or, 60 % des jeunes avocats, interrogés par l’AIJA, pensent que la plus grande menace pour la profession juridique est la profession elle-même. Ce n’est pas l’intelligence artificielle, ni les prestataires de services alternatifs, ni même la justice prédictive mais la résistance des avocats à l’innovation. Il est temps de mesurer ces enjeux et d’adopter, pour notre profession, la règlementation adéquate pour favoriser cette révolution, intégrer l’innovation et demeurer des avocats.
Michel BENICHOU
Avocat au Barreau de Grenoble