L’intelligence artificielle peut-elle être érigée en « nouvel acteur judiciaire » ? La justice de demain sera t’elle automatisée ? : ces questions soulevées dans son allocution par Bruno Pireyre, président de chambre à la Cour de cassation, en ouverture du colloque « Un monde judiciaire augmenté par l’intelligence artificielle ? » soutenu par la Mission de recherche Droit et Justice et organisé le 25 juin dernier à la Cour par l’Institut PRESAJE, résume bien le fil rouge de cette journée. Trois questions à Yannick Meneceur, magistrat détaché au Conseil de l’Europe, conseiller en transformation numérique et en intelligence artificielle et chercheur associé à l’IHEJ qui y intervenait sur « la charte éthique du conseil de l’Europe, modélisation d’une utilisation raisonnée de l’IA dans la sphère judiciaire ».
Propos recueillis par Laetitia Louis-Hommani
Laetitia L-H : Pourriez-vous nous dire quelques mots sur la prise en compte des évolutions en matière d’intelligence artificielle par le Conseil de l’Europe ?
Yannick Meneceur : Le Conseil de l’Europe est impliqué de longue date dans la régulation des technologies car il s’agit là d’une composante essentielle de son mandat : s’adapter aux évolutions de la société afin de continuer à protéger efficacement et de promouvoir les droits de l’homme, l’État de droit et la démocratie. C’est ainsi que la Convention 108 sur la protection des données a été conçue bien avant le Règlement général sur la protection des données (RGPD) (elle en est même précurseur) dès 1981. La Convention de « Budapest » relative sur la lutte contre la cybercriminalité, seul cadre juridique de coopération mondiale, a été adoptée en 2001. Et je ne développerai pas d’autres champs technologiques en dehors des questions numériques – comme la biomédecine (et la prohibition du clonage) ou la certification de médicaments – qui font aussi parti des activités du Conseil. Les évolutions en matière d’intelligence artificielle (IA), notamment depuis le développement de l’apprentissage automatique (machine learning) en 2010, sont traitées sous de multiples angles, notamment par le Comité directeur des médias et la société de l’information (CDMSI), investi de l’importante mission de diriger les travaux du Conseil de l’Europe dans les domaines de la liberté d’expression, des médias et de la gouvernance de l’internet. S’agissant de la justice, le Conseil de l’Europe a été la première organisation internationale à adopter un instrument spécifiquement dédié à l’IA dans ce secteur : il s’agit de la Charte européenne de l’utilisation de l’IA dans les systèmes judiciaires et leur environnement.
Laetitia L-H : Votre intervention lors du colloque portait sur ces instruments que vous venez de mentionner. Mais intéressons-nous plus spécifiquement à « la charte éthique du Conseil de l’Europe, modélisation d’une utilisation raisonnée de l’IA dans la sphère judiciaire. Quels sont les principaux apports de cette charte éthique ?
Yannick Meneceur : Le document a été rédigé dans l’esprit de réunir en 5 principes pratiques les mesures à prendre, dès le début de la conception (by design), pour un développement de solutions respectueuses des principes de la Convention européenne des droits de l’Homme (EDH). L’idée est de pouvoir nourrir de manière concrète les réflexions d’entrepreneurs privés ou des décideurs publics voulant développer de manière responsable leurs systèmes algorithmiques. Mais ces 5 principes ne sont que la partie visible d’un immense travail de fond, qui a voulu faire la part des choses entre les discours des promoteurs, qui confondent parfois le droit et les faits dans le traitement de leurs données, et des détracteurs qui, en réaction à des discours ambiants, pensent que les machines vont se substituer à eux. Dans ce contexte, l’équipe multidisciplinaire d’experts de la commission européenne pour l’efficacité de la justice (CEPEJ) s’est attachée à documenter précisément ce que l’on pouvait aujourd’hui attendre des algorithmes, notamment d’apprentissage automatique, dans le domaine de la justice.
Laetitia L-H : La charte éthique de la CEPEJ est un instrument de soft law, croyez-vous que la soft law est l’outil le plus approprié pour réguler une telle matière ?
Yannick Meneceur : Tout d’abord n’oublions pas que les technologies numériques, dont l’IA, sont déjà régulées : qu’il s’agisse de la Convention EDH ou la Convention 108 pour le Conseil de l’Europe, du RGPD ou des dispositions relatives à la responsabilité du fait des produits défectueux au niveau communautaire ou national, il y a déjà des cadres applicables. Dans ce contexte, la soft law a eu l’avantage de pouvoir faire la part des choses, de hiérarchiser des principes, d’identifier les éventuelles lacunes dans les réglementations existantes. Cette démarche a aussi l’avantage de préparer un consensus intergouvernemental, sans lequel aucun autre instrument ne pourrait voir le jour.
L’importance des enjeux a toutefois conduit, le 17 mai 2019, le Comité des ministres à décider d’examiner la faisabilité et les éléments potentiels, sur la base de consultations multipartites, d’un cadre juridique pour le développement, la conception et l’application de l‘IA, sur la base des normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit. Un comité ad hoc (CAHAI) a été établi pour une durée de deux années afin de réfléchir sur la forme précise de cet encadrement juridique, en incluant dans ses travaux un dialogue ouvert avec la société civile, l’industrie numérique et toutes les parties prenantes.
En savoir plus sur le colloque : https://www.courdecassation.fr/publications_26/prises_parole_2039/discours_2202/president_chambre_8444/augmente_intelligence_42900.html