Articles

L’Intelligence artificielle, une technologie à la croisée des sciences* : quelle régulation aujourd’hui ?

Absence de définition officielle

Il n’existe pas de définition officielle de l’intelligence artificielle (ci-après « IA »). L’IA fonctionne sur la base d’algorithmes créés par un être humain. Ces algorithmes permettent de conduire un raisonnement à partir de base(s) de données et d’arriver à un ou des résultats, sans ou avec peu d’intervention humaine.

L’IA est perçue comme l’un des outils les plus prometteurs du 21ème siècle, dans la mesure où elle permet à l’Homme de déléguer de nouvelles tâches nécessitant un raisonnement complexe. Plus loin que l’automatisation, une des grandes promesses de l’IA est finalement l’« autonomisation » de la machine, notamment par ce qu’on appelle le « machine learning ». Il s’agit d’une branche de l’IA fondée sur l’idée que l’algorithme peut apprendre par lui-même à partir de bases de données existantes, peut identifier les récurrences, créer des modèles de raisonnement et prendre des décisions sans intervention humaine.

La promesse est énorme et conduit déjà à des applications concrètes d’aide à la prise de décision dans divers secteurs d’activités, qu’il s’agisse du secteur bancaire, assurantiel, automobile ou encore de la justice.

Appliquée au secteur public, l’intelligence artificielle sera en mesure d’aider les pouvoirs publics à fournir aux usagers des biens et services à une échelle et avec une efficience supérieure.

Absence de recul sur les applications possibles et les conséquences de l’IA

Il n’empêche que l’IA se développe aujourd’hui dans un flou « artistique » : (1) nous ne connaissons pas encore tout le potentiel de l’IA et toutes les applications qui pourront en émerger dans les prochaines décennies, (2) en conséquence nous ne disposons pas d’un recul suffisant pour appréhender toutes les problématiques qui seront engendrées par l’IA.

Des questions se posent en particulier en termes :

  • de responsabilité des acteurs : qui est responsable en cas d’atteinte (physique ou morale) à une personne physique dans le cadre d’une prise de décision automatisée ? Faut-il faire une différence selon que l’atteinte résulte d’une erreur de la machine ou de la décision « la moins pire » ?[1]
  • de risques de discrimination : des expérimentations ont lieu depuis plusieurs années dans d’autres pays. Il a été démontré que les algorithmes peuvent reproduire les biais humains, sur lesquels finalement l’algorithme « apprend » à prendre des décisions[2].
  • d’atteinte à la vie privée : l’intelligence artificielle couplée à la collecte massive de données de tous types (Big Data[3]) ou de données sensibles (notamment des données de santé, données biométriques, génétiques, usage de la reconnaissance faciale) peut entraîner de graves conséquences pour la vie privée des individus (prises de décision automatiques sans information ni consentement, risque lié à leur sécurité, leur réputation). La Chine a par exemple mis en place une surveillance de masse en identifiant les individus par la reconnaissance faciale et en collectant des données comportementales sur chacun d’entre eux via la vidéosurveillance dans l’espace public.

De même, l’IA pourrait permettre de créer de faux contenus et d’incriminer faussement une personne ou porter atteinte à sa réputation (deepfake par ex). Enfin, que penser du « risque zéro » ? Une faille de sécurité dans un système basé sur l’IA peut avoir des conséquences dévastatrices. Le Règlement général sur la protection des données (RGPD) entré en application il y a 3 ans a prévu la protection des personnes vis à vis des outils de prise de décision automatisée pouvant avoir des effets juridiques à leur égard[4].

Nécessité d’une éthique de l’IA et d’un cadre juridique spécifique

 Pour autant, cet encadrement n’est pas suffisant. Au-delà du droit, les cas d’usage doivent être encadrés par une éthique des technologies qui soit applicable et appliquée par le secteur privé comme le secteur public[5].

A ce titre, des réflexions ont été amorcées ces dernières années : l’Organisation de coopération et de développement économiques (OCDE) a publié en 2019 un document de travail sur l’intelligence artificielle et son utilisation dans le secteur public[6], suite aux lignes directrices d’un groupe d’experts indépendants de haut niveau sur l’intelligence artificielle constitué par la Commission européenne[7] et le Parlement européen a adopté en janvier 2021un rapport appelant à un cadre juridique européen sur l’IA[8].

En France, la réflexion est en cours. En 2018, le gouvernement présentait une stratégie ambitieuse en faveur de l’intelligence artificielle avec un investissement public de plus d’un milliard d’euros sur cinq ans[9]. Début 2021, la France et l’Allemagne ont lancé un appel à projets commun pour des projets d’innovation sur l’intelligence artificielle[10].

Par ailleurs, un décret n° 2020-356 du 27 mars 2020[11] a créé un traitement automatisé de données à caractère personnel dénommé « DataJust » pour développer un dispositif algorithmique (IA) reposant sur l’extraction, de manière automatique, des données contenues dans les décisions de justice et leur exploitation[12].  L’idée est d’assister le juge en lui présentant tous les jugements rendus par les tribunaux français sur des dossiers similaires. L’aide à la prise de décision peut aller jusqu’à proposer au juge une décision, en tirant automatiquement les conséquences de la recherche. Cet outil de facilitation du travail du juge règlera-t-il la question de la célérité et de la prévisibilité de la justice ?[13]

L’IA résoudra-t-elle les « maux » de la société ou en engendrera-t-elle davantage ?  Les gains apportés suffiront-ils à compenser les risques ? L’avenir nous le dira.

Marie-Hélène Gostiaux

*Sciences formelles (mathématique, géométrie, informatique…), sciences de la nature (biologie, physiologie, chimie, physique…) et sciences humaines et sociales (histoire, philosophie, art, droit, économie, sociologie, psychologie…)

[1] Clifford Law Offices PC, The Dangers of Driverless Cars, National Law Review, May 5, 2021 https://www.natlawreview.com/article/dangers-driverless-cars  

Fox C., Driverless cars : Who should die in a crash?, BBC, October 26, 2018 https://www.bbc.com/news/technology-45991093

[2] Mesa N., Can the criminal justice system’s artificial intelligence ever be truly fair? University of Washington, May 13, 2021 https://massivesci.com/articles/machine-learning-compas-racism-policing-fairness/

[3] http://observatoire-asap.org/index.php/2021/04/22/big-data-et-droit-une-question-de-pouvoir-et-de-position-dominante/

[4] Cf. article 22 du RGPD (https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3#Article22) et lignes directrices du G29 (actuel CEPD) mises à jour le 6 février 2018 (Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679)

[5] http://observatoire-asap.org/index.php/2021/03/31/le-difficile-arbitrage-public-entre-ethique-et-transformation-numerique/

[6] ECD Working Papers on Public Governance No. 36, Hello World : Artificial intelligence and its use in the public sector

[7] Commission Européenne, Lignes directrices en matière d’éthique pour une IA digne de confiance, 8 avril 2019

[8] Résolution du Parlement européen du 20 janvier 2021 sur l’intelligence artificielle: questions relatives à l’interprétation et à l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires ainsi qu’à l’autorité de l’État en dehors du champ d’application de la justice pénale (2020/2013(INI)) https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_FR.html

[9] https://www.entreprises.gouv.fr/fr/numerique/enjeux/france-terre-d-intelligence-artificielle

[10] Communiqué de presse conjoint du 3 février 2021 « LA FRANCE ET L’ALLEMAGNE LANCENT UN APPEL A PROJETS COMMUN POUR DES PROJETS D’INNOVATION SUR L’INTELLIGENCE ARTIFICIELLE »

[11] Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust »

[12] Le dispositif permet de recenser, par type de préjudice :

  • les montants demandés et offerts par les parties à un litige ;
  • les montants alloués aux victimes en indemnisation de leur préjudice corporel dans les décisions de justice rendues en appel par les juridictions administratives et les formations civiles des juridictions judiciaires.

 

Pour aller plus loin : Le Conseil de l’Europe a adopté fin 2018 une Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement :

Elle pose cinq principes à respecter dans le cadre de toute utilisation d’IA :

–              Principe de respect des droits fondamentaux : il s’agit d’assurer, dès la conception des outils et des services d’intelligence artificielle, leur compatibilité avec les droits fondamentaux.

–              Principe de non-discrimination : il s’agit de prévenir tout type de discriminations entre individus ou groupes d’individus.

–              Principe de qualité et sécurité : il s’agit d’utiliser des sources certifiées, dans un environnement technologique sécurisé.

–              Principe de transparence, de neutralité et d’intégrité intellectuelle : il s’agit de rendre accessibles et compréhensibles les méthodologies de traitement des données.

–              Principe de maîtrise par l’utilisateur : il s’agit de permettre à l’usager d’être un acteur éclairé et maître de ses choix, d’utiliser ou non l’IA.

 

[13] http://observatoire-asap.org/index.php/2020/02/14/sous-quelles-conditions-les-algorithmes-de-justice-predictive-pourraient-ils-reellement-ameliorer-la-previsibilite-de-la-justice/