Les experts de la Commission analysent la responsabilité appliquée à l’intelligence artificielle


Publié le 23/02/2020

En mars 2018, la Commission a mis en place un groupe d’experts sur la responsabilité et les nouvelles technologies, opérant dans deux formations différentes : la formation sur la directive relative à la responsabilité du fait des produits et la formation sur les nouvelles technologies. Ce groupe vient de rendre son rapport public. Analyse.

Contexte
Le 16 février 2017, le Parlement européen a adopté une résolution sur les règles de droit civil en matière de robotique, assortie de recommandations à la Commission, proposant toute une série d’initiatives législatives et non législatives dans le domaine de la robotique et de l’IA. Il a notamment demandé à la Commission de soumettre une proposition d’instrument législatif prévoyant des règles de droit civil sur la responsabilité des robots et de l’IA. En outre, en février 2018, le Service de recherche du Parlement européen (EPRS) a publié une étude intitulée “Une approche commune de l’UE en matière de règles de responsabilité et d’assurance pour les véhicules connectés et autonomes “, qui constitue une évaluation de la valeur ajoutée européenne accompagnant la résolution sur les règles de droit civil.

Le programme de travail de la Commission pour 2018 a annoncé que la Commission chercherait à tirer le meilleur parti de l’IA, étant donné qu’elle jouera un rôle croissant dans nos économies et nos sociétés.

Le 14 décembre 2017, dans une déclaration commune, les présidents de la Commission, du Parlement et du Conseil ont convenu de garantir “un niveau élevé de protection des données, de droits numériques et de normes éthiques tout en tirant parti des avantages et en évitant les risques des développements de l’intelligence artificielle et de la robotique”.

Le 25 avril 2018, la Commission a publié un document de travail des services de la Commission sur la “Responsabilité à l’égard des technologies numériques émergentes “, qui accompagne une communication de la Commission aux autres institutions le même jour, sur “L’intelligence artificielle pour l’Europe “. Cette communication et la communication de Sibiu de mai 20199 soulignent qu’”un cadre réglementaire solide devrait aborder de manière proactive les questions éthiques et juridiques liées à l’intelligence artificielle”. Dans sa communication sur l’intelligence artificielle de 2018, la Commission a également annoncé l’adoption d’un rapport évaluant les implications des technologies numériques émergentes sur les cadres de sécurité et de responsabilité existants d’ici la mi-2019. Dans son programme de travail 2019, elle a confirmé qu’elle “poursuivrait ses travaux sur le nouveau défi de l’intelligence artificielle en permettant une action coordonnée dans toute l’Union européenne”.

Groupe d’experts
En mars 2018, la Commission a mis en place un groupe d’experts sur la responsabilité et les nouvelles technologies, opérant dans deux formations différentes : la formation sur la directive relative à la responsabilité du fait des produits et la formation sur les nouvelles technologies.

Ce groupe vient de rendre son rapport public (en anglais).

On y lit que le groupe est d’avis que l’intelligence artificielle et les autres technologies numériques émergentes, telles que l’internet des objets ou les technologies de registres distribués, ont le potentiel de transformer nos sociétés et nos économies pour le mieux. Toutefois dit-il, leur déploiement doit s’accompagner de garanties suffisantes, afin de minimiser le risque de dommages que ces technologies peuvent causer, tels que des blessures corporelles ou autres. Pour le groupe d’expert, dans l’UE, la réglementation sur la sécurité des produits garantit que c’est le cas. (Sur ce sujet, voir toutefois l’analyse déjà publiée sur notre site).

Cela dit, ces réglementations ne peuvent pas exclure complètement la possibilité de dommages résultant de l’exploitation de ces technologies. Si cela se produit, les victimes demanderont réparation. Elles le font généralement sur la base de régimes de responsabilité de droit privé, en particulier le droit de la responsabilité civile, éventuellement en combinaison avec une assurance.

Le groupe d’expert relève que seule la stricte responsabilité des producteurs pour les produits défectueux, qui constitue une petite partie de ce type de régimes de responsabilité, est harmonisée au niveau de l’UE par la directive sur la responsabilité du fait des produits, tandis que tous les autres régimes – à l’exception de quelques exceptions dans des secteurs spécifiques ou en vertu d’une législation spéciale – sont réglementés par les États membres eux-mêmes.

Le groupe d’expert a analysé les régimes de responsabilité existants, pour conclure que les régimes de responsabilité en vigueur dans les États membres assurent au moins une protection de base aux victimes dont les dommages sont causés par l’exploitation de ces nouvelles technologies.

C’est plutôt la mise en œuvre qui risque de poser problème : « les caractéristiques spécifiques de ces technologies et de leurs applications – notamment la complexité, la modification par des mises à jour ou l’auto-apprentissage en cours d’exploitation, la prévisibilité limitée et la vulnérabilité aux menaces de cybersécurité – peuvent rendre plus difficile une demande d’indemnisation (…) ».

Le rapport estime dès lors que certains ajustements doivent être apportés aux régimes de responsabilité européens et nationaux.

10 points d’attention et recommandations
Le groupe d’expert a dégagé des points d’attention particuliers :

Une personne exploitant une technologie autorisée qui comporte néanmoins un risque accru de préjudice pour autrui, par exemple des robots pilotés par des IA dans des espaces publics, devrait être soumise à une responsabilité stricte pour les dommages résultant de son exploitation.

Dans les situations où un prestataire de services assurant le cadre technique nécessaire exerce un degré de contrôle plus élevé que le propriétaire ou l’utilisateur d’un produit ou d’un service réel équipé d’une IA, il convient d’en tenir compte pour déterminer qui exploite principalement la technologie.

Une personne utilisant une technologie qui ne présente pas de risque accru de préjudice pour autrui devrait néanmoins être tenue de respecter les obligations de sélectionner, d’exploiter, de surveiller et d’entretenir correctement la technologie utilisée et – à défaut – devrait être responsable du non-respect de ces obligations en cas de faute.

Une personne utilisant une technologie qui dispose d’un certain degré d’autonomie ne devrait pas être moins responsable du préjudice qui en résulte que si ce préjudice avait été causé par un auxiliaire humain.

Les fabricants de produits ou de contenu numérique intégrant une technologie numérique émergente devraient être responsables des dommages causés par des défauts de leurs produits, même si le défaut a été causé par des modifications apportées au produit sous le contrôle du producteur après sa mise sur le marché.

Pour les situations exposant des tiers à un risque accru de préjudice, l’assurance responsabilité civile obligatoire pourrait donner aux victimes un meilleur accès à l’indemnisation et protéger les auteurs potentiels de délits contre le risque de responsabilité.

Lorsqu’une technologie particulière accroît les difficultés de prouver l’existence d’un élément de responsabilité au-delà de ce que l’on peut raisonnablement attendre, les victimes devraient avoir droit à une facilitation de la preuve.

Les technologies numériques émergentes devraient être dotées de fonctions d’enregistrement, lorsque les circonstances le justifient, et l’absence d’enregistrement ou d’accès raisonnable aux données enregistrées devrait entraîner un renversement de la charge de la preuve afin de ne pas porter préjudice à la victime.

La destruction des données de la victime devrait être considérée comme un dommage, indemnisable dans des conditions spécifiques.

Il n’est pas nécessaire de conférer une personnalité juridique aux dispositifs ou aux systèmes autonomes, car le préjudice qu’ils peuvent causer peut et doit être imputable à des personnes ou organismes existants.