Face aux risques et aux dangers de la reconnaissance faciale, la Commission européenne pourrait décider de bannir temporairement tout usage de cette technologie. C’est ce que révèle un document en fuite, dévoilant aussi les cinq options envisagées par l’UE pour réguler l’usage de l’intelligence artificielle…
La reconnaissance faciale présente de nombreux risques, et cette technologie suscite l’inquiétude dans les plus hautes sphères. Selon un brouillon de livre blanc sur l’IA obtenu par le site web Euractiv, la Commission européenne envisage actuellement de bannir temporairement la reconnaissance faciale aussi bien dans le secteur public que dans le privé.
Cette interdiction pourrait s’étendre sur une durée de trois à cinq ans, le temps d’étudier les impacts potentiels de cette technologie et de développer des mesures de gestions des risques.
Si cette décision est adoptée, plusieurs pays européens devront abandonner leurs projets en cours. La France prévoyait notamment d’établir un cadre légal pour l’intégration de cette technologie dans les systèmes de surveillance vidéo. L’appli Alicem devait aussi permettre d’accéder aux services publics avec un selfie. De même, l’Allemagne comptait déployer la reconnaissance faciale dans 134 gares et 14 aéroports.
L’Union européenne envisage 5 options pour réglementer l’IA
De manière générale, le livre blanc rédigé par la Commission envisage 5 pistes pour règlementer l’usage de l’intelligence artificielle dans l’UE. La première option serait la mise en place d’un label. Sur la base du volontariat, les développeurs pourraient choisir de se conformer à des exigences pour une IA éthique et digne de confiance afin de recevoir le label.
La deuxième option concerne plus spécifiquement l’utilisation de l’IA par les pouvoirs publics et celle de la reconnaissance faciale en général. L’idée évoquée serait de mettre en place des critères à respecter pour les départements gouvernementaux souhaitant utiliser l’IA. Pour la reconnaissance faciale, le texte s’en remet au RGPD qui donne aux citoyens le droit de ne pas être » sujet à une décision basée uniquement sur le traitement automatisé « .
La troisième approche proposée consisterait à focaliser la règlementation uniquement sur les domaines dans lesquels le public est en danger ou qui mettent d’importants intérêts légaux en jeu. Parmi les secteurs à risques, sont notamment cités ceux de la santé, du transport ou de la justice.
Le quatrième point du livre blanc suggère d’ajouter des amendements ciblés à la législation européenne sur la sécurité et la responsabilité pour l’intelligence artificielle. Ces amendements viseraient à couvrir des risques comme les cybermenaces, la sécurité personnelle, la confidentialité ou la protection des données personnelles qui ne sont pas encore abordés par les lois en vigueur. Les développeurs d’intelligence artificielle pourraient aussi voir leur responsabilité clarifiée et distinguée de celles de producteurs de produits.
Pour terminer, la Commission estime qu’un système de mise en vigueur efficace est essentiel pour la gouvernance à l’ère de l’IA. La coopération entre les autorités nationales sera notamment nécessaire.
L’approche la plus probablement adoptée devrait être une combinaison des options 3, 4 et 5. La publication de la version finale de ce livre blanc est actuellement prévue pour la fin du mois de février 2020…