Le 13 février 2022 par Stéphane le calme
Un nouveau projet de loi bipartite pourrait marquer le premier pas du Congrès américain vers la lutte contre l’amplification algorithmique des contenus préjudiciables. Le NUDGE Act sur les médias sociaux, rédigé par les sénateurs Amy Klobuchar (D-MN) et Cynthia Lummis (R-WY), pousserait le National Science Foundation et le National Academy of Sciences, Engineering and Medicine à étudier des moyens « neutres au contenu » d’ajouter de la friction au partage de contenu en ligne. Le projet de loi demande aux chercheurs d’identifier un certain nombre de moyens de ralentir la propagation des contenus préjudiciables et de la désinformation, que ce soit en demandant aux utilisateurs de lire un article avant de le partager (comme Twitter l’a fait) ou d’autres mesures. La Federal Trade Commission codifierait ensuite les recommandations et obligerait les plateformes de médias sociaux comme Facebook et Twitter à les mettre en pratique.
Les plateformes technologiques seraient également tenues de partager des informations sur leur conformité aux règles et l’impact des interventions. Ne pas le faire constituerait des pratiques déloyales et trompeuses, que la FTC contrôle déjà.
Facebook encourage les discours de haine pour gagner de l’argent,
Frances Haugen, qui a travaillé pour Facebook, est derrière la fuite d’un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux.
Dans un entretien durant l’émission 60 Minutes sur CBS News, elle a décrit une entreprise si engagée dans l’optimisation des produits qu’elle a adopté des algorithmes qui amplifient les discours de haine.
Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d’options qu’il pourrait vous montrer.
L’algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.
Frances Haugen : Et l’une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd’hui, c’est qu’il s’agit d’optimiser le contenu qui suscite l’engagement ou la réaction. Mais ses propres recherches montrent qu’un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d’autres émotions.
Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.
Françoise Haugen : Oui. Facebook s’est rendu compte que s’ils changent l’algorithme pour qu’il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d’argent.
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu’ils étaient avant, pour donner la priorité à la croissance plutôt qu’à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.
Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.
Frances Haugen : C’est l’une de ces conséquences malheureuses, n’est-ce pas ? Personne chez Facebook n’est malveillant, mais les incitations sont mal alignées, n’est-ce pas ? Néanmoins, Facebook gagne plus d’argent lorsque vous consommez plus de contenu. Les gens aiment s’engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l’Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l’algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Le NUDGE Act
Pendant des années, les démocrates ont recherché des moyens de lutter contre la désinformation en ligne, tandis que les républicains ont critiqué ces efforts comme des menaces à la liberté d’expression. Mais, suite au témoignage de la dénonciatrice de Facebook Frances Haugen, les membres des deux parties ont commencé à travailler ensemble pour trouver des moyens de réglementer les algorithmes qui traitent à la fois des problèmes des enfants et de la désinformation.
Nudging Users to Drive Good Experiences on Social Media (Social Media NUDGE) Act établirait des études pour examiner et recommander des interventions visant à réduire la dépendance et l’amplification des contenus préjudiciables sur les plateformes de médias sociaux. À la suite de l’étude initiale, la législation tiendrait les plateformes responsables du suivi des recommandations.
« Pendant trop longtemps, les entreprises technologiques ont dit « Faites-nous confiance, nous nous en occupons » », a déclaré le sénateur démocrate Amy Klobuchar. « Mais nous savons que les plateformes de médias sociaux ont à plusieurs reprises fait passer les profits avant les gens, avec des algorithmes poussant des contenus dangereux qui accrochent les utilisateurs et propagent la désinformation. Ce projet de loi contribuera à lutter contre ces pratiques, notamment en mettant en œuvre des changements qui augmentent la transparence et améliorent l’expérience utilisateur. Il est plus que temps d’adopter des réformes significatives qui s’attaquent de front aux méfaits des médias sociaux pour nos communautés ».
Le soutien de la sénatrice républicaine Cynthia Lummis au projet de loi marque une avancée significative dans ce processus.
« Le NUDGE Act est une bonne étape pour lutter pleinement contre la portée excessive des grandes entreprises technologiques », a déclaré Lummis. « En habilitant la [NSF] et la [NASEM] à étudier la dépendance des plateformes de médias sociaux, nous commencerons à comprendre pleinement l’impact que la conception de ces plateformes et leurs algorithmes ont sur notre société. À partir de là, nous pouvons établir des remparts pour protéger les enfants du Wyoming des effets négatifs des médias sociaux ».
L’article 230
L’article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l’internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L’article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s’engager dans la modération de contenu en supprimant le risque qu’ils puissent être poursuivis en tant qu’éditeur s’ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l’article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l’affaiblir dans l’optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l’immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Ces réformes visent les plateformes afin de s’assurer qu’elles traitent de manière appropriée les contenus illégaux tout en continuant à préserver un internet dynamique, ouvert et compétitif. Prises ensemble, elles garantiront que l’immunité de la section 230 incite les plateformes en ligne à être des acteurs responsables », a déclaré William Barr, le procureur général des États-Unis, dans un communiqué publié en juin 2020.
Le ministère de la Justice a proposé des exclusions qui ciblent les « véritables mauvais acteurs » dont les plateformes facilitent intentionnellement les activités illégales, ainsi que la levée de l’immunité pour les contenus de tiers liés au cyberharcèlement, au terrorisme, aux drogues illicites et à l’exploitation des enfants. Il a également déclaré que les plateformes en ligne ne devraient pas être protégées des poursuites civiles des gouvernements ou de la responsabilité antitrust en vertu de l’article 230.
Ces propositions ont suscité des réactions négatives de la part des plateformes internet. Peu avant leur publication, Nick Clegg, responsable de la politique mondiale et de la communication de Facebook, a déclaré : « les changements apportés à l’article 230 auraient pour conséquence que des plateformes telles que Facebook devraient retirer beaucoup, beaucoup plus de contenu que ce n’est le cas actuellement d’une manière qui, je pense, mettra beaucoup de gens mal à l’aise ».
En mars dernier, les représentants Anna Eshoo (D-CA) et Tom Malinowski (D-NJ) ont présenté pour la première fois leur loi sur la protection des Américains contre les algorithmes dangereux, qui portait également sur l’amplification algorithmique. Contrairement au projet de loi de Klobuchar, la mesure de la Chambre modifierait l’article 230 de la loi sur la décence des communications pour toute plateforme disposant légalement d’une immunité lorsqu’il s’avère qu’elle a un contenu amplifié qui viole les droits civils.
La dénonciatrice de Facebook prend position
En octobre dernier, la dénonciatrice de Facebook Frances Haugen a pris position pour une réforme de cet article. Devant un panel du Sénat, elle a déclaré :
« Si nous avions une surveillance appropriée ou si nous réformions [l’article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu’ils se débarrasseraient du classement basé sur l’engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l’Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s’est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d’actualité et stimulent l’engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu’il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l’appel à la réforme de l’article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l’entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Conclusion
La suppression de la protection de la responsabilité de l’article 230 a été le plus grand obstacle auquel sont confrontés les législateurs cherchant à lutter contre l’amplification algorithmique nuisible. Des groupes technologiques et d’intérêt public comme Public Knowledge se sont déjà prononcés en faveur de la mesure Klobuchar, notant que son absence de 230 changements en fait l’un des meilleurs modèles de régulation des algorithmes.
« Public Knowledge soutient cette législation, car elle encourage une prise de décision éclairée pour résoudre un problème connu : la promotion de la désinformation », a déclaré Greg Guice, directeur des affaires gouvernementales chez Public Knowledge. « Plus important encore, le projet de loi fait tout cela sans lier la conformité à l’immunité de l’article 230 ».
Il reste peu de temps au Congrès pour adopter une législation technologique avant que les élections de mi-mandat plus tard cette année. Dans une interview le mois dernier, Klobuchar était optimiste quant à la capacité des législateurs à adopter de larges projets de loi bipartites avant la fin de l’année.
S’exprimant sur la loi NUDGE sur les médias sociaux, Klobuchar a déclaré : « Ce projet de loi aidera à lutter contre ces pratiques, notamment en mettant en œuvre des changements qui augmentent la transparence et améliorent l’expérience utilisateur ». Elle a poursuivi en disant : « Il est plus que temps d’adopter des réformes significatives qui s’attaquent de front aux méfaits des médias sociaux pour nos communautés ».
Source : Amy Klobuchar