2019 n’a commencé que depuis quelques semaines mais certains estiment que nous tenons déjà l’un des livres les plus importants de l’année.
L’ouvrage en question s’intitule « L’Age du capitalisme de surveillance » et a été écrit par Shoshana Zuboff, professeure émérite à la Harvard Business School.
De quel problème s’agit-il ? De l’avènement d’une nouvelle ère du capitalisme, celle de la surveillance, d’abord ouverte par le secteur numérique et en passe de s’étendre largement au-delà. Zuboff porte une vision très noire sur ce basculement, qui menace jusqu’à la démocratie, estime-t-elle.
Comme l’écrit le Wall Street Journal : « l’apport majeur de ce livre est de mettre des mots sur le phénomène en cours, de le replacer dans une perspective culturelle et historique, et de nous inviter à prendre le temps de réfléchir au futur ».
Que nous dit Zuboff ? Que la notion de « capitalisme de surveillance » – expression qu’elle a popularisée dans un article en 2014 – est encore mal comprise : bien plus que d’une ®évolution numérique, il s’agit d’une nouvelle ère du capitalisme qui a trouvé comment exploiter la technologie à ses fins .
Les modèles d’affaires des géants du numérique sont aujourd’hui bien connus mais Zuboff les replace dans un contexte plus large : selon elle, il ne s’agit pas seulement d’algorithmes complexes mais de la dernière phase de la longue évolution du capitalisme. Après la production de masse, le capitalisme managérial, l’économie des services, le capitalisme financier, nous serions entrés dans une nouvelle ère du capitalisme , fondée sur l’exploitation des prédictions comportementales issues de la surveillance des utilisateurs. En ce sens, The Guardian situe son livre dans « la continuation » des analyses sur le capitalisme produites « par Adam Smith, Max Weber, Karl Polanyi et Karl Marx ».
Ainsi, le fameux adage « si c’est gratuit, c’est que vous êtes le produit » est incorrect pour Zuboff. Au lieu d’être le produit, l’utilisateur est un rouage du véritable produit : les prédictions sur son futur, vendu au plus offrant.
Zuboff situe l’émergence du capitalisme de surveillance aux débuts des années 2000 : selon elle, celui-ci a été inventé et perfectionné par Google de la même façon que la Ford Motor Company avait inventé et perfectionné la production de masse et que General Motors avait inventé et perfectionné le capitalisme managérial.
Elle raconte que ce nouveau capitalisme a été inventé vers 2001 et a d’abord servi de solution d’urgence pour Google, dont la situation financière commençait à se compliquer suite à l’explosion de la bulle Internet. Faisant face à une perte de confiance de leurs investisseurs, et à une pression grandissante de ces derniers, les dirigeants de Google choisirent d’abandonner la position critique qu’ils tenaient publiquement jusqu’alors contre la publicité. A la place, ils décidèrent de booster leurs revenus publicitaires en tirant profit de leur accès exclusif aux données de leurs utilisateurs et en les combinant avec leurs capacités analytiques et leur puissance de calcul déjà existantes. L’idée sous-jacente : générer des prédictions sur le taux de clic des utilisateurs, considéré comme un signal de pertinence d’une publicité.
Dès lors, l’objectif de Google devint le suivant : exploiter au maximum le surplus de données comportementales et développer des méthodes pour trouver de nouvelles sources de ce surplus.
Comme elle le raconte, ce n’est qu’en 2004, quand Google entre en Bourse, que la puissance de ces nouveaux mécanismes prend publiquement toute sa mesure : l’entreprise révèle alors que ses revenus ont augmenté de 3590% depuis 2001.
Au XXe siècle, l’ère de la production de masse avait démarré avec la fabrication de la Ford Model T avant de s’étendre au reste de l’économie. De la même façon, le capitalisme de surveillance a commencé au début du XXIe siècle avec la publicité en ligne, mais s’étend désormais bien au-delà. Rapidement devenu le modèle par défaut des entreprises de la Silicon Valley, le capitalisme de surveillance n’est aujourd’hui plus limité au secteur numérique, puisqu’il touche, explique Zuboff, de multiples secteurs : assurance, distribution, soins, finance, divertissement, éducation, transports… « Presque chaque produit ou service qui commence par le mot « smart » ou « personnalisé », chaque « assistant digital », est simplement un maillon d’une chaîne logistique où transitent un flux de données comportementales destinées à prédire nos futurs » écrit-elle.
Les acteurs de ce capitalisme se sont peu à peu perfectionnés. « Ils ont d’abord appris que plus ils récoltent de surplus, plus leurs prédictions sont bonnes, ce qui leur permet de générer des économies d’échelle. Ils ont ensuite découvert que plus le surplus est varié, plus les prédictions gagnent en valeur ». De là, selon elle, les efforts de ces acteurs pour passer de l’ordinateur au mobile, qui se retrouve partout : « conduite en voiture, achats, joggings, recherche de place de parking, santé, beauté…et toujours, toujours, la localisation ».
Mais ces acteurs ne se sont pas arrêtés là. Analyser les données pour prédire les comportements n’était qu’une première étape : la frontière ultime, pour Zuboff, repose sur « les systèmes conçus pour modifier les comportements, afin d’orienter ceux-ci vers des résultats commerciaux désirés ». Elle cite notamment deux exemples en ce sens :
-les tests de Facebook pour influencer les émotions de leurs utilisateurs en manipulant leurs fils d’actualité (tests effectués en 2014 sur plus de 600 000 utilisateurs, qui se sont révélés très concluants) ;
-le jeu de réalité augmentée Pokémon Go où des joueurs étaient amenés sans en avoir conscience à devoir se rendre dans des magasins (du monde physique) pour capturer des Pokémon. Les concepteurs du jeu avaient créé un système d’enchères destiné aux marques, permettant de guider les joueurs vers celles prêtes à payer le plus cher.
« Il ne suffit plus d’automatiser les flux d’informations nous concernant ; l’objectif est maintenant de nous automatiser » assène-t-elle, en soulignant les stratégies mises en place pour éviter le consentement des utilisateurs : « ces processus sont méticuleusement conçus pour produire de l’ignorance en contournant la prise de conscience individuelle et en éliminant toute possibilité de libre-arbitre ». Elle cite un data scientist rencontré durant ses travaux : « nous pouvons programmer le contexte qui entoure un comportement particulier afin d’imposer un changement ».
Ce pouvoir d’influencer nos comportements « n’a aucun fondement démocratique ni légitimité morale » , juge-t-elle, « puisqu’il usurpe nos droits décisionnels et érode notre autonomie individuelle, pourtant essentielle dans une société démocratique ».
Par « droits décisionnels », Zuboff entend notre capacité à défendre nos propres futurs, qui se retrouvent aujourd’hui manipulés par les systèmes prédictifs. Enutilisant les services du capitalisme de surveillance, les individus acceptent bien plus que la seule perte de contrôle sur leurs données : ils placent la trajectoire de leur vie, la détermination de leur voie, sous le contrôle du marché , de la même façon que les joueurs de Pokémon Go, guidés par leurs écrans, franchissent les portes de magasins sans avoir pris conscience de s’être fait quasiment piloter à distance.
« La combinaison de la surveillance par l’Etat et par son équivalent capitaliste signifie que la technologie sépare les citoyens en deux groupes : les observateurs (invisibles, inconnus, non-responsables) et les observés. Les conséquences sur la démocratie sont profondes car l’asymétrie de savoir se traduit en asymétrie de pouvoir . Mais là où la plupart des sociétés démocratiques ont un minimum de contrôle sur la surveillance exercée par l’Etat, nous n’avons aujourd’hui pas de contrôle réglementaire sur la surveillance des entreprises privées. C’est intolérable. » John Naughton dans The Guardian
Morozov, réputé pour sa dénonciation des dangers du numérique, rappelle que Zuboff était auparavant « prudemment optimiste à la fois sur le capitalisme et la technologie » : il y a 10 ans, elle écrivait par exemple qu’un géant comme Apple apportait une « valeur immense » à ses utilisateurs en leur offrant « ce qu’ils veulent, comme ils le veulent, à l’endroit où ils le veulent ».
Que des médias très pro-business comme le Wall Street Journal ou le Financial Times en viennent aujourd’hui à recommander cet ouvrage en dit long. Au vu de cette agrégation des inquiétudes, voire des contestations, une question se pose : ce modèle est-il aussi puissant qu’il n’y paraît ?
Une chose est sûre pour elle : demander aux géants technologiques de protéger notre vie privée serait « comme demander à Henry Ford de fabriquer chaque modèle de Ford T à la main ». Autrement dit, l’autorégulation est un non-sens.
Finalement, « s’extraire de la toxicité du capitalisme de surveillance sera un processus long, lent et difficile », écrit-elle. « Le premier travail à faire doit être de nommer les choses . Ce que j’espère, c’est que mettre des mots sur la situation contribuera à un changement radical de l’opinion publique, surtout parmi les jeunes ».
Or jusqu’ici, malgré la progression ces dernières années de services numériques visant la « privacy by design » (garantir la confidentialité des données dans la conception même des produits) comme le moteur de recherche Qwant, ces idées semblent peiner à trouver un écho massif auprès du grand public et (surtout) à provoquer un basculement des usages. Est-ce seulement une question de temps ? La prévalence de la fameuse réaction « pourquoi m’en préoccuper, je n’ai rien à cacher » reste très importante…
« Lorsque les gens disent « je n’ai rien à cacher », ils disent en fait « je me moque de mes droits ». Si vous cessez de défendre vos droits en disant : « je n’ai pas besoin de mes droits dans ce contexte », ce ne sont plus des droits. Vous les avez convertis en quelque chose dont vous jouissez comme d’un privilège révocable. Et cela réduit l’étendue de la liberté au sein d’une société. »
En 2017, une journaliste utilisatrice de Tinder demanda aux propriétaires de l’application de lui envoyer ses données. Elle reçut près de 800 pages, contenant des informations personnelles de toute nature : l’âge moyen des hommes qui l’intéressaient, où et quand chaque conversation en ligne avec ses « matchs » s’était produite, etc. Un sociologue spécialiste du numérique qu’elle interrogea alors à ce sujet lui répondit: « Les applications comme Tinder profitent d’un phénomène émotionnel simple : nous ne pouvons pas ressentir les données. Nous sommes des créatures physiques. Nous avons besoins de matérialité ».
« Dire que vous ne vous préoccupez pas du droit au respect de la vie privée parce que vous n’avez rien à cacher équivaut à dire que vous ne vous préoccupez pas de la liberté d’expression parce que vous n’avez rien à dire. » – Edward Snowden
« Protéger sa vie privée n’équivaut pas à vouloir se cacher pour planifier de renverser le gouvernement : la protection de la vie privée est l’état naturel des choses. Par exemple, lorsque vous allez aux toilettes, en particulier dans des toilettes publiques, vous fermez généralement la porte. La raison pour laquelle vous le faites, ce n’est pas parce que vous prévoyez de renverser le gouvernement. Vous pourriez l’être, mais il y a des chances que ce ne soit pas pour ça. Vous y aller pour utiliser les toilettes » – Riccardo Spagni, développeur principal du projet Monero (monnaie numérique intraçable)
« La première approche est de prendre les cas individuels : ça prend au maximum 15 minutes avant que la personne qui pense n’avoir « rien à cacher », se rende compte que c’est faux . Chacun a une histoire et une sensibilité particulière à la surveillance et à la vie privée: certains seront agacés de recevoir des publicités basées sur leur dernière recherche Google, d’autres savent par expérience que certains épisodes médicaux (dépression, cancer) pourraient les mettre en difficulté s’ils venaient à être connus, d’autres seront gênés qu’une banque se base sur leur réseau d’amis pour définir un taux d’intérêt pour un emprunt…
« Il y a cette idée dangereuse que transparence et honnêteté seraient synonymes. « Je n’ai rien à cacher » entend-on. Même aux Nazis ? On présuppose que la faute est consubstantielle à celui qui cache et que l’observateur est honnête et de bonne foi. C’est souvent l’inverse ! Pourquoi y-a-t-il des isoloirs ? Pas pour cacher un délit mais parce que le sens du vote n’appartient qu’à soi. »
nous tous – pas seulement les terroristes ou les criminels, nous tous – avons des choses à cacher . Il y a plein de choses que nous faisons ou pensons, que nous racontons volontiers à notre médecin, notre avocat, notre psy, notre époux, ou notre meilleur ami mais qui nous rempliraient de honte si le reste du monde les apprenait.
En 2009, Eric Schmidt, alors PDG de Google, crut intelligent de dire : « Si vous faites quelque chose que vous ne voulez pas que d’autres apprennent, peut-être devriez-vous commencer par ne pas la faire ». Ironie du sort : quatre ans plus tôt, il avait ordonné aux employés de Google d’arrêter de communiquer avec l’ensemble des journalistes du média CENT, suite à la publication d’un article contenant des informations sur sa vie privée…obtenues exclusivement grâce à des recherches sur Google !
« Les comportements que nous adoptons quand nous pensons être observés sont soumis à une forte autocensure. C’est un simple fait de la nature humaine reconnu par les sciences sociales. Il existe des dizaines d’études psychologiques qui prouvent que lorsque quelqu’un sait qu’il pourrait être observé, le comportement qu’il adopte est beaucoup plus conformiste et consensuel. Chez les humains, la honte est une motivation très puissante, de même que le désir de l’éviter . C’est pourquoi les individus, lorsqu’ils sont observés, prennent des décisions qui résultent, non pas de leur propre réflexion, mais des attentes qu’on a mises sur eux, ou des règles de la société . »
« Une société où les gens sont surveillés à chaque instant est une société qui pousse à l’obéissance et à la soumission : voilà pourquoi, tous les tyrans, du plus manifeste au plus subtil, aspirent à ce système. A l’autre bout du spectre, il y a le royaume de la privacy : cette possibilité d’aller dans des lieux où l’on peut penser, interagir et parler sans ressentir le jugement d’autrui, qui sont les seuls endroits possibles où la culture de la créativité, de l’expérimentation et du débat peuvent exister ».
En 2010, la France s’enthousiasmait pour un court essai au succès inattendu : « Indignez-vous », de Stéphane Hessel. Presque une décennie plus tard, durant laquelle des trillions de données auront été avalées et exploitées par des géants privés à des fins prédictives, le moment est peut-être venu de le (re)lire, avec un regard différent. La question de fond, elle, reste cependant la même : dans quelle société voulons-nous vivre, et quel avenir souhaitons-nous laisser à nos (petits) enfants ? A l’aune de la surveillance, l’expression « digital natives » prend ainsi un sens tout particulier…
https://www.payot.ch/Detail/la_zone_du_dehors-alain_damasio-9782070464241?cId=0
https://www.payot.ch/Detail/indignez_vous_-stephane_hessel__sylvie_crossman-9791090354203