La technologie est toujours à la fois bonne et mauvaise. Mais nous vivons à une époque où tout devient une arme : les idées, les images, les textes anciens, les préjugés et même les gens. Et la technologie fournit les outils pour le rendre cela plus facile, plus rapide, et avec moins de moyens.
Les menaces plus anciennes, comme les ogives atomiques, constituent toujours un danger sérieux, mais elles sont difficiles à mettre en œuvre et il faut du temps et de l’argent pour les construire. En comparaison, il est facile de fournir des images dangereuses ou des logiciels malveillants à des millions ou des milliards de personnes, ou même des gènes mal modifiés aux générations futures. D’autres technologies, comme l’intelligence artificielle, pourraient avoir des effets progressifs et à long terme que nous ne comprenons pas ou ne pouvons pas comprendre à l’heure actuelle.
Nous vivons une période d’émerveillement technologique, mais beaucoup des nouvelles technologies les plus brillantes ont leur propre potentiel de nuisance. Voici cinq des technologies les plus dystopiques de 2020 et au-delà.
Cybercriminels et ransomware
Cet été, la Cybersecurity and Infrastructure Security Agency (CISA) a qualifié les ransomware de " risque de cybersécurité le plus visible qui se joue sur les réseaux de notre pays ". Selon la CISA, de nombreuses attaques - au cours desquelles un cybercriminel saisit et chiffre les données d’une personne ou d’une organisation, puis extorque la victime pour de l’argent - ne sont jamais signalées parce que l’organisation victime paie les cybercriminels et ne veut pas faire connaître ses systèmes peu sûrs.
Les cybercriminels ciblent souvent des personnes âgées qui ont du mal à distinguer un contenu honnête d’un contenu malhonnête en ligne, par le biais de logiciels malveillants intégrés dans les pièces jointes d’un courriel ou dans la fenêtre contextuelle d’un site Web infecté. Mais l’ampleur des attaques contre les grandes entreprises, les hôpitaux et les gouvernements et les agences des États est en augmentation. Les gouvernements, en particulier, sont devenus des cibles de choix en raison des données sensibles qu’ils détiennent et de leur capacité à payer des rançons élevées. En 2019, 70 États et collectivités locales ont été touchés par des attaques de ransomware.
Certaines données, comme les informations sur la santé, sont beaucoup plus précieuses pour leur propriétaire et peuvent rapporter davantage si elles sont détenues contre une rançon. Les voleurs peuvent capturer ou mettre en quarantaine de grands blocs d’informations cliniques qui sont essentielles pour les soins des patients, comme des résultats de tests ou des données sur les médicaments. Lorsque des vies sont en jeu, un hôpital est en mauvaise position pour négocier. Un hôpital a en fait fermé définitivement en novembre après une attaque avec demande de rançon en août.
La situation va probablement s’aggraver. Le Département de la sécurité intérieure a déclaré en 2017 que les attaques avec rançon pourraient viser une infrastructure critique comme les services d’eau. Et les outils nécessaires pour mener des attaques avec rançon sont de plus en plus accessibles aux petits acteurs, avec des organisations criminelles comme Cerber et Petya qui vendent des boîtes à outils ransomware comme service et prennent une part de la rançon dans les attaques réussies.
Gènes modifiables, CRISPR et transmissions de gènes
Aujourd’hui, les scientifiques utilisent des outils logiciels comme le CRISPR pour modifier les gènes, et certains de ces travaux ont été controversés. Le scientifique chinois He Jiankui a été largement critiqué pour avoir modifié des gènes d’embryons humains afin de les rendre résistants au virus du sida, car les modifications qu’il a apportées pouvaient être transmises de génération en génération avec des conséquences imprévisibles.
Ce sont ces impacts générationnels à long terme qui rendent la jeune science de l’édition génétique si dangereuse. L’un des exemples les plus effrayants est celui de ce qu’on appelle la manipulation génétique. Dans le monde sauvage, un gène a 50 % de chances d’être transmis à la génération suivante. Mais une transmission génétique est transmise à la génération suivante 100 % du temps, et augmente le caractère qu’elle porte chaque fois jusqu’à ce que toute la population d’un organisme porte le gène et le caractère. Les scientifiques ont suggéré que les lecteurs de gènes pourraient être porteurs d’un trait trouvé dans une espèce envahissante de mauvaises herbes qui éradiquerait la résistance de la plante aux pesticides.
L’introduction d’une immunité au virus du SIDA chez les humains pourrait sembler être une bonne idée. Mais les choses peuvent mal tourner, et les implications pourraient aller de nuisibles à horribles, selon les commentaires de Christina Smolke, biologiste synthétique de Stanford, lors d’un panel sur le génie génétique en 2016. Un gène pourrait muter au fil des générations et commencer à permettre à des maladies génétiques comme l’hémophilie ou la drépanocytose de " se propager " pour affecter les générations futures.
Même si la transmission génétique fonctionne comme prévu dans la population d’un organisme, le même trait héréditaire pourrait être nuisible s’il est introduit d’une manière ou d’une autre dans une autre population de la même espèce, selon un article publié dans Nature Reviews par les chercheurs Jackson Champer, Anna Buchman et Omar Akbari de l’Université de Californie Riverside. Selon Akbari, le danger réside dans le fait que les scientifiques créent des transmissions de gènes à huis clos et sans examen par les pairs. Si quelqu’un introduisait intentionnellement ou non une transmission génétique nocive chez les humains, peut-être qu’elle détruirait notre résistance à la grippe, cela pourrait signifier la fin de l’espèce.
La désinformation sous forme de deepfakes
Dans le domaine politique, la désinformation n’est pas une nouveauté. Plus tôt dans notre histoire, on l’appelait cela un " sale coup " et plus tard, " ratfucking " - et on parlait de publier une histoire diffamatoire sur un adversaire ou de planter un panneau " fermé " à l’extérieur d’un bureau de vote en territoire ennemi.
La technologie a transformé ce genre de choses en un art beaucoup plus inquiétant. Les algorithmes qui permettent d’identifier et d’analyser les images se sont développés au point où il est possible de créer des séquences vidéo ou audio convaincantes montrant une personne qui fait ou dit quelque chose qu’elle n’a pas vraiment fait. Un tel contenu " truqué ", habilement créé et déployé avec le bon sujet au bon moment, pourrait causer de graves préjudices à des individus, voire des dommages calamiteux à des nations entières. Imaginez un deepfake du président Trump, qui se connecte à Facebook pour déclarer la guerre à la Corée du Nord. Ou un deepfake de l’adversaire de Trump en 2020 qui dit quelque chose de désobligeant sur les électeurs noirs.
Les inquiétudes concernant l’ingérence de la haute technologie dans l’élection présidentielle de 2020 sont déjà fortes. Elle pourrait prendre de nombreuses formes, allant du piratage des systèmes de vote aux publicités dans les réseaux sociaux spécialement conçues pour empêcher les groupes cibles de voter. En raison des menaces que posent les deepfakes, Facebook et d’autres entreprises technologique tentent de mettre au point des outils de détection qui permettent de détecter rapidement ces vidéos sur les réseaux sociaux avant qu’elles ne se propagent.
Machines de polarisation basées sur les réseaux sociaux
Les deepfakes sont en partie si dangereux parce que les réseaux sociaux propagent naturellement les messages politiques les plus retentissants. Ce modèle crée plus de pages vues, de mobilisation et de recettes publicitaires, tout en amplifiant et en légitimant les opinions de personnes et de groupes qui, plus tôt dans l’histoire, auraient été considérés comme marginaux. Ajoutez à cela la capacité des annonceurs politiques de viser étroitement les messages politiques auprès de publics qui sont déjà enclins à les croire. Les publicités ne sont pas destinées à persuader, mais plutôt à inciter les électeurs à agir, comme organiser un rassemblement, voter ou simplement cliquer sur partager.
Ces facteurs ont contribué à faire des plateformes de réseaux sociaux de puissantes machines de polarisation politique où les confirmations biaisées sont prépondérantes. Elles sont loin de la " place publique " de la liberté d’expression, du discours politique significatif et du débat dont le PDG de Facebook, Mark Zuckerberg, aime parler. Facebook est un endroit pour échanger des nouvelles et des mèmes avec lesquels vous êtes d’accord, et pour s’ancrer davantage dans la vision du monde politique que vous avez déjà.
Si la politique dans une démocratie est le processus de guider une société par le discours et le compromis, les entreprises technologique comme Facebook font plus de mal que de bien. Pire encore, le refus de Facebook d’assurer la véracité de ses publicités politiques signale que les théories de conspiration et les " faits alternatifs " sont légitimes et normaux. Lorsque des faits fondamentaux du monde sont constamment contestés, il n’y a pas de base de discussion.
Les ordinateurs à intelligence artificielle
Quand vous parlez d’intelligence artificielle, il y a presque toujours quelqu’un pour vous dire des mots apaisants sur la façon dont l’IA fonctionnera avec les humains et non contre eux. C’est peut-être parfaitement vrai maintenant, mais l’ampleur et la complexité des réseaux neuronaux augmentent rapidement. Elon Musk a dit que l’IA est le plus grand danger auquel l’humanité est confrontée.
Pourquoi ? La création et la formation de réseaux neuronaux profonds est un peu comme un art inquiétant, avec des secrets cachés dans une boîte noire trop complexe pour que la plupart des gens puissent comprendre. Les réseaux neuronaux sont conçus dans un processus long et alambiqué pour créer un résultat désiré. Les choix faits au cours de ce processus doivent plus à l’expérience et à l’instinct du concepteur qu’aux normes et principes établis, consolidant ainsi le pouvoir de création de l’IA entre les mains d’un nombre relativement restreint de personnes.
Les préjugés humains ont déjà été formés aux réseaux neuronaux, mais cela peut sembler insignifiant par rapport à ce qui pourrait se produire. Un informaticien mal intentionné pourrait introduire de dangereuses possibilités. Selon Rand Hindi, informaticien et fondateur de Snips.ai, il pourrait être possible pour un intervenant malveillant d’insérer des images dans les données de formation utilisées pour les systèmes de conduite autonome - ce qui pourrait conduire, par exemple, l’IA à décider qu’un trottoir bondé est un bon espace pour conduire.
La plus grande crainte est que les réseaux neuronaux, avec une puissance de calcul suffisante, puissent apprendre à partir de données bien plus rapidement que les humains. Non seulement ils peuvent faire des déductions plus rapidement que le cerveau humain, mais ils sont beaucoup plus évolutifs. Des centaines de machines peuvent travailler ensemble sur un même problème complexe. En comparaison, la façon dont les humains partagent l’information entre eux est terriblement lente et le débit est limitée. Les grandes entreprises de technologie travaillent déjà sur des réseaux neuronaux " productifs " qui traitent des montagnes de données pour créer des résultats complètement nouveaux et inédits, comme des chatbots qui peuvent dialoguer avec des humains ou des compositions musicales originales.
La question de savoir où tout cela mène, et si les humains peuvent suivre, est un sujet de débat. Musk croit que lorsque les IA commencent à apprendre et à raisonner à une échelle de plus en plus grande, une " intelligence " peut se développer quelque part au sein des couches du réseau. « La chose la plus dangereuse - et la plus difficile à manipuler parce que ce n’est pas une chose physique - c’est une intelligence profonde dans le réseau », a déclaré M. Musk lors d’un discours prononcé en juillet devant l’Association nationale des gouverneurs.
Le genre de perception que Musk décrit n’existe pas actuellement, et nous en sommes probablement à des décennies de distance. Mais la plupart des experts croient qu’elle se développera au cours de ce siècle. Selon la réponse globale de 352 chercheurs en IA dans une enquête de 2016, on prévoit que l’IA aura 50 % de chances de dépasser la capacité humaine dans toutes les tâches dans 45 ans.
Juste le début
Ces exemples ne sont que les plus sensationnels des menaces technologiques auxquelles nous sommes confrontés aujourd’hui et à l’avenir. Il y a beaucoup d’autres menaces à court terme dont il faut se préoccuper. À bien des égards, notre technologie et nos entreprises technologiques constituent toujours une menace pour l’environnement. Certaines de nos plus grandes entreprises technologiques, comme Seagate, Intel et la société chinoise Hikvision, le plus grand fournisseur de caméras de surveillance au monde, permettent une augmentation de la surveillance dans le monde entier. L’industrie de la publicité et de la technologie a normalisé la destruction de la vie privée en ligne. Le gouvernement américain ne fait rien pour sécuriser les techniques de vote qui seront utilisées lors des élections de 2020.
Il va falloir améliorer considérablement le partenariat entre le milieu de la technologie et les organismes de réglementation gouvernementaux pour s’assurer que nous restons du bon côté de notre technologie la plus prometteuse.
source :