Depuis le lancement de Google, des dizaines de tentatives pour créer des moteurs de recherche alternatifs ont été lancées, à l’instar du français Qwant. Mais jusqu’à présent, aucun ne parvient à le concurrencer vraiment. Quels sont les ressorts de cette imparable suprématie ? Enquête.
Le moteur de recherche français Qwant fait décidément beaucoup parler de lui. En janvier, l’État français a annoncé qu’il allait être installé par défaut sur tous les ordinateurs des administrations à partir de mai. Et, depuis mars, sur exigence de la Commission européenne, Google doit le proposer lors de la configuration d’Android (son système d’exploitation pour mobile), parmi un trio de moteurs de recherche concurrents (avec DuckDuckGo et Info. com). Tout cela pourrait sonner comme une bonne nouvelle pour l’entreprise française, qui cherche à s’imposer comme alternative à Google. Mais lorsqu’on interroge les spécialistes…
« Qwant est aujourd’hui en état de mort cérébrale. Sept ans après son lancement, ses parts de trafic ne dépassent pas 1 % en France » , lâche Olivier Andrieu, consultant en moteurs de recherche, sur son blog. « L’obligation de l’installer sur les ordinateurs de l’administration n’est peut-être pas le meilleur moyen de convaincre les utilisateurs » , poursuit-il. « Ils sont face à un mur » , déplore, de son côté, Jérôme Bondu, consultant en intelligence économique (lire entretien, p. 53). « Sont-ils aujourd’hui en mesure de concurrencer Google frontalement ? Probablement non » , renchérit Olivier Ertzscheid, maître de conférences en sciences de la communication à l’université de Nantes.
DES DÉBUTS DIFFICILES
Pourquoi est-ce donc si difficile d’inquiéter l’entreprise américaine ? Déjà, pour Qwant, tout était mal parti… Peu après ses débuts en 2013, des internautes se rendent compte que les résultats qu’il renvoie sont identiques ou presque à ceux de Bing, le moteur lancé par Microsoft en 2009, alors que le moteur tricolore promettait une technologie d’indexation « maison ». Aucune explication n’est alors donnée. Il faudra attendre quelques mois pour que le partenariat entre les deux entreprises soit officialisé. « Au départ, l’entreprise n’a pas été honnête dans sa communication » , reproche Marc Longo, un développeur qui a pointé dès 2014 ces anomalies.
Le hic, c’est que plusieurs années après ce démarrage chaotique, la promesse n’est toujours pas tenue. L’an dernier, plusieurs enquêtes, dont une du site NextINpact, ont jeté le doute sur les capacités d’indexation de Qwant.
Pour certaines requêtes très courantes - censées être prises en charge par la technologie propre du moteur alors que les autres étaient déléguées à Bing -la page de résultats renvoyait à des liens de 2017 !
Dans un cahier de doléances interne récupéré par Mediapart et publié en août 2019, 14 employés du centre de Qwant à Nice déploraient qu’ « actuellement, la partie Search [recherche, ndlr] était loin d’être à la hauteur et ne semblait pas être la priorité première » .
Cela n’a pas empêché les pouvoirs publics français, sensibles à l’enjeu de souveraineté technologique, d’investir à ce jour plus de 40 millions d’euros dans le moteur hexagonal via la BEI (25 millions en octobre 2015) et la Caisse des dépôts (15 millions en février 2017).
VINGT ANS D’ACQUIS
En fait, si l’opacité entourant Qwant intrigue, le retard à l’allumage, lui, était largement prévisible, d’après les experts du secteur. « Le web est constitué de plusieurs milliers de milliards de pages qu’il faut explorer en permanence à l’aide de programmes appelés crawlers. Il faut ensuite une capacité de stockage immense pour tenir l’index, sorte de sommaire de l’ensemble. Il faut enfin procéder au ranking, qui consiste à classer les pages en fonction de leur intérêt en s’appuyant, par exemple, sur l’occurrence de certains mots-clés. Une tâche qui demande des algorithmes performants et d’énormes ressources de calcul » , détaille Marc Longo.
Google, lui, a acquis, en vingt ans de domination, une avance technique monumentale. Dès sa création, en 1998, le moteur s’est démarqué de la concurrence par la pertinence de ses algorithmes qui analysaient non seulement les critères internes à la page, comme l’occurrence des mots et leur place dans le texte, mais aussi (et ils étaient les premiers à le faire) des critères externes, comme le nombre de liens renvoyant vers cette page. « Les créateurs de Google ont en quelque sorte appliqué lalogique de la publication scientifique qui veut que plus un chercheur est cité dans d’autres papiers, plus sa crédibilité est grande » , illustre Olivier Andrieu.
Depuis cet algorithme originel baptisé PageRank, les procédures de Google se sont largement complexifiées et prennent à présent en compte plus de 200 paramètres (là où Qwant déclare en utiliser 90).
Ce n’est pas tout. Les algorithmes de Google ont aussi pu s’appuyer sur des moyens de stockage et de calcul sans commune mesure. Le géant de Moun-tain View revendique ainsi un index en centaines de milliards de pages, dont la taille est supérieure à 100 000 000 gigaoctets. Pour rafraîchir cet index, 20 milliards de sites sont crawlés chaque jour.
Quand bien même un concurrent pourrait aligner une force de frappe comparable, comme Microsoft avec Bing, Google possède un atout supplémentaire : « Sa connaissance unique des habitudes et des goûts des utilisateurs » , explique Jérôme Bondu. Une expérience qui lui permet de proposer des résultats plus pertinents sur les requêtes complexes.
D’autant que Google est plus qu’un moteur de recherche : « C’est une galaxie de services, qui maintiennent l’utilisateur captif entre les vidéos sur YouTube, la navigation dans Google Maps, les documents collaboratifs dans Google Docs… » , complète Jérôme Bondu. « Plus nous utilisons ces services, plus nous fournissons de données à Google, qui en retour nous fournit des services plus adaptés » , complète Olivier Ertzscheid.
Face à cette hégémonie, « créer un moteur de recherche à partir de rien est une totale utopie. Le web est devenu trop complexe, et les investissements humains et techniques colossaux » , résume Olivier Andrieu. Le cimetière des moteurs de recherche en témoigne : en France, LeMoteur d’Orange, Exalead…
Là où Google est détrôné
En Russie et en Chine, deux moteurs locaux prennent respectivement 53 % et 80 % des parts de marché. Explication de cette « résistance » : en Russie, Yandex est arrivé cinq ans avant Google et s’avère meilleur en cyrillique ; quant à Baidu, il a mieux compris les usages des internautes chinois et profite que Google est banni de Chine (il existe toutefois des programmes contournant le firewall du gouvernement).
PRIME AU LEADER
Et c’est le même scénario aux États-Unis. Seul Bing, rejeton de Microsoft, peut prétendre au titre de concurrent… alors qu’il peine à capter 5 % des recherches totales !
"C’est propre à l’économie d’internet : le premier qui arrive en position dominante acquiert facilement un monopole au détriment des suivants, car il définit les usages des internautes, qui ont ensuite du mal à basculer vers des services concurrents, même à qualité égale, " , observe Olivier Ertzscheid.
Partant de là, un moteur qui voudrait devenir une alternative sérieuse à Google doit forcément s’appuyer sur la technologie Bing. C’est ce qu’a choisi Yahoo!, numéro 3 mondial avec 1,3 % de parts de marché. Ainsi que plusieurs « méta-moteurs » de recherche, dont l’idée est d’utiliser des technologies existantes, dont celle de Bing, et d’y ajouter des services : compensation de l’impact environnemental (pour Lilo, Ecosia), plus grande protection des données personnelles (pour DuckDuckGo)… « Qwant recourt aussi à cette stratégie, mais de manière transitoire, le temps que sa technologie prenne le relai », observe Olivier Ertzscheid.
Entre juillet et septembre 2019, avant de valider la généralisation de ce moteur dans les administrations, la Direction interministérielle du numérique (Dinum) et l’Agence nationale de la sécurité des systèmes d’information (Anssi) ont procédé à deux audits chez Qwant. Leurs conclusions n’ont pas été rendues publiques, mais d’après le magazine Acteur Public, la société se serait ressaisie.
La part d’indexation en propre de Qwant monterait à 36 %, déléguant donc encore 64 % des requêtes à Bing. Et son index compterait 15 milliards de documents ; le reste, environ 85 milliards de pages, serait stocké sur Azure, un service cloud de… Microsoft.
La course à l’indépendance de Qwant n’est donc pas encore gagnée. Quid de sa promesse d’être « le premier moteur de recherche qui protège les libertés de ses utilisateurs » ? Il est vrai que le moteur n’utilise ni cookies , ni aucun autre outil de suivi dont Google ou Bing sont friands (pour mieux cibler la publicité). Quant au partenariat avec Microsoft, Qwant tronque une partie de l’adresse IP en amont, de sorte que certaines informations personnelles ne puissent pas remonter. Reste à savoir si cet argument suffira à convaincre l’internaute moyen, dont la patience est limitée - d’après des statistiques de Google, une page est abandonnée si elle met plus de trois secondes à se charger entièrement.
Rendez-vous donc dans dix ans pour voir si Qwant aura gagné quelques parts dans ce camembert bien déséquilibré au profit de Google…
« Cette hégémonie rime avec dystopie »
S&V : L’hégémonie de Google est-elle un problème ?
J. B. : Le web a été fondé sur l’idée d’un accès décentralisé à l’information. Or Google canalise à présent 90 % des recherches d’information.
Comme dans une dystopie, la firme a désormais les moyens de les orienter pour les citoyens du monde entier, sans que cela soit vérifiable. Il existe aussi un risque concernant les données personnelles et celles des entreprises. Car les informations collectées par Google sont accessibles aux agences gouvernementales (FBI, CIA, armée) et à la justice américaines, en vertu de deux lois : le Patriot Act et le Cloud Act. Or, en 2013, Edward Snowden, ancien analyste pour les renseignements américains, a révélé que ces informations étaient largement utilisées.
S&V : Quels sont ces risques, concrètement ?
J. B. : Ils sont d’abord économiques. En vertu du Cloud Act, toute entreprise qui héberge des données sur les serveurs de prestataires américains est concernée par les lois des États-Unis : c’est la fameuse « extraterritorialité du droit américain ». Ainsi le Department of justice a déjà utilisé des ressources numériques disponibles sur des serveurs américains pour faire condamner la filiale énergie d’Alstom dans d’autres pays, ce qui aurait contribué à son rachat par General Electric. Or des questions de souveraineté sont en jeu : Alstom construisait les turbines des centrales nucléaires françaises… Sur le plan individuel, Google a désormais accès à un véritable double numérique de ses 4 milliards d’utilisateurs : goûts, situation personnelle, données professionnelles grâce à Gmail, déplacements sur Google Maps…
S&V : Faut-il croire aux alternatives du type Qwant ?
J. B. : Oui et non.
Non, car Qwant ne pourra pas, du jour au lendemain, être aussi bon que Google. Néanmoins, pour des recherches basiques, il est largement suffisant. Et oui, car c’est une tentative de se défaire de ce monopole. Il me semble d’ailleurs normal qu’elle soit soutenue politiquement, surtout à l’échelle européenne. La donnée est le pétrole du XXI e s. et la situation est ubuesque : c’est comme si nous offrions notre pétrole gratuitement à Google et que nous lui achetions l’essence !