Google fait une erreur et la totalité du web devient "indésirable".
Le 31 Janvier la totalité des sites internet accessibles depuis le moteur se voient affublés de la mention "ce site risque d'endommager votre ordinateur", mention assortie d'une page d'avertissement supplémentaire avant de pouvoir accéder à n'importe quel site. L'erreur n'aura duré qu'une heure. 55 minutes exactement. L'explication vint dans la foulée de la bouche de Marissa Mayer, sur le blog officiel de Google : pour filtrer les sites présentant des malwares (logiciels "espions"), Google travaille avec le consortium StopBadware. C'est ce consortium qui envoie à Google des listes actualisées avec les sites "dangereux", listes que Google fait ensuite remonter dans son index. Et là vint le bug ou plus exactement l'erreur humaine : quelqu'un mit le signe "/" dans le champ prévu pour lister les sites indésirables. Du coup, la totalité du web indexé par Google ... devînt indésirable.
Comme toute mésaventure touchant le géant, tout le mode s'est fait l'écho de cet événement, du blogueur anonyme jusqu'au New-York Times en passant par le gazouillis planétaire.
Il y a plusieurs manières de regarder ce "bug".
Le regarder comme ce qu'il est. C'est à dire une avarie d'un moteur, avarie d'origine humaine, promptement réparée, sans réel préjudice (les sites internet restaient accessibles depuis les autres moteurs même si la majorité des réactions dont j'ai été le témoin numérique cherchaient plutôt à comprendre "pourquoi" Google se mettait à planter plutôt que d'utiliser spontanément un autre moteur pour leur recherche ...).
Le regarder pour ce qu'il donne à voir. Un internet soudainement "effacé", subitement "inaccessible", soudainement "malveillant", subitement "filtré". Internet, somme d'un nombre considérable d'informations et de connaissances, Internet, silo informationnel aux dimensions à peine inimaginables. Internet inaccessible par une seule petite erreur humaine. Tous les sites du Net subitement devenus "indésirables" ou dangereux. Imaginez un seul instant que du jour au lendemain, tous les livres accessibles dans toutes les bibliothèques deviennent, par l'erreur ou la volonté d'un seul, subitement "indésirables" ... Fantasme ?
Le regarder comme la préfiguration d'un fantasme. Celui que nombre d'auteurs de S-F ont usé jusqu'à la corde. Le fantasme du crash mondial. Du Bug de l'en 2000. De la mémoire du monde (numérique) aussi subitement qu'irrémédiablement effacée, ôtée de "nos" mémoires. Machines hypermnésiques instrumentant ou occasionnant l'amnésie planétaire. Ce n'est probablement pas au hasard que ReadWriteWeb parle à propos de ce bug d'un "Epic fail".
L'erreur de Google doit nous interpeller.
Elle doit nous amener à reconsidérer nos usages. A sortir de la métonymie si pregnante qui a fait de cette partie (Google) la représentation du tout (le web).
Elle doit nous amener à nous pencher sur la double dimension du moteur. Un outil d'accès à l'information qui n'est pas l'information. Mais également de plus en plus, une infrastructure qui contient l'information : data centers, fibre optique, centres de données offshore, informatique distribuée. Le géant aujourd'hui ne se contente plus d'embrasser "la" toile, il fait exister "sa" toile, son réseau, son Internet, Le Googlenet.
Et le risque est là.
Le risque que "ceci tue cela". Que l'Internet aux contenus et aux accès préemptés par quelques grands acteurs de l'internet marchand ne se superpose à l'internet public avant que de le l'absorber et de le supplanter. Le risque pour l'usager de perdre toute lisibilité dans les tentatives, accidentelles ou organisées, de filtrage des accès ou des contenus.
Et l'on reparle de la neutralité du net et de la tendance actuelle au filtrage arbitraire.
Ce débat sur la neutralité nécessaire du Net est déjà ancien. Mais il n'a jamais été autant d'actualité. Piotrr sur Homo-Numericus nous livre une revue de presse parfaitement éclairante et accessoirement assez déprimante ... Revue de presse qu'il vous faudra compléter par la lecture du billet rebond d'André Gunthert, lequel renvoie vers le rapport "Enhancing Child Safety & Online Technologies", rapport final du Internet Safety Technical Task Force (également commenté ici), décembre 2008. Extrait du billet d'André :
- "Les conclusions du rapport sont éclairantes. Les problèmes rencontrés en ligne par les mineurs ne sont pas différents de ceux auxquels ils sont confrontés en dehors du web, mais en sont plutôt le miroir. Internet augmente la proportion de contenus illégaux disponibles, mais n'accentue pas nécessairement l'exposition des jeunes à ces contenus. Ceux qui sont le plus susceptibles de les retrouver en ligne sont ceux qui ont déjà des comportements à risques ou des difficultés dans leur vie. Les dynamiques familiales et l'environnement social sont de meilleurs facteurs prédictifs de comportements à risques que l'usage des technologies numériques. Les réseaux sociaux ne sont pas les endroits qui exposent le plus aux déviances. Selon le commentaire qu'en propose Danah Boyd, qui a participé aux travaux de la commission, la question n'est pas «de savoir si internet est sûr ou pas, mais si les enfants vont bien ou pas. Et beaucoup d'entre eux ne vont pas bien.» «Après avoir pris en considération les données, explique-t-elle, je crois fermement qu'il faut arrêter de prendre internet pour la cause, mais au contraire commencer à le voir comme le mégaphone.»"
Les 3 Internets.
Le choix se pose aujourd'hui en ces termes :
- il existe un internet (infrastructure) et un web (contenus) public. C'est celui des origines.
- il existe aujourd'hui un risque de lui voir accolé un Internet et un Web filtré par les états.
- il existe aujourd'hui le risque de voir se développer, à côté, en parallèle ou en collaboration avec le fitlrage des états, un "Internet privé" dont, progressivement, l'essentiel des contenus et des infrastructures appartiendront aux quelques grandes sociétés marchandes se partageant le gâteau de la toute puissante algorythmie calculatoire qui règle et enregistre inexorablement l'ensemble de nos vies numériques.
Moralité : prenons garde aux coupures. D'où qu'elles viennent ...
(Voir aussi l'article d'Ecrans sur le sujet. // Temps de rédaction de ce billet : 45 minutes)
Salut Olivier,
J'ai un pb avec ton analyse : «il existe un internet (infrastructure) et un web (contenus) public. C'est celui des origines.»
Ça cela me parait un fantasme à la Tim Berneers-Lee qui croit la technique neutre. La «neutralité du net» c'est important, mais juste un partage de compétence entre différentes branches industrielles pour une meilleure efficacité technique, économique et sociale de l'ensemble. Ce n'est pas la neutralité de la technique.
Par ailleurs, en théorie au moins dans les sociétés démocratiques l'État est le garant de l'intérêt public. En pratique, on sait bien que celui-ci doit être préservé par des jeux de contre-pouvoir, néanmoins c'est bien sa vocation première, à moins de penser comme les libertariens.
Enfin, le jeu entre la régulation du marché et la réglementation publique sur les thèmes de la censure ou de l'orientation intéressée des contenus est aussi vieux que le développement des médias de masse. Il est logique et inévitable de le retrouver sur le web. Tout média qui nait est vécu par ses promoteurs militant comme une victoire de l'expression libre et l'est en partie puisqu'il permet, un temps au moins, à des acteurs qui étaient privés d'expression publique de prendre la parole. Mais progressivement un nouvel équilibre, une nouvelle routine, s'installe.
Je crois que le bug de Google est une bonne nouvelle, et qu'il montre surtout le danger du monopole.
J'espère ne pas me montrer trop critique, parfois cela est mal interprété par les auteurs des blogues ;-). Mais c'est ma façon de réfléchir tout haut en attendant de reprendre du service, une fois quelques gros dossiers bouclés.
Rédigé par : jm salaun | 02 fév 2009 à 14:30
JMSalaun> salut ! Je n'ai jamais parlé de "neutralité technique". Quand j'écris "il existe un internet (infrastructure) et un web (contenus) public. C'est celui des origines." ce n'est pas un "fantasme", c'est la réalité toute bête.
D'accord sur le reste de ton analyse ("tout média qui naît ...") et sur le fait que le bug de Google est une bonne nouvelle en ce qu'il montre les dangers du monopole. A condition que l'on sache prendre un peu de recul face à ce bug et à ce monopole (ce qui dans ma rapide revue de web ne m'avait pas sauté aux yeux dans les autres journaux et/ou billets s'étant fait écho de ce non-événement).
Finis vite de boucler tes dossiers, le "bloc-notes" de JMS manque depuis déjà trop longtemps dans le PBF (paysage des blogs francophones) :-)
Rédigé par : Olivier Ertzscheid | 02 fév 2009 à 14:43
D'accord avec Olivier, les billets de Jean-Michel nous manquent.
Sur l'analyse, je suis justement tombé sur l'affaire dans l'unique heure de vérité. Je cherchais l'URL d'un site... j'ai immédiatement prévenu le responsable du site ... voilà ma peine.
Mais le site de l'agglomération de Caen avait été classé il y a quelques temps comme "badware" par G. Sans qu'on ne sache jamais pourquoi. Ca c'est plus ennuyeux. Que fait-on si jamais notre site est blacklisté ?
Une dernière remarque, dans tout ses brevets, et donc dans ses algorithmes, Google prévoit un "facteur humain" : une décision peut
modifier le calcul. Pour quelqu'un qui prétend à l'applications "organique" de règles claires, ça fait tâche au milieu du tableau non ?
Mais il s'agissait peut être un travailleur du Googleplex qui voulait effacer ses traces et dont l'expérience a débordé de la cornue (cf Cory Doctorow : Engooglés - http://cfeditions.com/scroogled/ )
Rédigé par : Hervé Le Crosnier | 02 fév 2009 à 21:28