Fin janvier 2011, Google a confirmé la mise en place de mesures pour enrayer l’augmentation du webspam, c’est-à-dire des résultats correspondant à des sites qui, selon les règles définies unilatéralement par Google, «tromperaient» ses propres algorithmes ou ne respecteraient pas ses normes de qualité. De manière générale, les moteurs de recherche font évoluer leurs systèmes pour identifier, lors de l’indexation, la répétition des « spammy words », les sites hackés, les « content farms », etc.

Si l’objectif poursuivi est incontestablement louable, quelle est, pour autant, la légitimité de ces règles de qualité imposées unilatéralement par les moteurs de recherche ?

Mathieu Prud’homme pour E-commerce mag, le 1er mars 2011