Dans son ouvrage, "L'homme symbiotique", (Editions Points), en 1995, Joël décrivait un macro organisme reliant hommes, ordinateurs et agents intelligents via un réseau informatique. L'ecosystème qui s'est mis en place autour de la recherche sur le web est une des formes de Cybionte les plus abouties.

Tribune publiée sur Moteurzine en avril 2006 dans la rubrique  billet d'humeur

 http://www.moteurzine.com/numero/2006/128/billet-d-humeur.html

 Texte de l'article - Avril 2006

L'industrie du Search et le Cybionte

Par Raphaël Richard

Dans son ouvrage, "L'homme symbiotique", (Editions Points), en 1995, Joël décrivait un macro organisme reliant hommes, ordinateurs et agents intelligents via un réseau informatique. Le Cybionte représentait à la fois une forme d'intelligence collective et un écosystème. Si le principe était séduisant, il était difficile d'imaginer à l'époque les formes concrètes qu'il recouvrirait sur Internet.

Si des dynamiques collaboratives de ce type se sont mises en place dans plusieurs sphères d'Internet, c'est probablement dans ce que l'on nomme désormais l'industrie du Search que le Cybionte voit l'une de ses manifestations les plus abouties, non seulement en raison des milliards de dollars qu'elle représente et des millions d'entreprises et d'emplois qui en dépendent, mais aussi parce l'ingénierie organisationnelle qui soutient ce système est d'une extrême sophistication.

Le coeur du système est évidemment constitué par les moteurs de recherche. A la base du fonctionnement d'un moteur de recherche, on trouve classiquement deux bases: un crawler, robot surpuissant composé de plusieurs centaines de machines qui parcourent en permanence le web et cliquent sur tous les liens qu'il trouve pour photocopier l'ensemble des documents publiés sur le web. De l'autre côté, le robot indexeur réorganise cette information par des processus complexes dit "d'indexation", afin que l'internaute puisse accéder à une liste des informations qu'il recherche après une recherche par mot-clé. Il y a quelques temps encore la différence entre les moteurs se faisait sur l'algorithme de classement, la série de critère de pertinence choisi par chacun d'entre eux. Google a inauguré une nouvelle ère de part l'approche technique qu'il a mise en place. En effet, derrière l'interface simplissime de la home page de Google, le grand public imagine facilement le travail de milliers d'ingénieurs. En revanche, ce qu'il ignore, c'est que ce sont plus de 200 000 ordinateurs branchés en série qui leur fournissent les résultats. 200 000 machines pour 3000 ou 4000 ingénieurs et autant de commerciaux, telle est la réalité de Google fin 2005. C'est le début du Cybionte Search: des centaines de machine qui travaillent toutes seules, vont chercher des informations auprès de millions de serveurs web qui créent le précieux minerai que raffine Google (l'information), filtrent l'information et la redistribuent aux internautes. Certaines machines cartographient le web, d'autres le parcourent, d'autres se spécialisent dans les zones du web qui se renouvellent le plus régulièrement (Google News), d'autres sur la partie ecommerce (Froogle), d'autres filtrent les documents indésirables, d'autres retiennent les adresses des sites qui essaient de polluer le moteur. Ces machines communiquent avec les machines de partenaires de Google, comme celle d'Akamaï, une société qui a installé des milliers d'ordinateurs à travers le monde pour aider Google à augmenter sa vitesse d'affichage de ses pages de résultats.

Mais le plus extraordinaire, c'est qu'autour de ce noyau sont venus se greffer une galaxie d'autres machines, de métiers et un système d'une intelligence incroyable: nous connaissons tous les référenceurs, optimiseurs de visibilité qui décodent les algorithmes de classement confidentiels des moteurs de recherche, d'abord en menant des recherches de façon individuelle, puis en confrontant les résultats des tests qu'ils mènent ou des hypothèses qu'ils formulent avec leurs pairs via des forums ou liste de discussions, des newsletters ou associations offline. Au fil du temps, les référenceurs sont devenus également des webmarketeurs qui analysent les objectifs commerciaux des entreprises qui les mandatent et transforment ces objectifs de chiffre d'affaires en modifications à réaliser sur le code des pages du site, choix d'un système de tracking et nombre de liens à créer pour augmenter des variables abscontes comme le page rank, en se gardant bien que les sites restent trop longtemps dans une certaine sandbox. Pour les appuyer, les référenceurs ont eux-mêmes créer des machines qui parlent avec les robots des moteurs de recherche: certaines de leurs machines espionnent les passages successifs des robots crawlers, d'autres leur interdisent de passer, d'autres comptent le nombre de pages que les robots indexeurs ont accepté, d'autres comptent le trafic renvoyé par les moteurs de recherche sur les sites de leurs clients, d'autres vont même jusqu'à créer des documents conçus uniquement pour être vus des robots crawlers dans le but d'apparaître sur des mots clés dits stratégiques et de renvoyer des flux de visiteurs ainsi captés vers le site de leur client, dont le contenu tel qu'il a été rédigé, paraitraît, lui peu pertinent.

On pourrait comparer ces échanges entre machines aux discussions que les intermédiaires peuvent jouer dans le rôle dans les négociations de haut niveau: certains expliquent les règles, us et coutumes, codes qu'il faut respecter pour être élligibles à l'attribution d'un marché public. D'autres sont payés pour faire profiter l'entreprise désirant remporter le marché, de leur réseau personel. D'autres, enfin, ont recours à des mécanismes moralement condamnables (corruption, comissions occultes). On observe les mêmes valeurs ajoutées positives et les mêmes déviances dans les échanges entre les machines de référenceurs et les machines des moteurs. Ainsi, certains ont inventé des machines à créer des liens pointant vers un site web lorsque certains référenceurs ont découvert que Google aimait les sites qui avaient beaucoup de liens. Donc, d'autres machines ont été inventées afin de suivre l'évolution du nombre de liens vers les sites web. En réponse, Google a inventé des machines qui surveillent les deux familles de machine précédentes afin qu'elles ne biaisent pas sa façon d'évaluer la qualité des documents.

Comme les dizaines de milliers de référenceurs et leurs dizaines de milliers de machines continuaient à essayer de contourner les parades des robots créés par ses ingénieurs, pourtant sans cesse plus perfectionnés, Google a eu recours à l'arme ultime: la création d'une milice à faire la chasse aux documents trop pertinents. Cette milice est composée de "quality managers". Inspiré par leur bible (la légende dit qu'elle a été écrit par un prophète qui reviendra dans 1000 ans), qui définit ce qui est moral de ce qui ne l'est pas en matière de Search, ils parcourent les pages de résultats de Google afin de faire disparaître les sites qui transgressent les règles (probablement car référencés par les black hats, ceux qui sont passés du côté obscur). Cette bible contient une sorte d'ancien testament qui définit les régles dans l'absolu qui permettent de trier le bon grain de l'ivraie, un guide pour savoir ce qui est pêché de ce qui ne l'est pas et une liste d'exemples concrets. Fort de cette légimité, la milice décide de ce qui mérite d'être vu par les internautes de ce qui ne doit plus l'être. Si l'on ne peut nier qu'elle a contribué à faire disparaître un certain nombre de sites très bien référencés mais peu intéressants, la milice a aussi pour consigne de faire disparaître quelques petits sites, moraux, très pertinents mais dont le volume de contenu n'est pas suffisant.

Les affiliés constituent une branche peu reconnue des référenceurs: ces derniers utilisent leur capacité à jouer avec les algorithmes de classement pour augmenter la visibilité et l'audience de leurs propres sites, rafinent ces clics pour les monétiser sous diverses formes: certains encouragent leurs visiteurs issus des moteurs de recherche à cliquer sur les résultats d'autres moteurs de recherche (moyennant quelques centimes d'euros par renvoi), d'autres parviennent à renvoyer les visiteurs sur des clics marchands qui leur rétrocèderont des commissions sur les achats ainsi générés, d'autres enfin revendent directement les clics après les avoir "raffinés". C'est le cas de Kelkoo, lui-même moteur de recherche spécialisé dans les recherches d'ecommerce, dont l'essentiel du trafic (plus de 80%) provient des moteurs de recherche généralistes (via le référencement naturel surtout et les liens sponsorisés dans une moindre partie). Les visiteurs issus de Google et qui passent ensuite par le filtre Kelkoo peuvent ainsi être revendus sous forme "d'essaim" beaucoup plus cher aux sites marchands.

Le développement des liens sponsorisés a engendré une nouvelle branche du Cybionte Search: les account managers parcourent les bases de données recensant les demandes des internautes afin de sélectionner les mots les plus susceptibles de correspondre à des clients potentiels pour les sociétés qui investissent dans ce mode de promotion. Sont-ce des mots avec intention d'achat court terme ou long terme ? Permettent-ils de présumer d'un achat offline ou online ? Comment déterminer le prix d'achat de tel mot sachant que le montant moyen des achats qu'il engendre est de 157,3 euros ? Faut-il accepter de perdre de l'argent en surenchérissant sur ce mot clé pour bloquer le passage aux concurrents moins fortunés ? Pour les aider dans ces tâches délicates à gérer lorsqu'elles concernent plusieurs milliers de mots-clés, les régies qui permettent d'administrer ces liens ont créer des interfaces sans cesse plus perfectionnées. D'autres logiciels, dit "bid management systems", sont venus entrer en contact avec ceux-ci, et permettent aux gestionnaires de liens sponsorisés d'augmenter leur productivité, tout en mettant en place des règles d'enchères leur permettant de réduire, à résultat égal, les investissements dans les liens sponsorisés en descendant les enchères aux heures creuses de l'internet ou en choisissant des stratégies d'investissement fondées tantôt sur le retour investissement court terme, tantôt sur la conquête de part de marché long terme...

Enfin, d'autres logiciels permettent de mener des opérations de veille: veille sur les positions des concurrents dans les moteurs de recherche, sur leur popularité (combien de fois les citent-on sur l'ensemble du web ? Observent-on une forte corrélation avec les valeurs auxquelles ils désirent être associés ?), sur leurs investissements en liens sponsorisés ou sur la popularité de leurs partenaires ou des stars qui les réprésentent.

Ces deux dernières branche ont permis de faire rentrer dans le Cybionte Search, la communication traditionnelle: remplacez cible CSP par mot-clé, audience par nombre de visiteurs et au final, l'achat de liens sponsorisés est relativement proche du monde de l'achat d'espace publicitaire offline. Le Cybionte Search a donc contaminé l'économie offline traditionnelle.

La branche le moins intégrée techniquement à cet écosystème est paradoxalement celle sur laquelle il repose pourtant: les entreprises. Si certaines rejoignent le Cybionte Search car elle perçoivent les moteurs de recherche comme un outil d'image d'accessoire, d'autres dépendent parfois pour plus de 50% de leur chiffre d'affaires des flux commerciaux générés par le search: c'est le cas de quelques pionniers à fort potentiel qui concentrent tous leurs investissements publicitaires pour augmenter la visibilité de leur site dans les moteurs de recherche et conquérir une clientèle à des prix défiant, pour quelques années encore, toute concurrence sur le web européen. Mais c'est aussi le cas de certaines grosses entreprises dans des secteurs comme le tourisme où ne pas être présent sur internet (et donc sur Google) les condamnent à relativement court terme: ne pas rejoindre le Cybionte Search, c'est perdre des clients en nombre suffisamment important pour mourir ou perdre un retard irrécupérable. Certaines paient même des sommes totalement irrationnelles eues égards aux bénéfices attendus pour ne pas perdre la clientèle issus des moteurs de recherche. A l'autre bout de la branche "entreprises" du Cybionte Searche, on peut trouver des micro entrepreneurs des pays en développement, tel ce guide tanzanien qui emmène les touristes au sommet du Kilimanjaro. Du web, il ne connait que deux choses: sa boîte email et les demandes d'informations qui lui parviennent de clients européens qui l'ont localisé par Google.

Personne ne sait combien de machines, d'hommes ou d'entreprises sont reliés au Cybionte Searche, mais tous les jours, il progresse un peu plus et s'intègrent un peu plus dans la vie quotidienne de tout un chacun.

Dans une société de l'information où la capacité à localiser la bonne information est aussi critique celle de la faire passer au bon moment auprès de la bonne cible, le Cybionte Search est, ainsi, destiné à croître et devenir de plus en plus rafiné, en même qu'omniprésent: peut-être demain le Cybionte Search intégra-t-il les données GPS qui permettront d'enquêter sur les individus, les bases de données commerciales afin de qualifier des partenaires commerciaux où encore fera-t-il participer de plus en plus activement les utilisateurs eux-mêmes pour augmenter le champs de ses connaissances.