deep web
Une partie très importante du web est théoriquement indexable, mais non indexée de fait par les moteurs. Certains auteurs3 parlent dans ce cas, pour le web non profond et non indexé, de web opaque (opaque web) ou de web presque visible (nearly visible web).
Le web profond et le web opaque sont accessibles en ligne aux internautes, les deux ne sont pas indexées par les moteurs : le web opaque pourrait être indexé.
Les algorithmes des moteurs étant semblables (par exemple, page rank), les zones indexées se recoupent en partie d'un moteur de recherche à l'autre. Les ressources matérielles des robots d'indexation ne sont pas, malgré des moyens matériels importants, à même de suivre tous les liens théoriquement visibles par eux, que le web (gigantesque) contient.
Une équipe de chercheurs allemands a étudié le comportement des robots d'indexation face à des sites contenant énormément de pages. Ils ont créé un site web composé de 2 147 483 647 pages (231 - 1). Ce site web étant un arbre binaire, il est très profond (il faut au minimum 31 clics pour arriver à certaines pages). Ils ont laissé ce site en ligne, sans le modifier, pendant une année. Les résultats montrent que le nombre de pages indexées pour ce site, dans le meilleur des cas, ne dépasse pas 0,0049 %.
Afin de résoudre ce problème de volumétrie de pages à indexer pour un site donné, le moteur Google a introduit en 2005, le protocole sitemap. Il permet, grâce à la mise à disposition du robot d'un fichier sitemap, de gagner en efficacité pour l'indexation. Ce fichier est mis à la racine du site par l'administrateur du site