|
Dictionnaire |
|
Script
furtif
Stealth Script
Un type de script CGI permettant de changer le contenu de
la page en fonction de qui ou de quoi accède au site.
La signature des spiders étant
connue, il est facile de présenter ainsi une page optimisée
et saturée de mots clés aux spiders
et une page classique à tous les internautes humains
Siphonnage
L'utilisation de divers moyens pour voler le trafic d'un autre
site. Les techniques utilisées incluent la copie totale
d'une page d'un site (la page copiée est modifiée
légèrement pour rediriger les visiteurs vers
un site différent) et l'utilisation de mots-clés
ou de phrases-clé appartenant à d'autres sites
Internet. Parfois une société malveillante volera
une page ou le contenu entier d'un site pour les republier
à une adresse différente et les enregistrer
dans un ou plusieurs moteurs afin de causer une perte de trafic
pour le site initial (fake copy listing)
Site, serveur Miroir
Mirror site
C'est la copie multiple de sites ou de pages Web sur différents
serveurs. Les enregistrements
de ces miroirs dans les moteurs améliore le positionnement,
parce que cela augmente artificiellement la pertinence des
pages mais les filtres de moteur
peuvent les retirer, assimilant cela à du spamdexing
Spamdexing
Spoofing
La création ou modification d'un document avec l'intention
de leurrer le spider d'un moteur
et obtenir un meilleur positionnement
(généralement dans les 10 premiers d'une
liste de résultats). Parmi les techniques de spamdexing,
on peut citer la dissimulation,
les répétitions,
le siphonnage ou encore la saturation
de mots clés.
En règle générale, les moteurs savent
sans problème détecter du spamdexing et peuvent
donner un moins bon classement aux pages spammés voire
les delister.
Connaître les techniques de spamdexing et les utiliser
modérément et en cohérence avec le contenu
du site est utile pour optimiser un référencement
Spider
Robot, Araignée, Crawler, Chenille
C'est l'agent du moteur de recherche qui surfe sur la
toile, emmagasine les pages dans l'index et classe les
mots-clés et le texte de chaque page qu'il trouve.
C'est le paramétrage de ces spiders qui fait qu'une
grande partie d'internet n'est pas indexée,
le web invisible
Substitution de Pages
Agent Name Delivery
Processus permettant d'envoyer les spiders
des moteurs vers une page passerelle,
pour diriger ensuite vos visiteurs vers ce que vous voulez
qu'ils voient. Cela se fait en utilisant des scripts
furtifs ou des SSI (Server Side Include) qui permettent
de délivrer un contenu différent à l'internaute
selon la valeur de son HTTP_USER_AGENT. L'IP delivery
permet ainsi d'avoir un contenu différent en fonction
de l'adresse IP du client. C'est très difficile de
découvrir les pages cachées utilisant cette
méthode puisque la page qui s'affiche dépend
de l'adresse IP
Trafic
Fait référence au nombre de visiteurs uniques
(même adresse IP), de hits, d'accès, etc sur
une période donnée. La mesure du trafic se fait
en analysant le fichier log . Ce dernier permet de savoir
d'où l'internaute vient, les pages qu'il a consultées,
les mots-clés qu'il a utilisés dans sa requête,
etc. Il existe de nombreux programmes gratuits pour le suivi
du trafic ou pour analyser un fichier log (voir liens sur
ce site). Le suivi du trafic est une étape essentielle
à l'optimisation du référencement
|
|
|
|
|
|
|
Check-list |
|
Vous savez l'importance de tenir un "carnet
de bord" des différentes opérations
liées au référencement et à
la promotion de votre site. Vous savez que l'analyse de
ce carnet vous permet d'améliorer votre promotion
et donc le nombre de visiteurs sur votre site tant sur le
plan quantitatif que qualitatif |
|
|