ben va remplir des champs dont tu n'a pas connaissance de comment les remplir..

Proud to be CAKE©®™
GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.
(Oups, je croyais que le "m'étonnerait/non" était pour "mais sinon ça risque de marcher ce que j'ai dit ou pas?", lu de travers)
BiHi Le 03/09/2007 à 14:18 Oui sans parler des spams bots bien sûr, qui eux essayent de faire tout ce qu'on veut pas qu'ils fassent. ^^

;)
Mais il peut mettre son spam dans tous les champs.
un robot.txt qui empêche certains UserAgent sera plus simple, non?
Pour le blocage de bots, de toutes façons j'ai décidé de faire autrement => via l'host...
On va bien voir si les crawl.yahoo.* et autres googlebot.* vont être filtrés...
C'est quoi robots.txt dont vous parlez depuis un moment ?

« Quand le dernier arbre sera abattu, la dernière rivière empoisonnée, le dernier poisson capturé, alors vous découvrirez que l'argent ne se mange pas
. »
Nil Le 07/09/2007 à 09:13 Un fichier que tu poses soit à la racine soit dans certains dossiers de ton site Web. Les robots vont lire ce fichier en premier et apprennent ainsi comment se comporter vis à vis du contenu, des liens à suivre, etc. Bien sûr, ça ne fonctionne que si c'est un robot "réglo" (un bot de référencement officiel par exemple), la plupart des robots de dump de sites permettent d'ignorer ces fichiers.