30

ben va remplir des champs dont tu n'a pas connaissance de comment les remplir..
avatar
Proud to be CAKE©®™


GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.

31

y'en a qui font ça très bien, regarde les blogs de yN grin
avatar
All right. Keep doing whatever it is you think you're doing.
------------------------------------------
Besoin d'aide sur le site ? Essayez par ici :)

32

(Oups, je croyais que le "m'étonnerait/non" était pour "mais sinon ça risque de marcher ce que j'ai dit ou pas?", lu de travers)

33

Oui sans parler des spams bots bien sûr, qui eux essayent de faire tout ce qu'on veut pas qu'ils fassent. ^^
avatar
;)

34

Godzil (./30) :
ben va remplir des champs dont tu n'a pas connaissance de comment les remplir..

en l'occurrence pour voter pour un quote y a pas besoin de remplir de champ...

« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)

35

par contre, ils peuvent très bien soumettre un spam en guise de quote cheeky (mais le nom de mes champs est suffisamment stupide pour éviter ça)

36

Mais il peut mettre son spam dans tous les champs.

37

Yoshi Noir (./22) :
Bon maintenant j'ai un autre problème... Empêcher les Googlebots et Yahoobots de venir référencer ma page en cliquant sur les liens de vote angry

J'ai mis en place ceci :

$ip2 = $_SERVER[REMOTE_ADDR];
  if (substr($ip2, 0, 6)=="66.249")
  {
    echo "Die GoogleBot, Die...";
    //initialisation d'une variable flag
  }
  if (substr($ip2, 0, 4)=="74.6")
  {
    echo "Die YahooBot, Die...";
    //la même variable flag...
  }


Malheureusement, si les googlebots sont filtrés, les yahoobots ne le sont pas sorry



Pourquoi prendre le problème à l'envers ?
C'est quoi un robot ?

--> Un lecteur en mode texte de tes pages (excluant le style et les scripts !)

Wouuuala qui est bien ...
suffit d'écrire les choses que tu ne veux pas que les moteurs voyent en javascript :

par exemple
<script>
document.write('<input type="submit" value="Votez" />') ;
</script>


Bon, ok, ça oblige les internautes a activer javascript .... m'enfin bon, vous en connaissez beaucoup de sites aujourd'hui qui ne l'impose pas !


Luis

38

LG666 (./37) :
Bon, ok, ça oblige les internautes a activer javascript .... m'enfin bon, vous en connaissez beaucoup de sites aujourd'hui qui ne l'impose pas !

Il y a plusieurs personnes ici qui n'activent pas le jS pour des raisons de sécurité. Perso, chez moi, il est activé par défaut sur les sites que je ne connais pas. Et certains robots ou scripts sont capables d'interpréter le jS (c'est un peu plus chiant à réaliser, mais pas tant que ça... je le fais pour un script de récupération d'images sur une gallerie, c'est pas la mort à faire). Il n'y a pas vraiment de technique qui fonctionne à 100%.
avatar

39

Nil (./38) :
Il y a plusieurs personnes ici qui n'activent pas le jS pour des raisons de sécurité.

Paranoïaques quand même. JS s'exécute dans un environnement isolé.

40

un robot.txt qui empêche certains UserAgent sera plus simple, non?

41

ExtendeD (./39) :
Nil (./38) :
Il y a plusieurs personnes ici qui n'activent pas le jS pour des raisons de sécurité.

Paranoïaques quand même. JS s'exécute dans un environnement isolé.

Il me semblait que tu en faisais partie grin (A moins que ça ne soit nEUrOO ?)
avatar

42

Pour le blocage de bots, de toutes façons j'ai décidé de faire autrement => via l'host...
On va bien voir si les crawl.yahoo.* et autres googlebot.* vont être filtrés...

43

44

ExtendeD (./39) :
Nil (./38) :
Il y a plusieurs personnes ici qui n'activent pas le jS pour des raisons de sécurité.

Paranoïaques quand même. JS s'exécute dans un environnement isolé.

En théorie seulement, rien ne garantit que ça soit le cas puisque c'est ni prouvé rigoureusement ni un processus séparé qui tournerait dans une sandbox... Je suis prêt à parier qu'il reste pas mal de failles liées au JS genre dans firefox (notamment à cause de l'intégration forte entre moteur javascript et interface), donc si on est franchement parano il vaudrait mieux le désactiver (et si on est encore plus parano il vaut mieux surfer avec netcat trioui)

« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)

45

Pollux (./44) :
il vaut mieux surfer avec netcat trioui.gif )

Tu peux aussi utiliser un client Telnet pour surfer hein trioui² (et pour tous les protocoles basés sur des commandes de type texte)
avatar

46

ah non, telnet c'est plus compliqué comme protocole, ça augmente les risques de failles de sécurité... netcat c'est vraiment juste le minimum pour établir une connection tcp smile

« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)

47

triso
avatar

48

(oui telnet n'est pas une simple ouverture de socket et read/write dessus alors que netcat si smile)
avatar
Proud to be CAKE©®™


GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.

49

Yoshi Noir (./42) :
Pour le blocage de bots, de toutes façons j'ai décidé de faire autrement => via l'host...
On va bien voir si les crawl.yahoo.* et autres googlebot.* vont être filtrés...


Une vieille méthode pour dresser une liste des robots/aspirateurs de sites :

Mettre une image transparent de 1 pixel sur 1 dans un coin de page
avec un lien vers une page "cul de sac à robot" ...
Seuls les robots iront au bout du lien.

A postiori, les logs donneront la liste des "coupables"

50

ou tout simplement jeter un coup d'oeil aux logs HTTP pour voir qui accède à /robots.txt... sinon il y a aussi l'attribut "nofollow" pour dire aux bots de pas suivre un lien smile

« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)

51

C'est quoi robots.txt dont vous parlez depuis un moment ?
avatar
« Quand le dernier arbre sera abattu, la dernière rivière empoisonnée, le dernier poisson capturé, alors vous découvrirez que l'argent ne se mange pas. »

52

Un fichier que tu poses soit à la racine soit dans certains dossiers de ton site Web. Les robots vont lire ce fichier en premier et apprennent ainsi comment se comporter vis à vis du contenu, des liens à suivre, etc. Bien sûr, ça ne fonctionne que si c'est un robot "réglo" (un bot de référencement officiel par exemple), la plupart des robots de dump de sites permettent d'ignorer ces fichiers.
avatar

53

avatar
Proud to be CAKE©®™


GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.