
Cela dit je me disais justement la même chose l'autre jour avec les logiciels libres à compiler. C'est pas très écologique de gâcher autant de puissance de calcul...
Meowcate (./33) :Du point de vue de ceux qui font des sites, c'est justement un avantage. Probablement pas la raison principale pour utiliser du 100% JS, mais ça m'étonnerait pas que ça pèse dans la balance.
c'est un peu comme si les pages web devenaient, pour un affichage de contenu, du code compilé : on ne peut pas regarder les sources pour comprendre ce qu'on voit.
flanker (./32) :
Un gros problème des sites en JS est que c'est impossible à récupérer pour en faire une copie en local
Meowcate (./33) :
Le JS permet de déléguer au client des modifications qui ne nécessitent pas de recharger la page en passant par le serveur. Même mettre de l'AJAX un peu partout pour s'assurer que la page soit toujours asynchrone, je suis ok. Mais afficher du statique (dès le premier chargement) par le JS, je ne l'explique pas.Comment expliquer cela... c'est un peu comme si les pages web devenaient, pour un affichage de contenu, du code compilé : on ne peut pas regarder les sources pour comprendre ce qu'on voit.
window.open = function() { }; // Oups
target = { method: function(i) { return i+1; } };
(function() {
var copy = target.method;
target.method = function(i) { return copy(i) - i; };
})();
document.eval = function() { }; // We safe, right?
var c = "constructor";
c[c][c]("alert('pwnage');")(); // Nope
Warpten (./35) :Je parle de récupérer de façon automatique des sites complets, pas de copier-coller une page unique ^^flanker (./32) :
Un gros problème des sites en JS est que c'est impossible à récupérer pour en faire une copie en local
Dans Chrome tu peux copier-coller tout le .html dans la console. T'auras pas les images, surtout si ce sont des liens indirects ("/blabla/machin", pas "http://www.mon.super.site.gopher.com/..."), m'enfin.
GoldenCrystal (./37) :Oui, mais il va falloir faire un aspirateur différent pour chaque site (autrement dit, c'est infaisable).
Techniquement, je pense qu'avec un PhantomJS (ou équivalent) tu peux parfaitement construire un aspirateur de site "Web 3.0" fonctionnel ^^
Zerosquare (./45) :
Il dit dans l'article que les TLD sont devenus méfiants à ce sujet, et qu'il a dû se rabattre sur le Laos pour ça.
C'est vrai que l'Unicode dans les noms de domaine ça pose un réel problème, mais d'un autre côté il faut penser à tous les gens dont la langue n'utilise pas l'alphabet latin...
Zerosquare (./45) :C'était interdit là-bas, il a dû aller Laos.
Il dit dans l'article que les TLD sont devenus méfiants à ce sujet, et qu'il a dû se rabattre sur le Laos pour ça.