
Sasume
: On peut utiliser printf pour afficher les long long sur TI ?
Pollux
: Et surtout, The Right Thing est d'utiliser "std::cout<<machin;", pas ces hacks de printf.
GoldenCrystal
: Oué mais il sait pas programmer en C++... (D'ailleurs, la stl n'utilise-t-elle pas les fonctions de la lib c en interne ?)
GoldenCrystal :
Tu racontes vraiment n'importe quoi KevinSi il fallait 10 s pour un simple cout, ça se saurait
Kevin Kofler
:Pollux
: Et surtout, The Right Thing est d'utiliser "std::cout<<machin;", pas ces hacks de printf.
J'appellerais plutôt ça "The Wrong Thing". C'est la manière la plus efficace de faire un "Hello, World!" de plusieurs KO et qui prend 10 secondes.
class ostream { // données internes char *data; int length; ... public: ... operator<<(const char *s) { while (*s) this<<(*s++); return this; } };
Pourquoi le codage arithmétique donne les même résultats que Huffman? Le peu de site que j'ai vu parler de la compression arithmétique souligné ça puissance de coder dans le meilleur des cas un symbole sur 0.15 bits alors que Huffman fait 1 bit
De plus j'ai les même taux en faisant BWT+Huff et BWT+ARI.
Le codage arithmétique peut aussi faire sur 0.1 bits, 0.01 bits, 0.001 bits et même moins que ça
Oui, enfin le codage arithmétique doit au moins être quelques fractions de pourcent plus efficace, non? Enfin tout dépend de la façon dont est réglé ton codage adaptif, évidemment (et si t'as pas les mêmes réglages en Huff et en ARI, c normal que ARI soit moins efficace que ce qu'il devrait être [ou le contraire] )
OK il donne 1% de mieux que Huffman mais c'est vraiment minable, j'attend à ce qu'il fasse mieux.
Ah ok j'ai horreur de voir un code illisible et sans commentaires.
Kevin Kofler :
"Pas adapté aux TIs"? Il donne juste des fichiers 11% plus petits que les 2 ex-meilleurs (PepZip et ttpack) dans mes tests
(je n'ai pas encore testé XPak, mais je crois qu'il est lui aussi battu facilement)
tout cela avec une routine de décompression assez petite (dans les options qu'il donne, j'ai privilégié la taille par rapport à la vitesse comme d'habitude)
une consommation de RAM très faible et une vitesse de décompression raisonnable (à peu près 2 fois le temps de décompression de ttpack - mais il faudra que je fasse des benchs plus précis que de l'à-vue-d'œil sous VTI).
Thibaut B :
Grâce à Kevin plus personne n'utuilisera le format d'exécutables compressés de TIGCC