./52> umff..
Si on prend un exemple physique c'est assez simple:
-dans le premier cas du gaz, 'a gauche' de température T1 et de pression P1, et à droite le même avec P2, V2 (genre instant t0 où l'ont vient de retier un film qui séparait les deux)
-dans le second cas le même volume que le premier mais uniforme, par exemple le premier système arrivé à équilibre
Bon alors:
-si tu veux transmettre l'information qui caractérise le premier système, t'en a clairement plus (on dira x2 pour faire simple même si ça doit être un peu moins) que dans le second (le système uniforme )
-le premier est structuré (a gauche ça, à droite ça), le second non.( tout pareil partout)
-l'entropie est plus grande dans le second système.
Donc bon c'est qu'un exemple mais ça montre tout de même que quelquechose de plus structuré à une entropie moindre mais contient plus d'informations..
Dans ce sens là, le sens naturelle des choses, la seconde loi, l'augmentation de l'entropie, c'est la perte de l'information
Le problème de la compression, est, je crois, un faux problème: il suffit de représenter ton système structuré dans la base optimale (sans pertes. Type Huffman quoi..) pour celui-ci.
D'ailleurs pour le lien information<->entropie, on définit en maths/info l'entropie justement en théorie de l'information. ( et dans le concept ça ressemble bcp à ce qu'on fait en physique: l'entropie est max quand le système est uniforme, et elle est nulle quand il est complètement déséquilibré, genre un caractère est utilisé à une fréquence de 100% et les autres à 0%.. )
edit: précision