193Fermer195
GoldenCrystalLe 06/06/2014 à 19:42
Folco (./193) :
N'est-ce pas ? Enfin, c'est apple, donc c'est bien, même si c'est nul à chier grin
Non je crois que t'as pas compris, c'est Apple donc faut à tout prix trouver un justificatif qui prouve qu'ils ont repompé la fonction d'ailleurs, même si en fait c'est pas vrai et qu'en plus c'est une fonction anecdotique…
Dans les faits, je pense qu'il faut voir ça de manière plus simple, que ça permet juste à Apple de supporter d'office les langages Unicodes qui n'existent pas encore aujourd'hui… Et ce sans avoir à mettre à jour le compilateur ou même l'OS.
Franchement, ya d'autres moyens de vanter le langage, non ? tongue
Ben justement, je crois que le but n'était pas de "vanter" le langage dans ce qui a été discuté à ce sujet (là où ailleurs). Mais c'est pourtant ce que tu en retiens, étrange, n'est-ce pas ? tongue
L'inférence de type par exemple, il m'a fallu quelque temps pour comprendre qu'en cas de refactoring/réutilisation, ça pouvait faire gagner beaucoup de temps. Une bonne compensation à un côté non-safe qu'on peut craindre au premier abord.
Ouais enfin c'est pas le but initial de l'inférence de type. C'est surtout que ça simplifie énormément l'écriture du code, et ça réduit la densité d'informations en supprimant une information redondante. (i.e. qui est parfaitement déductible par d'autres moyens, soit algorithmiques, soit intellectuels. Donc totalement "safe" d'ailleurs.)
Typiquement, quand tu dois écrire A<B<C, D, E<G, H, I>, J<K>>, L> pour déclarer ta variable, t'as peut être envie de t'en passer, et il est fort probable que cette information syntaxique soit plus une entrave à la lecture et à l'écriture qu'une aide réelle. (L'humain se basera plus facilement sur la sémantique, qui peut certes être trompeuse, là où le compilateur ne se basera que sur l'algorithmique, qui, elle, est toujours être exacte)


Brunni > Le coup de Java qui ne supporte pas le Japonais, ça m'étonne quand même, j'aurais juré que c'était possible. Oo