Bien, admettons que ce soit "malhonnête" de donner des chiffres en termes logarithmiques (linéaires en l'entropie) plutôt que linéaires (exponentiels en l'entropie).
Alors oui, je l'avoue, je suis très malhonnête, et en fait la réalité est toute autre : tu as une super méthode qui fait gagner 17% de valeurs de seed en plus, pour plus de 20 octets [je peux aussi passer les tailles en chiffres exponentiels pour être "honnête", ce qui fait 2^20 valeurs si tu préfères

], alors que rand() ne souffre que d'un léger défaut qui fait que la version corrigée a 25500% de valeurs de seed en plus
Et si tu veux, tu peux même faire un seed sur 48 bits ou 64 bits : tu auras un algo 6553500% mieux (resp. 429496729500% mieux), pour un surcoût du même ordre de grandeur (et peut-être même plus faible) que tes fameux 17%. Moi je pense que tu fais une fixation sur cette histoire de "surjectivité" qui est parfaitement ridicule.
Ensuite, pour ce qui est de l'équiprobabilité, ça ne veut rien dire : en supposant qu'on prenne un coefficient assez élevé pour avoir injectivité, il y a équiprobabilité sur l'ensemble des valeurs atteintes... Et il apparaît assez évident que pour n entier, rand^(n) de cet ensemble est plutôt uniforme.
Et je suis parfaitement pour le fait de prendre un randomize() 1392508800% plus efficace que l'actuel, mais les 17% en plus m'ont l'air clairement superflus.