Si vous vous intéressez à l'imagerie en général, vous avez probablement déjà entendu parler du gamma des images (si vous ne savez pas ce que c'est : en gros la relation entre la valeur d'un pixel et la luminosité émise n'est pas linéaire sur les moniteurs CRT ; c'est donc un facteur à prendre en compte quand on fait du traitement d'image).
On sait en général que c'est l'un des paramètres de calibration des écrans, et que certains processus graphiques (antialiasing du texte par exemple) donnent de moins bons résultats quand on ne tient pas compte du gamma. Plus précisément, il faut tenir compte de la fonction de transfert des éléments de la chaîne graphique (appareil photo, scanner, écran, imprimante...) ; le gamma n'est en fait que l'un des ces paramètres. Il y a heureusement des standards pour ça, comme le sRGB.
Mais dans beaucoup de cas, comme le redimensionnment ou l'application d'un flou, on considère souvent que tenir compte du gamma ne produit qu'une différence mineure sur le résultat, et donc qu'on peut faire l'impasse pour économiser du temps de calcul. C'est ce que font beaucoup de logiciels, même professionnels.
C'est ce que je croyais aussi jusqu'à récemment, mais je suis tombé sur des exemples qui montrent des cas où le fait de ne pas tenir compte du gamma change considérablement les choses :
https://spitzak.github.io/conversion/multiply.html
http://www.4p8.com/eric.brasseur/gamma.html
Du coup, ça fait regarder ses softs de graphisme d'un autre œil...