Citation:
Alors là, franchement, je lis une véritable ânerie ! La normalisation ne fais que mettre à 0db les échantillons les plus élevés et la dynamique est parfaitement respectée, puisque c'est une simple "remontée" de niveaux généraux.
Oui et non. Oui la normalisation (en mode peak, pas RMS) remonte le niveau le plus fort du signal à 0dB, mais ne respecte pas forcément la dynamique, car on réencode le signal, et si sur du 24 ou 32bits ça s'entend pas forcément, sur du 16bits, ça peut laisser des traces (on ramène plus de bruit, logique puisque la quantification du signal est plus faible)....
Edit: petite illustrations pour les plus septiques :
imaginez un signal en numérique dont les échantillons sont codés sur 11 valeurs possible (de 0 à 10, 10 pour 0dB par ex.). Prenons un signal qui prenne les valeurs suivantes.
à t : 3 sur 10
à t+1 : 6 sur 10
à t+2 : 4 sur 10
Le niveau le plus fort du signal, c'est la valeur 6, le niveau le plus faible c'est 3, la dynamique est donc de 3.
On normalise ce signal à 0db, il faut donc multiplier toutes les valeurs du signal par 10/6=1.6666666.....
C'est la que les ennuis commencent, car notre signal n'a que 11 valeurs possibles (de 0 à 10), entières, alors que le résultat du calcul du signal normalisé imposerait des valeurs décimales. Du coup, notre signal normalisé doit être "arrondi" pour rentrer dans les valeurs possibles pour le signal :
à t : 3*1.666666...=4.99999... qu'on arrondi à 5 (la, ça va encore)
à t+1 : 6*1.66666...=9.999999 .... qu'on arrondi à 10 (la, ça va encore)
à t+2 : 4*1.666666...=6.666666... qu'on arrondi à 7 (et la l'arrondi fait mal, car on bousille 0.333... de dynamique!!!!).
Résultat des courses : entre t et t+1 on garde la dynamique du signal original (on arrive a peu près au valeurs auxquelles on devait arriver), mais entre t+1 et t+2 on a un souci car au lieu de passer d'une valeur 10 à 6.6, on passe de 10 à 7 (on perd en dynamique)!!
Bref, en 16bits, ça ne s'entend pas trop car au lieu de 10 valeurs possibles pour le signal, on en a 2^16=65536, mais mais le principe reste le même et les erreurs d'arrondi pèsent de la même façon sur la dynamique qui n'est donc pas strictement conservée....
Le test ultime, c'est de prendre un fichier, de le normaliser à 0db puis à -2dB et réitérer une dizaine de fois et la détérioration du signal va vous sauter aux oreilles..... Maintenant, en effet plus la quantification est haute, moins la dégradation de la dynamique lors de la normalisation se fait sentir....
Voila, c'etait mon intervention de non-ingé son, mais de vrai informaticien, pensez en donc ce que vous voulez
!