« Compression de données/Introduction » : différence entre les versions

Contenu supprimé Contenu ajouté
Sylenius (discussion | contributions)
Sylenius (discussion | contributions)
Ligne 106 :
Cette technique est fondée sur une idée simple : seul un sous-ensemble très faible de toutes les images possibles (à savoir celles que l'on obtiendrait par exemple en tirant les valeurs de chaque pixel par un générateur aléatoire) possède un caractère ''exploitable et informatif'' pour l'œil. Ce sont donc ces images-là qu'on va s'attacher à coder de façon courte. Dans la pratique, l'œil a besoin pour identifier des zones qu'il existe des ''corrélations'' entre pixels voisins, c'est-à-dire qu'il existe des ''zones'' contiguës de couleurs voisines. Les programmes de compression s'attachent à découvrir ces zones et à les coder de la façon aussi compacte que possible. La norme [[JPEG 2000]], par exemple, arrive généralement à coder des images photographiques sur ''1 bit par pixel'' sans perte visible de qualité sur un écran, ''soit une compression d'un facteur 24 à 1''.
 
Puisque l'œil ne perçoit pas nécessairement tous les détails d'une image, il est possible de réduire la quantité de données de telle sorte que le résultat soit très ressemblant à l'original, voire identique, pour l'œil humain. La problématique de la compression avec pertes est d'identifier les transformations de lil'mageimage ou du son qui permettent de réduire la quantité de donnée tout en préservant la qualité perceptuelle.
 
De même, seul un sous-ensemble très faible de sons possibles est exploitable par l'oreille, qui a besoin de ''régularités'' engendrant elles-mêmes une ''redondance'' (coder avec fidélité un bruit de souffle n'aurait pas grand intérêt). Un codage éliminant cette redondance et la restituant à l'arrivée reste donc acceptable, même si le son restitué n'est pas en tout point identique au son d'origine.