« Compression de données/Codage entropique » : différence entre les versions

Contenu supprimé Contenu ajouté
m Ajout rapide de {{portail}} : + Imagerie numérique ; avec BandeauxPortails
m vocabulaire
Ligne 1 :
Le '''codage entropique''' (ou '''codage statistique à longueur variable''') est une méthode de [[codage de source]] sans pertes, dont le but est de transformer la représentation d'une source de données pour sa [[Compression de données|compression]] et/ou sa transmission sur un [[canal de communication]]. Les principaux types de codage entropique sont le [[codage de Huffman]] et le [[codage arithmétique]].
 
Le codage entropique utilise des statistiques sur la source pour construire un [[code (information)|code]], c'est-à-dire une application qui associe à une partie de la source un mot de code, dont la longueur dépend des propriétés statistiques de la source. On utilise donc en général un [[code à longueur variable]], qui affecteattribue les mots de codes les plus courts aux symboles de source les plus fréquents. Le codage entropique est issu de la [[théorie de l'information]], et traite de ces codes et de leurs propriétés. L'information à coder est représentée par une [[variable aléatoire]] à valeur dans un ''alphabet'' de taille finie. Un résultat important est le [[théorème du codage de source]], qui établit la limite à la possibilité de compression, et établit cette limite comme étant l'[[Entropie_de_Shannon|entropie]].
 
Historiquement développé dans les [[années 1940]]-[[années 1950|50]] avec la théorie de l'information, le codage entropique est devenu une technique fondamentale en [[compression de données]], et est présent dans de nombreux programmes de compression et de [[Normes et standards industriels|norme]]s de [[compression d'image]] et de [[compression vidéo]].