« Compression de données/Codage entropique » : différence entre les versions

Contenu supprimé Contenu ajouté
m Retrait de 9 liens interlangues, désormais fournis par Wikidata sur la page d:q1345239
Aucun résumé des modifications
Ligne 1 :
Le '''codage entropique''' (ou '''codage statistique à longueur variable''') est une méthode de [[codage de source]] sans pertes, dont le but est de transformer la représentation d'une source de données pour sa [[Compression de données|compression]] et/ou sa transmission sur un [[canal de communication]]. Les principaux types de codage entropique sont le [[codage de Huffman]] et le [[codage arithmétique]].
 
Le codage entropique utilise des statistiques sur la source pour construire un [[code (information)|code]], c'est-à-dire une application qui associe à une partie de la source un mot de code, dont la longueur dépend des propriétés statistiques de la source. On utilise donc en général un [[code à longueur variable]], qui attribue les mots de codes les plus courts aux symboles de source les plus fréquents. Le codage entropique est issu de la [[théorie de l'information]], et traite de ces codes et de leurs propriétés. L'information à coder est représentée par une [[variable aléatoire]] à valeur dans un ''alphabet'' de taille finie. Un résultat important est le [[théorème du codage de source]], qui établit la limite à la possibilité de compression, et établit cette limite comme étant l'[[Entropie de Shannon|entropie]].