Gestion d'une bibliotheque
La compression des données est un vaste sujet qui a fait l’objet de nombreux ouvrages et articles; elle donne lieu aujourd’hui à de nombreuses recherches en raison des enjeux économiques sous-jacents. Elle est utile en PAO mais elle est une des conditions d’existence du multimédia.
Les domaines mathématiques et informatiques dont la connaissance est nécessaire pour comprendre ces problèmes sont nombreux et complexes : 1. calcul intégral. 2. algèbre linéaire. 3. géométrie fractale. 4. théorie de l’information. 5. théorie des ondelettes. 6. théorie des probabilités,…
On comprendra facilement également que la compression des données a quelque chose à voir avec le fonctionnement de notre système visuel et avec la construction des algorithmes.
On se contentera donc dans ce bref exposé, d’ouvrir un champ de réflexion en indiquant souvent sommairement quelles sont les méthodes utilisées aujourd’hui pour compresser les données et quelles sont celles qui ont des chances de s’imposer demain. * Ce petit exposé est composé de deux parties :
• Les méthodes réversibles (sans perte) :
Je traiterai d’abord un exemple très simple mais qui peut être entièrement expliqué et
Appliqué ici. J’aborderai ensuite les méthodes de codage statistique (algorithmes de
Huffman et de Shanon-Fano) pour terminer par les méthodes dites « à dictionnaire »
(Algorithme LZW)
• Les méthodes irréversibles (avec pertes) :
J’exposerai relativement précisément la compression JPEG en raison de son importance dans nos métiers et je donnerai quelques vues sur l’utilisation des fractales et des ondelettes dans la compression de données.
Avant d’aller plus loin définissons d’abord la compression. Nous dirons que nous avons
Compressé un fichier si nous parvenons à réduire le nombre de digits binaires nécessaires
Pour l’enregistrer.
On mesure l’efficacité de la compression par le taux de compression :
Nombre de digits binaires