Gestion d'une bibliotheque

Disponible uniquement sur Etudier
  • Pages : 11 (2520 mots )
  • Téléchargement(s) : 0
  • Publié le : 6 avril 2011
Lire le document complet
Aperçu du document
Compression :
La compression des données est un vaste sujet qui a fait l’objet de nombreux ouvrages et
articles; elle donne lieu aujourd’hui à de nombreuses recherches en raison des enjeux
économiques sous-jacents. Elle est utile en PAO mais elle est une des conditions d’existence
du multimédia.
Les domaines mathématiques et informatiques dont la connaissance est nécessaire pour
comprendreces problèmes sont nombreux et complexes :
1. calcul intégral.
2. algèbre linéaire.
3. géométrie fractale.
4. théorie de l’information.
5. théorie des ondelettes.
6. théorie des probabilités,…
On comprendra facilement également que la compression des données a
quelque chose à voir avec le fonctionnement de notre système visuel et avec la construction
des algorithmes.On se contentera donc dans ce bref exposé, d’ouvrir un champ de réflexion en indiquant
souvent sommairement quelles sont les méthodes utilisées aujourd’hui pour compresser
les données et quelles sont celles qui ont des chances de s’imposer demain.
* Ce petit exposé est composé de deux parties :

• Les méthodes réversibles (sans perte) :
Je traiterai d’abord un exemple très simple maisqui peut être entièrement expliqué et
Appliqué ici. J’aborderai ensuite les méthodes de codage statistique (algorithmes de
Huffman et de Shanon-Fano) pour terminer par les méthodes dites « à dictionnaire »
(Algorithme LZW)
• Les méthodes irréversibles (avec pertes) :

J’exposerai relativement précisément la compression JPEG en raison de son importance
dans nos métiers et je donnerai quelquesvues sur l’utilisation des fractales et des ondelettes
dans la compression de données.
Avant d’aller plus loin définissons d’abord la compression. Nous dirons que nous avons
Compressé un fichier si nous parvenons à réduire le nombre de digits binaires nécessaires
Pour l’enregistrer.
On mesure l’efficacité de la compression par le taux de compression :

Nombre de digits binairesutilisés par l’image originale
Nombre de digits binaires utilisés pour l’image compressée

Il faut queest toujours plus grand que 1 et nous souhaitons qu’il soit le plus grand possible.
Il est plus difficile de mesurer la qualité de la compression.
Essayons. Supposons que nous compressions un fichier composé des données n1, n2, n3… Quandon décompresse le fichier on récupère des données ñ1, ñ2, ñ3,…
Si ñ1 = n1, ñ2 = n2, ñ3 = n3… la compression est sans pertes.
Si certaines valeurs ont été modifiées, il y a perte et il faut essayer de mesurer l’écart entre l’image originale et celle que l’on récupère après compression.
Pour chaque valeur on va faire la différence (ñi – ni) qui peur être positive ou négative. Pour
Que lesdifférences ne s’annulent pas, on va prendre le carré de chaque différence et on
Va en faire la moyenne pour l’ensemble des données, par exemple pour tous les pixels
D’une image.
Nous venons de définir l’erreur quadratique moyenne (EQM), on a :
i=N 2
EQM = 1/N ∑ (ñ - n)
i=1 i i

L’inconvénientde cette méthode de calcul et d’ailleurs de toutes les méthodes « simples »
D’évaluation de la qualité d’une compression, c’est qu’elles ne tiennent pas compte de la
Manière dont nous percevons une image, en particulier elles ne tiennent pas compte de
La répartition spatiale de l’erreur (zones plus ou moins importantes de l’image).

LES METHODES DE COMPRESSION SANS PERTE

Un exemplesimple :

Étudions d’abord un exemple très simple.
Supposons que nous devions essayer de compresser la série d’octets suivante :
0001 0100 0011 1111 0101 0101 0101 0101 0101 0101
0101 0101 1110 1111 0000 1111 1111 1111 1111 1111
1111 1111 1111 1111 1111 1111 0110 0111 0111 0000
0111 0000 1010 1111 0000 0000 0001 1111 0001 1111
0001 1111
Elle compte 21 octets. (Vous pouvez l’interpréter...
tracking img