CultureMATH. Claude Shannon et la compression des données.
Auteur : Peyré Gabriel
Résumé
L’immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c’est-à-dire à l’aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916 – 24 février 2001), le père fondateur de la théorie de l’information. L’impact de cette théorie sur notre société est absolument colossal. Sur le plan théorique, Shannon a montré que si l’on modélise le message à coder comme étant généré par une sources aléatoire, alors le nombre de bits par symbole minimum pour coder ce message est égal à l’entropie de la source. J’expliquerais la signification et les implications pratiques de ce théorème, et je le démontrerais. J’expliquerais aussi comment on peut calculer efficacement des codes atteignant la borne minimum de l’entropie à l’aide des arbres de Huffman. Un texte grand public (sans les preuves mathématiques) est disponible sur le site Images des mathématiques et les programmes informatiques correspondants sont disponibles en ligne.
Notes
Cette vidéo est sous la rubrique « Cycle de conférences pour les professeurs des classes préparatoires ».
Exposé du 11 mai 2017 de Gabriel Peyré lors de la journée « Les mathématiques de l’information », organisée par le Département de mathématiques et applications (DMA) de l’ENS.
CultureMATH fait partie des Sites Ressources de la Direction de l’Enseignement Scolaire (DESCO) et des Ecoles Normales Supérieures.
Cet article est en libre accès sur le site CultureMATH
Données de publication
Éditeur CultureMATH – ENS Ulm Paris , 2017 Format 1h35
Public visé enseignant Niveau licence Âge 18, 19, 20
Type Film, vidéo Langue français Support internet
Classification