La théorie mathématique de la communication
Claude Shannon;Warren Weaver
Cassini
2018
152 pages
12 €
Pendant la Seconde Guerre mondiale, le mathématicien américain Claude Shannon a participé au projet Sigsaly des laboratoires Bell, qui a débouché sur l’équipement de chiffrement de la voix (Vocoder) ayant permis, entre autres, à Winston Churchill et Franklin Delano Roosevelt de communiquer par téléphone. Au sortir de la guerre, en 1948, c’est à partir de dix années de recherches maintenues secrètes que Shannon peut condenser ses idées en un court traité qui parut dans le Bell System Technical Journal. Il s’y focalise sur la « meilleure » façon de coder l’information qu’un expéditeur souhaite transmettre. Utilisant les outils de la théorie des probabilités, il définit mathématiquement la notion d’information ainsi qu’un moyen précis de la quantifier : il invente le bit. Il développe la notion d’entropie de l’information d’un message comme mesure de l’incertitude, introduisant ainsi l’essence même de la théorie de l’information. Shannon a également montré comment les données pouvaient être « compressées » et comment obtenir une transmission sans erreur.
Ce texte sera republié sous forme de livre en 1949, précédé par un exposé introductif de Warren Weaver. Une première traduction française placera même Weaver au rang de premier auteur ! Aujourd’hui, nous devons remercier les éditions Cassini de rééditer ce traité de Claude Shannon, en le rétablissant comme seul auteur et en reléguant le propos de Weaver à la fin de l’ouvrage pour son intérêt historique. Le style pourra étonner le lecteur habitué aux traités mathématiques modernes : Shannon s’y montre particulièrement pédagogue, ayant avant tout le souci d’être compris.