Claude Shannon et l'avènement de l'ère numérique


Josselin Garnier

2016 est le centenaire de la naissance de Claude Shannon, qui fut l'un des responsables de la révolution numérique actuelle. John von Neumann, Alan Turing et d'autres visionnaires nous ont donné des ordinateurs, mais c'est Shannon qui a introduit le concept moderne de l'information.

La théorie de l'information est née d'un article en deux parties que Shannon a publié en 1948, quand il était chercheur aux Laboratoires Bell. Il a montré comment la notion jusqu'alors vague d'information pouvait être définie et quantifiée avec précision. Il a établi l'unité essentielle de tous les moyens et canaux d'information : les textes, les communications téléphoniques, les messages radio, les photos, les films… peuvent être codés dans le langage universel des chiffres binaires, ou bits, terme qu'il est le premier à utiliser. Il a mis en avant l'idée que, une fois que l'information était devenue numérique (transformée en une suite de bits), elle pouvait être transmise (ou stockée) avec un taux d'erreur qui pouvait être rendu arbitrairement petit, et ce même si le canal (ou le moyen de stockage) lui-même est imparfait, source de bruit et d'erreur. Ce saut conceptuel a conduit directement à des moyens de communication et de stockage robustes et rapides.

 

Trop de bruit !

 

La théorie de l'information de Shannon a montré que les limites ultimes de capacité de communication (et de stockage) de l'information étaient liées au bruit présent dans les canaux. Au début des années 2000, la recherche sur la théorie de l'information a frôlé ... Lire la suite gratuitement


références

L'information : l'histoire, la théorie, le déluge. James Gleick, Cassini, 2016.
Mathématiques et informatique. Bibliothèque Tangente 52, 2014.