Il suffit de feuilleter les premières pages de l’Information, qui s’ouvre avec une description détaillée de la communication par tambours entre les villages africains, pour comprendre que James Gleick s’est assigné une tâche immense. Pour cerner le concept d’information, il entraîne le lecteur à Babylone et Athènes où Socrate a la nostalgie du temps d’avant l’écriture. Mieux : l’auteur nous transporte dans l’atelier de Babbage, nous fait partager les questionnements d’Ada Lovelace, de Gödel, de Turing, et nous intéresse aux paradoxes de la physique quantique. Tout cela sans étourdir ni perdre le lecteur.
Il y a dans cette histoire l’avant-Shannon et l’après-Shannon. Pour une part, tout ce que l’auteur raconte avant Shannon n’est que pour préparer Shannon : qui a suivi Gleick dans les villages africains comprend le rôle de la redondance dans la protection contre le bruit, qui a vu Morse élaborer son code est prêt à admettre que le contenu d’information d’un message est défini à partir d’une probabilité a priori.
L’après-Shannon, c’est le fabuleux développement de l’informatique et des communications (qui ne doivent pas tout à Shannon, bien sûr, mais qui ne fonctionneraient pas sans les codes correcteurs qu’il a proposés). C’est aussi les sciences humaines prenant le train en marche, avec les premiers balbutiements des sciences cognitives, l’apparition de l’ADN – la molécule d’information par excellence et du code génétique –, les liens établis par Kolmogorov et Chaitin entre information et complexité algorithmique, le rêve de John Wheeler : ramener toute physique à une question d’information.