Oggi la nostra vita conosce una nuova comprensione dello spazio e del tempo grazie all'impatto delle tecnologie digitali e delle tecnologie di telecomunicazione: smartphone, Internet e dispositivi connessi ci permettono di vivere perennemente online. Tuttavia la comprensione di questa trasformazione richiede di mettere a fuoco il suo momento sorgivo: la nascita della teoria dell'informazione a opera di Claude Shannon.
Sebbene la maggior parte delle teorie prenda forma lentamente, la teoria dell'informazione di Shannon invece è arrivata improvvisa e già pienamente formata in un testo del 1949 che al momento della pubblicazione non attirò molta attenzione. Solo A.W.Burks, in una recensione per Philosophical Review del 1951, aveva intravisto la portata rivoluzionaria del concetto. A suo giudizio la questione meritevole di attenzione era che Shannon sviluppava un concetto di informazione che, con una certa sorpresa, si rivelava un'estensione del concetto termodinamico di entropia.
Il concetto che maggiormente ha cambiato la nostra vita – l'informazione – nasce da una teoria sviluppata a partire da una similitudine con un altro concetto della fisica: l'entropia. Il celebre fisico Maxwell sviluppò l'entropia come un sottotipo di energia: l'energia indisponibile per il lavoro. Riflettendoci, si era reso conto che la termodinamica aveva bisogno di una misura completamente diversa. Questa grandezza, divenuta ora misurabile come la temperatura, diventò un concetto chiave: con l'entropia i "princìpi" della termodinamica potevano essere formulati in modo elegante. Tuttavia l'entropia è rimasto un concetto alquanto arduo e difficile da capire.
Shannon fece una cosa analoga. Rendendo l'informazione qualcosa di connesso all'entropia rese in maniera formalmente elegante la sua teoria dell'informazione rendendola una grandezza misurabile e quindi controllabile. Tuttavia l'informazione porta con sé le difficoltà concettuali dell'entropia. Ai Bell Labs, dove all'epoca Shannon lavorava, si diceva che il matematico statunitense l'avesse presa da John von Neumann, che gliel'aveva consigliata: avrebbe trionfato in qualsiasi discussione perché nessuno l'avrebbe capita fino in fondo. Sebbene Shannon stesso in un'intervista del 1984 abbia smentito la cosa, l'origine del concetto di informazione connesso all'entropia è notevolmente significativo. Concetto elastico ma fosco, ha prodotto un vero e proprio tsunami epistemologico e tecnologico. Ma contemporaneamente ha reso molto incerti i significati che a questa attribuiamo quando parliamo di informazione genetica come di informazione digitale.
(2-Avvenire.it/rubriche/humanity-2-0)
© Riproduzione riservata