H = –∑ p(x) log p(x) è l’equazione che ha aperto la strada alla rivoluzione digitale. Claude Shannon, ingegnere elettronico dei Bell Labs che studiava come migliorare le comunicazioni a lunga distanza, la pubblicò nel 1949, gettando le basi di quel che oggi si chiama Teoria dell’informazione.
Shannon cercava una soluzione all’inaffidabilità dei segnali analogici usati a quel tempo per comunicare, sostanzialmente inutilizzabili sulle lunghe distanze. Risolse il problema ideando il bit, l’unità di base dell’informazione che, fondato sulla matematica binaria, può prendere la forma solo di uno 0 o di un 1.
Due stati del segnale con una tensione così differente che, anche se deteriorati durante la trasmissione dell’informazione, sarebbero stati più facilmente interpretabili di quelli analogici.
La sua equazione serviva a calcolare l’entropia di un messaggio, ovvero la misura della sua incertezza, che in questo caso può essere definita come una misura dell’informazione contenuta. Ad esempio, il primo sondaggio in vista delle elezioni politiche ha un’entropia alta; in un secondo sondaggio effettuato una settimana dopo (quando più o meno le preferenze degli elettori sono conosciute) è più bassa. Secondo l’equazione di Shannon, un singolo carattere in un alfabeto di 27 caratteri – i 21 dell’italiano più J, K, X, W, Y e lo spazio – ha 4,27 bit di informazione. Senonché, sappiamo che la lettera A è molto più frequente della H, o che dopo la Q viene quasi sempre la U. Così, un singolo carattere può anche essere trasmesso con minor dispendio di bit.
L’equazione di Shannon ha reso possibile il microprocessore, il personal computer e l’internet. Ma ha anche fissato l’impalcatura matematica per la trasmissione dei dati e per la loro compressione sotto forma di acronimi oggi celebri, come Mp3, Jpeg o Avi.
È dai tempi del teorema di Pitagora, che l’umanità ha beneficiato della matematica e della sua misteriosa esistenza. Provate a chiedere a un gruppo di scienziati di tante discipline diverse: la matematica è stata scoperta o inventata? È insita nella natura o è soltanto una creazione umana che però descrive la natura alla perfezione? Vedrete che, molto facilmente, si azzufferanno. «Il miracolo della coincidenza fra il linguaggio della matematica e le leggi della fisica, è un dono meraviglioso che non comprendiamo, né ci meritiamo», scriveva il premio Nobel Eugene Wigner nel 1960.
L’equazione di Shannon ha reso possibile il computer. La Legge di gravità di Isaac Newton ci ha portati sulla Luna. La seconda Legge della Termodinamica ci ha regalato l’automobile e la Relatività generale di Einstein, fra le altre cose, ci ha messo in mano l’energia atomica. Che sia stata scoperta o inventata – decidete voi quale parte prendere – la matematica fa parte del mondo naturale nel quale siamo nati e, sempre di più, di quello digitale che ci siamo costruiti. Insomma, che ce ne accorgiamo o no, siamo immersi nella matematica.
Fino al Medioevo, i matematici occidentali avevano a che fare coi numeri latini, paurosamente inadatti tanto per il conto della spesa che per il calcolo infinitesimale. All’Europa, il mondo della matematica e dell’algebra si spalancò solo con le traduzioni dall’arabo al latino dei testi di Muhammad al-Khwarizmi – un astronomo dell’ottavo secolo con una profonda conoscenza dei numeri indiani – realizzate dall’inglese Robert of Chester, che li aveva reperiti in Spagna. Haec algorismus ars praesens dicitur in qua talibus indorum fruimur bis quinque figuris 0987654321, si legge nella traduzione: «Questa nuova arte è chiamata algoritmo, dove da questa doppia serie di cinque numeri 0987654321 degli indiani noi traiamo molto beneficio». Per chi avesse dubbi sul contributo della civiltà islamica al mondo contemporaneo, l’algoritmo è un fulgido esempio.
Un algoritmo è semplicemente una procedura dove, partendo da un input iniziale, si arriva a un preciso risultato seguendo una serie di instruzioni. Si può dire che esistano anche nel nostro cervello: voglio telefonare, compongo il numero, sento il segnale di occupato, abbasso la cornetta, richiamerò. Ovvero: inizio funzione, richiesta di informazioni, risposta, ricezione, ritorno allo stato di attesa. Gli algoritmi, alla base dei network neurali, vengono usati anche nei circuiti elettrici o negli strumenti meccanici. Ma è nei programmi software che, nel Ventesimo secolo, trovano la loro applicazione più diffusa.
Non c’è bisogno di ricorrere a troppe iperboli. Google, il secondo marchio di fabbrica al mondo (nelle valutazioni di InterBrand) e anche la seconda società al mondo per capitalizzazione di Borsa (460 miliardi di dollari), è nata da un algoritmo, partorito dai giovani Larry Page e Sergey Brin in una stanzetta dell’Università di Stanford.
L’importanza degli algoritmi nella società contemporanea è enorme, e crescente.
C’è un algoritmo dietro i siti di appuntamenti, dietro le raccomandazioni commerciali di Amazon, la pubblicità di Google e il News Feed di Facebook, ma anche dietro i sistemi di sorveglianza, i software di criptaggio e, ovviamente, dietro le tecnologie di compressione dei dati, come i già citati Mp3, Jpeg o Avi. Si stima che ben oltre il 70% delle operazione giornalmente concluse a Wall Street non venga eseguito dagli umani ma dai computer, con il cosiddetto high-frequency trading, che è ovviamente governato dagli algoritmi.
In realtà però, il dominio della matematica sul mondo che ci circonda è appena cominciato.
Il tema caldo del momento si chiama machine learning, l’apprendimento automatizzato. È un sistema fatto di algoritmi che imparano dall’analisi dei dati e sono in grado fare predizioni, perlopiù con stratagemmi di natura statistica. Il machine learning è già largamente utilizzato nei campi più disparati: dalla pubbicità online alle diagnosi mediche, dal riconoscimento della voce o della scrittura al movimento dei robot, dall’analisi finanziaria ai giochi online. Come dimostra l’ondata degli assistenti personali su smartphone (Siri di Apple, Google Now di Google, Cortana di Microsoft) – imperfetti, ma sempre più accurati col passare del tempo – le macchine che apprendono fanno sempre più parte della nostra vita.
Mentre il genere umano inietta artificialmente la matematica nella vita di tutti i giorni, c’è chi sostiene che la matematica è molto, ma molto di più: è la fibra stessa dell’universo. Nel libro «Il nostro universo matematico», Max Tegmark, professore di fisica all’Mit, sostiene che la matematica non descrive semplicemente il cosmo, ma lo crea. «Con la matematica – scrive lo scienziato svedese – abbiamo anticipato la scoperta delle onde radio, di Nettuno e del bosone di Higgs. Galileo diceva che l’universo è un “grande libro” scritto nella lingua della matematica. Io credo che siamo tutti parte di un gigantesco oggetto matematico, di un multiverso così grande da far impallidire gli altri multiversi di cui si è parlato finora». Eh sì, perché Tegmark, sulla base della matematica, sostiene che l’universo non è uno solo, ma tanti. Magari, addirittura infiniti. Ci vorrà tantissimo tempo – secoli o forse millenni – per verificare se questa intuizione sugli universi matematici e paralleli è corretta oppure no (capirete che non è facile). Ma una cosa è certa: se già prima ci eravamo immersi, nel Ventunesimo secolo dipendiamo dalla matematica più che in qualunque altra epoca dell’avventura umana. Figuratevi nel Ventiduesimo.