Aurum. Origine, storia e applicazioni del metallo nobile per eccellenza.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
1. Quando l’Universo …calcola sé stesso!
L’altra faccia dei buchi neri.
(di Fausto Intilla – www.oloscience.com )
Uno dei più grandi misteri inerenti
alla realtà fisica di tutto ciò che è
umanamente osservabile, parafra-
sando ciò che Albert Einstein più di
mezzo secolo fa ebbe a dire, è il
fatto che il “mondo” sia matemati-
camente comprensibile. Tuttavia,
lo stupore per tale mistero si attenua
nel momento in cui comprendiamo
che è proprio la mente umana, ad
essere “programmata” per funzio-
nare secondo la logica matematica.
Ciò che facciamo, in sostanza, è
costruire delle mappe matematiche
per cercare di comprimere l’osservabile e renderlo dunque umanamente
intelligibile. Dunque, l’evoluzione nel campo delle scienze fisiche, ha
potuto compiersi solo grazie ad una costante e parallela evoluzione del
simbolismo dei concetti e delle leggi matematiche, che da parecchi
secoli a questa parte, ha definito la storia del pensiero scientifico e
filosofico del genere umano. Ed è proprio grazie a tali premesse, che
verso la fine del XIX secolo i padri fondatori della meccanica statistica
(Maxwell, Boltzmann e Gibbs) gettarono le basi di ciò che pochi
decenni più tardi avrebbe preso il nome di: teoria dell’informazione.
Già nella prima metà del XX secolo dunque, si iniziò a descrivere i
principi della termodinamica attraverso la teoria dell’informazione (i
cui sviluppi matematici più importanti vennero apportati verso la metà
del secolo scorso, principalmente da C.Shannon, N.Wiener e
H.Nyquist). Se pensiamo ad esempio alle macchine a vapore e alla
grandezza termodinamica che limita la capacità di tali macchine di
compiere lavoro utile, ovvero all’entropia, scopriamo che essa è
proporzionale al numero di bit registrati dalle posizioni e dalle velocità
delle molecole di una determinata sostanza; dunque, in sintesi,
l’entropia è proporzionale al numero di bit di informazione richiesti per
descrivere lo stato microscopico di un sistema (la massima velocità a
cui un sistema fisico può elaborare informazione, è proporzionale alla
2. sua energia; si ricordi inoltre che, con l’accrescere dell’entropia,
aumenta anche lo spazio in cui si possono trovare le particelle, il che
implica una maggiore indeterminatezza della loro posizione ed infine
dunque, la necessità di maggiore informazione). L’entropia quindi non
è da intendersi solo ed esclusivamente come la quantità di energia
termica che non può essere convertita in energia meccanica all’interno
di un sistema chiuso, bensì anche come una misura della quantità di
informazione.
L’entropia è legata all’energia cinetica da una relazione di questo tipo:
maggiore è l’agitazione degli atomi, maggiore è la quantità di
informazione richiesta per descrivere il loro comportamento. La
temperatura dà una misura della relazione tra energia e informazione:
maggiore è la temperatura (agitazione termica), maggiore è l’energia
impiegata dagli atomi per immagazzinare un bit di informazione. Ecco
perché l’entropia aumenta quando si ha un trasferimento di
energia/calore da un corpo caldo a uno freddo: una quantità fissa di
energia (che si conserva) fa immagazzinare più informazione in un
ambiente freddo piuttosto che in uno caldo; mentre quando tutto il
sistema è alla stessa temperatura, l’entropia è massima (la quantità
totale di informazione in un sistema isolato non può decrescere;
secondo il principio di Landauer, se viene cancellata una certa quantità
di informazione in una parte del sistema considerato, ciò significa che
tale informazione non è andata perduta, ma si è semplicemente trasferita
da un’altra parte del sistema. La dinamica dei sistemi fisici conserva
l’informazione).
Di tali scoperte, lo sviluppo della meccanica quantistica ne rafforzò ben
presto le basi scientifiche con l’introduzione del concetto di
informazione quantistica. I bit che costituiscono l’intero universo, sono
dunque dei bit quantistici (o qubit), aventi delle proprietà ben diverse e
molto più significative rispetto ai bit classici. Grazie a questo nuovo
modo di descrivere la realtà (che esula da qualsiasi analisi
convenzionale in cui trovano spazio solo i concetti di forza ed energia),
ovvero grazie alla teoria dell’informazione, si è riusciti a far luce su vari
misteri rimasti per lungo tempo irrisolti (nel campo della meccanica
statistica, ad esempio, si è riusciti a risolvere il famoso paradosso del
“demone di Maxwell”).
Per il solo fatto di esistere, tutti i sistemi fisici memorizzano
informazione e la elaborano evolvendo dinamicamente nel tempo.
Dunque l’intero Universo si può considerare come un immenso e
sconfinato computer quantistico. Qui apro una piccola parentesi
tecnica:
3. Il numero di bit codificabili in una regione limitata, è paragonabile al
numero di stati quantistici possibili in tale regione. Il limite di
Bekenstein determina il limite fondamentale al numero degli stati
quantistici possibili in una regione limitata. Se l’informazione I è legata
al numero degli stati possibili N dall’equazione: I=lnN/ln2 (dunque il
valore dell’informazione è pari al logaritmo in base 2 di N), allora il
limite di Bekenstein alla quantità di informazione codificata all'interno
di una sfera di raggio R e di energia totale E vale:
I < 2πER/(ħcln2); dove I è l’informazione espressa in numero di bit, ħ
“tagliata” è la costante di Planck ridotta (ovvero h/2π), c è la velocità
della luce e ln2 è il logaritmo naturale di 2. Il limite di Bekenstein è in
sostanza una versione relativistica del principio di indeterminazione di
Heisenberg, espressa nel linguaggio della teoria dell’informazione, ed
è una conseguenza dei postulati di base della teoria quantistica dei
campi (QFT). Chiusa parentesi.
Circa quindici anni fa, nel suo libro “Il programma dell’universo”, Seth
Lloyd affermava che: “Ogni singola molecola, ogni atomo, ogni
particella elementare registra bit di informazione. Le interazioni tra
questi frammenti di universo cambiano i rispettivi bit e quindi
modificano l’informazione: in altre parole, l’universo computa. E
siccome il suo comportamento è regolato dalle leggi della meccanica
quantistica, l’universo calcola in modo quantomeccanico e i suoi bit
sono bit quantistici. La storia dell’universo non è che un lungo,
continuo, gigantesco calcolo quantistico. (…) Ma cosa calcola
l’universo? Sé stesso, o meglio la sua evoluzione. Fin dalla sua nascita,
l’universo non ha mai smesso di calcolarsi. I primi risultati erano molto
semplici: le particelle elementari, le leggi fondamentali della fisica.
Con il passare del tempo, aumentava la quantità di informazione
elaborata e di conseguenza anche la complessità dei prodotti della
computazione: galassie, stelle, pianeti. La vita, l’uomo, il linguaggio,
la società, la cultura sono tutti fenomeni che devono la loro esistenza
alla capacità intrinseca della materia e dell’energia di elaborare
informazione. Il fatto che l’universo sappia calcolare spiega uno dei
grandi misteri della natura: come sia possibile che da un insieme di
semplici leggi fisiche, si generino sistemi complessi, tra cui gli esseri
viventi”.
Quando pensiamo alla capacità computazionale dell’universo,
dobbiamo tuttavia essere consapevoli che essa è relativa solo a quella
parte di universo a noi nota, delimitata dall’orizzonte cosmico (dunque
interna a tale orizzonte). L’informazione elaborata al di fuori di questa
regione, non può influire sui calcoli effettuati all’interno a partire dal
4. Big Bang fino ad oggi (in termini di spazio). Rimane comunque il fatto
che, con l’ampliarsi dell’orizzonte cosmico (a causa dell’espansione
dell’universo), i corpi celesti più lontani che riusciamo ad osservare e
le cui immagini rappresentano una realtà antica risalente a circa 14
miliardi di anni fa, in realtà oggi distano dalla Terra più di 42 miliardi
di anni luce! Tenendo conto che la densità media dell’universo
conosciuto è di un atomo di idrogeno per metro cubo, con opportuni
calcoli, scopriamo che nell’universo ci sono circa 10^71 Joule di
energia. Applicando il teorema di Margolus-Levitin1
a tale quantità di
energia, otteniamo il seguente risultato: l’attuale universo, è in grado di
eseguire 10^105 operazioni al secondo! (dopo aver eseguito, durante i
suoi primi 14 miliardi di anni di vita, circa 10^122 operazioni
elementari su 10^92 bit). Ma veniamo alla seconda parte di questo
articolo.
Come abbiamo visto l’universo può essere considerato come un
immenso computer quantistico che continua, da miliardi di anni, a
“calcolare sé stesso”. Tuttavia, esso contiene delle entità fisiche che
per certi versi, potrebbero essere considerate come le forme più
“esotiche” del principio generale secondo cui l’universo registra ed
elabora informazione: i buchi neri. Verso la fine degli anni Novanta del
secolo scorso, L.Susskind, J.Preskill e G.t’Hooft, dimostrarono che la
radiazione uscente dai buchi neri (la cosiddetta radiazione di Hawking)
non è casuale, ma è una forma rielaborata della materia in ingresso (di
ciò, Hawking si convinse solo nel 2004, dopo aver sostenuto per più di
trent’anni che la radiazione in questione, non trasporta informazione su
ciò che è entrato nel buco nero ed è dunque puramente casuale.
Affermando in seguito di aver commesso, in tale contesto, il più grande
errore della sua vita). Dunque, se l’informazione può sfuggire dai buchi
neri (come ritiene attualmente la maggior parte dei fisici teorici), anche
un buco nero è un computer; e la dimensione del suo spazio di memoria
è proporzionale al quadrato della velocità di elaborazione2
(l’aspetto più
significativo di tale risultato, è che esso conduce direttamente al
1
Il teorema di Margolus-Levitin è correlato al principio di indeterminazione di
Heisenberg, che descrive le imprecisioni intrinseche nella misurazione di grandezze
fisiche come posizione e quantità di moto o tempo ed energia. Tale teorema afferma
che il tempo “t” occorrente per invertire un bit dipende dalla quantità E di energia
che si applica. Quanto più questa è elevata, tanto minore può essere il tempo.
2
La costante di proporzionalità è Gh/c^5; che dimostra matematicamente il legame
tra l’informazione e le teorie della Relatività Speciale (velocità della luce c), della
Relatività Generale (costante gravitazionale G) e della meccanica quantistica
(costante di Planck h).
5. principio olografico, secondo il quale il nostro universo apparentemente
tridimensionale, sarebbe in realtà …bidimensionale! Prendendo in
considerazione le leggi di Bekenstein, scopriamo infatti che la massima
quantità di informazione che una qualsiasi regione dello spazio può
contenere, è proporzionale non al suo volume, bensì alla sua area di
superficie). Tale capacità computazionale è dovuta alla natura
quantomeccanica dell’informazione; in assenza di effetti quantistici, un
buco nero non elaborerebbe l’informazione, ma la distruggerebbe
(come riteneva erroneamente Hawking, già negli anni Settanta del
secolo scorso). Se proviamo ad immaginare un buco nero costituito da
un chilogrammo di massa in un volume di raggio pari a 10^-27 metri,
esso in teoria avrebbe una velocità di clock di 10^35 Hertz e una
memoria pari a 10^16 bit. La capacità di memoria totale di un buco nero
è proporzionale all’area della sua superficie. Tutta la materia che
precipita in un buco nero scompare per sempre; tuttavia, durante la sua
“caduta” tutte le particelle che la costituiscono interagiscono l’una con
l’altra eseguendo operazioni di calcolo per un tempo finito. In seguito,
i dati in uscita assumono l’aspetto della radiazione di Hawking. Un
buco nero di un chilogrammo emette questa radiazione e per conservare
energia, riduce la massa, scomparendo in appena 10^-21 secondi. La
lunghezza d’onda di picco della radiazione è pari al raggio del buco
nero (per un buco nero di un chilogrammo, corrisponde a raggi gamma
di estrema intensità; un rivelatore di particelle potrebbe teoricamente
captare questa radiazione e decodificarla). Il tasso a cui i buchi neri
emettono radiazione è inversamente proporzionale alle loro dimensioni,
per cui i buchi neri massicci come quelli situati nel centro delle galassie,
perdono energia molto più lentamente di quanto “assorbano” materia.
Attualmente, le teorie su come si potrebbe decodificare la radiazione di
Hawking, sono molteplici e in questi ultimi venti anni, ci hanno lavorato
sopra fisici del calibro di Gary Horowitz, Juan Maldacena, Anton
Zeilinger, Andrew Strominger, Cumrun Vafa e Leonard Susskind.
Tuttavia, a tutt’oggi, non vi è ancora una risposta definitiva a tale
problema. Ma le più grandi menti della fisica, di certo non disperano e
non demordono, forse inconsciamente o consciamente convinti che, per
dirla con Galileo: “Dietro ogni problema, c’è sempre un’opportunità
da cogliere”.
Fausto Intilla,
21.01.2020