I tre aspetti dell'entropia

Autore: Mario Miserandino

 

Impiegando il logaritmo di base 2, com'è uso nella teoria dell'informazione, il valore dell'entropia si ottiene direttamente in "bit", unità di misura dell'informazione.

 

Per fare un esempio applicato alla roulette, determiniamo l'entropia dell'informazione contenuta in un singolo lancio di pallina: la probabilità di avere Rosso o Nero è esattamente 1/2 (non considerando lo zero) e chiamando S il valore dell'entropia si ha che:

S = - (1/2 log2 1/2 + 1/2 log2 1/2) = 1

 

Questo ci dice che l'entropia della particolare sorgente "roulette", nell'emissione dell'informazione "Rosso" o "Nero", è di 1 bit.

 

Cioè che se vogliamo sapere se da un lancio di pallina del croupier avremo un determinato colore, ci occorre un'unità d'informazione.

 

Il risultato è ovvio, ma chiarisce come in casi più complessi, il calcolo dell'entropia possa determinare la migliore codificazione di una trasmissione: per esempio, che la fornitura di 2 unità d'informazione sarebbe certamente ridondante ai fini dell'informazione "Rosso" o "Nero".

Ma la conseguenza più importante è che a quanti più colpi avremo assistito per formulare una statistica (cioè tanta più informazione avremo), tanto più attendibile sarà la statistica stessa.

 

Assegnare a un linguaggio un'entropia di n bit, significa affermare che ciascun simbolo del linguaggio contiene un'informazione proporzionale a 1/n (più alta è l'entropia, più scarsa è l'informazione).

 

Facciamo infatti l'esempio di assistere all'uscita dei seguenti 6 colpi di Rosso e Nero:

RRRNNN

e partendo dall'informazione iniziale di 1 bit, vediamo il valore che assume l'entropia:

1° colpo R ? S (entropia) = 1 Bit = 1

2° " R ? " = 1/2 " = 2

3° " R ? " = 1/3 " = 3

4° " N ? " = 1/4 " = 4

5° " N ? " = 1/5 " = 5

6° " N ? " = 1/6 " = 6

 

Osserviamo che il valore S dell'entropia riguardante il Rosso e Nero dell'esempio va diminuendo con l'aumentare dell'informazione (con l'aumentare del n° dei bit).

Dobbiamo però fare anche un'altra importantissima considerazione: al sesto colpo il Rosso e il Nero hanno trovato l'equilibrio, essendo usciti ciascuno 3 volte.

In altre parole, ci sono voluti 6 bit d'informazione con un valore S = 1/6 = 0,125, per imbattersi nell'equilibrio. Vediamo, quindi, che esistono almeno tre ottiche per valutare il concetto di equilibrio nella roulette: quella grafica, quella secondo la teoria dell'informazione e quella fisica.

 

In 6 colpi si è raggiunto graficamente il punto di equilibrio assoluto (0); ma il valore assunto dall'entropia, secondo la teoria dell'informazione, è di 0,125. La termodinamica ci insegna, d'altra parte, che un sistema può tornare alle condizioni iniziali senza degradazione di energia, quindi senza variazione di entropia; e se si compiono più trasformazioni in un sistema, tali da riportare tutte le parti che lo costituiscono allo stato iniziale, allora anche l'entropia riprende il valore originale.

Occorre comprendere che, nella roulette, durante le varie trasformazioni si possono verificare trasmissioni di entropia da una parte all'altra (come nell'esempio, tra il rosso e nero), ma non aumenti di entropia. Durante i successivi spostamenti l'entropia, vista da una ottica prettamente grafica, si muoverà da una parte all'altra dei due colori contrapposti.

 

Il valore termodinamico S dell'entropia del sistema, dunque, evolve verso l'equilibrio senza fare distinzioni fra un colore e l'altro.

In termini pratici, il giocatore dovrà invece fare distinzione fra un tipo e l'altro di colore, tenendo in conto l'entropia: come?.

Ebbene, l'evoluzione del sistema roulette, da un punto di vista grafico, indica che la permanenza personale del giocatore non può essere azzerata alla fine di ogni singola giornata di colpi assistiti, ma dovrà ricominciare il giorno seguente (o la volta seguente), che il giocatore si recherà al Casinò, esattamente da dove l'aveva lasciata la volta anteriore.

Questo perché, graficamente, l'entropia della sua permanenza personale non si azzererà con il termine di ogni singola giornata di gioco, ma tenderà allo zero (all'equilibrio) nell'arco di tutti gli insiemi di gioco ai quali egli assisterà.

Dal punto di vista della fisica, invece, ogni singola giornata dovrà ricominciare da zero, perché le condizioni termodinamiche della "macchina roulette" saranno sensibilmente diverse al termine di ogni singola giornata di funzionamento, rispetto a quelle nelle quali si troverà il giorno seguente, allorchè la ruota ricomincerà a girare da una situazione "a freddo".

 

Si impone, a questo punto, un riepilogo di che cosa abbiamo detto essere la roulette fino ad ora:

 

1) Da un punto di vista termodinamico, è una macchina (dunque un sistema) che produce lavoro, quindi attriti, e che può essere studiata non direttamente con apparecchi di misurazione (cosa impedita, ovviamente, dai Casinò), ma solo statisticamente con la relativa enunciazione di teorie.

 

2) Da un punto di vista puramente matematico, la roulette sembrerebbe imbattibile, per via dell'esistenza della tassa di gioco. Tuttavia, l'errore compiuto dagli studiosi, è di considerare la roulette solo da un'ottica puramente matematica e di non inquadrare l'andamento della probabilità all'interno degli stati fisici attraversati dalla macchina con il trascorrere del tempo.

 

3) La roulette è un sistema "chiuso" e "ciclico" che deve essere considerato, nel suo stato iniziale "a freddo", nel punto di equilibrio termodinamico. La sua entropia, dunque, alla fine del ciclo reale costituito dall'insieme di gioco giornaliero, tornerà allo stato iniziale trattandosi di un sistema "reversibile".

 

4) Al contrario, la permanenza personale del giocatore, non dovrà mai azzerarsi al termine di ogni singola sessione di gioco, ma ogni nuova partita dovrà cominciare con i valori grafici con i quali è terminata quella anteriore.

 

Mario Miserandino