Informazione

Generalità

Telecomunicazioni vuol dire trasmissione a distanza di informazioni.
Ma cosa è l’informazione?
Informare è un’espressione che viene dal latino e vuol dire ”dare forma a qualcosa”, modellare cioè, una cosa che prima era informe.
L’opinione che avevamo cioè, su un argomento, era prima indeterminata, confusa, l’informazione, invece, le dà forma.

Oggi, più precisamente, intendiamo per informazione qualunque cosa che sia in grado di eliminare un’incertezza.
Sono informazioni le notizie riportate dai giornali e delle quali, naturalmente, il lettore non era prima al corrente.
In questo modo il giornale comunica al cittadino delle notizie che contribuiscono ad eliminare incertezze ad esempio sulla stabilità dell'euro, sulla politica, sul governo, sulla disoccupazione, ecc.
La corrente elettrica trasmessa da un filo telefonico racchiude l’informazione che un utente vuol comunicare a chi lo ascolta.
Un’immagine televisiva racchiude una grande quantità d’informazioni di vario tipo: forme, colori, movimenti, suoni, dati, ecc.

Oggi, nel campo delle telecomunicazioni, è necessario dare alle informazioni un’unità di misura per effettuare confronti sulla quantità di informazione al fine di ottimizzare la sua velocità di trasmissione.
Come si misura l’informazione? Come si può scegliere la sua unità di misura?
Per rispondere a queste domande bisogna ritornare alla definizione di informazione e cioè qualsiasi cosa che possa eliminare un’incertezza.
Si trasmette maggiore informazione quando si elimina una maggiore incertezza.
Ma quando si ha una maggiore incertezza e quando una minore?
Si ha una maggiore incertezza quando si possono verificare un maggior numero di eventi diversi e si ha una minore incertezza se gli eventi possibili sono di meno.

Dunque si ha maggiore informazione se si comunica un evento molto improbabile e minore informazione se si comunica un evento che poteva realizzarsi con facilità.
La minima informazione allora è la scelta fra due sole possibilità e assume il nome di BIT che è una sintesi delle due parole inglesi Binary digiT che vuol dire cifra binaria.
Dunque si definisce BIT l'unità di informazione intesa come la scelta effettuata fra due soli eventi, simboleggiati di norma, dalle cifre binarie 0 e 1.
Nasce il problema, una volta determinata l'unità di informazione, di misurare la quantità di informazione racchiusa nella scelta fra un numero di possibilità maggiori di due.
La quantità di informazione racchiusa nella scelta di uno fra tanti simboli, è data dal numero di BIT necessari per rappresentare, con le loro varie combinazioni, tutti i simboli dati.
Supponiamo che si debba scegliere fra 8 simboli: i numeri da 0 a 7.
Ebbene, quanti BIT sono necessari per rappresentare 8 numeri diversi?
Dalla tabella seguente, nota a tutti gli studiosi di aritmetica binaria, si deduce che la risposta è, naturalmente, 3.

N.  1°bit 2°bit 3°bit 
0 0 0 0
1 0 0 1
2 0 1 0
3 0 1 1
4 1 0 0
5 1 0 1
6 1 1 0
7 1 1 1

 
Questo in quanto:

23 = 8

e quindi:

3 = log2 8

La quantità di informazione, misurata in bit, in questo caso 3, è dunque l'esponente da dare a 2, per ottenere il numero di combinazioni, in questo caso 8, fra le quali si effettua la scelta.

In generale, allora, la quantità Q di informazione racchiusa nella scelta di una fra M possibilità equiprobabili è:

Q = log2M

Se invece gli eventi che possono verificarsi non sono equiprobabili, allora l'informazione connessa alla scelta di uno fra M simboli o eventi è diversa a seconda del simbolo scelto o dell'evento verificatosi in quanto diversamente probabile.
In tal caso si parla di informazione media statistica, assume il nome di Entropia e si indica con la lettera H.
Questo concetto è applicato negli alfabeti delle varie lingue: inglese, francese, tedesco, italiano, ecc. dove i vari caratteri, A, B, C, D, ... sono diversamente probabili, e questa probabilità è diversa nelle varie lingue.

immagine4

La pi rappresenta la probabilità, che è diversa caso per caso, che venga scelto il carattere i-esimo fra M caratteri diversi e non equiprobabili.
Si dimostra invece che se i caratteri diventano equiprobabili, l'Entropia assume il valore massimo possibile, e l'informazione Q, contenuta nella scelta di un carattere fra M equiprobabili, è di nuovo:

Q = log2M 

Nella trasmissione dati e nelle telecomunicazioni di tipo numerico, bisogna studiare tre concetti base:

Questi tre concetti sono strettamente correlati fra loro.

Continua:

Argomenti