Introduciamo alcune nozioni preliminari di probabilità e di teoria dell’informazione.
Definizione 3.3 (probablità condizionata).
Si definisce la probabilità condizionata di y rispetto a x (cioè la probabilità di
sapendo che vale )
Definizione 3.4 (variabili indipendenti). Date variabili aleatorie, si dice che queste sono indipendenti se p(y|x)=p(y), cioè se la probabilità di y non varia sapendo quanto vale x.
Teorema 3.2.1 (Teorema di Bayes).
Siano X,Y variabili aleatorie, allora vale che
Un concetto molto importante per le sue applicazioni alla teoria dell’informazione
è quello di Entropia; intuitivamente si può definire l’Entropia come la
misura dell’incertezza di un certo risultato, ma diamone una definizione
rigorosa.
Consideriamo le seguenti condizioni che deve soddisfare la
misura dell’incertezza di un risultato che denotiamo con
:
(1)
deve essere continua e funzione della distribuzione delle probabilità;
(2)
cioè se un esito presenta due possibili casi allora la misura
dell’incertezza aumenta ed è data dall’incertezza del valore pj e da
quella causata dalla presenza dei due casi.
Uno dei maggiori esponenti della crittografia classica, Claude Shannon, formulò
il seguente teorema:
Teorema 3.2.2.
Sia
una funzione che soddisfi le proprietà di cui sopra, allora
e H(x), con =costante positiva.
Quindi ne segue che possiamo assumere come misura dell’incertezza dell’esito
di :