Definizione 3.5 (entropia congiunta)
cioè l’entropia relativa all’incertezza della variabile
Z = (X,Y)
Definizione 3.6 (entropia condizionata)
cioè l’entropia relativa all’incertezza di
Y una volta noto il valore assunto da X.
Questa definizione è di immediata deduzione infatti:
Teorema 3.2.3 (regola della catena)
Proposizione 3.2.4. Valgono le seguenti tre proprietà di H: Il risultato (3), nonchè il più importante, discende dalla regola della catena e
dal punto (2), infatti:
per la definizione di probabilità condizionata
cioè l'incertezza dell'evento congiunto è data dall'incertezza su X sommata all'incertezza su Y noto il valore
assunto da X.
Dimostrazione:
(1)
dove
è il numero dei possibili esiti di ;
vale l’uguaglianza se tutti gli esiti possibili sono equiprobabili (questo significa
che la massima entropia si ha per distribuzione di probabilità uniforme)
(2)
e vale l’uguaglianza solo nel caso in cui
siano indipendenti
(3)
e vale l’uguaglianza solo nel caso in cui
siano indipendenti (questo significa che il condizionamento riduce l’entropia,
cioè
può dare solo informazioni su ,
non accrescere la sua incertezza)