Indici caratteristici
di una
variabile casuale 

Quando le cose diventano troppo complicate, qualche volta ha un senso fermarsi e chiedersi: "Ho posto la domanda giusta?"

Enrico Bombieri

       In alcune situazioni, può essere utile dare una rappresentazione sintetica della distribuzione di una variabile casuale attraverso degli indicatori caratteristici piuttosto che dare una sua rappresentazione completa, mediante la funzione di ripartizione, di massa o di densità di probabilità.
       Spesso è necessaria una descrizione più sintetica della variabile casuale, che tramite pochi valori, ci permette di cogliere le caratteristiche essenziali della distribuzione, quali:
  •  la posizione, cioè il centro della distribuzione di probabilità;
  •  la variabilità, cioè la dispersione della distribuzione di probabilità attorno ad un centro;
  •  la forma della distribuzione di probabilità, considerando la simmetria e la curtosi (pesantezza delle code). 
   
Esistono diversi modi per costruire questi indici.


Valore atteso

     Il valore atteso, che viene chiamato anche media o speranza matematica della distribuzione di una variabile casuale, è un indice di posizione.
     Il valore atteso di una variabile casuale rappresenta il valore previsto che si potrà ottenere in un gran numero di prove. Con la locuzione "gran numero di prove" s'intende un numero sufficientemente grande di prove così che sia possibile prevedere, mediante la probabilità, le frequenze relative dei vari eventi. 

     ● Il valore atteso (o speranza matematica) di una variabile casuale discreta, se la distribuzione è finita, è un numero reale dato dalla somma dei prodotti di ogni valore della variabile casuale per la rispettiva probabilità, cioè:

E(X)= x1 p1 + x2p2+… xnpn =  

       Il valore atteso è dunque una somma pesata dei valori che la variabile casuale assume con pesi le probabilità associate. Può quindi essere negativo o positivo.

       ● Se la variabile casuale discreta, assuma un'infinità numerabile di valori: x1x2,… ,xn,...

E(X)= 

con la condizione che, 
nel caso in cui i valori x1x2,… ,xn,... non siano tutti dello stesso segno (tranne al più un numero finito di essi), la serie sia assolutamente convergente, altrimenti si dice che X non ammette valore atteso.
         
        ● 
Se la variabile casuale è continua, abbiamo :

E(X)= 

con la condizione che, nel caso in cui i valori x1x2,… ,xn,... non siano tutti dello stesso segno (tranne al più un numero finito di essi), è necessario che: , altrimenti si dice che X non ammette valore atteso. Dove f è la funzione di densità della variabile casuale continua.

       Il simbolo E proviene dall'inglese Expectation o Expected value e usualmente si pone:   E(X) = μ


Proprietà del valore atteso: 

1. Se a è una costante reale, allora:

E(aX)=a E(X);    E((aX)=a E(X)

2. Se a è una costante reale, allora:

E(X+a)=E(X)+a, in particolare  E(a)=a
3. Se X e Y sono due variabili casuali, si ha una nuova variabile casuale Z=X+Y i cui valori sono dati dalla somma di tutti i possibili valori xi di X con tutti i possibili valori yk, di Y, con probabilità P(X=xi ,Y=yk)= pik. 

E(Z)= E(X+Y)=E(X) + E(Y)

Questa proprietà si può generalizzare alla somma di n variabili.

4. Se a e b sono costanti reale, allora:

E(aX+bY)=aE(X) + bE(Y)

Questa proprietà si puo estendere anche al caso di combinazioni     lineari di piu di due variabili casuali.

5. Se a è una costante reale, allora: E((aX)2) = a2E(X2)

Esempio 1:

Esperimento: lancio di 2 monete,  con la variabile casuale:
X = numero totale degli esiti "testa". Abbiamo visto nella scheda della funzione di massa, che:

Il valore atteso di X risulta essere:

Esempio 2:

        Per la variabile casuale X= "somma dei due punteggi nel lancio di due dadi", abbiamo:


X

2

3

4

5

6

7

8

9

10

11

12

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

Abbiamo:

Esempio 3:

        Se X è la variabile casuale continua uniforme su [0,a] si ha:

E(X)= 

Esempio 4:

        In una indagine, una compagnia telefonica si è stabilito che la durata (in un ora) dei collegamenti ad Internet dei propri utenti è distribuita come:

f(x) = 6 x (1 – x) per 0 ≤ x ≤ 1

Il valore atteso di questa distribuzione è:

E(X) = \int_0^1{x \cdot f(x)dx} = \int_0^1{6x^2 \cdot (1-x)dx}\\

Il valore atteso è sempre, un indicatore di posizione della distribuzione, interpretabile come fulcro della stessa. Il valore atteso evidenzia solamente la dimensione del fenomeno descritto dalla variabile casuale, ma non fornisce alcuna informazione sulla sua variabilità, che si sa è una caratteristica di grande importanza. Una misura della variabilità della variabile è la sua varianza.


Varianza 

        Dopo il valore atteso, il parametro più usato per caratterizzare le distribuzioni di probabilità delle variabili casuali è la varianza, la quale indica quanto sono “dispersi” i valori della variabile aleatoria relativamente al suo valore medio. Data una variabile casuale X qualsiasi sia E(X) il suo valore atteso. Consideriamo la variabile casuale X– E(X),  i cui valori sono le “distanze” tra i valori di X e il valore atteso E(X). Sostituire ad una variabile X la variabile X-E(X) equivale ad una traslazione di sistema di riferimento che porta il valore atteso nell'origine degli assi. 

Osservazione:

    La variabile casuale X - E(X) si chiama scarto, oppure deviazione oppure variabile casuale centrata. Si può dimostrare facilmente che il valore atteso della variabile scarto: X- E(X) vale zero.

    La differenza fra un qualsiasi valore della variabile casuale X e il suo valore attesso può essere positiva o negativa, o nulla. Per quantificare la misura della dispersione dei valori di X occorre rendere sempre positivi i valori di X – E(X), ad esempio considerando la variabile casuale : (X - E(X))2. 

V(X) := E((X - E(X))2)

oppure:  

V(X) := E(X2) - (E(X))2

usualmente si pone: V(X) = σ2


     ● La varianza di una variabile casuale X discreta, se la distribuzione è finita:   
\sigma ^2 = V(X) = \sum_{i=1}^{n} (x_{i}-E(X))^{2}\cdot p_i=\sum_{i=1}^{n} (x_{i}- \mu )^{2}\cdot p_i

     ● Se la variabile casuale discreta X, assuma un'infinità numerabile di valori: x1, x2,...,xn,...


\sigma ^2 = V(X) = \sum_{i=1}^{\infty} (x_{i}-E(X))^{2}\cdot P(X=x_i)=\sum_{i=1}^{\infty} (x_{i}- \mu )^{2}\cdot P(X=x_i)

               ●  Se la variabile casuale  X è continua, abbiamo :

\sigma ^2 = V(X) =  \int_ {-\infty}^\infty (x-E(X))^2\cdot f(x)dx=\int_ {-\infty}^\infty (x- \mu )^2\cdot f(x)dx


      La varianza è uguale a zero quando tutti i valori della variabile sono uguali e quindi non c'è variabilità nella distribuzione; in ogni caso è positiva e misura il grado di variabilità di una distribuzione.
  Tanto maggiore è la varianza tanto più i valori sono dispersi. Tanto minore è la varianza tanto più i valori di X sono concentrati attorno al valor medio.
      La varianza viene usata nella teoria delle decisioni come misura della rischiosità di una distribuzione.
    Se due distribuzioni hanno lo stesso valore atteso e varianza diversa, la distribuzione con varianza maggiore è la più rischiosa (lo scarto è maggiore).

Esempio 5:
       
        A e B giocano al lancio dei dadi e puntano entrambi sul pari. Ma A è avverso al rischio e punta solo 1 €, mentre B è “propenso al rischio” e punta 1000 €. La vincita di A è una variabile aleatoria W discreta che assume solo i due valori −1 e 1 con probabilità 1/2, e quella di B è una variabile aleatoria Z che assume i due valori −1000 e 1000 con probabilità 1/2. Sia per A che per B il gioco è “equo”, cioè entrambi vincono mediamente 0 euro, cioè E(W) = E(Z) = 0 ma W, Z sono molto diverse fra loro. La differenza fondamentale fra W e Z è che mentre W assume valori vicini al proprio valore atteso, Z assume valori piuttosto lontani da E(Z).

\mathrm{V(W)=E((W-E(W))^{2})=E(W^2)=\sum_{k\in\{-1,1\}}}k^2\cdot f_W(k) }

                             


\mathrm{V(Z)=E((Z-E(Z))^{2})=E(Z^2)=\sum_{k\in\{-1000,1000\}}}k^2\cdot f_Z(k) }
                          
    Come già anticipato, V(Z) è molto più grande di V(W) ad indicare che Z si discosta da E(Z) molto più di quanto non faccia W da E(W).

Proprietà della varianza:

1. Se X è una variabile casuale costante e pari a c, non c'è dispersione e V(X) = 0. Viceversa, se V(X) = 0, allora X è costante. La varianza non è mai negativa

2.
Se X ammette varianza ed a è una costante reale, allora:

V(aX)=a2V(X)

3. Se X ammette varianza ed a è una costante reale, allora:

V(X+a)=V(X)



Scarto quadratico medio ( o deviazione standard)

Essendo la varianza una quantità di secondo grado rispetto ai valori di X, si usa talvolta, la variabile che è la radice quadrata della varianza: scarto quadratico medio o deviazione standard che ha la peculiarità di essere qualificabile nella stessa unità di misura della variabile casuale X di cui si sta studiando la distribuzione. 

Osservazione:

Nella teoria delle misure, dove una variabile aleatoria X è una misura di un parametro fisico, lo scarto quadratico medio σ  è detto "l'incertezza della misura" e il valore atteso μ : "valore di misura".

Esempio 6:

Esperimento: lancio di 2 monete,  con la variabile casuale:
X = numero totale degli esiti "testa". Abbiamo visto nella scheda della funzione di massa, che:



Nell'esempio 1 abbiamo calcolato il valore atteso: E(X)=1 e dunque la varianza sarà:

Lo scarto quadratico medio, sarà:

Esempio 7:                   

Per la variabile casuale X= "somma dei due punteggi nel lancio di due dadi", abbiamo:


X

2

3

4

5

6

7

8

9

10

11

12

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

Dall'esempio 2 risulta che E(X) = 7 e dunque abbiamo la varianza:

V(X) =\sum_{x} [x-E(X)]^2\cdot P(X=x)=(2-7)^2\cdot \frac{1}{36}+\\

Lo scarto quadratico medio, sarà:
\sigma=\mathrm{\sqrt{ V(X)}=\sqrt{ 5,83}}=2,41

Esempio 8:

Se la variabile casuale X è uniforme su {1,...,n}, cioè =1/n allora:
\mathrm{E(X)= \frac{1+...+n}{n}= \frac{n(n+1)}{2n}= \frac{n+1}{2}
Per calcolare la varianza, abbiamo:



Esempio 9:

calcolare valore atteso  e la varianza 
σ2 per la seguente distribuzione:




Esempio 10:
Sia la variabile casuale X con la funzione di densità :
f_X(x):=\left\{\begin{matrix}x^2+ \frac{1}{6} \; \; \; \;\;\;\;\;\;\;\;\;\;\;\;\;\;per\;   x \in (-1,1)\\\\\; \; \; \; \; 0 \:  \; \; \; \; \; \; \; \; \; \; \; \; \;\: \: \: \:  per \: \: |x|\; \geq  \;1 \end{matrix}\right.
Si calcolino il valore atteso, la varianza, la funzione di ripartizione di X e la probabilità \mathrm{P(X  \geq  0)}.
Abbiamo:

E(X) = \int_{-1}^1{x  f_X(x)dx} = \int_{-1}^1{x(x^2+ \frac{1}{6})dx}\\=\begin{bmatrix} \frac{x^4}{4}+\frac{x^2}{12} \end{bmatrix}_{-1}^1= 0


V(X) = \int_{-1}^1{x^2 \cdot f_X(x)dx} = \int_{-1}^1{x^2(x^2+ \frac{1}{6})dx}\\=\begin{bmatrix} \frac{x^5}{5}+\frac{x^3}{18} \end{bmatrix}_{-1}^1=  \frac{2}{5}+ \frac{1}{9}= \frac{23}{45}=0,511

Per calcolare la funzione di ripartizione , per 


Quindi:

F_X(t) =\begin{cases}\:\:\:0 & per \:\: - \infty < t \leq -1\\\\\:\:\: \frac{t^3}{3}+ \frac{t}{6}+ \frac{1}{2}    & per \:\:\:\:\;\;  -1 < t < 1\\\\\:\:\:1 & per \;\;\;\;\;1 \leq x <+ \infty\end{cases}

Per calcolare la probabilità :


oppure:
P(X \leq t ) = \int_{-1}^t{(x^2 + \frac{1}{6})dx}\\=\begin{bmatrix} \frac{x^3}{3}+\frac{x}{6} \end{bmatrix}_{-1}^t=  \frac{t^3}{3}+ \frac{t}{6}+ \frac{1}{2}
Senza fare i calcoli, si poteva ottenere lo stesso risultato, notando la simmetria della funzione di densità rispetto a 0.

pagina precedente            Torna all'Indice         pagina successiva