Skip to content

Latest commit

 

History

History
170 lines (108 loc) · 7.2 KB

File metadata and controls

170 lines (108 loc) · 7.2 KB

Vettori aleatori

Introduzione vettori di più variabili aleatorie. Nel caso di n=2 è comodo utilizzare tabelle per rappresentare i valori di probabilità.

$$(X_1 , X_2, X_3,...):\Omega \rightarrow \mathbb{R}\times\mathbb{R}\times\mathbb{R}....$$

Funzione densità congiunta

caso discreto: $$f(x,y)= \sum_i \sum_j P(x=X_i,y=Y_j)$$ caso continuo: $$f(x,y)= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} P(x,y) dx dy$$

Densità marginale

Fun Fact: si chiama così perchè (in situazioni con due vettori di dimensione $n=2$) è la probabilità che si trova 'ai margini' della tabella tipicamente utilizzata per rappresentare le probabilità. Molto semplicemente è la probabilità di una delle variabili fissate le altre.

Nel caso n=2: - caso discreto: $$fx_i(x) = \sum_{y} f(x_i,y)$$ - caso continuo: $$f_{x_i}(x)=\int _{-\infty}^{+\infty}f(x,y)dy$$

Funzione di ripartizione congiunta

$$F(x,y)=P(X\le x,Y\le y)$$

caso discreto: $$F(x,y)= \sum_{x<X} \sum_{y<Y}f(x,y)$$

caso continuo: $$F(x,y)= \int_{-\infty}^{X} \int_{-\infty}^{Y} f(x,y) dx dy$$

Posso ricavare la funzione di ripartizione di x dalla funzione di ripartizione congiunta: $$F_x(x)=\lim_{y\rightarrow \infty}F_{x,y}(x,y)$$

Momenti

Sia X una v.a. ass. cont. o discreta tale che $|X^k|$ ammetta valore atteso. Il numero $\mathbb{E}[X^k]$ è detto momento k-esimo.

Generatrice dei momenti

Funzione generatrice degli eventi, dove il momento n-esimo è la derivata ennesima della funzione $\phi$. caso discreto:

$$\phi(X)=\sum _x e^{tx}p(x)$$

caso continuo: $$\phi(X) = \int _{-\infty}^{+ \infty}e^{tx}f(x) dx$$

Vettori di v.a. indipendenti

Cosa si intendi per indipendenza? $$f(x,y)=f_x(x)f_y(y)$$

L'indipendenza di vettori aleatori risulta comodo in diversi conti. Come si dimostra/controlla se c'è la dipendenza (nel pratico)? Controlli che il prodotto delle densità marginali (ai margini della tabella) sia uguale al rispettivo elemento dentro la tabella. lo devi fare per ognuno degli elementi, DEVE VALERE PER TUTTI NB: (NB forse scontato ma occhio) negli esercizi risulta particolarmente furbo controllare le caselle dove c'è lo zero ... così che si 'sgama' subito se le variabili non sono indipendenti.

Trasformazioni vettori aleatori

ysy: $$g(x_1, x_2, ...., x_n)=(g(x_1),g(x_2)...,g(x_n))$$ Esempio classicone: v.a. $S$ definita come $S=x+y$ caso discreto: $$f(S)==\sum_x f_{x,y}(x,S -x)$$

caso discreto con v.a. indipendenti: $$f(S)==\sum_x f_{x}(x)f_y(S -x)$$

caso continuo: $$f(S)=\int_{-\infty}^{+\infty}f_{x,y}(x,S-x)dx$$

caso continuo con v.a. indipendenti: $$f(S)=\int_{-\infty}^{+\infty}f_{x}(x)f_y(S-x)dx$$

NB: 'Questo procedimento' è valido per le somme di variabili aleatorie, non confonderti con ad esempio calcolare l'integrale doppio per trovare la funzione di partizione in una 'zona' di piano.

Max E Min di v.a. indipendenti

Sia $max(x)=max(X_1 , ... X_n)$ e $min(x)=min(X_1 ... X_n)$ allora:

$$F_{max}(x)=\prod_{i=1}^{n}F_i(x)$$

$$F_{min}(x)=1-\prod_{i=1}^{n}S_i(x)$$

NB: se i.i.d. (indipendenti identicamente distribuite, cioè stessa legge e stessi parametri) allora: $F_{max}(x)=F_1(x)^n$ e $F_{min}(x)=S_{1}(x)^n$

Valore atteso di funzione di vettori aleatori

Moolto molto gradito il fatto che non è necessario alcun tipo di ragionamento su funzioni o trasformazioni. caso discreto: $$\mathbb{E}[g(x,y)]=\sum_{(x,y)} g(x,y)f(x,y) $$ caso continuo: $$\mathbb{E}[g(x,y)]=\int_{-\infty}^{+\infty}g(x,y)f(x,y)dxdy$$

NB: questi esempi sono fatti con due $n=2$ .. ma ovviamente i vettori possono essere fatti di $n$ variabili aleatorie.

Somma di varie funzioni notevoli

Somma di gaussiane fa gaussiane. Somma di binomiali con p comuni sono ancora binomiali. Somma di v.a. con distribuzione di Poisson (con parametri uguali) sono Poisson con parametri somma di parametri.

Covarianza

Definizione generale: $$Cov(X,Y)=\mathbb{E}[(x-\mu_x)(y-\mu_y)]$$ Definizione che ci piace: $$Cov(X,Y)=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]$$ Da notare come il caso particolare di X=Y corrisponde alla definizione di varianza. $$Cov(X,X)= Var(X)=\mathbb{E}[(x-\mu_x)^2]$$

La covarianza è un 'indice' che indica di quando le variabili si influenzano a vicenda, di quanto variano insieme e quindi della loro reciproca dipendenza.

Se due variabili sono indipendenti allora varrà sicuramente che la $Cov[X,Y]=0$ MA NON VALE VICEVERSA! Se la covarianza è uguale a zero non si può dire nulla! Sulla dipendenza delle variabili.

Indice di correlazione di Pearson

$$p(X,Y)=\frac{Cov[X,Y]}{\sigma _x \sigma_y}$$ l'indice di correlazione di Pearson (anche detto coefficiente di correlazione lineare) tra due variabili aleatorie è un indice che esprime un'eventuale relazione di linearità tra esse. Ha sempre un valore compreso tra +1 e -1, dove +1 e -1 corrispondono alla perfetta correlazione lineare (positiva/negativa) e 0 corrisponde a un'assenza di correlazione lineare.

Media campionaria/empirica

Media empirica delle variabili aleatorie $X_1 , X_2 , ...$ è la variabile aleatoria:$$\bar X=\frac{X_1 + X_2 + X_3 + ... X_n}{n}$$ Per linearità del valore atteso , se tutte le v.a. hanno stessa legge allora: $$\mathbb{E}[\bar{X}]=\frac{1}{n}\sum_{i=1}^{n}\mathbb{E}[X_i]=\mathbb{E}[X_i]$$

Varianza campionaria

$$S^2_n:=\frac{1}{n-1}\sum^n_{i=1}(X_i-\bar X_n)^2$$

Deviazione standard campionaria

$$S_n=\sqrt{S_n^2}$$

Legge debole dei grandi numeri

$$\lim _{n \rightarrow \infty}P(\mid { \frac{\sum X_i }{n} - \mu \mid \le \epsilon )=1}$$ $\forall \epsilon > 0$

Legge forte dei grandi numeri

$$P(\lim _{n \rightarrow \infty} \frac{\sum X_i }{n} = \mu )=1$$

Vettori e matrici

Sia $Y=[Y_1 , Y_2 , Y_3 , Y_4 ..]^T$ vettore aleatorio, allora: $$\mathbb{E}[Y]=\mu=\begin{bmatrix} u_1 \ u_2 \ u_3 \ .... \ . ..\end{bmatrix}$$

Matrice di varianza-covarianza

La matrice $\Sigma$ rappresenta la variazione di ogni variabile rispetto alle altre (inclusa se stessa). È simmetrica.

Gaussiana multivariata

Un vettore aleatorio $X=[X_1 , X_2 , ...]$ si dice gaussiano multivariato $N(\mu,\Sigma)$ se esiste una matrice A tale che $AA^T=\Sigma$ e un vettore $Z=(Z_1, ... , Z_m)^T$ iid $N(0,1)$ tale che $$X=AZ + \mu$$

E' una generalizzazione della distribuzione normale a dimensioni più elevate. La sua importanza deriva principalmente dal fatto che è spesso utilizzata per descrivere, almeno approssimativamente, un qualunque insieme di v.a a valori reali (possibilmente) correlate, ognuna delle quali è clusterizzata attorno ad un valore medio.

Teorema Centrale del Limite

$$\lim _{n \rightarrow \infty} \frac{x - \mu}{\sqrt{\frac{\sigma^2}{n}}} \approx N(0,1)$$

quindi

$$P(\lim _{n \rightarrow \infty} \frac{x - \mu}{\sqrt{\frac{\sigma^2}{n}}}\le \epsilon) \approx \phi(\epsilon)$$

Correzione del continuo

La correzione di continuità è una modifica dell'intervallo di integrazione che si applica quando si approssima una distribuzione discreta con una distribuzione continua (nel nostro caso la normale). La correzione di continuità consiste nell' ampliare / allargare di 0.5 (convenzionalmente) gli estremi dell'intervallo sul quale si integra la densità di probabilità continua usata per approssimare una distribuzione discreta. Con tale correzione, la precisione dell'approssimazione è maggiore.