You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
caso discreto:
$$f(x,y)= \sum_i \sum_j P(x=X_i,y=Y_j)$$
caso continuo:
$$f(x,y)= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} P(x,y) dx dy$$
Densità marginale
Fun Fact: si chiama così perchè (in situazioni con due vettori di dimensione $n=2$) è la probabilità che si trova 'ai margini' della tabella tipicamente utilizzata per rappresentare le probabilità.
Molto semplicemente è la probabilità di una delle variabili fissate le altre.
Nel caso n=2:
- caso discreto:
$$fx_i(x) = \sum_{y} f(x_i,y)$$
- caso continuo: $$f_{x_i}(x)=\int _{-\infty}^{+\infty}f(x,y)dy$$
Funzione di ripartizione congiunta
$$F(x,y)=P(X\le x,Y\le y)$$
caso discreto:
$$F(x,y)= \sum_{x<X} \sum_{y<Y}f(x,y)$$
caso continuo:
$$F(x,y)= \int_{-\infty}^{X} \int_{-\infty}^{Y} f(x,y) dx dy$$
Posso ricavare la funzione di ripartizione di x dalla funzione di ripartizione congiunta:
$$F_x(x)=\lim_{y\rightarrow \infty}F_{x,y}(x,y)$$
Momenti
Sia X una v.a. ass. cont. o discreta tale che $|X^k|$ ammetta valore atteso. Il numero $\mathbb{E}[X^k]$ è detto momento k-esimo.
Generatrice dei momenti
Funzione generatrice degli eventi, dove il momento n-esimo è la derivata ennesima della funzione $\phi$.
caso discreto:
$$\phi(X)=\sum _x e^{tx}p(x)$$
caso continuo:
$$\phi(X) = \int _{-\infty}^{+ \infty}e^{tx}f(x) dx$$
Vettori di v.a. indipendenti
Cosa si intendi per indipendenza?
$$f(x,y)=f_x(x)f_y(y)$$
L'indipendenza di vettori aleatori risulta comodo in diversi conti.
Come si dimostra/controlla se c'è la dipendenza (nel pratico)?
Controlli che il prodotto delle densità marginali (ai margini della tabella) sia uguale al rispettivo elemento dentro la tabella. lo devi fare per ognuno degli elementi, DEVE VALERE PER TUTTI
NB: (NB forse scontato ma occhio) negli esercizi risulta particolarmente furbo controllare le caselle dove c'è lo zero ... così che si 'sgama' subito se le variabili non sono indipendenti.
Trasformazioni vettori aleatori
ysy: $$g(x_1, x_2, ...., x_n)=(g(x_1),g(x_2)...,g(x_n))$$
Esempio classicone:
v.a. $S$ definita come $S=x+y$
caso discreto:
$$f(S)==\sum_x f_{x,y}(x,S -x)$$
caso discreto con v.a. indipendenti:
$$f(S)==\sum_x f_{x}(x)f_y(S -x)$$
caso continuo:
$$f(S)=\int_{-\infty}^{+\infty}f_{x,y}(x,S-x)dx$$
caso continuo con v.a. indipendenti:
$$f(S)=\int_{-\infty}^{+\infty}f_{x}(x)f_y(S-x)dx$$
NB: 'Questo procedimento' è valido per le somme di variabili aleatorie, non confonderti con ad esempio calcolare l'integrale doppio per trovare la funzione di partizione in una 'zona' di piano.
Max E Min di v.a. indipendenti
Sia $max(x)=max(X_1 , ... X_n)$ e $min(x)=min(X_1 ... X_n)$ allora:
$$F_{max}(x)=\prod_{i=1}^{n}F_i(x)$$
$$F_{min}(x)=1-\prod_{i=1}^{n}S_i(x)$$
NB: se i.i.d. (indipendenti identicamente distribuite, cioè stessa legge e stessi parametri) allora: $F_{max}(x)=F_1(x)^n$ e $F_{min}(x)=S_{1}(x)^n$
Valore atteso di funzione di vettori aleatori
Moolto molto gradito il fatto che non è necessario alcun tipo di ragionamento su funzioni o trasformazioni.
caso discreto:
$$\mathbb{E}[g(x,y)]=\sum_{(x,y)} g(x,y)f(x,y) $$
caso continuo:
$$\mathbb{E}[g(x,y)]=\int_{-\infty}^{+\infty}g(x,y)f(x,y)dxdy$$
NB: questi esempi sono fatti con due $n=2$ .. ma ovviamente i vettori possono essere fatti di $n$ variabili aleatorie.
Somma di varie funzioni notevoli
Somma di gaussiane fa gaussiane.
Somma di binomiali con p comuni sono ancora binomiali.
Somma di v.a. con distribuzione di Poisson (con parametri uguali) sono Poisson con parametri somma di parametri.
Covarianza
Definizione generale:
$$Cov(X,Y)=\mathbb{E}[(x-\mu_x)(y-\mu_y)]$$
Definizione che ci piace:
$$Cov(X,Y)=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]$$
Da notare come il caso particolare di X=Y corrisponde alla definizione di varianza.
$$Cov(X,X)= Var(X)=\mathbb{E}[(x-\mu_x)^2]$$
La covarianza è un 'indice' che indica di quando le variabili si influenzano a vicenda, di quanto variano insieme e quindi della loro reciproca dipendenza.
Se due variabili sono indipendenti allora varrà sicuramente che la $Cov[X,Y]=0$ MA NON VALE VICEVERSA! Se la covarianza è uguale a zero non si può dire nulla! Sulla dipendenza delle variabili.
Indice di correlazione di Pearson
$$p(X,Y)=\frac{Cov[X,Y]}{\sigma _x \sigma_y}$$
l'indice di correlazione di Pearson (anche detto coefficiente di correlazione lineare) tra due variabili aleatorie è un indice che esprime un'eventuale relazione di linearità tra esse.
Ha sempre un valore compreso tra +1 e -1, dove +1 e -1 corrispondono alla perfetta correlazione lineare (positiva/negativa) e 0 corrisponde a un'assenza di correlazione lineare.
Media campionaria/empirica
Media empirica delle variabili aleatorie $X_1 , X_2 , ...$ è la variabile aleatoria:$$\bar X=\frac{X_1 + X_2 + X_3 + ... X_n}{n}$$
Per linearità del valore atteso , se tutte le v.a. hanno stessa legge allora:
$$\mathbb{E}[\bar{X}]=\frac{1}{n}\sum_{i=1}^{n}\mathbb{E}[X_i]=\mathbb{E}[X_i]$$
La matrice $\Sigma$ rappresenta la variazione di ogni variabile rispetto alle altre (inclusa se stessa). È simmetrica.
Gaussiana multivariata
Un vettore aleatorio $X=[X_1 , X_2 , ...]$ si dice gaussiano multivariato $N(\mu,\Sigma)$ se esiste una matrice A tale che $AA^T=\Sigma$ e un vettore $Z=(Z_1, ... , Z_m)^T$ iid $N(0,1)$ tale che $$X=AZ + \mu$$
E' una generalizzazione della distribuzione normale a dimensioni più elevate. La sua importanza deriva principalmente dal fatto che è spesso utilizzata per descrivere, almeno approssimativamente, un qualunque insieme di v.a a valori reali (possibilmente) correlate, ognuna delle quali è clusterizzata attorno ad un valore medio.
La correzione di continuità è una modifica dell'intervallo di integrazione che si applica quando si approssima una distribuzione discreta con una distribuzione continua (nel nostro caso la normale).
La correzione di continuità consiste nell' ampliare / allargare di 0.5 (convenzionalmente) gli estremi dell'intervallo sul quale si integra la densità di probabilità continua usata per approssimare una distribuzione discreta.
Con tale correzione, la precisione dell'approssimazione è maggiore.