Skip to content

Latest commit

 

History

History
89 lines (49 loc) · 4.25 KB

File metadata and controls

89 lines (49 loc) · 4.25 KB

Test delle ipotesi

Singola popolazione

Ipotesi statistica

Un'ipotesi statistica è un'affermazione riguardo la media o la varianza di una determinata distribuzione.

Ipotesi nulla $H_0$

Un'ipotesi nulla/alternativa è una coppia di ipotesi nel quale la veridicità di una ipotesi sui campioni esclude l'altra.

Ipotesi semplice e composta

Un'ipotesi semplice è un'ipotesi la quale, se vera con i nostri campioni, ci permette di descrivere completamente la nostra distribuzione. Composta viceversa.

Errore di prima specie e di seconda specie

Un errore di prima specie è quando consideriamo $H_0$ non compatibile con i nostri dati ma in realtà è vera. Un errore di seconda specie è quando accettiamo l'ipotesi $H_0$ compatibile con la popolazione ma in realtà è falsa. Consideriamo gli errori di prima specie più gravi degli errori di seconda.

P-value

P-value è il valore più basso di $\alpha$ per cui non accettiamo la nostra ipotesi $H_1$, quindi per $\alpha$ maggiori del p-value continueremo a non accettare l'ipotesi.

Un P-value quasi uguale a zero significa che siamo praticamente certi di non sbagliare rifiutando l’ipotesi $H_0$. Un P-value molto maggiore indica invece che a qualsiasi livello ragionevole di significatività, non rifiutiamo l’ipotesi nulla; in questo caso si può anche dire che il test ci porta ad accettare l’ipotesi. Il P-value può essere difficile da calcolare con precisione usando le tavole, quindi negli esercizi ci limiteremo a fare stime intervallari di quest'ultime (in un software ovviamente possiamo facilmente trovare una stima puntuale).

Curva OC

$\beta$ è definita come la probabilità di accettare l'ipotesi nulla in funzione del parametro che stiamo testando. Di conseguenza se il parametro incognita soddisfa l'ipotesi alternativa, la curva OC rappresenta una probabilità d'errore di II specie.

Potenza del test

$\pi(\theta)=1 - \beta$ è la funzione in funzione del parametro incognito $\theta$ che è definita come la probabilità di rifiutare l'ipotesi nulla e quindi accettare l'ipotesi alternativa. La potenza del test è la possibilità di rigettare l'ipotesi nulla quando è giusto farlo ( cioe' quando $H_0$ è falsa ). Esempio: Nel caso in l'ipotesi alternativa viene soddisfatta per $T_0 >t$ $\pi(\theta)=P_{\theta}(T_o>t_{\theta})$ con $\theta = \frac{\Theta }{\Theta _0}$

La potenza del test aumenta quanto maggiore è il numero dei soggetti del campione.
La potenza del test aumenta passando da un $\alpha$ di 0.05 a uno di 0.1 ma così facendo aumenta anche il rischio di rigettare una ipotesi nulla vera.

Test Z

Test su media di una popolazione gaussiana con varianza nota.

Test T

Test su media una popolazione gaussiana con varianza incognita.

Test su due popolazioni

Test T

Test su medie con varianze incognite ma uguali (f di Fisher).

$$T_0=\frac{\bar X_n - \bar Y_n}{\sqrt{S_p^2(\frac{1}{n_x}+\frac{1}{n_y})}}$$

dove $S_p²$ è la stima combinata della deviazione standard generale:

$$S_p^2=\frac{(n_x-1)S_x^2+(n_y-1)S^2_y}{n_x+n_y-2}$$

Test F

Il test F viene utilizzato per confrontare la varianza di due popolazioni normali indipendenti, assumendo che le popolazioni siano normalmente distribuite e abbiano la stessa media. Il test F é basato sulla distribuzione F di Fisher.

Caso unilaterale: $$P(\frac{\frac{S^2_x}{\sigma ^2 x}}{\frac{S^2_x}{\sigma^2_y}}>f{0.01 , n,m})=P({\frac{\sigma^2_y}{\sigma^2_x}} > f_{0.01 , n,m}\frac{S^2_y}{S^2_x})=P({\frac{\sigma^2_x}{\sigma^2_y}} \le f_{0.99 , m,n}\frac{S^2_x}{S^2_y})$$

Test $\chi ²$ di buon adattamento

Il test chi-quadrato consiste nel verificare se le frequenze osservate corrispondono alle frequenze attese. Nel caso di una sola variabile di misura, si utilizza il test della bontà di adattamento del chi-quadrato. L'idea alla base del test è di confrontare i valori osservati nei dati e quelli attesi qualora l'ipotesi nulla fosse vera.

Dato $f_i$ le frequenze osservate di ciascuna modalità, $p_i$ le probabilità teoriche di ciascuna modalità e $n$ la numerosità del campione e k il numero delle modalità/classi del campione. $$X^2 = \sum ^k {i=1}\frac{(f_i - np_i)}{np_i}$$ Rifiuto $H_0$ se $X^2 \ge X^2{v,\alpha}$ (dove $\alpha$ è la significatività e $v$ sono $k-1$).