40 Teste de Hipótese - Aprofundamento
Seja \(\boldsymbol{X}_n = (X_1, \dots, X_n)\) amostra aleatória de \(X \sim f_\theta, \theta \in \Theta\).
Note que, no caso discreto: \[ P_\theta(X \in A) = \sum_{x \in A} f_\theta(x), \forall \theta \in \Theta. \] já no caso contínuo, \[ P_\theta(X \in A) = \int_{A} f_\theta(x), \forall \theta \in \Theta. \]
Temos uma família \(\mathcal{P} = \{P_\theta : \theta \in \Theta\}\) de probabilidades que podem explicar o comportamento dos dados. Um dos objetivos do teste de hipótese é verificar se podemos reduzir \(\mathcal{P}\) para uma família menor \(\mathcal{P}_0 \subseteq \mathcal{P}\): \[ \mathcal{P}_0 = \{P_\theta : \theta \in \Theta_0\}, \Theta_0 \subseteq \Theta. \]
Definimos uma hipótese estatística \[ \mathcal{H}_0 : \theta \in \Theta_0 \iff \mathcal{H}_0 : P_\theta \in \mathcal{P}_0 \] \(\mathcal{H}_0\) afirma que
“A medida de probabilidade que explica os dados está em \(\mathcal{P}_0\)”
No caso em que \(\Theta_0 = \{\theta_0\}\), então a hipótese \(\mathcal{H}_0 : \theta = \theta_0 ( \iff \mathcal{H}_0 : P_{\theta} = P_{\theta_0})\) afirma que \(P_{\theta_0}\) explica o comportamento probabilístico dos dados observados.
\(\mathcal{H}_0\) é chamada de hipótese nula.
Note que a negação de \(\mathcal{H}_0\) é
“Não é o caso que a família \(\mathcal{P}_0\) contenha a medida que explica os dados”.
Ou seja, a negação de \(\mathcal{H}_0\) sugere que a medida que explica os dados pode, inclusive, não estar contida em \(\mathcal{P}\).
Definimos também uma hipótese alternativa, \[ \mathcal{H}_1: \theta \in (\Theta \setminus \Theta_0) \iff \mathcal{H}_1 : P_\theta \in (\mathcal{P} \setminus \mathcal{P}_0) \]
Observe que \(\mathcal{H}_0\) e \(\mathcal{H}_1\) não são exaustivas: na prática, ambas podem ser falsas.
Se o analista considerar que \(\mathcal{P}\) contém a medida que explica os dados, então, condicional a essa crença, \(\mathrm{\mathcal{H}_0}\) e \(\mathrm{\mathcal{H}_1}\) são exaustivas.
40.1 Exemplo
Seja \(\boldsymbol{X}_n\) a.a. de \(X\sim N(\mu, \sigma^2), \theta = (\mu, \sigma^2) \in \mathbb{R}\times\mathbb{R}_+\).
Considere as seguintes hipóteses \[ \begin{cases} \mathcal{H}_0 : \mu = 0 \\ \mathcal{H}_1 : \mu \neq 0. \end{cases} \] Note que \[ \begin{cases} \mathcal{H}_0 : \theta \in \Theta_0 \\ \mathcal{H}_1 : \theta \in \Theta \setminus \Theta_0, \end{cases} \] em que \[ \begin{aligned} \Theta_0 &= \{(\mu, \sigma^2) \in \mathbb{R} \times \mathbb{R}_+ : \mu = 0\} \\ \Theta_1 &= \Theta \setminus \Theta_0 = \{(\mu, \sigma^2) \in \mathbb{R} \times \mathbb{R}_+ : \mu \neq 0\}. \end{aligned} \] Disso, temos que \[ \begin{aligned} \Theta &= \Theta_0 \cup \Theta_1 \\ \Theta_0 &\cap \Theta_1 = \emptyset. \end{aligned} \]
As hipóteses acima podem ser reescritas em termos das suas respectivas famílias de medidas de probabilidades da seguinte forma: \[ \begin{cases} \mathcal{H}_0: P \in \mathcal{P}_0 \\ \mathcal{H}_1: P \in \mathcal{P}_1 \end{cases} \]
em que \(\mathcal{P}_0 = \{N(\mu, \sigma^2): \ \mu = 0, \ \sigma^2 > 0 \}\) e \(\mathcal{P}_1 = (\mathcal{P} - \mathcal{P}_0) = \{ N(\mu, \sigma^2): \ \mu \neq 0, \ \sigma^2 > 0 \}\)
Observe que, se assumirmos que a distribuição normal explica os dados, então \(\mathcal{H}_0\) e \(\mathcal{H}_1\) são exaustivas. Caso contrário, existe uma terceira opção: \(\neg(\mathcal{H}_0 \lor \mathcal{H}_1)\).
40.2 Hipóteses estatísticas
Toda hipótese estatística é uma interpretação de uma hipótese científica.
Hipótese científica | Hipótese estatística | Hipótese paramétrica |
---|---|---|
“A moeda é honesta” | \(X \sim \mathrm{Ber}(0.5)\) | \(\theta = 0.5\) |
As hipótese estatísticas são escritas em termos de medidas de probabilidade, mas podem também ser representadas em termos do espaço paramétrico:
\[ \begin{cases} \mathcal{H}_0: P_\theta \in \mathcal{P}_0 \\ \mathcal{H}_1: P_\theta \in \mathcal{P}_1 = (\mathcal{P} \setminus \mathcal{P}_0), \end{cases} \]
em que \(\mathcal{P}_0 = \{P_\theta : \theta \in \Theta_0\}\) e \(\mathcal{P}_1 = \{P_\theta : \theta \in \Theta_1\}\) e \(\Theta_1 = \Theta \setminus \Theta_0\).
Observe que \(\mathcal{H}_0, \mathcal{H}_1\) estão sempre restritas a modelo estatístico. Entretanto, a negação de \(\mathcal{H}_0, \neg \mathcal{H}_0\), não está restrita ao modelo adotado.
Se o analista considerar que \(\mathcal{H}_0\) ou \(\mathcal{H}_1\) são verdadeiros, então ele está considerando que a medida que explica ou gera os dados está em \(\mathcal{P}\). Está é a suposição de que o universo de possibilidades é fechado (suposição de Neyman-Pearson; Teoria da Decisão).
\(\mathcal{H}_0\) e \(\mathcal{H}_1\) não pode ser simultaneamente verdadeiras.
Se \(\neg \mathcal{H}_0\) e \(\neg \mathcal{H}_1\), então a medida que explica/gera os dados não está em \(\mathcal{P}\).
\(\neg \mathcal{H}_0 \not\Rightarrow \mathcal{H}_1\). Isto é, se provarmos que \(\mathcal{H}_0\) é falsa, não necessariamente \(\mathcal{H}_1\) é verdadeira.
\(\mathcal{H}_1 \Rightarrow \neg \mathcal{H}_0\).
40.3 Tipos de hipótese
Sejam \(\mathcal{H}_0, \mathcal{H}_1\) as hipóteses nula e alternativa, respectivamente, tais que \[ \begin{cases} \mathcal{H}_0 : \theta \in \Theta_0 \\ \mathcal{H}_1 : \theta \in \Theta_1 \end{cases} \] em que \(\Theta_0 \neq \emptyset, \Theta_0 \cup \Theta 1 = \Theta, \Theta_0 \cap \Theta_1 = \emptyset\). Dizemos que \(\mathcal{H}_0\) é uma hipótese simples se \(\# \Theta_0 = 1\). Caso contrário, dizemos que é uma hipótese composta.
40.3.1 Exemplos
Seja \(\boldsymbol{X}_n = (X_1, \dots, X_n)\) a.a. de \(X\sim \mathrm{Ber}(\theta), \theta \in \{0.5, 0.9\}\). Considere as hipóteses \[ \begin{cases} \mathcal{H}_0 : \theta = 0.5 \\ \mathcal{H}_1 : \theta = 0.9 \end{cases}\ \ \ \text{Ambas são simples!} \]
Seja \(\boldsymbol{X}_n = (X_1, \dots, X_n)\) a.a. de \(X\sim \mathrm{Ber}(\theta), \theta \in (0,1)\). Considere as hipóteses \[ \begin{cases} \mathcal{H}_0 : \theta = 0.5\ \ \text{Hipótese simples} \\ \mathcal{H}_1 : \theta \neq 0.5\ \ \text{Hipótese composta} \end{cases} \] Note que \[ \begin{cases} \Theta_0 = \{0.5\} \\ \Theta_1 = (0,0.5) \cup (0.5, 1) \\ \end{cases} \]
Seja \(\boldsymbol{X}_n\) a.a. de \(X \sim N(\mu, \sigma^2) \in \mathbb{R}\times\mathbb{R}_+\) \[ a)\ \begin{cases} \mathcal{H}_0 : \mu = 0.5\ \ \text{Hipótese composta!} \\ \mathcal{H}_1 : \mu \neq 0.5\ \ \text{Hipótese composta} \end{cases} \] Note que como \[ \begin{cases} \Theta_0 = \{(\mu, \sigma^2) \in \mathbb{R}\times\mathbb{R}_+ : \mu = 0.5\} \\ \Theta_0 = \{(\mu, \sigma^2) \in \mathbb{R}\times\mathbb{R}_+ : \mu \neq 0.5\} \end{cases} \] têm mais de um elemento, concluímos que ambas hipóteses são compostas.
\[ b)\ \begin{cases} \mathcal{H}_0 : (\mu, \sigma^2) = (0,1)\ \ \text{Hipótese simples!} \\ \mathcal{H}_1 : (\mu, \sigma^2) \neq (0,1)\ \ \text{Hipótese composta} \end{cases} \]
40.3.2 Tipos de decisão sobre as hipóteses
- Se o espaço de possibilidades for fechado, isto é, \(\mathcal{H}_0\) ou \(\mathcal{H}_1\) é verdadeira, então:
- Aceitamos \(\mathcal{H}_0\) (rejeitamos \(\mathcal{H}_1\))
- Aceitamos \(\mathcal{H}_1\) (rejeitamos \(\mathcal{H}_0\))
Observe que, neste caso, não há terceira opção (abordagem de Neyman-Pearson).
- Se o espaço de possibilidades for aberto, isto é, temos a terceira opção de que o modelo está equivocado, então:
- Não rejeitamos \(\mathcal{H}_0\) (Não significa que aceitamos \(\mathcal{H}_0\))
- Rejeitamos \(\mathcal{H}_0\) (Não significa aceitar \(\mathcal{H}_1\), pela existência da terceira opção.)
Neste caso temos uma terceira opção (abordagem de Fisher).
Atualmente, dizemos apenas que há ou não há evidências para rejeitarmos \(\mathcal{H}_0\). Não se diz aceitar “\(\mathcal{H}_0\)”
40.3.3 Tipos de Erro
Se o universo for aberto:
Erro tipo I: “Rejeitar \(\mathcal{H}_0\) quando este é verdadeiro”
Erro tipo II: “Não rejeitar \(\mathcal{H}_0\) quando este é falso”
\(\mathcal{H}_0\) | Não rejeitar | Rejeitar |
---|---|---|
Verdadeiro | Acerto | Erro tipo I |
Falso | Erro tipo II | Acerto |
Se o universo for fechado:
Erro tipo I: “Rejeitar \(\mathcal{H}_0\) (ou aceitar \(\mathcal{H}_1\)) quando este é verdadeiro”
Erro tipo II: “Aceitar \(\mathcal{H}_0\) (ou rejeitar \(\mathcal{H}_1\) quando este é falso”
Considere o universo fechado.
40.4 Função teste
Definição. Seja \(\delta : \mathfrak{X}^{(n)} \rightarrow \{0,1\}\) uma função tal que \[ \delta(\boldsymbol{X}_n) = \begin{cases} 0,&\ \text{Se não rejeitamos}\ \mathcal{H}_0 \\ 1,&\ \text{Se rejeitamos}\ \mathcal{H}_0 \\ \end{cases} \] em que \(\mathfrak{X}^{(n)} = \{x \in \mathbb{R}^n : f_\theta^{\boldsymbol{X}_n}(\boldsymbol{x}) > 0 \}\), \(\mathcal{H}_0 : \theta \in \Theta_0\), \(\mathcal{H}_1 : \theta \in \Theta_1\), \(\Theta_0 \neq \emptyset, \Theta_1 \neq \emptyset, \Theta_0 \cap \Theta_1 = \emptyset, \Theta_0 \cup \Theta_1 = \Theta\).
Dizemos que \(\delta(\cdot)\) é uma função teste.
Região de rejeição de \(\mathcal{H}_0\): \[ S_{\delta} = \{\boldsymbol{x} \in \mathfrak{X}^{(n)} : \delta(\boldsymbol{x}) = 1 \} \]
Região de não rejeição de \(\mathcal{H}_0\): \[ S_{\delta}^c = \{\boldsymbol{x} \in \mathfrak{X}^{(n)} : \delta(\boldsymbol{x}) = 0 \} \]
40.4.1 Exemplo
Seja \(\boldsymbol{X}_n\) a.a. de \(X\sim\mathrm{Ber}(\theta), \theta \in \{0.1, 0.9\}\) e as hipóteses \[ \begin{cases} \mathcal{H}_0 : \theta = 0.1 \\ \mathcal{H}_1 : \theta = 0.9 \end{cases} \]
Defina \(\delta_i : \{0,1\}^n \rightarrow \{0, 1\}, i = 1, 2\) tais que
\[ \begin{aligned} \delta_1(\boldsymbol{x}_n) &= \begin{cases} 0,& \bar{x} \leq 0.5 \\ 1,& \bar{x} > 0.5 \\ \end{cases} \\ \delta_2(\boldsymbol{x}_n) &= \begin{cases} 0,& \bar{x} \leq 0.8 \\ 1,& \bar{x} > 0.8 \\ \end{cases} \end{aligned} \]
40.5 Função Poder do teste \(\delta\)
Definição. A função poder do teste \(\delta\) é \(\pi_\delta(\theta) = P_\theta(S_\delta)\)
\[ \pi_\delta(\theta), \forall \theta \in \Theta_0, \] são probabilidades de rejeitar \(\mathcal{H}_0\) quando esta é verdadeira.
\[ \pi_\delta(\theta), \forall \theta \in \Theta_1, \] são probabilidades de rejeitar \(\mathcal{H}_0\) quando esta é falsa.
Definição. O nível de significância é qualquer valor \(\alpha \in (0,1)\) tal que: \[ P_\theta(S_\delta) \leq \alpha, \forall \theta \in \Theta_0. \] em termos de função poder, \[ \pi_\delta(\theta) \leq \alpha, \forall \theta \in \Theta_0 \]
Definição. O tamanho do teste \(\delta\) é \[ \tau_\delta = \sup_{\theta \in \Theta_0} P_\theta(S_\delta) \leq \alpha \] em termos de função poder, \[ \tau_\delta = \sup_{\theta \in \Theta_0} \pi_\delta(\theta) \]
40.5.1 Probabilidade dos Erros I, II
Relembrando os tipos de erro: \[ \begin{cases} \text{Erro tipo I:}&\ \text{Rejeitar $\mathcal{H}_0$ quando esta é verdadeira} \\ \text{Erro tipo II:}&\ \text{Não rejeitar $\mathcal{H}_0$ quando esta é falsa} \end{cases} \]
\[ \alpha_{\delta, \mathrm{max}} = \tau_\delta = \sup_{\theta \in \Theta_0} \pi_\delta(\theta) \] é a probabilidade máxima de cometer o Erro tipo I e \[ \beta_{\delta, \mathrm{max}} = \sup_{\theta \in \Theta_1} (1-\pi_\delta(\theta)) \] é a probabilidade máxima de cometer o Erro tipo II.
Quando \(\mathcal{H}_0, \mathcal{H}_1\) são simples, temos \[ \begin{aligned} \alpha_{\delta, \max} &= \pi_\delta(\theta_0) = P_\theta(S_\delta) \\ \beta_{\delta, \max} &= 1 - \pi_\delta(\theta_1), \end{aligned} \] com \[ \begin{aligned} \mathcal{H}_0 : \theta = \theta_0 \\ \mathcal{H}_1 : \theta \neq \theta_1. \end{aligned} \]
Alguns livros, especialmente para iniciantes ou profissionais de outras áreas, podem escrever: \[ \begin{aligned} \alpha_{\delta, \max} &= P(\text{Erro tipo I}) \\ &= P(\text{Rejeitar} | \text{$\mathcal{H}_0$ é verdadeira}) \\ &= P(\delta(\boldsymbol{X}_n) = 1 | \text{$\mathcal{H}_0$ é verdadeira}), \end{aligned} \] \[ \begin{aligned} \beta_{\delta, \max} &= P(\text{Erro tipo II}) \\ &= P(\text{Não rejeitar} | \text{$\mathcal{H}_0$ é falsa}) \\ &= P(\delta(\boldsymbol{X}_n) = 0 | \text{$\mathcal{H}_0$ é falsa}). \end{aligned} \] Note que, formalmente, isso não faz sentido na estatística clássica! O parâmetro em hipótese, \(\theta\), é desconhecido mas não aleatório.
Note que, na estatística clássica, as hipóteses são afirmações epistêmicas, e não experimentais (eventos do experimento). Portanto, não são elementos da \(\sigma\)-álgebra do modelo estatístico. Logo, a notação \[ P(S_\delta | \text{$\mathcal{H}_0$ é verdadeira}) \] não está bem definida.
40.5.2 Poder do Teste
Se \(\mathcal{H}_1\) for simples, isto é, \(\mathcal{H}_1 : \theta = \theta_1\), então o poder do teste é definido \[ 1 - \beta_{\delta, \max} = \pi_\delta(\theta_1) \]
Alguns livros escrevem \[ \mathrm{poder} = P(\text{Rejeitar $\mathcal{H}_0$} | \text{$\mathcal{H}_0$ é falsa}) \] Isto está incorreto na interpretação clássica de estatística!