Seja \(\boldsymbol{X}_n = (X_1,\dots,X_n)\)amostra aleatória e \(X \sim f_\theta, \theta \in \Theta\).
Dizemos que \([I_1(\boldsymbol{X}_n), I_2(\boldsymbol{X}_n)]\) é um intervalo de confiançaexato para \(g(\theta)\) com coeficiente de confiança \(\gamma \in (0,1)\) se, e somente se: \[
P_\theta\left(I_1(\boldsymbol{X}_n) \leq g(\theta) \leq I_2(\boldsymbol{X}_n)\right) = \gamma, \forall \theta \in \Theta.
\] em que \(I_1(\boldsymbol{X}_n), I_2(\boldsymbol{X}_n)\) são estatísticas.
Observação
Se \(P_\theta\left(I_1(\boldsymbol{X}_n) \leq g(\theta) \leq I_2(\boldsymbol{X}_n)\right) \geq \gamma, \forall \theta \in \Theta\), então \([I_1(\boldsymbol{X}_n), I_2(\boldsymbol{X}_n)]\) é um Intervalo de Confiança (IC) de pelo menos\(\gamma\)
Se repetirmos o experimento, mantendo as mesmas condições, então esperamos que em \(\gamma \cdot 100\%\) dos experimentos os ICs contenham \(g(\theta)\). Em outras palavras, \[
\begin{aligned}
\#\frac{(g(\theta) \in \mathrm{IC}_{\mathrm{Obs}})}{N} \approx \gamma \\
\left[
\frac{1}{N} \sum \mathbb{1}_{\{\mathrm{IC}_{\mathrm{Obs}}^{(i)}\}}(g(\theta)) \stackrel{N \uparrow \infty}{\rightarrow} \gamma
\right]
\end{aligned}
\]
Dizemos que \[
\frac{1}{N} \sum \mathbb{1}_{\{\mathrm{IC}_{\mathrm{Obs}}^{(i)}\}}(g(\theta))
\] é a cobertura de \(\mathrm{IC}(g(\theta),\gamma)\)
O que dizer sobre \(\mathrm{IC}_{\mathrm{Obs}}\) em relação a \(g(\theta)\)?
Temos uma confiança de \(\gamma\cdot 100\%\) de que \(g(\theta) \in \mathrm{IC}_{\mathrm{Obs}}\).
39.2 Exemplos
39.2.1 Exemplo Normal
Seja \(\boldsymbol{X}_n\) a.a. de \(X \sim N(\mu,\sigma^2), \theta = (\mu, \sigma^2) \in \Theta = \mathbb{R}\times\mathbb{R}^+\). Encontre um IC com coeficiente de confiança \(\gamma = 95\%\)…
…para \(g(\theta = \mu)\)
Sabemos que \[
\bar{X} = \frac{1}{n} \sum X_i \sim N(\mu, \sigma^2/n).
\] Além disso, \[
\sum \frac{(X_i - \bar{X})^2}{\sigma^2} \sim \chi^2_{n-1}
\]
Por definição de t-student, com as V.As das distribuições independentes, \[
\begin{aligned}
\frac{N(0,1)}{\sqrt{\frac{\chi^2_k}{k}}} &\sim t_k \\
\Rightarrow\frac{\sqrt{n} \frac{(\bar{X} - \mu)}{\sigma}}{\sqrt{\frac{\sum \frac{(X_i - \bar{X})^2}{\sigma^2}}{n-1}}} &\sim t_{(n-1)} \\
\Rightarrow \frac{\sqrt{n} (\bar{X} - \mu)}{\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}} &\sim t_{(n-1)}
\end{aligned}
\] logo, podemos sempre encontrar \(c_{1, \gamma}, c_{2, \gamma}\) tais que \[
P_\theta\left(c_{2, \gamma} \leq \frac{\sqrt{n} (\bar{X} - \mu)}{\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}} \leq c_{1, \gamma}\right) = \gamma
\]
Pela definição de Intervalo de Confiança, \[
\mathrm{IC}(\mu,\gamma) = \left[
\bar{X} - c_{2,\gamma} \sqrt{\frac{S^2_{n-1}(\boldsymbol{X}_n)}{n}}, \bar{X} - c_{1,\gamma} \sqrt{\frac{S^2_{n-1}(\boldsymbol{X}_n)}{n}}
\right]
\] em que \[
S^2_{n-1}(\boldsymbol{X}_n) = \frac{1}{n-1} \sum (X_i - \bar{X})^2
\] e \(c_{1,\gamma}, c_{2,\gamma}\) são os quantis obtidos da distribuição t-student com \(n-1\) graus de liberdade que satisfaçam \[
P_\theta\left(\bar{X} - c_{2,\gamma} \sqrt{\frac{S^2_{n-1}(\boldsymbol{X}_n)}{n}} \leq g(\theta) \leq \bar{X} -
c_{1,\gamma} \sqrt{\frac{S^2_{n-1}(\boldsymbol{X}_n)}{n}}\right) = \gamma
\] no caso simétrico (minimiza o IC para distribuições como a Normal), \(c_{2,\gamma} = - c_{1,\gamma}\). Note que não é possível construir ICs simétricos dessa forma para distribuições estritamente positivas, como a qui-quadrado.
39.3 Quantidades Pivotais
Dizemos que \(Q(g(\theta), \boldsymbol{X}_n)\) é uma quantidade pivotal para \(g(\theta)\) se, e somente se,
\(Q(g(\theta), \boldsymbol{X}_n)\) depende de \(g(\theta)\)
A distribuição de \(Q(g(\theta), \boldsymbol{X}_n)\) não depende de “\(\theta\)”
Existem \(a_1, a_2\), que não dependem de \(g(\theta)\), tais que \(c_1 \leq Q(g(\theta),\boldsymbol{X}_n) \leq c_2 \iff a_1 \leq g(\theta) \leq a_2\)
39.3.1 Exemplos
\(X \sim N(\mu, \sigma^2)\)
Se \(\sigma^2\) é conhecido e \(\theta = \mu. g(\theta) = \mu\), então uma quantidade pivotal é dada por \[
Q(\mu, \boldsymbol{X}_n) = \sqrt{n}\frac{\bar{X} - \mu}{\sqrt{\sigma^2}} \sim N(0,1)
\]
Se \(\sigma^2\) é desconhecido e \(\theta = (\mu, \sigma^2), g(\theta) = \mu\), então uma quantidade pivotal é dada por \[
Q(\mu, \boldsymbol{X}_n) = \sqrt{n}\frac{\bar{X}-\mu}{\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}} \sim t_{(n-1)}
\]
\[
\mathrm{IC}(\mu,\gamma) = \bar{X} \mp c_{\gamma} \sqrt{\frac{S^2_{n-1}(\boldsymbol{X}_n)}{n}}
\] essa é também uma quantidade pivotal para 1., mas o contrário não vale.
Se \(\mu\) é conhecido e \(\theta = \sigma^2, g(\theta) = \sigma^2\), então
Seja \(X \sim \mathrm{Unif}(0, \theta), \theta > 0\). Encontre uma quantidade pivotal para \(\theta\).
Note que \(X_{(n)} = \max \boldsymbol{X}_n\)é uma estatística suficiente cuja f.d.p. é dada por \[
f_(\theta)^{\boldsymbol{X}_{(n)}}(x) = \frac{n x^{n-1}}{\theta^n} \mathrm{1}_{(0,\theta]}(x)
\]
Seja \(Y = \frac{X_{(n)}}{\theta}\), então \[
f_{\theta}^{Y}(y) = f_{\theta}^{\boldsymbol{X}_{(n)}}(y \theta) \cdot |J|
\] em que \(J = \theta\) (determinante jacobiano)
\[
f_{\theta}^{Y}(y) = \frac{n (y\theta)^{n-1}}{\theta^n} \theta \mathbb{1}_{(0,\theta]}(y \theta) = n y^{n-1} \mathbb{1}_{(0,1]}(y)
\] não depende de “\(\theta\)”! Logo, \(Q(\theta, \boldsymbol{X}_n) = \frac{\boldsymbol{X}_{(n)}}{\theta}\) é uma quantidade pivotal para \(\theta\).
\[
\begin{aligned}
\frac{\boldsymbol{X}_{(n)}}{c_{2,\gamma}} \leq \theta \leq \frac{\boldsymbol{X}_{(n)}}{c_{1,\gamma}}
\Rightarrow \mathrm{IC}(\theta,\gamma) = \left[
\frac{\boldsymbol{X}_{(n)}}{c_{2,\gamma}}, \frac{\boldsymbol{X}_{(n)}}{c_{1,\gamma}}
\right]
\end{aligned}
\] em que os quantis são obtidos da distribuição de \(Y\), nesse caso, \(Y \sim \mathrm{Beta}(n,1)\):
Note que em geral infinitas combinações desses quantis satisfazem (39.1). Podemos usar o par que satisfaz \[
\int^{c_{1,\gamma}}_{-\infty} f(y) dy = \frac{1-\gamma}{2}\ \ \mathrm{e} \ \ \int_{c_{2,\gamma}}^{\infty} f(y)dy = \frac{1-\gamma}{2}
\]
Esse método produz um intervalo de confiança simétrico, não necessariamente o de menor amplitude, mas é mais fácil de encontrar. O intervalo de confiança com menor amplitude com quantis que satisfaçam (39.1) é obtido minimizando \(|c_{2,\gamma} - c_{1,\gamma}|\) sujeito a (39.1).
Se \(f\) for unimodal e bicaudal, pode-se demonstrar que \(c_{1,\gamma}, c_2{\gamma}\) que produzem amplitude mínima e satisfazem (39.1) são tais que \[
f(c_{1,\gamma}) = f(c_{2,\gamma})
\] ou seja, tem mesma densidade.
usingDistributions, Random, StatsBase, LaTeXStringsRandom.seed!(8)theta0 =4n =10MC =10000I1 = []I2 = []for _ in1:MC d =Exponential(1/ theta0) # Parâmetro média => 1/theta parâmetro taxa x =rand(d, n)# Construindo um IC com 95% de confiança gamma =0.95 quiquadrado =Chisq(2* n) c1 =quantile(quiquadrado, (1- gamma) /2) c2 =quantile(quiquadrado, gamma + (1- gamma) /2)push!(I1, round(c1 / (2*sum(x)), digits =4))push!(I2, round(c2 / (2*sum(x)), digits =4))endacertos = [I1 .<= theta0 .<= I2]display(L"\mathrm{IC}_{\mathrm{Obs (1)}}(\theta,0.95)=[%$(I1[1]), %$(I2[1])]")display(L"\text{ICs que contém}\ \theta: %$((sum(acertos[1]))/MC *100)\%")
39.3.2 Quantidades pivotais aproximadas ou assintóticas
Dizemos que \(Q(g(\theta), \boldsymbol{X}_n)\) é uma quantidade pivotal aproximada ou assintótica se, e somente se
\(Q(g(\theta), \boldsymbol{X}_n)\) depende de \(g(\theta)\);
A distribuição assintótica de \(Q(g(\theta), \boldsymbol{X}_n)\) não depende de \(g(\theta)\);
Existem \(a_1, a_2\), que não dependem de \(g(\theta)\), tais que \(c_1 \leq Q(g(\theta),\boldsymbol{X}_n) \leq c_2 \iff a_1 \leq g(\theta) \leq a_2\). Esses valores dependem apenas de \(\boldsymbol{X}_n\).
\[
\sqrt{n} (T(\boldsymbol{X}_n) - \theta) \stackrel{\mathcal{D}}{\rightarrow} N_p(0, V_\theta), \forall \theta \in \Theta.
\] em que \(V_\theta\) é uma matriz positiva definida. Para \(p=1\), \[
\sqrt{n} (T(\boldsymbol{X}_n) - \theta) \stackrel{\mathcal{D}}{\rightarrow} N_1(0, V_\theta), \forall \theta \in \Theta.
\] em que \(V_\theta > 0\).
Se \(g: \Theta \rightarrow \mathbb{R}\) for uma função tal que \(g'(\theta) \neq 0\)\(g'(\theta)\) é contínua, então, \[
\sqrt{n} (g(T(\boldsymbol{X}_n)) - g(\theta)) \stackrel{\mathcal{D}}{\rightarrow} N_1(0, g'(\theta)^2V_\theta), \forall \theta \in \Theta.
\]
functionmonte_carlo_poiss() theta0 =10 d =Poisson(theta0)g(a) = ag1(a) =1 nn =1000 amplitude =zeros(nn) cober =zeros(nn) M =10_000for n in nn I1 =zeros(M) I2 =zeros(M)for i in1:M x =rand(d, n) EMV =mean(x) c2 =quantile(Normal(), γ + (1- γ) /2) I1[i] = EMV - c2 *sqrt(g1(EMV)^2* EMV / n) I2[i] = EMV + c2 *sqrt(g1(EMV)^2* EMV / n)end amplitude[n] =mean(I2 .- I1) cober[n] =mean(I1 .<=g(theta0) .<= I2)end amp =scatter(10:100:1000, amplitude, title ="Amplitude dos ICs", label ="", color =:blue, xlabel ="n" ) cob =scatter(10:100:1000, cober, title ="Cobertura dos ICs", label ="", color =:red, xlabel ="n" ) plt =plot(cob, amp)return pltend
39.4 Regiões de confiança
Dizemos que \(\mathrm{RC}^{(a)}(g(\theta),\gamma)\) é uma região de confança para \(g(\theta)\) com coeficiente de confiança \(\gamma\) se, e somente se, \[
P_\theta(\theta \in \mathrm{RC}(g(\theta),\gamma)) = \gamma, \forall \theta \in \Theta.
\]
Se \(\lim_{n\rightarrow \infty} P_\theta(\theta \in \mathrm{RC}(g(\theta),\gamma)) = \gamma, \forall \theta \in \Theta\), dizemos que \(\mathrm{RC}^{(a)}(g(\theta),\gamma)\) é uma região de confiança assintótica.
Observação
Se \[
P_\theta(\theta \in \mathrm{RC}(g(\theta),\gamma)) \geq \gamma,
\] então dizemos que \(\mathrm{RC}(g(\theta),\gamma))\) tem confiança de pelo menos \(\gamma\).
Observação
\(\mathrm{RC}(g(\theta),\gamma))\) é uma região aleatória que depende apenas da amostra aleatória e do coeficiente \(\gamma\)
39.4.1 Construção da Região de Confiança
Seja \(\hat{\theta}(\boldsymbol{X}_n)\) um estimador para “\(\theta\)” tal que
Para o caso \(p=2\), ou seja, \(\Theta = \mathbb{R}^2\), a região de confiança aproximada é \[
\mathrm{RC}(\theta, \gamma) = \left\{\theta \in \Theta : W_n(\theta) \leq q_\gamma\right\},
\]