37Propriedades dos estimadores de máxima verossimilhança e de momentos
37.1 Teorema (da invariância do EMV)
Seja \(\boldsymbol{X}_n\)a.a. de \(X\sim f_\theta, \theta \in \Theta.\) Considere \(g:\Theta \rightarrow \mathbb{R}^k\) uma função. Se existe o EMV para “\(\theta\)”, então \(g(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n))\) é o EMV para \(g(\theta)\).
Se \(g(\theta) = E_\theta(X^2)\), então \(g(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) = E_{\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)}(X^2) = \hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n) + (\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n))^2\)
Se \(g(\theta) = \frac{\sqrt{\mathrm{Var}_\theta(X)}}{E_\theta(X)} = \frac{\sqrt{\theta}}{\theta} = \frac{1}{\sqrt{\theta}}\), então \(g(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) = \frac{1}{\sqrt{\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)}}\) é o EMV para \(g(\theta)\).
Dizemos que \(T(\boldsymbol{X}_n)\) é um estimador para “\(\theta\)” assintoticamente normal se, e somente se, existir \(\mathrm{V}_\theta\) não negativo tal que \[
\sqrt{n} (T(\boldsymbol{X}_n) - \theta) \stackrel{\mathcal{D}}{\rightarrow} N(0,\mathrm{V}_\theta), \forall \theta \in \Theta.
\] ou seja, converge em distribuição para uma distribuição Normal de média \(0\) e variância \(\mathrm{V}_\theta\) para todo \(\theta\) no espaço paramétrico.
Portanto, com \(g\) diferenciável com derivada contínua tal que \(g'(\theta) \neq 0\), \[
\sqrt{n}(g(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) - g(\theta)) \stackrel{\mathcal{D}}{\rightarrow}
N(0, g'(\theta)^2 I_1(\theta)^{-1}), \forall \theta \in \Theta
\]
Logo, pelo teorema de Slutsky\[
\sqrt{n}I_1(\hat{\theta}_{\mathrm{MV}})\frac{(g(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) - g(\theta))}{\sqrt{g'(\hat{\theta}_{\mathrm{MV}})^2}}
\stackrel{\mathcal{D}}{\rightarrow} N(0, 1), \forall \theta \in \Theta
\]
EMVs são assintoticamente eficientes
Note que \[
\begin{aligned}
E_\theta(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) &\stackrel{n\uparrow \infty}{\rightarrow} \theta \\
n \mathrm{Var}_\theta(\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) &\stackrel{n\uparrow \infty}{\rightarrow} I_1(\theta)^{-1}
\end{aligned}
\] Ou seja, estimadores de máxima verossimilhança são assintoticamente eficientes sob as condições de regularidade.
A variância assintótica do estimador de máxima verossimilhança é denotada por \[
\mathrm{Var}_{\theta}^{(a)} (\hat{\theta}_{\mathrm{MV}}(\boldsymbol{X}_n)) = \frac{I_1(\theta)^{-1}}{n}
\]
37.4 Teorema (do limite central para o estimador do método de momentos)
Seja \(\boldsymbol{X}_n\)a.a. de \(X\) tal que \(\Theta \subseteq \mathbb{R}\) e \(E_\theta(|X|^k) < \infty\) para algum \(k \in \mathbb{N} \setminus \{0\}\). Então, o estimador \(\hat{\theta}_{\mathrm{MM}}(\boldsymbol{X}_n)\) tal que
Com isso, \[
\sqrt{n}(\hat{\theta}_{\mathrm{MM}}(\boldsymbol{X}_n) - \theta) \stackrel{\mathcal{D}}{\rightarrow} N(0, V_\theta)
\] em que \[
V_\theta = \frac{E_\theta[(X^k - E_\theta(X^k))^2]}{\left(\frac{\partial E_\theta(X^k)}{\partial \theta}\right)^2} = \frac{\mathrm{Var}_\theta (X^k)}{h(\theta)^2}
\]
Além disso, se \(g : \Theta \rightarrow \mathbb{R}\) for diferenciável com derivada contínua tal que \(g'(\theta) \neq 0\), então \[
\sqrt{n}(g(\hat{\theta}_{\mathrm{MM}}(\boldsymbol{X}_n) - \theta) - g(\theta)
\stackrel{\mathcal{D}}{\rightarrow} N\left(0,g'(\theta)^2 \frac{\mathrm{Var}_\theta (X^k)}{h(\theta)^2}\right)
\]