26  Estimadores não-viciados com variância uniformemente mínima (ENVVUM)

Estimadores são estatísticas cujo objetivo é estimar uma quantidade de interesse \(g(\theta)\).

Dizemos que \(T(\boldsymbol{X}_n)\) é um ENVVUM se, e somente se,

  1. \(T(\boldsymbol{X}_n)\) é não-viciado para \(g(\theta)\):

\[ E_\theta(T(\boldsymbol{X}_n)) = g(\theta), \forall \theta \in \Theta; \]

  1. Para qualquer outro estimador não-viciado para \(g(\theta)\), \(U(\boldsymbol{X}_n)\), a variância de \(T(\boldsymbol{X}_n)\) não é maior do que a variância de \(U(\boldsymbol{X}_n)\), ou seja,

\[ \mathrm{Var}_\theta(T(\boldsymbol{X}_n)) \leq \mathrm{Var}_\theta(U(\boldsymbol{X}_n)), \forall \theta \in \Theta; \]

26.1 Teorema de Lehmamn-Scheffé

Seja \(\boldsymbol{X}_n = (X_1,\dots,X_j)\) amostra aleatória de \(X\sim f_\theta, \theta \in \Theta\), \(f_\theta\) a distribuição amostral. Considere \(T(\boldsymbol{X}_n)\) uma estatística suficiente e completa para o modelo e \(S(\boldsymbol{X}_n)\) um estimador não-viciado para \(g(\theta)\). Então,

\[ \stackrel{\sim}{T}(\boldsymbol{X}_n) = E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) \]

é o ENVVUM para \(g(\theta)\), quase certamente, baseado em \(T(\boldsymbol{X}_n)\).

Observação
  1. \(\stackrel{\sim}{T}(\boldsymbol{X}_n)\) não depende de “\(\theta\)” pois \(T(\boldsymbol{X}_n)\) é suficiente para o modelo.

  2. \(E_\theta(\stackrel{\sim}{T}(\boldsymbol{X}_n)) = E_\theta(E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) = E_\theta(S(\boldsymbol{X}_n))\)

26.1.1 Prova

Observe que

\[ E_\theta(\stackrel{\sim}{T}(\boldsymbol{X}_n)) = E_\theta(E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) = E_\theta(S(\boldsymbol{X}_n)). \]

Como \(S(\boldsymbol{X}_n)\) é, por hipótese, não-viciado para \(g(\theta)\), temos que \[ E_\theta(\stackrel{\sim}{T}(\boldsymbol{X}_n)) = g(\theta),\forall\theta\in\Theta. \]

Portanto, \(\stackrel{\sim}{T}(\boldsymbol{X}_n)\) é não-viciado para \(g(\theta)\).

Seja \(U(\boldsymbol{X}_n)\) um estimador não-viciado para \(g(\theta)\) que dependa apenas de \(T(\boldsymbol{X}_n)\). Então, como \(T(\boldsymbol{X}_n)\) é, por hipótese, completa para o modelo, tome, como \(\stackrel{\sim}{T}(\boldsymbol{X}_n)\) é uma função de \(T(\boldsymbol{X}_n)\),

\[ \begin{aligned} h(T(\boldsymbol{X}_n)) &= \stackrel{\sim}{T}(\boldsymbol{X}_n) - U(\boldsymbol{X}_n) \\ \Rightarrow E_\theta(h(T(\boldsymbol{X}_n))) &= 0, \forall \theta \in \Theta \\ \Rightarrow h(T(\boldsymbol{X}_n)) &= 0,\mathrm{q.c.} \end{aligned} \]

Portanto, \(\stackrel{\sim}{T}(\boldsymbol{X}_n) = U(\boldsymbol{X}_n), \mathrm{q.c.}\)

Seja \(\stackrel{\sim}{T_1}(\boldsymbol{X}_n)\) um estimador não-viciado para \(g(\theta)\). Então,

\[ \begin{aligned} \mathrm{Var}_\theta(\stackrel{\sim}{T_1}(\boldsymbol{X}_n)) &= E_\theta(\mathrm{Var}_\theta(\stackrel{\sim}{T_1}(\boldsymbol{X}_n) \lvert T(\boldsymbol{X}_n)) + \mathrm{Var}_\theta(\underbracket{E_\theta(\stackrel{\sim}{T_1}(\boldsymbol{X}_n)|T(\boldsymbol{X}_n)}_{=\stackrel{\sim}{T}(\boldsymbol{X}_n), \mathrm{q.c.}}) \\ &= \underbracket{E_\theta(\mathrm{Var}_\theta(\stackrel{\sim}{T_1}(\boldsymbol{X}_n) \lvert T(\boldsymbol{X}_n))}_{\geq 0} + \mathrm{Var}_\theta(\stackrel{\sim}{T}(\boldsymbol{X}_n)), \forall \theta \in \Theta \\ \Rightarrow \mathrm{Var}_\theta(\stackrel{\sim}{T_1}(\boldsymbol{X}_n)) &\geq \mathrm{Var}_\theta(\stackrel{\sim}{T}(\boldsymbol{X}_n)),\mathrm{q.c.}\ \forall \theta \in \Theta \end{aligned} \]

Ou seja, \(\stackrel{\sim}{T}(\boldsymbol{X}_n)\) é quase certamente o ENVVUM para \(g(\theta)\) baseado em \(T(\boldsymbol{X}_n)\)

26.2 Exemplo Bernoulli

Seja \(\boldsymbol{X}_n\) amostra aleatória de \(X\sim \mathrm{Ber}(\theta), \theta \in \Theta = (0,1)\).

a-) Encontre o ENVVUM para \(g(\theta) = P_\theta(X=1)\).

Já sabemos que \(\sum X_i\) é suficiente e completa para o modelo de Bernoulli. Além disso, \[ E_\theta\left(\frac{1}{n} \sum X_i\right) = \theta, \forall \theta \in \Theta. \]

Ou seja, \(T(\boldsymbol{X}_n) =\frac{1}{n} \sum X_i\) é suficiente e completa, pois é função 1:1 de \(\sum X_i\) e, além disso, é não viciada para \(g(\theta) = P_\theta(X=1) = \theta\). Portanto,

\[ E_\theta(T(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) = T(\boldsymbol{X}_n). \]

Logo, o ENVVUM é, pelo Teorema de Lehmamn-Scheffé, \[ \stackrel{\sim}{T}(\boldsymbol{X}_n) = E_\theta(T(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) = T(\boldsymbol{X}_n) = \frac{1}{n} \sum^n_{i=1} X_i \]

Obs: Poderíamos iniciar com \(S(\boldsymbol{X}_n) = X_1\) pois \(E_\theta(X_1) = \theta, \forall \theta \in \Theta\). \[ \stackrel{\sim}{T}(\boldsymbol{X}_n) = E_\theta\left(S(\boldsymbol{X}_n)\lvert \sum X_i\right) \] também é ENVVUM. Para demonstrar, precisamos calcular

\[ E_\theta\left(X_1\lvert \sum X_i\right). \]

Uma estratégia é encontrar

\[ E_\theta(S(\boldsymbol{X}_n)\lvert \sum X_i = t) = m(t), \forall \theta \in \Theta \] e substituir \(t\) pela estatística suficiente e completa, neste caso \(\sum X_i\). Note que, para \(t=0\)

\[ E_\theta(X_1\lvert \sum X_i = 0) = 0, \forall \theta \in \Theta. \]

Se \(t\neq 0\), então

\[ \begin{aligned} \frac{t}{t} = 1 &\iff E_\theta\left(\frac{t}{t}\lvert \sum X_i = t\right) = 1, \forall \theta \in \Theta \\ &\iff E_\theta(\frac{t}{t} \lvert \sum X_i = t) = E_\theta\left(\frac{\sum X_i}{\sum X_i}\lvert \sum X_i = t\right) = 1, \forall \theta \in \Theta \\ &\iff\sum E_\theta\left(\frac{X_i}{\sum X_i}\lvert \sum X_i = t\right) = 1, \forall \theta \in \Theta \\ &\stackrel{\mathrm{iid}}{\iff} n E_\theta\left(\frac{X_1}{\sum X_i}\lvert \sum X_i = t\right) = 1, \forall \theta \in \Theta \\ &\iff \frac{n}{t} E_\theta\left(X_1 \lvert \sum X_i = t\right) = 1, \forall \theta \in \Theta \\ &\Rightarrow E_\theta\left(X_1\lvert \sum X_i = t\right) = \frac{t}{n}, \forall\theta \in \Theta. \end{aligned} \]

Logo, substituindo \(t\) por \(\sum X_i\), temos que \[ E_\theta\left(S(\boldsymbol{X}_n)\lvert \sum X_i\right) = \frac{1}{n} \sum X_i \]

b-) Encontre o ENVVUM para \(g(\theta) = P_\theta(X=0)\).

Note que \(g(\theta) = P_\theta(X=0) = 1-\theta\). Como \(\frac{1}{n} \sum X_i\) é suficiente e completa para o modelo e \(1 - \frac{1}{n} \sum X_i\) é não viciada para \(g(\theta)\), temos que

\[ \stackrel{\sim}{T}(\boldsymbol{X}_n) = E_\theta\left(1-\frac{1}{n}\sum X_i \left\lvert\right. \sum X_i\right) = 1- \frac{1}{n}\sum X_i \]

Logo, pelo Teorema de Lehmamn-Scheffé, é o ENVVUM para \(g(\theta) = 1-\theta\).

26.3 Exemplo (Normal)

Seja \(\boldsymbol{X}_n\) a.a. de \(X\sim\mathrm{N}(\mu,\sigma^2), \theta = (\mu, \sigma^2) \in \Theta = \mathbb{R}\times\mathbb{R}_+\).

26.3.1 Item a (parâmetros)

Encontre o (quase certamente) ENVVUM para \(g(\theta) = (\mu, \sigma^2)\).

Já sabemos que, pelo Teorema das FEs, \[ T(\boldsymbol{X}_n) = \left(\sum X_i,\sum X_i^2\right) \] é suficiente e completa para o modelo. Observe ainda que \[ T'(\boldsymbol{X}_n) = \left(\frac{1}{n} \sum X_i, \frac{1}{n} \sum X_i^2 - \left(\frac{1}{n} \sum X_i\right)^2\right) \] é função 1:1 de \(T(\boldsymbol{X}_n)\). Portanto, \(T'(\boldsymbol{X}_n)\) é uma estatística suficiente e completa para o modelo.

Note que \[ E_\theta\left(\frac{1}{n}\sum X_i\right) = \mu, \forall \theta \in \Theta \] e \[ \begin{aligned} E_\theta\left(\frac{1}{\sigma^2} \sum (X_i-\bar{X})^2\right) &\stackrel{\chi^2_{n-1}}{=} n-1 \\ \Rightarrow E_\theta\left(\frac{1}{n} \sum (X_i - \bar{X})^2 \right) &= \frac{n-1}{n} \sigma^2, \forall \theta \in \Theta. \end{aligned} \]

Portanto, \[ T''(\boldsymbol{X}_n) = \left(\bar{X}, S_{n-1}^2\right), \] em que \(\bar{X} = \frac{1}{n} \sum X_i\) e \(S^2_{n-1}(\boldsymbol{X}_n) = \frac{1}{n-1} \sum (X_i - \bar{X})^2\), é suficiente completa para o modelo não viciado para \(g(\theta)\) pois \[ E_\theta(T''(\boldsymbol{X}_n)) = (\mu,\sigma^2), \forall \theta \in \Theta. \]

Logo, \(T''(\boldsymbol{X}_n)\) é o ENVVUM quase certamente para \(g(\theta) = \theta\).

26.3.2 Item b (DP)

Encontre o ENVVUM para \(g(\theta) = \sigma\)

Já temos, do item a, uma estatística suficiente completa para o modelo, como \(T''(\boldsymbol{X}_n)\).

Tentativa 1.

Intuitivamente, podemos esperar que \(E_\theta(\sqrt{S^2_{n-1}(\boldsymbol{X}_n)})= c \sigma + b\). Se for, então bastaria tomar \[ S'(\boldsymbol{X}_n) = \frac{\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}-b}{c} \] para obtermos um estimador não viciado. Sob normalidade, \(\bar{X}\) e \(S^2_{n-1}(\boldsymbol{X}_n)\) são independentes. Logo, \(\bar{X}\) e \(S'_{n-1}\) também são independentes. Portanto, \[ E_\theta(S'(\boldsymbol{X}_n)\lvert T''(\boldsymbol{X}_n)) \stackrel{\mathrm{Ind.}}{=} E_\theta(S'(\boldsymbol{X}_n) \lvert S^2_{n-1}(\boldsymbol{X}_n)) \stackrel{\mathrm{Cond.}}{=}S'(\boldsymbol{X}_n). \]

Verificando:

Observe que \[ W(\sigma^2) = \frac{(n-1)S^2_{n-1}(\boldsymbol{X}_n)}{\sigma^2} \sim \chi^2_{n-1}. \] Logo, para \(n>1\) \[ \begin{aligned} E_\theta(\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}) &= E_\theta\left(\frac{\sqrt{n-1}}{\sqrt{n-1}}\frac{\sqrt{\sigma^2}}{\sqrt{\sigma^2}} \sqrt{S^2_{n-1}(\boldsymbol{X}_n)}\right) \\ &= E_\theta\left(\frac{\sqrt{\sigma^2}}{\sqrt{n-1}}\sqrt{\frac{(n-1)S^2_{n-1}(\boldsymbol{X}_n)}{\sigma^2}}\right) \\ &= \frac{\sigma}{\sqrt{n-1}}E_\theta\left(\sqrt{W(\sigma^2)}\right). \end{aligned} \]

Vamos calcular \[ E_\theta\left(\sqrt{W(\sigma^2})\right) = \int_0^\infty \sqrt{x} f_\theta^{W(\sigma^2)}(x) dx \] em que \[ f_\theta^{W(\sigma^2)}(x) = \frac{1}{2^{\frac{n-1}{2}}\Gamma(\frac{n-1}{2})} x^{\frac{n-1}{2}-1}\mathrm{e}^{-\frac{1}{2} x} \]

Portanto, \[ \begin{aligned} E_\theta\left(\sqrt{W(\sigma^2)}\right) &= \int^\infty_0 \frac{x^{\frac{1}{2}}x^{\frac{n-1}{2}}\mathrm{e}^{-\frac{1}{2}x}} {2^{\frac{n-1}{2}}\Gamma\left(\frac{n-1}{2}\right)} dx \\ &= \frac{1}{2^{\frac{n-1}{2}}\Gamma\left(\frac{n-1}{2}\right)} \int^\infty_0 x^{\frac{n}{2}-1} \mathrm{e}^{-\frac{x}{2}} dx \\ &\stackrel{x=2u}{=} \frac{1}{2^{\frac{n-1}{2}}\Gamma\left(\frac{n-1}{2}\right)} \int^\infty_0 (2u)^{\frac{n}{2}-1}\mathrm{e}^{-u} 2du \\ & = \frac{2^{\frac{n}{2}}}{2^{\frac{n}{2} - \frac{1}{2}}\Gamma\left(\frac{n-1}{2}\right)} \int^\infty_0 u^{\frac{n}{2}-1} \mathrm{e}^{-u} du \\ &= \frac{\sqrt{2}}{\Gamma\left(\frac{n-1}{2}\right)} \end{aligned} \] Dessa forma, \[ E_\theta\left(\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}\right) = \frac{\sigma}{\sqrt{n-1}} \frac{\sqrt{2}}{\Gamma\left(\frac{n-1}{2}\right)} \Gamma\left(\frac{n}{2}\right), \] tomando \[ S'(\boldsymbol{X}_n) = \frac{\sqrt{(n-1) S^2_{n-1}(\boldsymbol{X}_n)}}{\sqrt{2}} \frac{\Gamma\left(\frac{n-1}{2}\right)}{\Gamma\left(\frac{n}{2}\right)}, \] é, como \(S'(\boldsymbol{X}_n) = c\sqrt{S^2_{n-1}(\boldsymbol{X}_n)}\) é função 1:1 de \(S^2_{n-1}(\boldsymbol{X}_n)\), o ENVVUM para \(g(\theta) = \sigma\).

26.4 Exemplo (Poisson)

Seja \(\boldsymbol{X}_n\) a.a. de \(X\sim\mathrm{Poiss}(\theta), \theta \in (0,\infty)\).

Encontre o ENVVUM para \(g(\theta) = P_\theta(X = 0)\).

Pelo Teorema da FE k-dimensional, temos que \[ T(\boldsymbol{X}_n) = \sum X_i \] é suficiente e completa para o modelo.

Note que \[ g(\theta) = P_\theta(X=0) = \mathrm{e^-\theta} \]

Um estimador não-viesado para essa quantidade de interesse é \(\mathbb{1}_{\{0\}}(X_1)\), uma vez que \[ P_\theta(\mathbb{1}_{\{0\}}(X_1) = P_\theta(X_1 = 0) \stackrel{\mathrm{a.a.}}{=} P_\theta(X = 0) = \mathrm{e}^{-\theta} \]

Portanto, pelo Teorema de Lehmamn-Scheffé, \[ \stackrel{\sim}{T} = E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) \] é o ENVVUM para \(g(\theta) = \mathrm{e}^{-\theta}\)

uma estratégia é calcular \(m(t) = E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)=t)\) e depois substituir \(t\) por \(T(\boldsymbol{X}_n)\) em \(m(t)\). Note que, por definição,

\[ \begin{aligned} E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)=t) &= \sum_{s \in \{0,1\}} s \cdot P_\theta(S(\boldsymbol{X}_n) = s \lvert T(\boldsymbol{X}_n) = t) \\ &= P_\theta(S(\boldsymbol{X}_n) = 1 \lvert T(\boldsymbol{X}_n) = t) \\ &= \frac{P_\theta(S(\boldsymbol{X}_n) = 1, T(\boldsymbol{X}_n) = t)}{P_\theta(T(\boldsymbol{X}_n) = t)} \end{aligned} \]

Note que, por FGM, \[ T(\boldsymbol{X}_n) = \sum X_i \sim \mathrm{Poiss}(n\theta), \theta \in (0,\infty) \]

e para \(t \in \{0,1,\dots\}\) \[ \text{"}S(\boldsymbol{X}_n) = 1\text{"} \iff \text{"}X_1 = 0\text{"} \Rightarrow E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n) = t) = \frac{P_\theta(X_1=0\lvert \sum X_i =t)}{e^{-n\theta}\frac{(n\theta)^t}{t!}} \]

Note que \[ \begin{aligned} P_\theta(X_1=0\lvert \sum X_i =t) &= P_\theta(\sum X_i =t \lvert X_1 = 0) \cdot P_\theta(X_1 = 0) \\ &=P_\theta(X_1 + X_2 + \dots + X_n = t \lvert X_1 = 0)\cdot \mathrm{e}^{-\theta} \\ &=P_\theta(0 + X_2 + \dots + X_n = t \lvert X_1 = 0)\cdot \mathrm{e}^{-\theta} \\ &\stackrel{\mathrm{iid}}{=}P_\theta\left(\sum^n_{i=2} X_i = t - 0\right)\cdot \mathrm{e}^{-\theta} \\ \end{aligned} \]

Como, por FGM, \[ \sum^n_{i=2} X_i \sim \mathrm{Poiss}((n-1)\theta), \theta \in (0,\infty) \] temos que \[ P_\theta(X_1 = 0, \sum^n_{i=1} X_i = t) = \frac{\mathrm{e}^{-(n-1)\theta}((n-1)\theta)^t}{t!} \mathrm{e}^{-\theta} \]

Logo, \[ E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n) = t) = \frac{(n-1)^t}{n^t} = \left(1 - \frac{1}{n}\right)^t \]

Portanto, substituindo \(t\) por \(T(\boldsymbol{X}_n)\), temos que \[ E_\theta(S(\boldsymbol{X}_n)\lvert T(\boldsymbol{X}_n)) = \left(1 - \frac{1}{n}\right)^{T(\boldsymbol{X}_n)} \]

26.5 Exemplo “patológico”

Sejam \(\boldsymbol{X}_n\) a.a. de \(X\sim \mathrm{Pois}(\theta), \theta \in \Theta = \mathbb{R}_+\) e \(g(\theta) = \mathrm{e}^{-2\theta}\).

Pode-se mostrar que \[ T(\boldsymbol{X}_n) = \left(1 - \frac{2}{n}\right)^{\sum X_i} \] é o ENVVUM para \(g(\theta) = \mathrm{e}^{-2\theta}\). Para \(n=1\), temos que \[ T(\boldsymbol{X}_n) = (-1)^{X_1} \] A quantidade de interesse está estritamente entre \((0,1)\), mas o estimador pode apenas assumir valores \(-1\) e \(1\).

Para \(n=2\), temos que \[ T(\boldsymbol{X}_n) = 0 \]

Ainda assim, em média, (como podemos verificar por simulação de Monte Carlo), ele estimará \(g(\theta)\) sem viés com variância uniformemente mínima. Disso, temos que só deveríamos usar o ENVVUM para \(n\geq 3\).

using Random, Distributions, Plots, LaTeXStrings
Random.seed!(15)
function simulacaoENVVUM(M=10000, n=50)
  # Seja X_n a.a. de X~Pois(theta), theta em (0, infinito). Vamos avaliar o
  # ENVVUM para g(theta) = e^{-2theta}, T(X_n) = (1-2/n)^{soma de X_i}
  theta = log(rand())^2 # fixo: número real (não uniformemente) aleatório
  d = Poisson(theta)
  estatisticas = []
  for i in 1:M
    amostra = rand(d, n)
    envvum = (1-2/n)^(sum(amostra))
    append!(estatisticas, envvum)
  end
  media = mean(estatisticas)
  e2theta = MathConstants.e^(-2*theta)
  h = histogram(estatisticas,
                title = LaTeXString("Histograma de \$T(X_{$n})\$"),
                normalize=:pdf,
                label="",
                xlabel=LaTeXString("\$T(X_{$n})\$"),
                ylabel="Frequência")
  vline!([e2theta],label=L"e^{-2\theta}")
  vline!([media],label="Média")
  display(h)
  display("Média: $media")
  display("e^{-2 * theta} = $e2theta")
end
simulacaoENVVUM()
"Média: 0.07683263869408652"
"e^{-2 * theta} = 0.0765628110644349"

Podemos ainda avaliar os nossos casos patológicos.

"Média: 0.999"
"e^{-2 * theta} = 0.9993081423710376"
"Média: 0.8187"
"e^{-2 * theta} = 0.81973744188805"