Método delta

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Em Inferência estatística, o Método Delta é uma técnica utilizada para aproximar um vetor aleatório através de uma expansão de Taylor. é um método simples, mas útil, para deduzir a distribuição assintótica de variáveis.[1]

O Teorema do Limite Central pode ser considerado como um caso particular do Método Delta. Assim deve começar por familiarizar-se com este teorema.

O teorema do limite central afirma que a soma de um número suficientemente elevado de variáveis aleatórias identicamente distribuídas tem uma distribuição semelhante a uma distribuição Normal.

Verificadas certas condições, o Método Delta permite concluir que uma função (não apenas a soma) de um número suficientemente elevado de variáveis aleatórias também tem uma distribuição semelhante a uma distribuição Normal.

Enunciado formal do Método Delta

Predefinição:Artigo principal Predefinição:Artigo principal Predefinição:Artigo principal

Então[1] ,

rn[g(Yn)g(μ)]dg(μ)Y

Caso particular: distribuição normal

Seja Yn uma sucessão de variáveis aleatórias tais que

n[Ynμ]dN(0,σ2),.

onde σ2 é a variância da distribuição Normal e μ é o valor esperado de Yn. Estes valores têm de existir e serem finitos.

Considere também uma função "g" diferenciável em μ.

  • Método Delta de 1ª ordem: Considere o caso em que, para o valor especifico μ, g(μ)0.Então:
n[g(Yn)g(μ)]dN(0,σ2[g(μ)]2)[2][3]
  • Método delta de 2ª ordem: Considere agora o caso em que, para o valor especifico μ, g(μ)=0 mas que g(μ)0. Então,
n[g(Yn)g(μ)]dσ2g(μ)2χ12,[4] porque o quadrado de uma distribuição normal padrão é uma qui-quadrado χ12[3] .
  • Método Delta de ordens superiores: Considere finalmente o caso em que a função g é "r" vezes derivável e que, para o valor especifico μ, g(μ)=g(μ)=...=g(r1)(μ)=0 mas que a r-ésima derivada g(r)(μ)0. Então,
(n)r[g(Yn)g(μ)]dσ2g(r)(μ)r!Yr[5]

Exemplos

Exemplo 1

Do Teorema do Limite Central sabemos que (n)[Xnμ]dN(0,σ2).

Consideremos agora g(x)=1/x, sabemos que g(x)=1/x2 que para x IR\{0} é diferente de 0.

Então estamos nas condições do Método Delta e podemos afirmar que (n)[g(Xn)g(μ)]dN(0,σ2[g(μ)]2)=(n)[1/Xn1/μ]dN(0,σ2/μ4).[6]

Nota:

g(x)=(1/x)=1/x2

[g(x)]2=[1/x2]2=1/x4

[g(μ)]2=1/μ4

Exemplo 2

Predefinição:Artigo principal Suponha Y1,Y2,...,Yn variáveis aleatórias independentes com distribuição de Bernoulli (p). O parâmetro de interesse típico é p=E[Y], a probabilidade de sucesso, mas outro parâmetro popular é (p)/(1p), que mede a chance. Por exemplo, se os dados representam os resultados de uma moeda viciada com p=2/3 para "cara", então a moeda tem chance 2:1 de mostrar o resultado "cara".

Vamos considerar a utilização de (p^)/(1p^) como uma estimativa para (p)/(1p). Ou seja, vamos jogar a moeda "n" vezes, contar o número de caras e obter p^=(i=1NYi)/n a partir desta amostra de n observações, e utilizar este p estimado (p^) como estimativa para o verdadeiro parâmetro p. Nosso interesse, agora, é saber a variância de (p^)/(1p^). O método delta permite obter uma resposta aproximada, já que uma resposta exata não é possível.

Vamos então definir a função g(p)=p1p. Portanto, g(p)=1(1p)2.

Pelo método delta, teremos que:

Var(p^1p^)[g(p)]2Var(p^) [1(1p)2]2p(1p)n[3]

Demonstração

Sabemos que (n)[Ynμ]dN(0,σ2)<=>(n)[Ynμσ]dN(0,1)

Sabemos também que g(μ)0, existe e é finito.

O desenvolvimento em série de Taylor de g(Yn) em torno de valor μ é

g(Yn)=g(μ)+g(μ)[ynμ]+o1<=>

onde o10 quando Ynμ

g(Yn)g(μ)=g(μ)[Ynμ]+01<=>

g(Yn)g(μ)=g(μ)σ[Ynμσ]+01<>

g(Yn)g(μ)=g(μ)σ[Ynμσ]+01<=>

(n)g(Yn)g(μ)=g(μ)σ(n)[Ynμσ]+01<=> usando o teorema de Slutsky

(n)g(Yn)g(μ)=g(μ)σ(n)[Ynμσ]+01dN(0,σ2[g(μ)]2)

logo

n[g(Yn)g(μ)]dN(0,σ2[g(μ)]2)

Ver também

Predefinição:Referências

Predefinição:Portal3

Predefinição:Portal3

  1. 1,0 1,1 VAN DER VAART, A. Asymptotic statistics. 1998. new York: Cambridge University Press. capítulo 3, Delta Method. Página 25 e 26.
  2. Pestana, D. e Velosa, S. (2002). Introdução à Probabilidade e Estatística. Fundação Calouste Gulbenkian, Lisboa.
  3. 3,0 3,1 3,2 CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Centage learning, 2010. Páginas 215 a 217
  4. PAPANICOLAOU, Alex.Taylor Approximation and the Delta Method. 2009. Página 5. Disponível em: <http://www.stanford.edu/class/cme308/notes/TaylorAppDeltaMethod.pdf>. Acesso em: 13 de julho de 2011.
  5. HUNTER, David R. Statistics 553: Asymptotic Tools.Chapter 5- The Delta Method and Applications, Página 61.Disponível em <http://www.stat.psu.edu/~dhunter/asymp/lectures/ANGELchpt05.pdf>. Acesso em: 13 de julho de 2011.
  6. Alves, I.; Gomes, I. e Sousa, L. (2007). Fundamentos e Metodologias da Estatistica. Centro de Estatística e Aplicações, Lisboa.