Convergência de variáveis aleatórias

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Em teoria das probabilidades, existem várias noções diferentes de convergência de variáveis aleatórias. A convergência de sequências de variáveis aleatórias a alguma variável aleatória limite é um importante conceito em teoria das probabilidades e tem aplicações na estatística e nos processos estocásticos. Os mesmos conceitos são conhecidos em matemática geral como convergência estocástica e formalizam a ideia de que é possível esperar que uma sequência de eventos essencialmente aleatórios ou imprevisíveis às vezes mantenha um comportamento essencialmente imutável quando itens suficientemente distantes na sequência são estudados. As possíveis noções diferentes de convergência se relacionam a como tal comportamento pode ser caracterizado: dois comportamentos prontamente entendidos são que a sequência eventualmente assume um valor constante e que os valores na sequência continuam mudando, mas podem ser descritos por uma distribuição de probabilidade imutável.

Plano de fundo

A expressão "convergência estocástica" formaliza a ideia de que é possível esperar que uma sequência de eventos essencialmente aleatórios ou imprevisíveis siga eventualmente um padrão.[1] Este padrão pode ser, por exemplo,

  • Convergência no sentido clássico de um valor fixado, talvez ele mesmo vindo de um evento aleatório;
  • Uma semelhança crescente dos eventos ao que uma função puramente determinística produziria;
  • Uma preferência crescente em direção a um certo valor observado;
  • Uma "aversão" crescente a se afastar demais de um certo valor observado;
  • A distribuição de probabilidade que descreve o próximo valor observado pode ficar cada vez mais semelhante a uma certa distribuição.

Alguns padrões teóricos, menos óbvios, podem ser:

  • A série formada pelo cálculo do valor esperado da distância entre o valor observado e um valor particular pode convergir a zero;
  • A variância da variável aleatória que descreve o seguinte evento fica cada vez menor.

Estes outros tipos de padrões que podem surgir estão refletidos em diferentes tipos de convergência estocástica que têm sido estudados.

Enquanto a discussão acima diz respeito à convergência de uma única série a um valor limitante, a noção de convergência de duas séries uma em direção a outra também é importante. No entanto, é fácil lidar com isto estudando a sequência definida como a diferença ou como a razão das duas séries.

Por exemplo, se a média de n variáveis aleatórias independentes Yi, i=1,...,n, todas tendo média e variância iguais e finitas, é dada por

Xn=1ni=1nYi,

então conforme n tende ao infinito, Xn converge em probabilidade à média comum μ das variáveis aleatórias Yi. Este resultado é conhecido como lei fraca dos grandes números. Outras formas de convergência são importantes em outros teoremas úteis, incluindo o teorema central do limite.[2]

Ao longo do que se segue, assume-se que (Xn) é uma sequência de variáveis aleatórias, X é uma variável aleatória e todas elas estão definidas no mesmo espaço de probabilidade (Ω,,P).

Convergência em distribuição

Predefinição:Infobox

Com este modo de convergência, nós esperamos ver o próximo valor observado em uma sequência de experimentos aleatórios cada vez mais bem modelado por uma dada distribuição de probabilidade.

A convergência em distribuição é a forma mais fraca de convergência, já que é implicada por todos os outros tipos de convergência mencionados nesta página.[3] Entretanto, a convergência em distribuição é usada com muita regularidade na prática. Mais frequentemente, ela surge da aplicação do teorema central do limite.

Definição

Uma sequência Predefinição:Math de variáveis aleatórias de valores reais converge em distribuição, converge fracamente ou converge em lei a uma variável aleatória X se[4]

limnFn(x)=F(x),

para todo número Predefinição:Math no qual F é contínua. Aqui, Predefinição:Mvar e Predefinição:Mvar são as funções distribuição acumulada das variáveis aleatórias Predefinição:Mvar e Predefinição:Mvar respectivamente.

A exigência de que apenas os pontos de continuidade de Predefinição:Mvar sejam considerados é essencial. Por exemplo, se Predefinição:Mvar for distribuída uniformemente nos intervalos, Predefinição:Math, então, esta sequência converge em distribuição a uma variável aleatória degenerada Predefinição:Math. De fato, Predefinição:Math para todo n quando Predefinição:Math e Predefinição:Math para todo Predefinição:Math quando Predefinição:Math. Entretanto, para esta variável aleatória limitante, Predefinição:Math, ainda que Predefinição:Math para todo n. Assim, a convergência das funções distribuição acumulada falha no ponto x=0, em que F é descontínua.

A convergência em distribuição pode ser denotada como

Xn d X,  Xn 𝒟 X,  Xn  X,  Xn d X,XnX,  XnX,  (Xn)(X),

em que X é a lei (distribuição de probabilidade) de Predefinição:Mvar. Por exemplo, se Predefinição:Mvar tiver distribuição normal padrão, podemos escrever Xnd𝒩(0,1).

Para vetores aleatórios Predefinição:Math, a convergência em distribuição é definida de forma semelhante. Dizemos que esta sequência converge em distribuição a um vetor k aleatório X se

limnPr(XnA)=Pr(XA)

para todo Predefinição:Math que for um conjunto continuidade de X.

A definição de convergência em distribuição pode ser estendida de vetores aleatórios a elementos aleatórios mais gerais em espaços métricos arbitrários, até mesmo a "variáveis aleatórias" não mensuráveis — uma situação que ocorre, por exemplo, no estudo de processos empíricos. Isto é a convergência fraca de leis sem que leis sejam definidas — exceto assintoticamente.[5]

Neste caso, o termo convergência fraca é preferível e dizemos que uma sequência de elementos aleatórios {Xn} converge fracamente a X (denotado como Predefinição:Math) se

E*h(Xn)Eh(X)

para todas as funções contínuas limitadas Predefinição:Mvar.[6] Aqui, E* denota o valor esperado externo, que é o valor esperado da menor função mensurável g que domina Predefinição:Math.

Propriedades

Convergência em probabilidade

Predefinição:Infobox

A ideia básica por trás deste tipo de convergência é que a probabilidade de um valor observado "incomum" se torna cada vez menor conforme a sequência progride.[9]

O conceito de convergência em probabilidade é usado muito frequentemente em estatística. Por exemplo, um estimador é considerado consistente se convergir em probabilidade à quantidade sendo estimada. A convergência em probabilidade é também o tipo de convergência estabelecido pela lei fraca dos grandes números.[10]

Definição

Uma sequência {Xn} de variáveis aleatórias converge em probabilidade em direção à variável aleatória X se para todo ε>0[4]

limnPr(|XnX|ε)=0.

Formalmente, considere qualquer ε>0 e qualquer δ>0. Considere Pn a probabilidade de que Xn esteja fora de um intervalo de confiança de raio ε e em torno de X. Então, para que Xn convirja em probabilidade a X, deve existir um número N (que dependerá de ε e δ) tal que, para todo nN, Pn<δ.

A convergência em probabilidade {Xn} é denotada colocando-se a letra p sobre uma seta indicando convergência ou o operador de limite de probabilidade plim:

Xn p X,  Xn P X,  plimnXn=X.

Para elementos aleatórios {Xn} em um espaço métrico separável Predefinição:Math, a convergência em probabilidade é definida de forma semelhante por[11]

ε>0,Pr(d(Xn,X)ε)0.

Propriedades

  • A convergência em probabilidade implica convergência em distribuição.[9]
  • Na direção oposta, a convergência em distribuição implica a convergência em probabilidade quando a variável aleatória limitante X for uma constante.
  • A convergência em probabilidade não implica convergência quase certa.
  • O teorema de Mann-Wald afirma que, para toda função contínua g(), se XnpX, então também g(Xn)pg(X).
  • A convergência em probabilidade define uma topologia no espaço de variáveis aleatórias sobre um espaço de probabilidade fixado. Esta topologia é metrizável pela métrica de Ky Fan:[11]
d(X,Y)=inf{ε>0: Pr(|XY|>ε)ε}
ou
d(X,Y)=𝔼[min(|XY|,1)].

Convergência quase certa

Predefinição:Infobox

Este é o tipo de convergência estocástica mais semelhante à convergência pontual conhecida a partir da análise real elementar.

Definição

Dizer que a sequência Predefinição:Mvar converge quase certamente, quase em todo lugar, com probabilidade 1 ou fortemente em direção a X significa que[4]

Pr(limnXn=X)=1.

Isto significa que os valores de Predefinição:Mvar se aproximam do valor de X no sentido de que os eventos para os quais Predefinição:Mvar não converge a X têm probabilidade zero. Usando o espaço de probabilidade (Ω,,Pr) e o conceito da variável aleatória como uma função de Ω a R, isto equivale à afirmação

Pr(ωΩ:limnXn(ω)=X(ω))=1.

Usando a noção do limite inferior de uma sequência de conjuntos, a convergência quase certa pode ser definida como:

Pr(lim infn{ωΩ:|Xn(ω)X(ω)|<ε})=1para todoε>0.

A convergência quase certa é frequentemente denotada colocando-se as letras q.c. sobre uma seta indicando convergência,

Xnq.c.X.

Para elementos aleatórios genéricos {Xn} em um espaço métrico (S,d), a convergência quase certa é definida de forma semelhante:

Pr(ωΩ:d(Xn(ω),X(ω))n0)=1

Propriedades

  • A convergência quase certa implica convergência em probabilidade pelo lema de Fatou e, por isso, implica convergência em distribuição. É a noção de convergência usada na lei forte dos grandes números.[10]
  • O conceito de convergência quase certa não vem de uma topologia sobre o espaço de variáveis aleatórias. Isto significa que não há topologia no espaço de variáveis aleatórias tal que as sequências quase certamente convergentes são exatamente as sequências convergentes em relação àquela topologia. Em particular, não há métrica de convergência quase certa.

Convergência certa

Dizer que a sequência de variáveis aleatórias Xn definida ao longo do mesmo espaço de probabilidade (isto é, um processo aleatório) converge certamente, em todo lugar ou pontualmente a X significa que

limnXn(ω)=X(ω),ωΩ.

em que Ω é o espaço amostral do espaço de probabilidade subjacente sobre o qual as variáveis aleatórias são definidas.

Esta é a noção de convergência pontual de uma sequência de funções estendida a uma sequência de variáveis aleatórias, lembrando que as variáveis aleatórias são elas mesmas funções.

{ωΩ|limnXn(ω)=X(ω)}=Ω.

A convergência certa de uma variável aleatória implica todos os outros tipos de convergência descritos acima. A diferença entre a convergência quase certa e a convergência certa está nos conjuntos com probabilidade zero. Por isso, o conceito de convergência certa de variáveis aleatórias é muito raramente usado.

Convergência em média

Dado um número real Predefinição:Math, dizemos que a sequência Predefinição:Mvar converge na r-ésima média ou na norma Lr[12] à variável aleatória X se os r-ésimos momentos absolutos E(|Xn|r) e E(|X|r) de Xn e X existem e

limnE(|XnX|r)=0,

em que o operador E denota o valor esperado. A convergência na r-ésima média nos diz que o valor esperado da r-ésima potência da diferença entre Xn e X converge a zero.

Este tipo de convergência é frequentemente denotado colocando-se Lr sobre uma seta indicando convergência:

XnLrX.

Os casos mais importantes de convergência na r-ésima média são:

A convergência na na r-ésima média, para r1, implica convergência em probabilidade pela desigualdade de Markov.[13] Além disso, se r>s1, a convergência na r-ésima média implica convergência na s-ésima média. Assim, a convergência em média quadrática implica a convergência em média.

Vale notar que, se XnLrX, então

limnE[|Xn|r]=E[|X|r]

Propriedades

Se o espaço de probabilidade for completo:

  • Se Xn p X e Xn p Y, então X=Y quase certamente.
  • Se Xn q.c. X e Xn q.c. Y, então X=Y quase certamente.
  • Se Xn Lr X e Xn Lr Y, então X=Y quase certamente.
  • Se Xn p X e Yn p Y, então aXn+bYn p aX+bY (para quaisquer números reais a e b) e XnYnp XY.
  • Se Xn q.c. X e Yn q.c. Y, então aXn+bYn q.c. aX+bY (para quaisquer números reais a e b) e XnYnq.c. XY.
  • Se Xn Lr X e Yn Lr Y, então aXn+bYn Lr aX+bY (para quaisquer números reais a e b).
  • Nenhuma das afirmações acima é verdadeira para convergência em distribuição.

A cadeia de implicações entre as várias noções de convergências estão notadas em suas respectivas seções. Elas são, usando notação de setas:

Lss>r1Lrq.c. p  d 

Estas propriedades, unidas a uma série de outros casos especiais, estão resumidas na lista abaixo:

  • Convergência quase certa implica convergência em probabilidade:[14]
Xn q.c. XXn p X
  • Convergência em probabilidade implica que existe uma subsequência (kn) que quase certamente converge:[15]
Xn p XXkn a.s. X
  • Convergência em probabilidade implica convergência em distribuição:[14]
Xn p XXn d X
  • Convergência na r-ésima média implica convergência em probabilidade:
Xn Lr XXn p X
  • Convergência na r-ésima média implica convergência na média de ordem mais baixa, assumindo que ambas as ordens são maiores ou iguais a um:
Xn Lr XXn Ls X, sendo r>s1.
  • Se Xn convergir em distribuição a uma constante c, então Xn converge em probabilidade a c:[14]
Xn d cXn p c, sendo c uma constante.
  • Se Predefinição:Mvar convergir em distribuição a X e a diferença entre Xn e Yn converge em probabilidade a zero, então Yn também converge em distribuição a X:[14]
Xn d X,  |XnYn| p 0 Yn d X
  • Se Xn convergir em distribuição a X e Yn convergir em distribuição a uma constante c, então o vetor conjunto (Xn,Yn) converge em distribuição a (X,c):
Xn d X,  Yn d c (Xn,Yn) d (X,c) sendo c uma constante.
A condição de que Predefinição:Mvar convirja a uma constante é importante. Se convergisse a uma variável aleatória Y, então não se poderia concluir que (Xn,Yn) converge a (X,Y).
  • Se Xn convergir em probabilidade a X e Yn convergir em probabilidade a Y, então o vetor conjunto (Xn,Yn) converge em probabilidade a (X,Y):[14]
Xn p X,  Yn p Y (Xn,Yn) p (X,Y)
  • Se Predefinição:Mvar convergir em probabilidade a X e Predefinição:Math para todo n e algum b, então Predefinição:Mvar converge na r-ésima média a X para todo Predefinição:Math. Em outras palavras, se Predefinição:Mvar convergir em probabilidade a X e todas as variáveis aleatórias Predefinição:Mvar forem quase certamente limitadas acima e abaixo, então Predefinição:Mvar converge a X também em qualquer r-ésima média.
  • Geralmente, convergência em distribuição não implica convergência quase certa. Entretanto, para uma dada sequência {Xn} que converge em distribuição a X0, é sempre possível encontrar um novo espaço de probabilidade (Ω,,P) e variáveis aleatórias {Yn,n=0,1,...} definidas neste espaço tal que Yn seja igual em distribuição Predefinição:Mvar para todo n0 e Yn convirja a Y0 quase certamente.[14]
  • Se para todo ε>0
n(|XnX|>ε)<,
então dizemos que Predefinição:Mvar converge quase completamente ou quase em probabilidade em direção a X. Quando Xn converge quase completamente em direção a X, então também converge quase certamente a X. Em outras palavras, se Predefinição:Mvar convergir em probabilidade a X de forma suficientemente rápida, isto é, se a sequência acima das probabilidades de cauda for somável para todo Predefinição:Math, então, Predefinição:Mvar converge quase certamente a X. Esta é uma implicação direta do lema de Borel-Cantelli.
Sn=X1++Xn
então Predefinição:Mvar converge quase certamente se e somente se Predefinição:Mvar convergir em probabilidade.
Xna.s.X|Xn|<YE(Y)<}XnL1X
  • Uma condição necessária e suficiente para a convergência L1 é que XnPX e a sequência (Xn) seja uniformemente integrável.

Referências

Predefinição:Reflist

Predefinição:Citizendium

Predefinição:Processos estocásticos