Convergência de variáveis aleatórias
Em teoria das probabilidades, existem várias noções diferentes de convergência de variáveis aleatórias. A convergência de sequências de variáveis aleatórias a alguma variável aleatória limite é um importante conceito em teoria das probabilidades e tem aplicações na estatística e nos processos estocásticos. Os mesmos conceitos são conhecidos em matemática geral como convergência estocástica e formalizam a ideia de que é possível esperar que uma sequência de eventos essencialmente aleatórios ou imprevisíveis às vezes mantenha um comportamento essencialmente imutável quando itens suficientemente distantes na sequência são estudados. As possíveis noções diferentes de convergência se relacionam a como tal comportamento pode ser caracterizado: dois comportamentos prontamente entendidos são que a sequência eventualmente assume um valor constante e que os valores na sequência continuam mudando, mas podem ser descritos por uma distribuição de probabilidade imutável.
Plano de fundo
A expressão "convergência estocástica" formaliza a ideia de que é possível esperar que uma sequência de eventos essencialmente aleatórios ou imprevisíveis siga eventualmente um padrão.[1] Este padrão pode ser, por exemplo,
- Convergência no sentido clássico de um valor fixado, talvez ele mesmo vindo de um evento aleatório;
- Uma semelhança crescente dos eventos ao que uma função puramente determinística produziria;
- Uma preferência crescente em direção a um certo valor observado;
- Uma "aversão" crescente a se afastar demais de um certo valor observado;
- A distribuição de probabilidade que descreve o próximo valor observado pode ficar cada vez mais semelhante a uma certa distribuição.
Alguns padrões teóricos, menos óbvios, podem ser:
- A série formada pelo cálculo do valor esperado da distância entre o valor observado e um valor particular pode convergir a zero;
- A variância da variável aleatória que descreve o seguinte evento fica cada vez menor.
Estes outros tipos de padrões que podem surgir estão refletidos em diferentes tipos de convergência estocástica que têm sido estudados.
Enquanto a discussão acima diz respeito à convergência de uma única série a um valor limitante, a noção de convergência de duas séries uma em direção a outra também é importante. No entanto, é fácil lidar com isto estudando a sequência definida como a diferença ou como a razão das duas séries.
Por exemplo, se a média de variáveis aleatórias independentes , , todas tendo média e variância iguais e finitas, é dada por
então conforme tende ao infinito, converge em probabilidade à média comum das variáveis aleatórias . Este resultado é conhecido como lei fraca dos grandes números. Outras formas de convergência são importantes em outros teoremas úteis, incluindo o teorema central do limite.[2]
Ao longo do que se segue, assume-se que é uma sequência de variáveis aleatórias, é uma variável aleatória e todas elas estão definidas no mesmo espaço de probabilidade .
Convergência em distribuição
Com este modo de convergência, nós esperamos ver o próximo valor observado em uma sequência de experimentos aleatórios cada vez mais bem modelado por uma dada distribuição de probabilidade.
A convergência em distribuição é a forma mais fraca de convergência, já que é implicada por todos os outros tipos de convergência mencionados nesta página.[3] Entretanto, a convergência em distribuição é usada com muita regularidade na prática. Mais frequentemente, ela surge da aplicação do teorema central do limite.
Definição
Uma sequência Predefinição:Math de variáveis aleatórias de valores reais converge em distribuição, converge fracamente ou converge em lei a uma variável aleatória se[4]
para todo número Predefinição:Math no qual é contínua. Aqui, Predefinição:Mvar e Predefinição:Mvar são as funções distribuição acumulada das variáveis aleatórias Predefinição:Mvar e Predefinição:Mvar respectivamente.
A exigência de que apenas os pontos de continuidade de Predefinição:Mvar sejam considerados é essencial. Por exemplo, se Predefinição:Mvar for distribuída uniformemente nos intervalos, Predefinição:Math, então, esta sequência converge em distribuição a uma variável aleatória degenerada Predefinição:Math. De fato, Predefinição:Math para todo quando Predefinição:Math e Predefinição:Math para todo Predefinição:Math quando Predefinição:Math. Entretanto, para esta variável aleatória limitante, Predefinição:Math, ainda que Predefinição:Math para todo . Assim, a convergência das funções distribuição acumulada falha no ponto , em que é descontínua.
A convergência em distribuição pode ser denotada como
em que é a lei (distribuição de probabilidade) de Predefinição:Mvar. Por exemplo, se Predefinição:Mvar tiver distribuição normal padrão, podemos escrever .
Para vetores aleatórios Predefinição:Math, a convergência em distribuição é definida de forma semelhante. Dizemos que esta sequência converge em distribuição a um vetor aleatório se
para todo Predefinição:Math que for um conjunto continuidade de .
A definição de convergência em distribuição pode ser estendida de vetores aleatórios a elementos aleatórios mais gerais em espaços métricos arbitrários, até mesmo a "variáveis aleatórias" não mensuráveis — uma situação que ocorre, por exemplo, no estudo de processos empíricos. Isto é a convergência fraca de leis sem que leis sejam definidas — exceto assintoticamente.[5]
Neste caso, o termo convergência fraca é preferível e dizemos que uma sequência de elementos aleatórios converge fracamente a (denotado como Predefinição:Math) se
para todas as funções contínuas limitadas Predefinição:Mvar.[6] Aqui, denota o valor esperado externo, que é o valor esperado da menor função mensurável que domina Predefinição:Math.
Propriedades
- Já que Predefinição:Math, a convergência em distribuição significa que a probabilidade de que Predefinição:Mvar esteja em um dado intervalo é aproximadamente igual à probabilidade de que o valor de Predefinição:Mvar esteja neste intervalo, sendo suficientemente grande.
- Em geral, a convergência em distribuição não implica que a sequência de funções densidade de probabilidade correspondentes também convergirá. Como um exemplo, podem-se considerar variáveis aleatórias com densidades Predefinição:Math. Estas variáveis aleatórias convergem em distribuição a uma uniforme , enquanto suas densidades não convergem de qualquer forma.[7]
- Entretanto, o lema de Scheffé implica que a convergência das funções densidade de probabilidade implica convergência em distribuição.[8]
- O lema de Portmanteau oferece várias definições equivalentes de convergência em distribuição. Ainda que estas definições sejam menos intuitivas, elas são usadas para provar uma série de teoremas estatísticos. O teorema afirma que Predefinição:Mathconverge em distribuição a Predefinição:Mvar se e somente só qualquer uma das afirmações seguintes for verdadeira:
- Predefinição:Math para todas as funções limitadas, contínuas (em que Predefinição:Math denota o valor esperado);
- Predefinição:Math para todas as funções limitadas e de Lipschitz ƒ;
- Predefinição:Math para toda função semicontínua superior limitada a partir de cima;
- Predefinição:Math para toda função semicontínua inferior limitada a partir de baixo;
- Predefinição:Math para todos os conjuntos fechados Predefinição:Mvar;
- Predefinição:Math para todos os conjuntos abertos Predefinição:Mvar;
- Predefinição:Math para todos os conjuntos continuidade Predefinição:Mvar da variável aleatória Predefinição:Mvar.
- O teorema de Mann-Wald afirma que, para uma função contínua , se a sequência Predefinição:Math convergir em distribuição a , então Predefinição:Math converge em distribuição a Predefinição:Math.
- Entretanto, a convergência em distribuição de Predefinição:Math a e de Predefinição:Math a Predefinição:Mvar não implica, em geral, a convergência em distribuição dePredefinição:Math a Predefinição:Math ou de Predefinição:Math a Predefinição:Mvar.
- O teorema da continuidade de Lévy afirma que a sequência Predefinição:Math converge em distribuição a Predefinição:Mvar se e somente se a sequência das funções características correspondentes Predefinição:Math convergir pontualmente à função característica Predefinição:Mvar de Predefinição:Mvar.
- A convergência em distribuição é metrizável pela métrica de Lévy-Prokhorov.[3]
- Uma ligação natural à convergência em distribuição é o teorema da representação de Skorokhod.
Convergência em probabilidade
A ideia básica por trás deste tipo de convergência é que a probabilidade de um valor observado "incomum" se torna cada vez menor conforme a sequência progride.[9]
O conceito de convergência em probabilidade é usado muito frequentemente em estatística. Por exemplo, um estimador é considerado consistente se convergir em probabilidade à quantidade sendo estimada. A convergência em probabilidade é também o tipo de convergência estabelecido pela lei fraca dos grandes números.[10]
Definição
Uma sequência de variáveis aleatórias converge em probabilidade em direção à variável aleatória se para todo [4]
Formalmente, considere qualquer e qualquer . Considere a probabilidade de que esteja fora de um intervalo de confiança de raio e em torno de . Então, para que convirja em probabilidade a , deve existir um número (que dependerá de e ) tal que, para todo , .
A convergência em probabilidade é denotada colocando-se a letra sobre uma seta indicando convergência ou o operador de limite de probabilidade :
Para elementos aleatórios em um espaço métrico separável Predefinição:Math, a convergência em probabilidade é definida de forma semelhante por[11]
Propriedades
- A convergência em probabilidade implica convergência em distribuição.[9]
- Na direção oposta, a convergência em distribuição implica a convergência em probabilidade quando a variável aleatória limitante for uma constante.
- A convergência em probabilidade não implica convergência quase certa.
- O teorema de Mann-Wald afirma que, para toda função contínua , se , então também .
- A convergência em probabilidade define uma topologia no espaço de variáveis aleatórias sobre um espaço de probabilidade fixado. Esta topologia é metrizável pela métrica de Ky Fan:[11]
- ou
- .
Convergência quase certa
Este é o tipo de convergência estocástica mais semelhante à convergência pontual conhecida a partir da análise real elementar.
Definição
Dizer que a sequência Predefinição:Mvar converge quase certamente, quase em todo lugar, com probabilidade 1 ou fortemente em direção a significa que[4]
Isto significa que os valores de Predefinição:Mvar se aproximam do valor de no sentido de que os eventos para os quais Predefinição:Mvar não converge a têm probabilidade zero. Usando o espaço de probabilidade e o conceito da variável aleatória como uma função de a R, isto equivale à afirmação
Usando a noção do limite inferior de uma sequência de conjuntos, a convergência quase certa pode ser definida como:
A convergência quase certa é frequentemente denotada colocando-se as letras sobre uma seta indicando convergência,
Para elementos aleatórios genéricos em um espaço métrico , a convergência quase certa é definida de forma semelhante:
Propriedades
- A convergência quase certa implica convergência em probabilidade pelo lema de Fatou e, por isso, implica convergência em distribuição. É a noção de convergência usada na lei forte dos grandes números.[10]
- O conceito de convergência quase certa não vem de uma topologia sobre o espaço de variáveis aleatórias. Isto significa que não há topologia no espaço de variáveis aleatórias tal que as sequências quase certamente convergentes são exatamente as sequências convergentes em relação àquela topologia. Em particular, não há métrica de convergência quase certa.
Convergência certa
Dizer que a sequência de variáveis aleatórias definida ao longo do mesmo espaço de probabilidade (isto é, um processo aleatório) converge certamente, em todo lugar ou pontualmente a significa que
em que é o espaço amostral do espaço de probabilidade subjacente sobre o qual as variáveis aleatórias são definidas.
Esta é a noção de convergência pontual de uma sequência de funções estendida a uma sequência de variáveis aleatórias, lembrando que as variáveis aleatórias são elas mesmas funções.
A convergência certa de uma variável aleatória implica todos os outros tipos de convergência descritos acima. A diferença entre a convergência quase certa e a convergência certa está nos conjuntos com probabilidade zero. Por isso, o conceito de convergência certa de variáveis aleatórias é muito raramente usado.
Convergência em média
Dado um número real Predefinição:Math, dizemos que a sequência Predefinição:Mvar converge na -ésima média ou na norma Lr[12] à variável aleatória se os -ésimos momentos absolutos e de e existem e
em que o operador denota o valor esperado. A convergência na -ésima média nos diz que o valor esperado da -ésima potência da diferença entre e converge a zero.
Este tipo de convergência é frequentemente denotado colocando-se Lr sobre uma seta indicando convergência:
Os casos mais importantes de convergência na -ésima média são:
- Quando Predefinição:Mvar converge na -ésima média a para , dizemos que Predefinição:Mvar converge em média a .
- Quando Predefinição:Mvar converge na -ésima média a para , dizemos que Predefinição:Mvar converge em média quadrática a .
A convergência na na -ésima média, para , implica convergência em probabilidade pela desigualdade de Markov.[13] Além disso, se , a convergência na -ésima média implica convergência na -ésima média. Assim, a convergência em média quadrática implica a convergência em média.
Vale notar que, se , então
Propriedades
Se o espaço de probabilidade for completo:
- Se e , então quase certamente.
- Se e , então quase certamente.
- Se e , então quase certamente.
- Se e , então (para quaisquer números reais e ) e .
- Se e , então (para quaisquer números reais e ) e .
- Se e , então (para quaisquer números reais e ).
- Nenhuma das afirmações acima é verdadeira para convergência em distribuição.
A cadeia de implicações entre as várias noções de convergências estão notadas em suas respectivas seções. Elas são, usando notação de setas:
Estas propriedades, unidas a uma série de outros casos especiais, estão resumidas na lista abaixo:
- Convergência quase certa implica convergência em probabilidade:[14]
- Convergência em probabilidade implica que existe uma subsequência que quase certamente converge:[15]
- Convergência em probabilidade implica convergência em distribuição:[14]
- Convergência na -ésima média implica convergência em probabilidade:
- Convergência na -ésima média implica convergência na média de ordem mais baixa, assumindo que ambas as ordens são maiores ou iguais a um:
- sendo .
- Se convergir em distribuição a uma constante , então converge em probabilidade a :[14]
- sendo uma constante.
- Se Predefinição:Mvar convergir em distribuição a e a diferença entre e converge em probabilidade a zero, então também converge em distribuição a :[14]
- Se convergir em distribuição a e convergir em distribuição a uma constante , então o vetor conjunto converge em distribuição a :
- sendo uma constante.
- A condição de que Predefinição:Mvar convirja a uma constante é importante. Se convergisse a uma variável aleatória , então não se poderia concluir que converge a .
- Se convergir em probabilidade a e convergir em probabilidade a , então o vetor conjunto converge em probabilidade a :[14]
- Se Predefinição:Mvar convergir em probabilidade a e Predefinição:Math para todo e algum , então Predefinição:Mvar converge na -ésima média a para todo Predefinição:Math. Em outras palavras, se Predefinição:Mvar convergir em probabilidade a e todas as variáveis aleatórias Predefinição:Mvar forem quase certamente limitadas acima e abaixo, então Predefinição:Mvar converge a também em qualquer -ésima média.
- Geralmente, convergência em distribuição não implica convergência quase certa. Entretanto, para uma dada sequência que converge em distribuição a , é sempre possível encontrar um novo espaço de probabilidade e variáveis aleatórias definidas neste espaço tal que seja igual em distribuição Predefinição:Mvar para todo e convirja a quase certamente.[14]
- Se para todo
- então dizemos que Predefinição:Mvar converge quase completamente ou quase em probabilidade em direção a . Quando converge quase completamente em direção a , então também converge quase certamente a . Em outras palavras, se Predefinição:Mvar convergir em probabilidade a de forma suficientemente rápida, isto é, se a sequência acima das probabilidades de cauda for somável para todo Predefinição:Math, então, Predefinição:Mvar converge quase certamente a . Esta é uma implicação direta do lema de Borel-Cantelli.
- Se Predefinição:Mvar for uma soma de variáveis aleatórias independentes reais:
- então Predefinição:Mvar converge quase certamente se e somente se Predefinição:Mvar convergir em probabilidade.
- O teorema da convergência dominada dá condições suficientes para que a convergência quase certa implique convergência
- Uma condição necessária e suficiente para a convergência é que e a sequência seja uniformemente integrável.
Referências
Predefinição:Processos estocásticos
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ 3,0 3,1 Predefinição:Citar livro
- ↑ 4,0 4,1 4,2 Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar periódico
- ↑ 9,0 9,1 Predefinição:Citar livro
- ↑ 10,0 10,1 Predefinição:Citar livro
- ↑ 11,0 11,1 Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ 14,0 14,1 14,2 14,3 14,4 14,5 Predefinição:Citar livro
- ↑ Predefinição:Citar livro