Independência condicional

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Predefinição:Fundamentos de probabilidade

Em teoria das probabilidades, dois eventos R e B são condicionalmente independentes se, dado um terceiro evento Y, a ocorrência ou não-ocorrência de R e a ocorrência ou não-ocorrência de B são eventos independentes em sua distribuição de probabilidade condicional dado Y. Em outras palavras, R e B são condicionalmente independentes dado Y se, e somente se, sabendo que Y ocorre, saber se R ocorre não fornece nenhuma informação sobre a probabilidade de B ocorrer, e saber se B ocorre não fornece nenhuma informação sobre a probabilidade de R ocorrer.

Definição formal

Estes são dois exemplos que ilustram a independência condicional. Cada quadrado representa um possível resultado. Os eventos R, B e Y são representados pelas áreas sombreadas em vermelho, azul e amarelo respectivamente. A sobreposição entre os eventos R e B é sombreada de roxo. As probabilidades destes eventos são áreas sombreadas em relação à área total. Em ambos os exemplos, R e B são condicionalmente independentes, dado Y, porque Pr(RBY)=Pr(RY)Pr(BY)[nota 1] mas não são condicionalmente independentes dado não Y, por que Pr(RBnão Y)=Pr(Rnão Y)Pr(Bnão Y).

Na notação padrão da teoria de probabilidade, os eventos R e B são condicionalmente independentes dado um terceiro evento Y se, e somente se,

Pr(RBY)=Pr(RY)Pr(BY),

ou equivalentemente,

Pr(RBY)=Pr(RY).

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma terceira variável aleatória Z se, e somente se, eles são independentes na sua distribuição de probabilidade condicional dado Z. Isto é, X e Y são condicionalmente independentes dado Z se, e somente se, dado qualquer valor de Z, a distribuição de probabilidade de X é a mesmo para todos os valores de Y e a distribuição de probabilidade de Y é a mesma para todos os valores de X.

Dois eventos R e B são condicionalmente independentes dada uma σ-álgebra Σ se

Pr(RBΣ)=Pr(RΣ)Pr(BΣ) q.c.

onde Pr(AΣ) denota a expectativa condicional da função indicadora do evento A, χA, dada a sigma-álgebra Σ. Isto é,

Pr(AΣ):=E[χAΣ].

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma σ-álgebra Σ se a equação acima vale para todo o R em σ(X) e B em σ(Y).

Duas variáveis aleatórias X e Y são condicionalmente independentes dada uma variável aleatória W se eles são independentes dada σ(W): a σ-álgebra gerada por W. Isso é comumente escrito:

XYW ou
XYW

Isto se lê como "X é independente de Y, dado W"; e o condicionamento aplica-se a declaração toda.

Se W pressupõe um conjunto contável de valores, isto é equivalente a independência condicional de X e Y para os eventos da forma [W=w]. A independência condicional de mais de dois eventos, ou de mais de duas variáveis aleatórias, é definida de forma análoga.

Exemplos

  • Suponha que W é 0 com probabilidade 0,5 e 1 em caso contrário. Quando W=0 tome X e Y como independentes, cada uma tendo valor 0 com probabilidade de 0,99 e 1 em caso contrário. Quando W=1, X e Y novamente estão independentes, mas desta vez eles tomam o valor 1 com probabilidade de 0,99. Então, XYW. Mas X e Y são dependentes, por que Pr(X=0)<Pr(X=0Y=0). Isto por que Pr(X=0)=0,5, mas se Y=0 então é muito provável que W=0 e, assim, X=0, então Pr(X=0Y=0)>0,5.
  • Suponha XY, cada um tomando os valores 0 e 1 com probabilidade 0,5. Seja W o produto X×Y. Em seguida, quando W=0, Pr(X=0)=23, mas Pr(X=0Y=0)=12, então, XYW é falso.[nota 2]
  • Sejam os dois eventos as probabilidades de pessoas A e B chegarem em casa a tempo para o jantar, e o terceiro evento é o fato de que uma tempestade de neve atingiu a cidade. Enquanto ambos A e B têm uma menor probabilidade de chegar em casa a tempo para o jantar, as probabilidades menores ainda serão independentes umas das outras. Isto é, o conhecimento de que A está atrasado, não diz se B irá se atrasar. Eles podem viver em bairros diferentes, viajar distâncias diferentes, e utilizar diferentes meios de transporte. No entanto, se você souber que eles vivem no mesmo bairro, usam o mesmo transporte, e trabalham no mesmo lugar, então, os dois eventos não são condicionalmente independentes.
  • A independência condicional depende da natureza do terceiro evento. Se você rolar dois dados, pode-se assumir que os dois dados se comportam de forma independente um do outro. Saber os resultados do primeiro dado não diz sobre os resultados do segundo dado, isto é, os dois dados são independentes. Se, no entanto, o resultado do primeiro dado é 3, e alguém informa sobre um terceiro evento - que a soma dos dois resultados é par, por exemplo - então esta informação adicional restringe as opções do segundo resultado para um número ímpar. Em outras palavras, dois eventos podem ser independente, mas não condicionalmente independentes.
  • A altura e o vocabulário não são independentes, mas elas são condicionalmente independentes, se você adicionar a idade.[1]

Usos na inferência bayesiana

Seja p a proporção de eleitores que vão votar "sim" em um referendo. Em uma pesquisa de opinião, escolhe-se n eleitores aleatoriamente a partir da população. Para i=1,,n, seja Xi=1 ou 0, correspondendo, respectivamente, a se o i-ésimo eleitor escolhido vai ou não votar "sim".

Em uma abordagem frequentista de inferência estatística não se atribuiria qualquer distribuição de probabilidade para p (a menos que as probabilidades possam ser, de alguma forma, interpretadas como frequências relativas de ocorrência de algum evento ou como proporções de alguma população) e pode-se dizer que X1,,Xn são variáveis aleatórias independentes.

Por outro lado, em uma abordagem bayesiana de inferência estatística, atribuiria-se uma distribuição de probabilidade para p, independentemente da não-existência de qualquer interpretação de "frequência", e interpretaria-se as probabilidades como graus de crença de que p está em qualquer intervalo para o qual a probabilidade é atribuída. Nesse modelo, as variáveis aleatórias X1,,Xn não são independentes, mas elas são condicionalmente independentes, dado o valor de p. Em particular, se um grande número de Xs são observados sendo iguais a 1, tal observação implica uma alta probabilidade condicional de que p está próximo de 1, e, portanto, uma alta probabilidade condicional que o próximo X a ser observado será igual a 1.

Regras de independência condicional

Um conjunto de regras que regem as afirmações da independência condicional são derivados a partir da definição básica.[2][3]

Uma vez que estas implicações se mantém para qualquer espaço de probabilidade, eles ainda irão se manter se considerar-se um sub-universo condicionando tudo em outra variável, digamos K. Por exemplo, XYYX também significaria que XYKYXK.

As cinco regras abaixo foram denominadas "axiomas grafóides" por Pearl e Paz,[4] porque elas se mantém em grafos, se XAB é interpretado significando que "todos os caminhos de X para A são interceptados pelo conjunto B".[5]

Simetria

XYYX

Decomposição

XA,B e {XAXB

Prova:

  • pX,A,B(x,a,b)=pX(x)pA,B(a,b)(significado de XA,B)[nota 3]
  • BpX,A,B(x,a,b)=BpX(x)pA,B(a,b)(ignora-se a variável B integrando-a)
  • pX,A(x,a)=pX(x)pA(a)     Uma prova similar mostra a independência de X e B.

União fraca

XA,B e {XABXBA

Prova:

  • Por definição, Pr(X)=Pr(XA,B).
  • Devido à propriedade de decomposição XB, Pr(X)=Pr(XB).
  • Combinando as duas igualdades tem-se Pr(XB)=Pr(XA,B), que estabelece XAB.

A segunda condição pode ser provada do mesmo modo.

Contração

XABXB} e XA,B

Prova:

Esta propriedade pode ser comprovada por Pr(XA,B)=Pr(XB)=Pr(X), cada igualdade do que é afirmado por XAB e XB, respectivamente.

Contração-união-fraca-decomposição

Colocando os três acima juntos, tem-se que:

XABXB} e XA,B e {XABXBXBAXA

Intersecção

Para distribuições de probabilidade estritamente positivas,[3] o seguinte também é verdadeiro:

XAC,BXBC,A} e XB,AC

Ver também

Predefinição:Notas

Predefinição:Referências


Erro de citação: Existem etiquetas <ref> para um grupo chamado "nota", mas não foi encontrada nenhuma etiqueta <references group="nota"/> correspondente

  1. Predefinição:Citar web
  2. Predefinição:Citar periódico
  3. 3,0 3,1 J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  4. Predefinição:Citar livro
  5. Predefinição:Citar livro