Teorema de Sanov

Fonte: testwiki
Revisão em 10h55min de 6 de junho de 2018 por imported>Tuga1143 (v1.41b - Corrigido usando WP:PCW (Várias categorias em uma linha))
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.[1]

Definição

Considere

A

um conjunto de distribuições de probabilidade sobre um alfabeto

X

e considere

q

uma distribuição arbitrária sobre

X

, sendo que

q

pode ou não estar em

A

. Suponha que são retiradas

n

amostras independentes e identicamente distribuídas a partir de

q

, representadas pelo vetor

xn=x1,x2,,xn

. Além disto, deseja-se saber se a distribuição empírica,

p^xn

, das amostras cai no interior do conjunto

A

— formalmente, escreve-se

{xn:p^xnA}

. Então,

qn(xn)(n+1)|X|2nDKL(p*||q),

em que

  • qn(xn) é uma abreviação para q(x1)q(x2)q(xn) e
  • p* é a projeção de informação de q sobre A.

Em palavras, a probabilidade de retirar uma distribuição atípica é proporcional à divergência de Kullback–Leibler da distribuição verdadeira à distribuição atípica. No caso em que consideramos um conjunto de possíveis distribuições atípicas, há uma distribuição atípica dominante, dada pela projeção de informação.

Além disto, se

A

for o fecho de seu interior,

limn1nlogqn(xn)=DKL(p*||q).

[2]

Referências

Predefinição:Reflist

Predefinição:Processos estocásticos

Predefinição:Esboço-matemática