Constante de normalização

Fonte: testwiki
Revisão em 20h02min de 8 de março de 2018 por imported>WilsonNeuroMat (Inserção de conteúdo traduzido do verbete em inglês. Adaptação de conteúdo em português.)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Predefinição:Estatística sidebar A constante de normalização é um conceito que surge em teoria das probabilidades e em outras áreas da matemática. A constante de normalização é usada para reduzir qualquer função de probabilidade a uma função densidade de probabilidade com probabilidade total igual a 1.[1]

Definição e exemplos

Em teoria das probabilidades, uma constante de normalização é uma constante pela qual uma função não negativa em todo lugar deve ser multiplicada de modo que a área sob sua gráfico seja igual a 1, por exemplo, para tornar a função uma função densidade de probabilidade ou uma função massa de probabilidade. Por exemplo, se definirmos

p(x)=ex2/2,x(,),

teremos

p(x)dx=ex2/2dx=2π

e, se definirmos uma função

φ(x)

como

φ(x)=12πp(x)=12πex2/2,

de modo que

φ(x)dx=12πex2/2dx=1,

então a função

φ(x)

é uma função densidade de probabilidade. Esta é a densidade da distribuição normal padrão, isto é, com valor esperado igual a 0 e variância igual a 1.

A constante 12π é a constante de normalização da função p(x).

De forma semelhante,

n=0λnn!=eλ

e, consequentemente,

f(n)=λneλn!

é a uma função massa de probabilidade no conjunto de todos os números inteiros não negativos. Esta é a função massa de probabilidade da distribuição de Poisson com valor esperado igual a

λ

.[2]

Se a função densidade de probabilidade for uma função de vários parâmetros, assim também será sua constante de normalização. A constante de normalização parametrizada para a distribuição de Boltzmann desempenha uma papel central na mecânica estatística. Neste contexto, a constante de normalização é chamada de função de partição.[3]

Teorema de Bayes

O teorema de Bayes diz que a medida de probabilidade a posteriori é proporcional ao produto da medida de probabilidade a priori pela função de verossimilhança. "Proporcional ao" implica que se deve multiplicar ou dividir por uma constante de normalização para atribuir medida 1 ao espaço inteiro, isto é, para obter uma medida de probabilidade. No caso discreto simples, temos

P(H0|D)=P(D|H0)P(H0)P(D),

em que

P(H0)

é a probabilidade a priori de que a hipótese seja verdadeira;

P(D|H0)

é a probabilidade condicional dos dados, sendo a hipótese verdadeira, mas já que os dados são conhecidos, é a verossimilhança da hipótese (ou seus parâmetros), levando em conta os dados;

P(H0|D)

é a probabilidade a posterior de que hipótese seja verdadeira, levando em conta os dados;

P(D)

deve ser a probabilidade de produzir os dados, sendo por si só difícil de calcular, mas havendo uma forma alternativa de descrever esta relação em termos de proporcionalidade

P(H0|D)P(D|H0)P(H0).

Já que

P(H|D)

é uma probabilidade, a soma sobre todas as hipóteses possíveis (e mutuamente exclusivas) deve ser igual a 1, o que leva à conclusão que:

P(H0|D)=P(D|H0)P(H0)iP(D|Hi)P(Hi).

Neste caso, o inverso multiplicativo do valor

P(D)=iP(D|Hi)P(Hi)

é a constante de normalização. Pode ser estendida de muitas hipóteses contáveis a muitas hipóteses incontáveis ao substituir a soma por uma integral.[4]

Usos não probabilísticos

Os polinômios de Legendre são caracterizados pela ortogonalidade com respeito à medida uniforme no intervalo [1,1] e pelo fato de que são normalizados, de modo que seu valor em 1 seja 1. A constante pela qual se multiplica um polinômio de modo que seu valor em 1 seja 1 é uma constante de normalização.

Funções ortonormais são normalizadas, de modo que

fi,fj=δi,j

com respeito a algum produto interior

<f,g>

.

A constante 1/2 é usada para estabelecer as funções hiperbólicas cosh e o senh a partir dos comprimentos dos lados adjacentes e opostos de um triângulo hiperbólico.[5]

Referências

Predefinição:Reflist

Predefinição:Portal3