Distribuição normal

Fonte: testwiki
Revisão em 12h54min de 11 de janeiro de 2024 por imported>Joseph2612 (growthexperiments-addlink-summary-summary:3|0|0)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Predefinição:Fundamentos de probabilidade Predefinição:Info/Distribuições de probabilidade Predefinição:Wikipédia audível Em probabilidade e estatística, a distribuição normal é uma das distribuições de probabilidade mais utilizadas para modelar fenômenos naturais. Isso se deve ao fato de que um grande número de fenômenos naturais apresenta sua distribuição de probabilidade tão proximamente normal, que a ela pode ser com sucesso referida, e, portanto, com adequado acerto por ela representada como se normal fosse[1]. A distribuição normal é ligada a vários conceitos matemáticos como movimento browniano,[2] ruído branco,[3] entre outros. A distribuição normal também é chamada distribuição gaussiana, distribuição de Gauss ou distribuição de Laplace–Gauss, em referência aos matemáticos, físicos e astrônomos francês Pierre–Simon Laplace (1749 – 1827) e alemão Carl Friedrich Gauss (1777 – 1855).[4]

Os diagramas em barras representam as distribuições discretas da soma de 1, 2, 3, 4 ou 5 dados. A curva preta representa a densidade da distribuição normal como o limite dos gráficos de barras.

Em termos mais formais, a distribuição normal é uma distribuição de probabilidade absolutamente contínua parametrizada pela sua esperança matemática (número real μ) e desvio padrão (número real positivo σ). A densidade de probabilidade da distribuição normal é denotada como

f(x)=1σ2πe12(xμσ)2.

A distribuição normal com média nula e desvio padrão unitário é chamada de distribuição normal centrada e reduzida ou de distribuição normal padrão. Quando uma variável aleatória X segue uma distribuição normal, ela é chamada de gaussiana ou de normal. Comumente é usada a notação com a variância σ2 quando XN(μ,σ2). A curva de densidade é chamada de curva de Gauss ou de curva em forma de sino.[5]

O papel central da distribuição normal decorre do fato de ser o limite de um grande número de distribuições de probabilidade como mostra o teorema central do limite, o qual permite estudar probabilisticamente a média das variáveis independentes de uma amostra aleatória simples de tamanho grande n.[6] A distribuição normal corresponde ao comportamento do efeito agregado de experiências aleatórias independentes e semelhantes em certas circunstâncias quando o número de experiências é muito alto.[7] Com esta propriedade, a distribuição normal pode aproximar–se da distribuição de efeito agregado de outras distribuições e modelar vários estudos científicos como erros de medição ou testes estatísticos com as tabelas de distribuição normal.[8]

Histórico

Predefinição:Multiple image Uma das primeiras aparições da distribuição normal ocorreu em 1733 com Abraham de Moivre com o aprofundamento do estudo de fatorial n! quando considerado um jogo de cara ou coroa.[9] Em 1756, ele publicou A Doutrina das Chances, em que a distribuição normal aparece como o limite de uma distribuição binomial, o que originaria o teorema central do limite.[10]

Em 1777, Pierre-Simon Laplace retomou o trabalho e obteve uma boa aproximação do erro entre a distribuição normal e a distribuição binomial em razão da função gama de Euler.[9] Em seu livro publicado em 1781, Laplace publica uma primeira tabela da distribuição normal. Em 1809, Carl Friedrich Gauss assimila os erros da observação na astronomia à curva, erros da densidade da distribuição normal.[10]

A distribuição normal é totalmente definida quando o primeiro teorema central do limite (chamado então teorema de Laplace) é elaborado por Laplace em 1821.[10] O nome normal é dado por Henri Poincaré no fim do século XIX.[11] A distribuição normal também pode ser chamada de distribuição de Gauss ou distribuição de Laplace–Gauss,[12] de acordo com sua autoria. A denominação segunda distribuição de Laplace também é usada ocasionalmente.[13][14]

A distribuição normal é estudada frequentemente. Por exemplo, novas tabelas digitais foram publicadas por Egon Sharpe Pearson em 1948, pelo National Bureau of Standards em 1952 e por Greenwood e Hartley em 1958.[15][16]

Distribuição normal padrão

Existe uma infinidade de distribuições normais, cada uma com sua própria média e desvio padrão. A distribuição normal com média 0 e desvio padrão 1 é chamada de distribuição normal padrão.[17] Ela é uma distribuição de probabilidade (uma medida N, de massa total unitária) unidimensional (com suporte real ).[18] É uma distribuição absolutamente contínua (a medida é absolutamente contínua em relação à medida de Lebesgue).

Em outras palavras, existe uma densidade de probabilidade muitas vezes denotada como φ para a distribuição normal padrão tal que: N(dx)=φ(x)dx. É generalizada para a distribuição normal multivariada. A distribuição normal padrão também pode ser chamada de distribuição normal centrada e reduzida.[19] A escala horizontal do gráfico da distribuição normal padrão corresponde ao escore-z que é uma medida de posição que indica o número de desvios padrão em que um valor se encontra a partir da média. Podemos transformar um valor x em escore-z usando a fórmula:

[20]

z=xμσ Arredondar para o centésimo mais próximo

Quando um valor de uma variável aleatória x distribuída normalmente é transformado em um escore-z, a distribuição de z será uma distribuição normal padrão. Após essa transformação, a área que recai no intervalo (x1;x2) sob a curva normal padrão é a mesma que aquela sob a curva normal padrão no correspondente intervalo (z1;z2).[20]

Propriedades da distribuição normal padrão

  1. A área acumulada é próxima de 0 para escores-z próximos a z=-3,49.
  2. A área acumulada aumenta conforme os escores-z aumentam.
  3. A área acumulada para z=0 é 0,5000.
  4. A área acumulada é próxima a 1 para escores-z próximos a z=3,49.

Definição pela função densidade

Courbe de Gauss
Função densidade da distribuição normal padrão (curva de Gauss ou curva em forma de sino).

A densidade da distribuição normal padrão é dada pela função φ:+definida por φ(t)=12πe12t2, para todo t.[21] Esta distribuição é chamada centrada porque o valor do seu momento de ordem 1 (esperança) é 0 e reduzida porque o valor do seu momento de ordem 2 (variância) é 1, assim como o seu desvio padrão. O gráfico da densidade φ é chamado função gaussiana, curva de Gauss ou curva em forma de

sino. A distribuição normal é denotada pela letra N. Uma variável aleatória X que segue uma distribuição normal padrão é denotada como XN(0,1).[22]

Seguem algumas propriedades sobre a função densidade:

  • O cálculo da integral de Gauss permite demonstrar que a função φ é uma densidade de probabilidade pela fórmula +exp(12t2)dt=2π.
  • É contínua, uniformemente limitada e par.[23]
  • O máximo da função φ é atingido na média 0 e de valor 12π.[23]
  • Verifica limx+φ(x)=limxφ(x)=0.[24]
  • A densidade φ é infinitamente derivável. Uma indução matemática permite obter a fórmula para a n-ésima derivada de φ: φ(n)(x)=(1)nHn(x)φ(x), em que Hn é o n–ésimo polinômio de Hermite.[25]
  • A densidade possui dois pontos de inflexão, em 1 e em –1. Estes são os pontos em que a segunda derivada φ se anula e muda de sinal. Os dois pontos são aproximadamente três quintos da altura total.[18]

Definição pela função distribuição

Fonction de répartition
Função distribuição da distribuição normal padrão.

Historicamente a distribuição normal aparece como a distribuição limite no teorema central do limite, usando a função de distribuição cumulativa. A distribuição normal é a distribuição de probabilidade, em que a função de distribuição é dada por Φ:+, definida por

Φ(x)=12πxe12t2dt, para todo x. Ela fornece a probabilidade de uma variável aleatória de distribuição normal pertencer a

um intervalo fechado [a,b], (X[a,b])=Φ(b)Φ(a).[26]

Seguem algumas propriedades sobre a função de distribuição:

  • Não existe uma expressão analítica para a função de distribuição Φ. Isto é, não é expressa a partir de funções usuais, mas torna–se uma função usual. Para obter os valores de probabilidade Φ(x)=(Xx) é preciso aproximar esta função de outras funções usuais gerando a tabela de valores.[27]
  • Pode ser expressa em função da função erro por meio das seguintes fórmulas equivalentes Φ(x)=12+12erf(x2) e erf(x)=2Φ(x2)1.[28]
  • É infinitamente derivável e verifica Φ(x)=φ(x). A fórmula equivalente dΦ(x)=φ(x)dx permite definir a integral de Lebesgue–Stieltjes com relação à distribuição normal.[29]
  • É absolutamente contínua e estritamente crescente, sendo uma bijeção de no intervalo aberto ]0,1[.[30] O recíproco Φ1 é chamado de função inversa da função distribuição acumulada da distribuição normal. Por exemplo, esta função é utilizada pelo modelo probit.[31]
  • Pela paridade da distribuição, Φ(x)=1Φ(x). Portanto, Φ(0)=12. Isso mostra que a mediana da distribuição normal padrão é 0.[30]

Definição pela função característica

Fonction caractéristique
Função característica e função geradora de momentos da distribuição normal padrão.

A caracterização da distribuição normal pela função característica tem o objetivo de demonstrar certas propriedades como a estabilidade da soma e o teorema central do limite. A função característica de distribuição normal padrão é dada por

ϕ:+ e definida por ϕ(t)=et22, para todo t.[32][33] Em grego existem duas variações para a letra phi minúscula. O ϕ utilizado agora é diferente do φ utilizado no início do texto. Isto é, são duas notações diferentes para phi minúsculo.

Esta função característica é proporcional à densidade da distribuição padrão. Ela permite demonstrar certas propriedades como a estabilidade por adição e o teorema central do limite.[34]

Seguem algumas propriedades sobre a função de distribuição:

  • A função característica da distribuição normal pode ser obtida a partir da função densidade pelas igualdades ϕ(t)=+eitxdΦ(x)=+eitxx22dx=et22.[26]
  • Se uma variável aleatória X segue uma distribuição normal padrão da função característica ϕ definida acima, então a transformação linear Y=aX+b admite a função característica ϕY(t)=eibtϕ(at). É uma variável aleatória com distribuição normal de média b e variância a2.[35]

Definição pela função geradora de momentos

Uma outra maneira de definir a distribuição normal padrão é pela utilização da função geradora de momentos. É a distribuição de probabilidade, em que a função geradora de momentos é dada por M:+ e definida por[36] M(t)=et22, para todo t. O objetivo é calcular os momentos da distribuição normal.[37]

Seguem algumas propriedades sobre a função geradora de momentos:

  • A função geradora de momentos da distribuição normal pode ser obtida a partir da função densidade. Seja X, que segue uma distribuição normal padrão, então M(t)=𝔼[etX]=12π+extex22dx=12π+e((xt)2t22)dx=et2212π+ex22dx=et22.[36]
  • Se uma variável aleatória X segue uma distribuição normal padrão da função geradora de momentos M, então a transformação linear Y=aX+b admite a função geradora de momentos MY(t)=ebtM(at). Assim, Y é uma variável aleatória com distribuição normal de média b e variância a2.[37]

Distribuição normal geral

Definição

Mais usualmente que a distribuição normal padrão, a distribuição normal não centrada e não reduzida é a distribuição de probabilidade absolutamente contínua, na qual um dos quatros pontos seguintes podem ser verificados.

  • A densidade de probabilidade é dada pela função f:+, definida por f(t)=1σ2πe12(tμ)2σ2, para todo t.[21]
  • A função de distribuição (cumulativa) é dada pela função F:+, definida por F(x)=1σ2πxe12(tμ)2σ2dt, para todo t.[38]
  • A função característica é dada por ϕ: , definida por ϕ(t)=eμit12σ2t2, para todo t.[33]
  • A função geradora de momentos é dada por ϕ:+ , definida por M(t)=eμt+12σ2t2, para todo t ou μ e σ.[39]

Para σ=0, as funções de densidade e de distribuição não são definidas. Este caso corresponde a um comportamento degenerado da distribuição normal, às vezes chamada de distribuição normal imprópria. Isto é a medida de Dirac no ponto μ. O valor μ é a média da distribuição, σ é o desvio padrão e σ2 é a variância. Esta distribuição é denotada por N, uma variável aleatória X que segue a distribuição normal com a média μ e variância σ2 é denotada por XN(μ,σ2).[33]

Observações

    • Se a variável aleatória X segue uma distribuição normal padrão N(0,1), então a variável aleatória σX+μ segue uma distribuição normal N(μ,σ2) de média μ e de variância σ2. Reciprocamente, se Y segue uma distribuição normal N(μ,σ2), então Yμσ segue uma distribuição normal padrão.[40] Em outras palavras, toda distribuição normal pode ser obtida pela translação e pela dilatação de uma distribuição normal padrão. Esta primeira propriedade permite obter a fórmula (Yx)=(Yμσxμσ)=(Xxμσ).[41] Então, é possível deduzir as propriedades da distribuição normal a partir da distribuição normal centrada reduzida e vice–versa. A variável Yμσ às vezes é chamada de padronização de Y ou de variável padrão Y.[42]
    • A densidade f é simétrica em relação à μ.[23]
    • O máximo da função f é atingido em μ, com valor 1σ2π.[23]
    • Desde que a distribuição normal seja uma distribuição de probabilidade absolutamente contínua, o evento [X=x] é insifgnificante. Isto é, quase certamente uma variável aleatória com distribuição normal X nunca é igual a um valor fixo x. Isto é expresso matematicamente por (X=x)=0.[43]
    • A largura à meia altura (largura da curva à metade da altura total) fornece um valor da amplitude da distribuição. Esta largura à meia altura da distribuição normal é proporcional ao desvio padrão H=22ln(2)σ2,3548σ. O fator 2 vem da propriedade de simetria da distribuição normal.[44]
    • A densidade tem dois pontos de inflexão, em μ+σ e em μσ. Eles são os pontos, nos quais a segunda derivada f anula–se e muda de sinal. Os dois pontos situam–se aproximadamente três quintos da altura total.[18]
    • A distribuição normal é uma distribuição da família exponencial. Isto é, a sua densidade é escrita como f(x)=a(θ)b(x)ec(θ)d(x)ou como f(x)=exp(xθ1β(θ1)α(θ2)), com θ1=μ, θ2=σ, β(μ)=μ22 e α(σ)=σ2.[45]

Propriedades

Outras caracterizações

Em adição à densidade de probabilidade, à função de distribuição, à função característica e à função geradora de momentos, existem outras caracterizações da distribuição normal.

  • Caracterização segundo Georges Darmois e Sergeï Bernstein – se duas variáveis aleatórias X1 e X2 são independentes e igualmente distribuídas e se duas variáveis aleatórias X1+X2 e X1X2 também são independentes, então a distribuição comum X1 e X1 é a distribuição normal.[10]
  • Caracterização segundo Charles Stein – a distribuição normal é a única distribuição de probabilidade (medida de probabilidade) tal qual, para qualquer função g de classe C¹ (derivável ou derivada contínua), g(x)d(x)=xg(x)d(x).[18]

Momentos

O momento de ordem 1 é chamado média (μ) e é dado como parâmetro da distribuição normal N(μ,σ2). O segundo parâmetro é o desvio padrão (σ). Isto é, a raiz quadrada da variância σ2, que é, por definição, a média dos quadrados dos desvios da média, ou segundo momento central. Os momentos centrais da distribuição normal são dados por{μ2k=𝔼[(Xμ)2k]=(2k)!2kk!σ2kμ2k+1=𝔼[(Xμ)2k+1]=0,

para k0 e X uma variável aleatória com distribuição normal N(μ,σ2).[37]

O momento central de ordem n pode ser obtido a partir de uma função de momentos de ordem inferior à n e o momento de ordem n pode ser obtido a partir de momentos de ordem inferior à n – 1 e do momento central de ordem n. Então, os primeiros momentos da distribuição normal são:

{m1=𝔼[X]=μm2=𝔼[X2]=σ2+μ2m3=𝔼[X3]=3μσ2+μ3.[46]

Cálculo

Com a simetria em torno de μ da função densidade da distribuição normal, os momentos centrais de ordem ímpar são todos zero.[47] Os momentos de ordem par da distribuição normal padrão N(0,1) pode ser obtido pela relação de recorrência m2k=(2k1)m2k2, que vem da integração por partes seguinte, para k1,m2k=+t2k1tφ(t)dt=+t2k1φ(t)dt=(2k1)+t2k2φ(t)dt.[48]

É deduzida a fórmula dos momentos centrais reduzidos m2k=(2k1)31=(2k)!2kk!, assim a fórmula dos momentos centrais μ2k=(2k)!2kk!σ2k.[26]

Função geradora de momentos

Os momentos centrais (μn,n0) de uma distribuição podem ser obtidos a partir da função geradora de momentos centrados. Para a distribuição N(μ,σ2), a mudança da variável y=xμ permite obter as fórmulas Mc(t)=eσ2t22=k=01k!(σ2t22)kde uma parte e Mc(t)=n=01n!μntn de outra parte.[37]

Para a identificação dos coeficientes das duas séries, isto implica que os momentos de ordem ímpar são zero μ2k+1=0 e fornece uma fórmula para os momentos de ordem par μ2k=(2k)!2kk!σ2k.[26]

Assimetria e curtose

Densidades de probabilidade de distribuições com curtoses diferentes. Em vermelho, a distribuição de Laplace. Em laranja, a distribuição secante hiperbólica. Em verde, a distribuição logística. Em preto, a distribuição normal. Em cinza, a loi du cosinus surélevé. Em azul, a loi du demi-cercle. Em violeta, a distribuição uniforme.

A assimetria γ1, a curtose β2 e a curtose normalizada γ2 são obtidas a partir das fórmulas dos momentos {γ1=μ3σ3=0β2=μ4σ4=3γ2=β23=0.[49]

A distribuição normal é um ponto de referência para comparação das espessuras de caudas longas. Se uma distribuição possui uma curtose normalizada γ2>0, então a distribuição possui uma cauda longa mais grossa que a distribuição normal e é chamada leptocúrtica. Se γ2<0, a distribuição possui uma cauda longa mais fina que a distribuição normal e é chamada platicúrtica. Se a distribuição possui uma curtose normalizada nula, então a distribuição possui uma cauda longa comparável à distribuição normal e é chamada mesocúrtica.[50][51]

Cumulantes

A função característica permite obter a função geradora de cumulantes pela fórmula ln(ϕ(t))=n=1+Kn(it)nn! e permite obter os cumulantes K1=μ, K2=σ2 eKn=0 , para n3.[52]

Quando o número n de variáveis aumenta, a densidade de probabilidade da variável Sn (centrada reduzida) aproxima–se da curva em forma de sino da distribuição normal.

Teoremas da convergência

A primeira versão do teorema central do limite (teorema de Moivre–Laplace) foi estabelecido para as variáveis aleatórias da distribuição de Bernoulli. De maneira mais geral, se X1,X2,,Xn são variáveis aleatórias independentes e igualmente distribuídas com variância finita e se a soma é denotada como Sn=X1+X2++Xn, então limn+(aSn𝔼[Sn]Var(Sn)b)=abφ(x)dx, para todo a<b, em que φ é a densidade de probabilidade da distribuição normal padrão.[27]

Este teorema significa que tudo que pode ser considerado a soma de um grande número de pequenos valores aleatórios independentes aproxima–se de uma distribuição normal.[53] Isto mostra a característica central da distribuição normal, em teoria da probabilidade. Um enunciado do teorema pode ser formulado como: se uma grandeza física submetida à influência de um número importante de fatores independentes e se a influência de cada fator separadamente é pequena, então a distribuição desta grandeza é uma distribuição gaussiana.[54]

O teorema central do limite é válido para toda distribuição de probabilidade com variáveis independentes e identicamente distribuídas (Xi;i=1,2,,n)que, com desvio padrão finito, permite obter uma boa aproximação da soma Sn. Por exemplo,

  • se as variáveis Xi seguem a distribuição de Bernoulli B(p), então Snsegue aproximadamente uma distribuição normal N(np,np(1p)). Esta aproximação é satisfatória quando np(1p)>10;[55]
  • se as variáveis Xi seguem a distribuição qui–quadrado com um graus de liberdade χ2(1), então Snsegue aproximadamente uma distribuição normal N(n,2n);[56]
  • se as variáveis Xi seguem a distribuição exponencial E(λ), então Snsegue aproximadamente uma distribuição normal N(nλ,nλ2).[57]

Existem versões mais gerais deste teorema. Por exemplo, variáveis aleatórias independentes não são da mesma distribuição, mas com pequenas variâncias em relação às suas médias.[58] Um teorema de Gnedenko e Kolmogorov (1954) estipula que uma variável aleatória normal é a soma de um grande número de variáveis aleatórias indenpendentes pequenas , sendo que nenhuma delas é predominante.[59]

Teorema – Seja uma série de variáveis aleatórias (Xn,n1), sendo que cada uma é a soma de um número finito de variáveis aleatórias Xn,1,,Xn,kncom kn+. Para todo ε>0, introduz–se a variável aleatória truncada Xε={X se |X|ε0 em caso contrário e supõe–se

  1. 1kn|Xnk|n0 (em probabilidade) .[60]
  2. Para todo ε>0, 1kn𝔼[Xnkε]nμ e 1knVar[Xnkε]nσ2.[61]

Então, a distribuição de Xn converge para a distribuição normal N(μ,σ2).[62]

Estabilidade e família normal

Estabilidade pela adição (propriedade de conservação)

A distribuição normal é estável pela adição. Isto é, a soma de duas variáveis aleatórias independentes com distribuição normal é em si uma variável aleatória com distribuição normal. Mais explicitamente, se X1N(μ1,σ12), X2N(μ2,σ22) e X1e X2 são independentes, então a variável aleatória X1+X2 segue a distribuição normal N(μ1+μ2,σ12+σ22).[10]

Esta propriedade é generalizada por n variáveis, isto é, se para todo i{1,2,,n} as variáveis aleatórias Xi seguem a distribuição normal N(μi,σi2) e são independentes, então a soma X1+X2++Xn segue a distribuição normal N(μ1+μ2++μn,σ12+σ22++σn2).[63]

Esta propriedade é demonstrada diretamente por meio de funções características. A densidade de probabilidade da soma de duas variáveis aleatórias independentes da distribuição normal é dada pela convolução de duas densidades. Isto é traduzido pelas fórmulas de convolução de funções: φ(xμ1σ1)φ(xμ2σ2)=φ(x(μ1+μ2)σ12+σ22),[64]

ou de convolução de medidas normais denotadas como

Nμ,σ2

:

Nμ1,σ12Nμ2,σ22=Nμ1+μ2,σ12+σ22

. Não deve ser confundida com a distribuição, cuja densidade é a soma das densidades da distribuição normal.

Diferentes densidades de probabilidade de distribuições estáveis, em que a distribuição normal é um caso particular – a curva preta é a curva em forma de sino.

Família normal

O conjunto de funções {φ(xμσ);μ,σ>0} forma a chamada "família normal", que por sua vez também é o nome do conjunto de distribuições normais {Nμ,σ2;μ,σ>0}.[65] A família de funções está fechada para convolução no sentido que a função φ gera a família. Toda densidade que convolui um número suficientemente grande de vezes e adequadamente renormalizada está próxima de uma função de uma família normal.[64]

Os seguintes teoremas dão mais detalhes matemáticos:

  • Se para uma função de densidade f de média 0 e desvio padrão 1, e quaisquer μ1,μ2 e σ1,σ2+* existe μ e σ+*, satisfazendo f(xμ1σ1)f(xμ2σ2)=f(xμσ), então fφ é a densidade da distribuição normal padrão.[66]
  • De acordo com o teorema de Lévy–Cramér (1936), conjecturado por Paul Lévy, em 1935, se duas funções de densidade f1 e f2 verificam f1(x)f2(x)=φ(xμσ), então f1(x)=φ(xμ1σ1) e f2(x)=φ(xμ2σ2) com μ1+μ2=μ e σ12+σ22=σ. Em outras palavras, se a soma de duas variáveis aleatórias independentes é normal, então as duas variáveis aleatórias seguem a distribuição normal.[10][67]
  • Se f é a densidade comum de n variáveis aleatórias independentes de média 0 e desvio padrão 1, então a convolução n vezes de f converge uniformemente em x: (f(x/n))nφ(x) (este teorema é equivalente ao teorema central do limite). Esta família normal não deve ser confundida com a família normal de funções holomorfas[64]

Estabilidade por linearidade

A distribuição normal é estável por linearidade. Se α0 e β são reais e XN(μ,σ2), então a variável aleatória αX+β segue a distribuição normal N(αμ+β,α2σ2).[68] Com a estabilidade por adição e por linearidade, a distribuição normal é um caso particular de distribuição estável com parâmetro de estabilidade α=2.[69] Entre as distribuições estáveis, a distribuição normal, a distribuição de Lévy (α=12) e a distribuição de Cauchy (α=1) são as únicas com expressão analítica para a função densidade.[70]

Estabilidade pela média

A distribuição normal é estável pela média. Se X1,X2,,Xn são variáveis aleatórias independentes seguindo as distribuições normais N(μ1,σ12),N(μ2,σ22),,N(μn,σn2), então a média 1n(X1+X2++Xn) segue a distribuição N(μ1+μ2+...+μnn,σ12+σ22+....+σn2n2).[71]

Convexidade

A distribuição normal não é convexa.[72] Isto é, a desigualdade λ(A)+(1λ)(B)(λA+(1λ)B), para todo A e B borelianos, não é satisfeita quando a medida é normal. Entretanto, quando a desigualdade é normalizada com o inverso da função de distribuição da distribuição normal padrão, obtém–se o teorema (desigualdade de Ehrhard) λΦ1(N0,1(A))+(1λ)Φ1(N0,1(B))Φ1(N0,1(λA+(1λ)B)), para a medida padrão normal N0,1, todos os intervalos A e B e todo λ]0,1[.[73]

Entropia e quantidade de informação

Entropia de Shannon

A entropia de Shannon de uma distribuição de probabilidade absolutamente contínua de densidade dada por f para medir a quantidade de informação é definida por H=+f(x)lnf(x)dx. No conjuntos das distribuições absolutamente contínuas de variância σ2 fixa, as distribuições normais N(,σ2) fornece entropia máxima.[74] A entropia para uma distribuição normal é dada por H=ln(σ2πe). Há também uma ligação entre a convergência de sequências de distribuições de probabilidade com distribuição normal e o aumento da entropia, tornando–se uma ferramenta importante na teoria da informação.[10]

Quantidade de informação de Fisher

A informação de Fisher de uma densidade de probabilidade é outro conceito de quantidade de informação. Para uma densidade f, a informação de Fisher é dada por I=+(f(x)f(x))2f(x)dx. Para toda densidade suficientemente regular de uma distribuição normal padrão, a informação satisfaz a seguinte desigualdade: I1. A distribuição normal distingui–se de outras densidades desde que a desigualdade anterior seja uma igualdade e se e somente se a densidade for uma distribuição normal padrão.[10]

Distancia entre distribuições

A divergência de Kullback–Leibler permite medir a distância entre duas distribuições ou a perda de informação entre as duas distribuições. A divergência de Kullback–Leibler entre as duas distribuições normais N(μ1,σ12) e N(μ2,σ22) é DKL(Nμ1,σ12Nμ2,σ22)=log(σ2σ1)+12(σ12σ22+(μ2μ1)2σ221).

Esta divergência é nula para μ1=μ2 e σ1=σ2, mas aumenta quando |μ1μ2| também aumenta.[75]

Aproximação da função de distribuição

Não existe expressão analítica para a função de distribuição Φ da distribuição normal padrão. Isto é, não existe uma fórmula simples entre a função de distribuição e as funções convencionais como as funções polinomiais, exponenciais, logarítmicas, trigonométricas, entre outras. Entretanto, a função de distribuição é aplicada a vários resultados e é importante compreende–la melhor. Diferentes notações como séries ou frações contínuas generalizadas são possíveis.[76]

Para 0<x1, a função de distribuição da distribuição normal padrão é escrita na forma Φ(x)=12+12πn=0(1)nn!2n(2n+1)x2n+1=12+12π(xx36+x540+) ou na forma Φ(x)=12+φ(x)n=01135(2n+1)x2n+1=12+φ(x)(x+x33+x515+).[44]

Para 1x, a função de distribuição da distribuição normal padrão é escrita na forma

Φ(x)=1φ(x)x(11x2+13x4135x6++13(2n1)x2n)+Rn, com Rn=(1)n+113(2n+1)xφ(y)y2n+2dy.[44][76]

De maneira mais numérica e facilmente calculável, as aproximações seguintes fornecem valores da função de distribuição Φ da distribuição normal padrão com:

  • Erro da ordem de 105: para x>0, Φ(x)=1ex222π(0,43618361+0,33267x+0,1201676(1+0,33267x)2+0,9772980(1+0,33267x)3)+ϵ(x)ou |ϵ(x)|<105.[77]
  • Erro de ordem de 2,5.104: para x>0, Φ(x)112(1+0,196854x+0,115194x2+0,000344x3+0,019527x4)4.[77]
  • Erro da ordem de 102: Φ(x)={0,1x(4,4x) para 0x2,20,49 para 2,2x2,60,5 para x2,6.[44]

Em um exemplo de algoritmo para a linguagem C, uma outra notação da função de distribuição da distribuição normal padrão utiliza uma fração contínua generalizada: Φ(x2)=121π12ex2x+12x+2x+32x+4x+.[28]

Tabelas numéricas e cálculos

Função quantil de uma distribuição normal padrão.

De acordo com a seção anterior, é útil saber a função de distribuição Φ para aplicações numéricas. Então, tabelas de valores foram calculadas para a função de distribuição e também para o inverso da função de distribuição, que permitem obter os quantis e os intervalos de confiança para um limiar de tolerância fixo.[78]

Predefinição:Collapse topA tabela seguinte fornece os valores da função de distribuição Φ(x)=[Xx], quando X segue a distribuição normal padrão.

Os valores da primeira linha fornecem a primeira parte da variável. Os valores da primeira coluna fornecem a segunda parte da variável. Então, a célula na segunda linha e na terceira coluna fornece Φ(0,12)=0,54776.

Aire sous la courbe de la densité
A curva em sino é a função densidade. A linha vertical é o valor x. A superfície da parte colorida sob a curva é o valor [Xx]=Φ(x).
Aire sous la courbe de la densité
A curva em sino é a função densidade. As linhas verticais são os valores x1 e x2. A superfície da parte colorida sob a curva é o valor [x1Xx2]=Φ(x2)Φ(x1).
Aire sous la courbe de la densité
A curva em sino é a função densidade. A linha vertical é o valor x. A superfície da parte colorida sob a curva é o valor [Xx]=1Φ(x).
Φ(x) 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99992 0,99992 0,99992 0,99992 0,99992
3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997

Predefinição:Collapse bottom

Predefinição:Collapse topAs duas tabelas seguintes fornecem os valores dos quantis qp da distribuição normal padrão N(0,1), definida por qp=Φ1(p).[79]

Os valores da primeira linha fornecem a primeira parte da variável. Os valores da primeira coluna fornecem a segunda parte da variável. Então, a célula na segunda linha e na terceira coluna fornece q0,62=Φ1(0,62)=0,3055.

qp 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,50 0,0000 0,0251 0,0502 0,0753 0,1004 0,1257 0,1510 0,1764 0,2019 0,2275
0,60 0,2533 0,2793 0,3055 0,3319 0,3585 0,3853 0,4125 0,4399 0,4677 0,4959
0,70 0,5244 0,5534 0,5828 0,6128 0,6433 0,6745 0,7063 0,7388 0,7722 0,8064
0,80 0,8416 0,8779 0,9154 0,9542 0,9945 1,036 1,080 1,126 1,175 1,227
0,90 1,282 1,341 1,405 1,476 1,555 1,645 1,751 1,881 2,054 2,326

Esta tabela fornece os valores dos quantis para os valores maiores de p.

p 0,975 0,995 0,999 0,9995 0,9999 0,99995 0,99999 0,999995
qp 1,9600 2,5758 3,0902 3,2905 3,7190 3,8906 4,2649 4,4172

Predefinição:Collapse bottom

As tabelas são dadas pelos valores positivos da distribuição normal padrão. Com a formulação da função de distribuição, é possível obter outros valores. Os valores negativos da função de distribuição são dados pela fórmula Φ(x)=1Φ(x). Por exemplo, Φ(1,07)=[X1,07]10,85769=0,14231, para XN(0,1).[16]

Os valores da função de distribuição da distribuição geral é obtido pela fórmula F(y)=Φ(yμσ).[80] Por exemplo, F(12,14)=[Y12,14]=[Y10212,14102]=[X1,07]=Φ(1,07)0,85769, para YN(10,22).[81]

A tabela de valores também permite obter a probabilidade de uma variável aleatória com distribuição normal XN(0,1) pertencer a um intervalo [a,b] pela fórmula [X[a,b]]=[Xb][X<a]=Φ(b)Φ(a). Por exemplo, [X1,07]=1[X<1,07]=1[X1,07]0,14231, para XN(0,1), e [0X1,07]=Φ(1,07)Φ(0)=Φ(1,07)0,50,857690,5=0,35769, para XN(0,1).[82]

Intervalos normais e intervalos de confiança

Uma das vantagens para calcular probabilidades de intervalos é a utilização de intervalos de confiança para testes estatísticos. A distribuição normal é definida para dois valores, a média μ e o desvio padrão σ. É útil olhar para os intervalos do tipo:

[μrσ,μ+rσ]

.

[μrσYμ+rσ]=Φ(r)(1Φ(r))=2Φ(r)1

para

YN(μ,σ2)

. [83]Predefinição:Collapse top

A curva em sino é a densidade de probabilidade. As superfícies das partes coloridas sobre a curva correspondem às probabilidades dos intervalos [μrσ,μ+rσ].

A tabela seguinte é obtida a partir das tabelas anteriores e fornecem as probabilidades r=[μrσYμ+rσ]=2Φ(r)1 para YN(μ,σ2)[84]

r 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5
r 0,00 0,3829 0,6827 0,8664 0,9545 0,9876 0,9973 0,9995

Predefinição:Collapse bottom

Representação de um gráfico de caixa e a ligação com os quantis de uma distribuição normal.

A tabela de valores dos valores de confiança permite obter os intervalos de normalidade para um determinado nível de confiança. Para YN(μ,σ2), a tabela fornece:

  •  P(μσYμ+σ)0,6827 , em que [μσ,μ+σ] é o intervalo de normalidade para o nível de confiança de 68%.[85]
  •  P(μ0,5HYμ+0,5H)0,76, em que [μ0,5H,μ+0,5H] é o intervalo de normalidade para o nível de confiança de 76% e H é a largura à meia altura.[85]
  •  P(μ2σYμ+2σ)0,9545, em que [μ2σ,μ+2σ] é o intervalo de normalidade para o nível de confiança de 95%.[85]
  •  P(μ3σYμ+3σ)0,9973, em que [μ3σ,μ+3σ]é o intervalo de normalidade para o nível de confiança de 99%.[85]

Inversamente, quando o valor da probabilidade α[0,1] é fixo, existe um único valor r>0 , tal que (μrσYμ+rσ)=2Φ(r)1=α.[30] O intervalo [μrσ,μ+rσ] é chamado de intervalo de normalidade ou intervalo de confiança para o nível de confiança α. Para uma distribuição normal N(μ,σ2) e um limiar α, o método para encontrar o valor de r consiste em utilizar a tabela de valores dos quantis, tal que Φ(r)=α+12.

Então, o intervalo de confiança é [μrσ,μ+rσ]. Por exemplo, o intervalo de normalidade para o nível de confiança de 95% de uma distribuição normal N(10,22) é o intervalo [102r;10+2r], em que r verifica Φ(r)=0,95+12=0,975 ou r=q0,9751,96.

Então, o intervalo de confiança é [6,08;13,92] após o arredondamento.[86]

Ligações com outra distribuições

Com papel central entre as distribuições de probabilidade e suas aplicações, a distribuição normal tem muitas ligações com outras distribuições. Certas distribuições ainda são formadas a partir da distribuição normal para melhor corresponder às suas aplicações.[87]

Distribuições usuais

Diferentes distribuições qui e qui–quadrado
Distribuição Em função de variáveis com distribuição normal
Distribuição qui–quadrado i=1k(Xiμiσi)2[88]
Distribuição qui–quadrado não central i=1k(Xiσi)2[89]
Distribuição qui i=1k(Xiμiσi)2
Distribuição qui não central i=1k(Xiσi)2

Distribuições unidimensionais

  • Se uma variável aleatória X segue uma distribuição normal N(μ,σ2), então a variável aleatória exp(X) segue uma distribuição log–normal.[90]
  • Se U e F são duas variáveis aleatórias independentes com distribuição uniforme [0,1], então as duas variáveis aleatórias X=2ln(U)cos(2πV) e Y=2ln(U)sin(2πV) são distribuições normais padrões. X e Y são independentes. Estas duas fórmulas são utilizadas para simular a distribuição normal.[80]
  • Se as variáveis X1,X2,,Xn são independentes com distribuição comum N(0,1), então a soma dos seus quadrados k=1nXk2 segue uma distribuição qui–quadrado com n grais de liberdade χ2(n). A formula estende–se para variáveis normal não centradas e não reduzidas. O mesmo tipo de ligação existe com a distribuição qui–quadrado não central, a distribuição qui e a distribuição qui não central.[91]
  • Se a variável U segue uma distribuição normal padrão N(0,1), se V segue uma distribuição qui–quadrado com n grais de liberdade χ2(n) e se U e V são independentes, então a variável UVn segue uma distribuição de Student t(n) com n grais de liberdade.[92]
  • Se X é uma variável aleatória com distribuição normal padrão e U é uma variável aleatória com distribuição uniforme em [0,1], então XU é uma distribuição de Slash.[93]
  • Para uma variável aleatória X com distribuição normal padrão 𝒩(0,1), a variável signe(X)|X|p é um distribuição normal com potência p. Para p=1, esta variável é uma distribuição normal padrão.[93]
  • Se Z1e Z2 são duas variáveis aleatórias independentes com distribuição normal padrão, então o quociente Z1Z2 segue a distribuição de Cauchy de parâmetro 0 e 1, Z1Z2Cau(0,1).[94] No caso de Z1 e Z2 serem duas gaussianas quaisquer (não centradas e não reduzidas), o quociente Z1Z2 segue uma distribuição complexa, em que a densidade é expressa em função dos polinômios de Hermite (a expressão exata é dada por Pham–Gia em 2006).[95]

Distribuições multidimensionais

  • Há uma versão multidimensional da distribuição normal, chamada distribuição normal multidimensional, distribuição multinormal ou distribuição de Gauss multivariada. Se X1,X2,,Xn são variáveis aleatórias com distribuições normais, então a distribuição de probabilidade do vetor aleatório (X1,X2,,Xn) é uma distribuição normal multidimensional. A densidade de probabilidade assume a mesma forma que a densidade da distribuição normal, porém escrita em forma de matriz. Se o vetor aleatório (X1,X2) tem distribuição normal unidimensional N(μ,Σ), em que μ é o vetor das médias e Σ é a matriz de variância–covariância, então a distribuição condicional (X1|X2=x) de X1, sabendo que X2=x é a distribuição normal N(μ1|x,σ1|x) e (X1,X2)N((μ1μ2),(σ11σ12σ21σ22)), então (X1|X2=x)N(μ1|x,σ1|x) com μ1|x=μ1+σ12σ22(xμ2) e σ1|x=σ11σ12σ21σ22.[96]
  • A distribuição normal de um vetor, cujas coordenas são independentes e com distribuições normais padrão, é a distribuição de Rayleigh.[95]

Nota–se que a distribuição gaussiana inversa e a distribuição gaussiana inversa generalizada não têm ligação com uma fórmula simplesmente criada a partir de variáveis da distribuição normal, mas tem relação com o movimento browniano.[97]

Distribuições normais generalizadas

Várias generalizações da distribuição normal foram introduzidas para mudar sua forma, sua assimetria, seu suporte, entre outros. Um novo parâmetro de forma β>0 foi introduzido à distribuição normal para obter uma distribuição normal generalizada. Esta família de distribuição contém a distribuição normal como é o caso para β=2 e também para a distribuição de Laplace para β=1. A nova densidade de probabilidade é dada por f(x)=β2αΓ(1/β)e(|xμ|σ)β.[10]

Existe uma maneira de mudar a assimetria da distribuição normal a fim de obter a chamada distribuição normal assimétrica (distribuição normal distorcida).[98] A introdução de um parâmetro λ permite obter a distribuição normal quando λ=0, uma assimetria à direita quando λ>0 e uma assimetria à esquerda quando λ<0. A densidade desta distribuição é dada por f(x)=2φ(x)Φ(λx).[99]

Para mudar o suporte e, especialmente, para tornar a distribuição normal limitada, uma modificação possível é a distribuição truncada. Então, ela muda de escala para que as partes cortadas distribuam–se entre todos os valores guardados (ao contrário da distribuição dobrada). A distribuição normal padrão truncada em T e em T para suportar o intervalo [T,T] e sua função densidade definida por f(x)={φ(x)2Φ(T)1 se x[T,T]0 em caso contrário .[100]

Também é possível truncar a distribuição normal de um lado. Então, ela é chamada distribuição normal corrigida. Se uma variável aleatória X segue uma distribuição normal N(μ,σ2), então max(X,0) segue a distribuição normal corrigida.[101]

Uma outra maneira de mudar o suporte da distribuição normal é dobrar a densidade a partir de uma valor, a distribuição obtida é a distribuição normal dobrada. Os valores retirados, por exemplo, ],0[ são então distribuídos perto do valor da dobra, aqui, 0 (ao contrário da distribuição truncada). A densidade de probabilidade da distribuição normal dobrada em 0 é dada por f(x)={1σ2πexp((x+μ)22σ2)+1σ2πexp((xμ)22σ2) para x00 em caso contrário.[102]

Uma versão generalizada da distribuição log–normal permite obter uma família com distribuição, incluindo a distribuição normal como um caso particular.[103] A família é definida a partir de três parâmetros: um parâmetro de posição μ, um parâmetro de escala σ e um parâmetro de forma κ. Quando κ=0, esta distribuição log–normal generalizada é a distribuição normal. A densidade é dada por f(x)=φ(y)ακ(xξ), em que y={1κlog[1κ(xξ)α]se κ0xξαse κ=0.[104]

Construções a partir da distribuição normal

Misturando as distribuições

Em azul, a densidade de uma combinação linear de duas densidades normais.

Uma mistura gaussiana é uma distribuição de probabilidade, cuja densidade é definida por uma combinação linear de duas densidades de distribuições normais. Se nota–se f1 a densidade de N(μ1,σ12) e f2 a densidade de N(μ2,σ22), então λf1+(1λ)f2 é a densidade de uma distribuição de probabilidade chamada de mistura gaussiana.[105]

Os modos das duas distribuições normais são dados por μ1 e μ2, então a combinação gaussiana é uma distribuição bimodal. Se os máximos locais são valores próximos e não iguais aos valores μ1 e μ2.[105]

Generalidades

É possível construir outras densidades de probabilidade com a densidade da distribuição normal padrão. Harald Cramér estabeleceu em 1926 um resultado geral: se uma densidade de probabilidade g é duas vezes diferenciável, se a integral (g(x))2ex2/2dx é convergente e se lim+g(x)=limg(x)=0, então a função g pode ser desenvolvida em uma série absolutamente e uniformemente convergente em função das derivadas das densidades da distribuição normal padrão e dos polinômios de Hermite g(x)=k=01k!φ(k)(x)g(y)Hk(y)dy.[106]

Utilizações

Historicamente a distribuição normal é introduzida em estudos sobre os corpos celestes ou em jogos de azar. Ela é estudada, generalizada matematicamente e usada em muitas aplicações em matemática, em outras ciências exatas, em outras ciências mais aplicadas ou em ciências humanas e sociais.[107] Segue uma seleção de exemplos.

Balística

No século XIX, para melhorar a precisão da artilharia de fogo muitos tiros de canhão eram disparados. Observou–se que a direção e o alcance eram semelhantes às distribuições normais.[108] Esta compreensão permitiu melhor treinar os servos para ajustar os disparos. Esta distribuição normal proveniente de diferentes fatores como as condições climáticas e também o uso do equipamento militar. A dispersão dos pontos de impacto e, portanto, da distribuição, fornece informações sobre o estado do material e sobre o possível número de disparos anormais. O ajuste à distribuição normal é feito pelo teste de Lhoste em uma série de 200 tiros. O matemático Jules Haag aplica o método para Predefinição:Fmtn tiros de diferentes escopos e diferentes direções.[108]

Quociente de inteligência

O quociente de inteligência (QI) visa dar um valor numérico à inteligência humana. Em 1939, David Wechsler deu uma definição estatística ao quociente de inteligência. 100 pontos são dados à média dos valores obtidos de uma população com idade similar e 15 pontos são deduzidos de um intervalo igual ao desvio padrão obtidos a partir dos valores da população testada.[109] Por esta razão, a curva de distribuição do QI é modelada a curva em forma de sino da distribuição normal padrão em 100 e com desvio padrão 15, N(100,152). Entretanto, este modelo é questionado por alguns cientistas. Em efeito, os resultados dos testes são dependentes das classes sociais da população, a população deixaria de ser homogênea. Isto é, a propriedade de independência dos indivíduos não seria verificada. Então, o QI seria apenas uma medida de aproximação da inteligência humana com erro desconhecido.[110]

Anatomia humana

Exemplo da curva de aumento de peso.

Uma característica observável e mensurável de uma população de indivíduos comparáveis muitas vezes tem uma frequência modelada por uma distribuição normal. É o exemplo da altura humana em uma determinada idade (separados entre homens e mulheres)[111] ou o tamanho do bico de uma população de aves como os pássaros estudados por Charles Darwin.[112] Mais precisamente, uma característica mensurável de uma população pode ser modelada por uma distribuição normal se ela for codificada geneticamente por vários alelos ou por vários locus[112] ou se a característica depende de um grande número de efeitos do meio ambiente.[113]

As curvas de crescimento apresentadas pela Organização Mundial da Saúde (OMS), presentes em cadernetas de saúde, por exemplo, são derivadas de modelagem pela distribuição normal. Por meio de um estudo detalhado dos percentis medidos em uma população com idade fixa e por meio de testes estatísticos de adequação, as distribuições dos pesos e das alturas por faixa etária foram modeladas por distribuições de probabilidade. Estas distribuições incluem a distribuição normal, a distribuição normal de Box–Cox (generalização da distribuição normal), a distribuição Student de Box–Cox (generalização da distribuição normal de Box–Cox) e ainda a distribuição exponencial com potência Box–Cox. Graficamente, para cada idade ou para cada eixo vertical, a mediana m é representada (linha central) e os dois valores de m+σ e mσ, em que σ é o desvio padrão, dão as curvas e, assim, representam a evolução de um intervalo de confiança.[114]

Sinais e medições físicas

Um filtro gaussiano é aplicado à imagem de cima, obtendo–se uma imagem de fundo mais suave e com menos granulados.

Quando um sinal é transmitido, ocorre uma perda de informação devido aos meios de transmissão ou à decodificação do sinal. Quando uma medição física é efetuada, uma incerteza no resultado pode ser proveniente de uma imprecisão do aparelho de medida ou de uma incapacidade de obter o valor teórico. Um método para modelar tais fenômenos é considerar um modelo determinista (não aleatório) para o sinal ou para a medição e adicionar ou multiplicar um termo aleatório que represente a perturbação aleatória, às vezes chamadas de erro ou de ruído. Em muitos casos, este erro é assumido como distribuição normal ou como distribuição log–normal em casos de multiplicação.[115] É o caso, por exemplo, da transmissão de um sinal através de um cabo elétrico.[42] Quando o processo depende do tempo, o sinal ou a medição é modelada por um ruído branco. Então, a suavização de imagem com um filtro gaussiano é utilizada.[116]

Economia

Os preços de algumas commodities são determinadas por uma bolsa de valores, como é o caso do trigo, do algodão e do ouro. No tempo t, o preço Z(t) evolui até o momento t+T, aumentando Z(t+T)Z(t). Em 1900, Louis Bachelier postulou que este aumento segue uma distribuição normal de média nula, cuja variância depende de t em T. Entretanto, este modelo satisfaz apenas ao mercado financeiro. Então, outros matemáticos propuseram melhorar este modelo, assumindo que é o aumento lnZ(t+T)lnZ(t) que segue a distribuição normal, o que quer dizer que o aumento dos preços segue uma distribuição log–normal. Esta hipótese é a base do modelo e da fórmula de Black–Scholes utilizado massivamente pela indústria financeira.[117]

Este modelo ainda foi melhorado por Benoît Mandelbrot especialmente, assumindo que o aumento segue uma distribuição estável (a distribuição normal é um caso particular da distribuição estável). Então, parece que o movimento browniano, cujo crescimento é uma distribuição normal, e o processo de Levy, cujo crescimento estável modela as curvas do mercado.[117]

Matemática

Ruído branco gaussiano unidimensional.

A distribuição normal é utilizada em muitas áreas da matemática. O ruído branco gaussiano é um processo estocástico de tal modo que em qualquer ponto o processo é uma variável aleatória com distribuição normal independente do processo de outros pontos.[118] O movimento browniano (B(t),t0) é um processo estocástico, cujos aumentos são independentes, estacionários e com distribuição normal.[117] Incluindo um valor t>0 fixo, a variável aleatória B(t) segue a distribuição normal N(0,t). Este processo aleatório tem muitas aplicações. Ele faz uma ligação entre a equação do calor e a distribuição normal.[18] Quando a extremidade de uma haste de metal é aquecida em um curto espaço de tempo, o calor se propaga ao longo da barra na forma de uma curva em forma de sino.

A distribuição normal também é aplicada em áreas da matemática não aleatórias como na teoria dos números. Todo número inteiro n pode ser escrito como a multiplicação de potências de números primos. Seja ω(n) o número de números primos diferentes nesta decomposição. Por exemplo, para 60=22×3×5 , ω(60)=3. O teorema de Erdős–Kac assegura que esta função nω(n) para nN está relacionada com a densidade da distribuição normal N(lnln(N),lnln(N)). Isto é, para um grande número da ordem de 1000000000=109, existe uma alta probabilidade que o número de divisores primos seja 3 para lnln(109)3,03.[18]

Testes e estimativas

Critérios de normalidade

Linha de Henry representada em um papel gaussiano–aritmético.

É importante saber se os valores são distribuídos de acordo com a distribuição normal. Quatro critérios podem ser estudados antes de realizar um teste estatístico.

O primeiro critério (o critério mais simples) consiste em traçar um diagrama em barras da distribuição e verificar visualmente se o diagrama é em forma de sino. Entretanto, este critério subjetivo permite eliminar uma parte das distribuições quando consideradas não gaussianas.[119]

De maneira mais precisa, a utilização das faixas de normalidade permite comparar com as frequências observadas facilmente calculáveis. O critério consiste em utilizar as faixas de normalidade ou os intervalos de confiança. Quando os valores são normalmente distribuídos, 68% deles estão no intervalo [xσ;x+σ], 95% deles estão no intervalo [x2σ;x+2σ] e 99,7% deles estão no intervalo [x3σ;x+3σ].[120]

Se não for o caso, a escolha de modelar a distribuição dos valores observados pela distribuição normal não é aconselhável.

O gráfico de probabilidade normal permite ajustar os valores observados com uma distribuição normal. Isto é, representando o gráfico de probabilidade normal, é possível fazer um diagnóstico sobre a natureza normal da distribuição e, se ela for susceptível a ser normal, é possível determinar a média e o desvio padrão. Os valores (xi,in) são observados e representados pela função de distribuição empírica Fn. Elas são gaussianas se os pontos (xi,Fn(xi)) representados no papel gráfico gaussiano-aritmético estão alinhados em uma reta chamada Henri.[121] Um papel gaussiano-aritmético é formado por um eixo aritmético das abscissa e é calculada pelo inverso da função de distribuição da distribuição normal padrão de ordem Φ1.[122]

Estes critérios são necessários, mas não são suficientes para afirmar que os valores são normalmente distribuídos.[123]

Testes de normalidade

Com seu papel no teorema central do limite, a distribuição normal é encontrada em muitos dos testes estatísticos chamados gaussianos ou assintoticamente gaussianos. O pressuposto de normalidade é feito sobre uma distribuição a priori em um teste de aderência para indicar que esta distribuição segue aproximadamente uma distribuição normal.[108] Existem vários testes de normalidade.

  • O teste qui–quadrado de aderência para a distribuição normal permite testar se uma série de k valores observados segue uma distribuição normal. Neste tipo de teste, a hipótese nula é que a distribuição observada pode ser aproximada pela distribuição normal. Tendo agrupado os k valores observados, calcular as probabilidade de uma variável aleatória de distribuição normal pertencer a uma classe em estimativa dos parâmetros da distribuição devidos aos valores observados. Estas probabilidades podem ser obtidas com as tabelas numéricas da distribuição normal. Se a hipótese nula for verdadeira, a estatística qui–quadrado calculada a partir dos valores observados e das probabilidades anteriores seguem uma distribuição qui–quadrado. O número do grau de liberdade é k1 se a média e o desvio padrão são conhecidos, k2 se um dos dois parâmetros é desconhecido ou k3 se os dois parâmetros são desconhecidos. A hipótese nula é rejeitada se a estatística qui–quadrado é superior ao valor obtido por meio da tabela do limiar da distribuição qui–quadrado α.[124]
  • O teste de Lilliefors é baseado na comparação entre a função de distribuição da distribuição normal e a função de distribuição empírica. É uma adaptação do teste de Kolmogorov–Smirnov. As opiniões sobre o poder do teste são divididas. Ele é eficiente em torno da média, mas nem tanto para a comparação das caudas de distribuição. Os valores observados (xi,in) são dispostos em ordem crescente (x(i),in). Os valores Fi=Φ((x(i)x)/s) são as frequências teóricas da distribuição normal centrada reduzida associada com os valores normalizados. Se a estatística D=maxi=1,,n(Fii1n;inFi)for superior a um valor crítico calculado pelo limiar α e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar α.[125]
  • O teste de Anderson–Darling é outra versão do teste de Kolmogorov–Smirnov mais adequada ao estudo das caudas de distribuição. Usando a mesma notação que o teste de Lilliefors, se a estatística A=n1ni=1n(2i1)(ln(Fi)+ln(1Fni+1)) for superior a uma valor crítico calculado pelo limiar α e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar α.[125]
  • O teste D'Agostino é baseado nos coeficientes de simetria e de curtose. É particularmente eficaz a partir de n20 valores observados. Embora a ideia do teste seja simples, as fórmulas são mais complicadas. A ideia é construir modificações dos coeficientes de simetria e de curtose para obter as variáveis z1e z2 da distribuição normal padrão. Então, é realizado um teste qui–quadrado com estatística z12+z22.[125]
  • O teste Jarque–Bera também é baseado nos coeficientes de simetria e de curtose. O teste somente é interessante para um número elevado de valores observados. Considerando os dois estimadores b1=1ni=1n(xix)3(1ni=1n(xix)2)32 e b2=1ni=1n(xix)4(1ni=1n(xix)2)2, deve–se realizar um teste qui–quadrado com estatística T=n(b12/6+(b23)2/24).[125]
  • O teste de Shapiro–Wilk proposto em 1965 é eficaz para pequenas amostras com menos de 50 valores. Os valore observados (xi,in) são dispostos em ordem crescente (x(i),in) e os coeficientes aisão calculados a partir do quantil, da média, da variância e da covariância de uma distribuição normal. Se a estatística W=(i=1[n/2]ai(x(ni+1)x(i)))2i=1n(xix)2 for inferior a um valor crítico calculado pelo limiar α e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar α.[125]

Estimativa dos parâmetros

Quando um fenômeno aleatório é observado e considera–se que ele pode ser modelado por uma distribuição normal, uma das perguntas que podem ser feitas é quanto valem os parâmetros μ e σ da distribuição normal N(μ,σ2)? Então, é realizada uma estimativa. As observações coletadas durante a observação do fenômenos são notadas para as variáveis aleatórias X1,X2,,Xn. As notações da média aritmética e da média quadrada também são úteis: S¯n=1n(X1+X2++Xn) e Tn12=1n1k=1n(XkS¯n)2.[126]

Estes dois valores são respectivamente estimadores da média e do desvio padrão que são calculados a partir dos valores observados. Como variáveis X1,X2,,Xn tem distribuição normal, então S¯n tem distribuição N(μ,σ2n) e Tn1 tem distribuição qui–quadrado χ2(n1).[126]

Estimativa da média μ quando o desvio padrão é conhecido

Um método consiste em procurar um limiar α de um intervalo de confiança em torno da média teórica μ. Usando os quantis de ordem α2 e 1α2, a fórmula que define os quantis permite obter (S¯n+σnqα/2μS¯nσnqα/2)1α. Com os valores observados e as tabelas da distribuição normal padrão, então é possível fornecer os valores numéricos de intervalo [S¯nσnqα/2,S¯nσnq1α/2]de limiar α.[126]

Estimativa da média μ quando o desvio padrão não é conhecido

Um método consiste em usar uma variável intermediária que pode ser escrita com as novas variáveis aleatórias U de distribuição χ2(n1): S¯nμTn1=Un1V tem distribuição de Student t(n1). Usando os quantis de ordem α2 e 1α2, a fórmula que define os quantis permite obter (S¯n+Tn1nqα/2μS¯nTn1nqα/2)1α. Com os valores observados e as tabelas da distribuição normal padrão, então é possível fornecer os valores numéricos de intervalo [S¯n+Tn1nqα/2,S¯nTn1nqα/2]para limiar α.[127]

Estimativa do desvio padrão σ quando a média μ é desconhecida

É o mesmo método que o anterior. A introdução da variável aleatória Tn12n1σ2 de distribuição qui–quadrado para n1 grais de liberdade permite obter (Tn12n1q1α/2σTn12n1qα/2)1α, em que q1α/2 e qα/2 são quantis de distribuição qui–quadrado para n1 grais de liberdade que poder obtido pela tabela do qui–quadrado. O intervalo [Tn12n1q1α/2,Tn12n1qα/2] é o intervalo de confiança para o limiar α.[128]

Simulação

Para estudar um fenômeno aleatório que envolve uma variável normal, cujos parâmetros são conhecidos ou estimados, uma abordagem analítica muitas vezes é muito complexa para ser desenvolvida. Neste caso, é possível utilizar um método de simulação. Particularmente, o método de Monte Carlo que consiste em gerar uma amostra artificial de valores independentes de uma variável com um computador. Geralmente softwares ou linguagens de programação tem um gerador de números pseudoaleatórios com uma distribuição uniforme em ]0,1[. Então, transforma–se esta variável de distribuição U(]0,1[) em uma variável N(0,1) (adaptação de outros valores dos parâmetros não representa qualquer problema).[129]

Abordagens para evitar

  • De maneira geral, pode–se utilizar a função inversa da função de distribuição: neste caso, a variável aleatória  Φ1(U) segue a distribuição normal padrão. Entretanto, este método não é conveniente por falta de expressões simples de funções Φ e Φ1. Além disso, os resultados são numericamente insatisfatórios.[130]
  • Se U1,U2,,U12 são doze variáveis independentes de distribuição uniforme em [0,1], então a variável k=112Uk6 tem média nula e desvio padrão unitário. Portanto, o devido ao teorema central do limite, esta variável segue aproximadamente a distribuição normal padrão. Esta é uma maneira simples de gerar uma distribuição normal, porém a aproximação permanece imprecisa.[131]

Abordagens eficientes

  • Um melhor algoritmo é o método de Box–Muller, que utiliza uma representação polar de duas coordenadas uniformes dadas pelas fórmulas seguintes. Se {U𝒰(0,1)V𝒰(0,1), então {2ln(U)cos(2πV)N(0,1)2ln(U)sin(2πV)N(0,1), em que as duas variáveis resultantes são independentes. Este algoritmo é simples de ser realizado, mas o cálculo de um logaritmo, de uma raiz quadrada e de uma função trigonométrica retarda o processo.[131]
  • Uma melhoria foi proposta por Marsaglia e Bray em 1964, que substitui os cosenos e os senos pelas variáveis V1/W e V2/W ou V1 e V2 independentes de distribuição U(1,1) e W=V12+V22 quando W<1 (são rejeitados os pares que não verificarem a última condição).[132] Portanto, {V12lnWWN(0,1)V22lnWWN(0,1). Este algoritmo não é mais pesado para ser implementado e a simulação tem ganhado velocidade.[131]
  • Para um grande número de impressões aleatórias, o método Ziggourat é mais rápido, mas a implementação é mais complexa.[133]

Implementação em software de computação

A distribuição normal foi incorporada em vários softwares de computação.

Planilhas

As planilhas em Microsoft Excel, OpenOffice.org Calc e LibreOffice Calc fornecem as seguintes funções:[134][135][136]

  • LOI.NORMALE(x ; mu ; sigma ; cumulative) (em inglês, NORMDIST) : dá
    • se cumulative for booleano FAUX, a densidade de probabilidade da distribuição normal de esperança mu e desvio padrão sigma em x.
    • se cumulative for booleano VRAI, a função de distribuição da distribuição normal de esperança mu e desvio padrão sigma em x.
  • PHI(x) : dá a densidade de probabilidade da distribuição normal padrão φ em x.
  • LOI.NORMALE.STANDARD(x) (NORMSDIST) : dá a função de distribuição da distribuição normal padrão Φ em x.
  • LOI.NORMALE.INVERSE(p ; mu ; sigma) (NORMINV) dá o quantil q de uma distribuição normal para uma probabilidade p.
  • LOI.NORMALE.STANDARD.INVERSE(p) (NORMSINV)
  • CENTREE.REDUITE(x ; mu ; sigma) (STANDARDIZE) retorna (x – mu) / sigma.

Linguagem de programação estatística S

A linguagem S, implementada no software R e S–PLUS, fornece as seguintes funções:[137]

  • dnorm() : densidade de probabilidade da distribuição normal
    • dnorm(x) : para uma distribuição normal padrão em x ; dnorm(x, log=TRUE) dá o logaritmo natural do valor.
    • dnorm(x, mu, sigma) ou dnorm(x, mean = mu, sd = sigma) : para uma distribuição normal de esperança mu e desvio padrão sigma em x ; pode ser adicionado log = TRUE,
  • pnorm() : função de distribuição de uma distribuição normal
    • pnorm(q) : para uma distribuição normal padrão; lower.tail = FALSE dá o adicional 1 – Φ, log.p = TRUE dá o logaritmo natural do valor
    • pnorm(q, mu, sigma) ou pnorm(q, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma em x
  • qnorm() : dá os quantis de uma distribuição normal
    • qnorm(p) : para uma distribuição normal padrão; lower.tail = FALSE dá o quantil do adicional 1 – Φ, log.p = TRUE da o logaritmo natural do valor
    • qnorm(p, mu, sigma) ou qnorm(p, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma
  • rnorm() : gerador de números aleatórios de acordo com uma distribuição normal
    • rnorm(n) : gerador de n números aleatórios em uma distribuição normal padrão
    • rnorm(n, mu, sigma) ou rnorm(n, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma
  • ks.test(A, "dnorm") : teste de normalidade de Kolmogorov–Smirnov

Matlab / Octave

O Matlab oferece os seguintes comandos:[138]

  • randn(n) : gerador de n números aleatórios em uma distribuição normal padrão
    randn(m, n) : gerador de n números aleatórios em uma matriz mxn
  • normcdf(x, mu, sigma), cdf('norm', x, mu, sigma) e cdf('Normal', x, mu, sigma) : função de distribuição em x da distribuição normal de esperança mu e desvio padrão sigma (função de distribuição cumulativa)
  • normpdf(x, mu, sigma), pdf('norm', x, mu, sigma) e pdf('Normal', x, mu, sigma) : densidade de probabilidade em x da distribuição normal de esperança mu e desvio padrão sigma (função de distribuição de probabilidade)
  • [mu, sigma] = normfit(X) : determina a esperança e o desvio padrão de um conjunto de dados X de regressão

Scilab

O Scilab (libre et gratuit) oferece os seguintes comandos:[139]
  • rand(m, n, "normal") : matriz mxn de números aleatórios de distribuição normal padrão; rand(A, "normal") dá uma matriz de mesma dimensão que a matriz A
  • grand(m, n, "nor", mu, sigma) : matriz mxn de números aleatórios de distribuição normal de esperança mu e desvio padrão sigma
  • cdfnor("PQ", x, mu, sigma) : valor p da função de distribuição (função de distribuição cumulativa) em x para uma distribuição normal de esperança mu e desvio padrão sigma
  • cdfnor("X", mu, sigma, p, 1 - p) : valor do quantil q para uma probabilidade p
  • cdfnor("Mean", sigma, p, 1 - p, x) : esperança de uma distribuição normal com desvio padrão sigma e probabilidade cumulada em x para p
  • cdfnor("Std", p, 1 - p, x, mu) : desvio padrão de uma distribuição normal com probabilidade cumulada em x para p e esperança mu
As opções "Mean" e "Std" executam regressão se x e p são vetores.
A extensão Atoms CASCI fornecem outras funções que tem uma escrita mais simples.
  • cdfnormal(x) : função de distribuição Φ da distribuição normal padrão
    cdfnormal(x, mu, sigma) : função de distribuição de uma distribuição normal de esperança mu e desvio padrão sigma
  • idfnormal(p) : quantil Φ-1 da distribuição normal padrão (função de distribuição cumulativa inversa)
    idfnormal(p, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma
  • pdfnormal(x) : densidade de probabilidade φ da distribuição normal padrão (função de distribuição de probabilidade)
    pdfnormal(x, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma
  • rndnormal(n) : gerador de n números aleatórios em uma distribuição normal padrão; rndnormal(m, n) gera uma matriz mxn
    rndnormal(n, mu, sigma), rndnormal(m, n, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma

Homenagem

Por sua ampla utilização nas ciências, a distribuição normal, muitas vezes pela utilização da curva em forma de sino, é destacada em diferentes contextos e é utilizada para representar a universalidade da uma distribuição estatística, entre outros. Francis Galton menciona a distribuição normal em seu trabalho Natural Inheritance de 1889[10]:

Predefinição:Cquote

Em 1989, foi feita uma homenagem à Carl Friedrich Gauss com a impressão de um bilhete com seu rosto e a curva em forma de sino (pedras suportam a curva de sino, e o caso de alguns matemáticos).[140]

O estatístico William Youden escreveu em 1962 uma explicação sobre a finalidade e a posição da distribuição normal nas ciências. Ele apresentou o caligrama em formato de sino.[141]

THE
NORMAL
LAW OF ERROR
STANDS OUT IN THE
EXPERIENCE OF MANKIND
AS ONE OF THE BROADEST
GENERALIZATIONS OF NATURAL
PHILOSOPHY ♦ IT SERVES AS THE
GUIDING INSTRUMENT IN RESEARCHES
IN THE PHYSICAL AND SOCIAL SCIENCES AND
IN MEDICINE AGRICULTURE AND ENGINEERING ♦
IT IS AN INDISPENSABLE TOOL FOR THE ANALYSIS AND THE
INTERPRETATION OF THE BASIC DATA OBTAINED BY OBSERVATION AND EXPERIMENT

Em português, a lei normal do erro destaca-se na experiência da humanidade como uma das mais amplas generalizações de filosofia natural. Ela serve como instrumentos guias em pesquisas nas ciências físicas e sociais, na medicina, na agricultura e na engenharia. Ela é uma ferramenta essencial para a análise e a interpretação dos dados básicos obtidos pela observação e experimentação.

Predefinição:Referências

Predefinição:Portal3 Predefinição:Controlo de autoridade Predefinição:Artigo destacado

  1. Predefinição:Citar web
  2. Predefinição:Citar web
  3. Predefinição:Citar web
  4. Predefinição:Citar livro
  5. Predefinição:Citar web
  6. Predefinição:Citar web
  7. Predefinição:Citar web
  8. Predefinição:Citar web
  9. 9,0 9,1 Predefinição:Citar periódico
  10. 10,00 10,01 10,02 10,03 10,04 10,05 10,06 10,07 10,08 10,09 Predefinição:Citar periódico
  11. Predefinição:Citar livro
  12. Predefinição:Citar livro
  13. Predefinição:Citar livro
  14. Predefinição:Citar livro
  15. Predefinição:Citar livro
  16. 16,0 16,1 Predefinição:Citar livro
  17. Predefinição:Citar livro
  18. 18,0 18,1 18,2 18,3 18,4 18,5 Predefinição:Citar web
  19. Predefinição:Citar livro
  20. 20,0 20,1 Predefinição:Citar livro
  21. 21,0 21,1 Predefinição:Citar livro
  22. Predefinição:Citar web
  23. 23,0 23,1 23,2 23,3 Predefinição:Citar livro
  24. Predefinição:Citar web
  25. Predefinição:Citar livro
  26. 26,0 26,1 26,2 26,3 Predefinição:Citar livro
  27. 27,0 27,1 Predefinição:Citar livro
  28. 28,0 28,1 Predefinição:Citar periódico
  29. Predefinição:Citar web
  30. 30,0 30,1 30,2 Predefinição:Citar periódico
  31. Predefinição:Citar livro
  32. Predefinição:Citar livro
  33. 33,0 33,1 33,2 Predefinição:Citar livro
  34. Predefinição:Citar web
  35. Predefinição:Citar livro
  36. 36,0 36,1 Predefinição:Citar livro
  37. 37,0 37,1 37,2 37,3 Predefinição:Citar livro
  38. Predefinição:Citar livro
  39. Predefinição:Citar livro
  40. Predefinição:Citar livro
  41. Predefinição:Citar livro
  42. 42,0 42,1 Predefinição:Citar livro
  43. Predefinição:Citar web
  44. 44,0 44,1 44,2 44,3 Predefinição:Citar web
  45. Predefinição:Citar livro
  46. Predefinição:Citar livro
  47. Predefinição:Harvsp.
  48. Predefinição:Citar web
  49. Predefinição:Citar livro
  50. Predefinição:Citar web
  51. Predefinição:Citar livro
  52. Predefinição:Citar livro
  53. Predefinição:Citar livro
  54. Predefinição:Citar livro
  55. Predefinição:Citar livro
  56. Predefinição:Citar livro
  57. Predefinição:Citar livro
  58. Predefinição:Citar livro
  59. Predefinição:Citar web
  60. Predefinição:Citar web
  61. Predefinição:Citar web
  62. Predefinição:Citar web
  63. Predefinição:Citar livro
  64. 64,0 64,1 64,2 Predefinição:Citar web
  65. Predefinição:Citar livro
  66. Predefinição:Citar livro
  67. Predefinição:Citar livro
  68. Predefinição:Citar livro
  69. Predefinição:Citar periódico
  70. Predefinição:Citar web
  71. Predefinição:Citar periódico
  72. Predefinição:Citar livro
  73. Predefinição:Citar web
  74. Predefinição:Citar periódico
  75. Predefinição:Citar web
  76. 76,0 76,1 Predefinição:Citar livro
  77. 77,0 77,1 Predefinição:Citar livro
  78. Predefinição:Citar web
  79. Predefinição:Citar livro
  80. 80,0 80,1 Predefinição:Citar livro
  81. Predefinição:Citar livro
  82. Predefinição:Citar web
  83. Predefinição:Harvsp.
  84. Predefinição:Citar livro
  85. 85,0 85,1 85,2 85,3 Predefinição:Citar livro
  86. Predefinição:Citar livro
  87. Predefinição:Citar web
  88. Predefinição:Citar web
  89. Predefinição:Citar web
  90. Predefinição:Citar livro
  91. Predefinição:Citar livro
  92. Predefinição:Harvsp.
  93. 93,0 93,1 Predefinição:Citar periódico
  94. Predefinição:Harvsp.
  95. 95,0 95,1 Predefinição:Citar periódico
  96. Predefinição:Citar livro
  97. Predefinição:Citar web
  98. Predefinição:Citar periódico
  99. Predefinição:Citar web
  100. Predefinição:Citar periódico
  101. Predefinição:Citar periódico
  102. Predefinição:Citar periódico
  103. Predefinição:Citar livro
  104. Predefinição:Citar web
  105. 105,0 105,1 Predefinição:Citar livro
  106. Predefinição:Citar web
  107. Predefinição:Citar web
  108. 108,0 108,1 108,2 Predefinição:Citar periódico
  109. Predefinição:Citar livro
  110. Predefinição:Citar periódico
  111. Predefinição:Citar livro
  112. 112,0 112,1 Predefinição:Citar livro
  113. Predefinição:Citar livro
  114. Predefinição:Citar periódico
  115. Predefinição:Citar livro
  116. Predefinição:Citar livro
  117. 117,0 117,1 117,2 Predefinição:Citar periódico
  118. Predefinição:Citar livro
  119. Predefinição:Citar web
  120. Predefinição:Citar livro
  121. Predefinição:Citar livro
  122. Predefinição:Citar livro
  123. Predefinição:Citar periódico
  124. Predefinição:Citar livro
  125. 125,0 125,1 125,2 125,3 125,4 Predefinição:Citar web
  126. 126,0 126,1 126,2 Predefinição:Citar livro
  127. Predefinição:Citar livro
  128. Predefinição:Citar livro
  129. Predefinição:Citar web
  130. Predefinição:Citar livro
  131. 131,0 131,1 131,2 Predefinição:Citar periódico
  132. Predefinição:Citar periódico
  133. Predefinição:Citar web
  134. Predefinição:Citar periódico
  135. Predefinição:Citar web
  136. Predefinição:Citar web
  137. Predefinição:Citar livro
  138. Predefinição:Citar web
  139. Predefinição:Citar web
  140. Predefinição:Citar web
  141. Predefinição:Citar livro