Distribuição de Poisson

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Predefinição:Mais notas Predefinição:Revisão

Função de probabilidade da distribuição de Poisson para vários valores de λ.

Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos ocorrer em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento.[1]

A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é

f(k;λ)=eλλkk!,

onde

  • e é base do logaritmo natural (e = 2.71828...),
  • k! é o fatorial de k,
  • λ é um número real, igual ao número esperado de ocorrências que ocorrem num dado intervalo de tempo. Por exemplo, se o evento ocorre a uma média de 4 minutos, e estamos interessados no número de eventos que ocorrem num intervalo de 10 minutos, usaríamos como modelo a distribuição de Poisson com λ=10/4= 2.5.

Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.

Processo de Poisson

Predefinição:AP A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.

Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.

Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:

P[N(t)=K]=eλt(λt)kk!,

em que λ é uma constante (de unidade inversa da unidade do tempo)Predefinição:Citation needed.

Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.

Propriedades

Média

O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente[2]:


Em linguagem matemática Em Português
E[X]=k=0k[X=k] Por definição, a esperança de uma variável aleatória X é igual à soma de cada uma das suas possíveis ocorrências ponderadas pela probabilidade de que estas ocorrências aconteçam.
E[X]=k=0k[eλλkk!,] No caso de variáveis com distribuição, a probabilidade de que determinado evento ocorra é calculado por :f(k;λ)=eλλkk!. Portanto, este valor foi substituído na fórmula.
E[X]=0[eλλ00!,]k=0+1[eλλ11!,]k=1+2[eλλ22!,]k=2+... Esta expressão equivale à expressão da linha imediatamente superior; apenas se substituiu a expressão de somatório pela soma infinita para melhor compreensão. Note que como o primeiro termo é sempre igual a zero, podemos reescrever E[X]=k=0k[eλλkk!]=k=1k[eλλkk!]
Como k=1k[eλλkk!]=k=1λ[eλλk1(k1)!] Fazemos uma substituição para facilitar o cálculo.
E[X]=λk=1[eλλk1(k1)!] Tomamos a substituição acima e tiramos a constante λ para fora do somatório (pois o primeiro termo da expressão imediatamente superior é igual à λ*1.
E[X]=λeλk=0[λk(k)!] Nova transformação para facilitar os cálculos...
E[X]=λeλ [λ0(0)!+λ1(1)!+λ2(2)!+λ3(3)!+...] Abrindo o somatório, verifica-se que a série converge para eλ
E[X]=λeλeλ Obtemos eλeλ=e0=1
E[X]=λ Como queríamos demonstrar

Variância (var(X), σX2 ou σ2)

A variância de uma distribuição de Poisson é igual a λ, como podemos demonstrar.

Sabendo que var(X)=E(X2)(E(X))2 e E(X)=λ

Calculamos o segundo momento E(X2), para uma variável aleatória discreta:

E[X2]=k=0k2[eλλkk!] Expandindo o somatório

E[X2]=12[eλλ11!]+22[eλλ22!]+32[eλλ33!]+...+n2[eλλnn!]+... Simplificando os termos ao quadrado com os fatoriais

E[X2]=[eλλ1]+2[eλλ2]+3[eλλ32!]+...+n[eλλn(n1)!]+... Colocando λ e eλ em evidência

E[X2]=eλλ[1+2λ+3λ22!+...+nλn1(n1)!+...]

E[X2]=eλλn=1n[λn1(n1)!] fazendo n1=k e n=k+1

E[X2]=eλλk=0[k+1][λkk!]

E[X2]=eλλk=0[kλkk!+λkk!]

E[X2]=eλλ[k=0kλkk!+k=0λkk!] Série de Taylor Função Exponencial k=0λkk! converge para eλ

E[X2]=eλλ[k=0kλkk!+eλ] Expandindo o somatório

E[X2]=eλλ[0λ00!+1λ11!+2λ22!+3λ33!+...+kλkk!+eλ] Simplificando os termos ao quadrado com os fatoriais

E[X2]=eλλ[λ+λ2+λ32!+...+λk(k1)!+eλ] Colocando λ em evidência

E[X2]=eλλ[λ(1+λ+λ22!+...+λk1(k1)!)+eλ]

E[X2]=eλλ[λk=1λk1(k1)!+eλ] fazendo k1=n

E[X2]=eλλ[λn=0λnn!+eλ] Série de Taylor Função Exponencial n=0λnn! converge para eλ

E[X2]=eλλ[λeλ+eλ]

E[X2]=eλλ2eλ+eλλeλ

E[X2]=λ2+λ

Substituindo E(X2) e E(X) em var(X)=E(X2)(E(X))2

var(X)=λ2+λλ2

var(X)=λ

Soma de variáveis

A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se XiPoisson(λi) segue uma distribuição de Poisson com parâmetro λi e as variáveis aleatórias Xi são estatisticamente independentes, então

Y=i=1NXiPoisson(i=1Nλi) também segue uma distribuição de Poisson cujo parâmetro é igual à soma dos λi.

Por exemplo, X1 é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e X2 é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média i=12λi=1,2+3=4,2.

Intervalo de confiança

Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012).[3] Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:

Flow=(11.96k1)kT
Fupp=(1+1.96k1)kT

em seguida, os limites do parâmetro λ são dadas por: λlow=FlowT;λupp=FuppT.


Exemplos

A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos:

  • Chamadas telefônicas por unidade de tempo;
  • Defeitos por unidade de área;
  • Acidentes por unidade de tempo;
  • Chegada de clientes a um supermercado por unidade de tempo;
  • Número de glóbulos visíveis ao microscópio por unidade de área;
  • Número de partículas emitidas por uma fonte de material radioativo por unidade de tempo.

Ligações externas

Referências

  1. Predefinição:Citar livro
  2. Sayan Mukherjee. Lecture 6.5.- Poisson processes. In: PROBABILITY AND STATISTICS IN ENGINEERING. http://www.isds.duke.edu/courses/Fall06/sta113/poisson.pdf
  3. Predefinição:Citar periódico


Predefinição:Esboço-matemática

Predefinição:Estatística