Propriedade de Markov

Fonte: testwiki
Revisão em 20h58min de 1 de agosto de 2017 por imported>Luizdl (traduzindo nome/parâmetro nas citações usando script)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Em teoria da probabilidades e estatística, o termo propriedade de Markov ou propriedade markoviana se refere à propriedade de perda de memória de um processo estocástico. Tem este nome devido ao matemático russo Andrei Markov.[1]

Uma representação simples de movimento browniano tridimensional para tempos 0 ≤ t ≤ 2. O movimento brownian tem a propriedade de Markov, já que o deslocamento da partícula não depende de seus deslocamentos passados.

Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional de estados futuros do processo (condicional tanto em estados passados, como presentes) depende apenas do estado presente, não da sequência de eventos que o precedeu. Um processo com esta propriedade é chamado de processo de Markov. O termo propriedade forte de Markov tem significado semelhante à propriedade de Markov propriamente dita, exceto pelo fato de que o significado de "presente" é definido em termo de uma variável aleatória conhecida como tempo de espera.

O termo pressuposto de Markov é usado para descrever um modelo em que se pressupõe que a propriedade de Markov se mantém, tal como o modelo oculto de Markov.

Um campo aleatório de Markov[2] estende esta propriedade a duas ou mais dimensões ou a variáveis aleatórias definidas para uma rede interconectada de itens. Um exemplo de um modelo para um campo como este é o modelo Ising.

Um processo estocástico de tempo discreto que satisfaça a propriedade de Markov é conhecido como cadeia de Markov.

Introdução

Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional de estados futuros do processo (condicional tanto em valores passados, como presentes) depende apenas do estado presente; isto é, dado o presente, o futuro não depende do passado. Um processo com esta propriedade é chamado de Markoviano ou processo de Markov. O mais famoso processo de Markov é a cadeia de Markov. O movimento browniano é outro processo de Markov bem conhecido.

História

Andrei Markov estudou cadeias de Markov no começo do século XX. Markov estava interessado em estudar uma extensão de sequências aleatórias independentes, motivado por uma discordância com Pavel Nekrasov, que acreditava que a independência era necessária para que a lei fraca dos grandes números se aplicasse.[3] Em seu primeiro artigo sobre cadeias de Markov, publicado em 1906, Markov mostrou que, sob certas condições, os valores esperados de uma cadeia de Markov convergiriam para um vetor fixo de valores, provando então uma lei fraca dos grandes números sem o pressuposto de independência,[4][5][6] que tinha sido comumente considerado um requisito para que leis matemáticas como aquela se aplicassem.[6] Markov usou posteriormente cadeias de Markov para estudar a distribuição de vogais em Eugene Onegin, livro de Alexandre Pushkin, e provou um teorema central do limite para tais cadeias.[4]

Em 1912, Poincaré estudou cadeias de Markov em grupos finitos com o objetivo de estudar o embaralhamento de cartas. Outros usos iniciais de cadeias de Markov incluem um modelo de difusão, introduzido por Paul e Tatyana Ehrenfest em 1907, e um processo de ramificação, introduzido por Francis Galton e Henry William Watson em 1873, antes do trabalho de Markov.[4][5] Depois do trabalho de Galton e Watson, foi revelado mais tarde que seu processo de ramificação havia sido independentemente descoberto e estudado cerca de três décadas antes por Iréne-Jules Bienaymé.[7] Começando em 1928, Maurice Fréchet se interessou por cadeias de Markov, o que o levou a publicar em 1938 um estudo detalhado sobre cadeias de Markov.[4][8]

Andrei Kolmogorov desenvolveu em um artigo de 1931 uma grande parte da teoria inicial de processos de Markov de tempo contínuo.[9][10] Kolmogorov foi parcialmente inspirado pelo trabalho de Louis Bachelier em 1900 sobre flutuações no mercado de ações, assim como pelo trabalho de Norbert Wiener sobre o modelo do movimento browniano proposto por Albert Einstein.[9][11] Ele introduziu e estudou um conjunto particular de processos de Markov conhecidos como processos de difusão, em que derivou um conjunto de equações diferenciais que descrevem o processo.[9][12] Independente do trabalho de Kolmogorov, Sydney Chapman derivou em um artigo de 1928 uma equação, agora chamada de equação de Chapman-Kolmogorov, de uma forma menos matematicamente rigorosa comparado a Kolmogorov, enquanto estudava movimento browniano.[13] As equações diferenciais são chamadas agora de equações de Kolmogorov[14] ou equações de Chapman-Kolmogorov.[15] Outros matemáticos que contribuíram significativamente para as fundações dos processo de Markov incluem William Feller, a partir da década de 1930, e depois Eugene Dynkin, a partir da década de 1950.[10]

Definição

Considere um espaço de probabilidade (Ω,,) com filtração (s, sI), para algum conjunto de índice (totalmente ordenado) I; e um espaço mensurável (S,𝒮). Diz-se que um processo estocástico X=(Xt, tI) com valores (S,𝒮) adaptado à filtração possui a propriedade de Markov se, para cada A𝒮 e para cada s,tI com s<t,

(XtA|s)=(XtA|Xs)[16]

No caso em que S for um conjunto discreto com sigma-álgebra discreta e I=, isto pode ser reformulado como segue:

(Xn=xn|Xn1=xn1,,X0=x0)=(Xn=xn|Xn1=xn1)

Formulações alternativas

Alternativamente, a propriedade de Markov pode ser formulada da seguinte maneira.

𝔼[f(Xt)|s]=𝔼[f(Xt)|σ(Xs)]

para todo ts0 e sendo f:S limitada e mensurável.[17]

Propriedade forte de Markov

Suponha que X=(Xt:t0) seja um processo estocástico em um espaço de probabilidade (Ω,,) com filtração natural {t}t0. Para qualquer t0, podemos definir o sigma-álgebra germe t+ como a intersecção de todos os s para s>t. Então para qualquer tempo de espera τ em Ω, podemos definir

τ+={A:{τ=t}At+,t0}.

Então diz-se que X tem a propriedade forte de Markov se, para cada tempo de espera τ, condicionado no evento {τ<}, e para cada t0, Xτ+t for independente de τ+ dado Xτ.

A propriedade forte de Markov indica a propriedade de Markov propriamente dita, já que ao tomar o tempo de espera τ=t, a propriedade de Markov propriamente dita pode ser deduzida.

Previsões

Nos campos da modelagem preditiva e da previsão probabilística, a propriedade de Markov é considerada desejável; tal modelo é conhecido como modelo de Markov.

Exemplos

Assuma que uma urna contém duas bolas vermelhas e uma bola verde. Uma bola foi tirada ontem, outra bola foi tirada hoje e a última bola será tirada amanhã. Todas as retiradas são "sem reposição".

Suponha que você saiba que a bola de hoje era vermelha, mas que você não tenha informação sobre a bola de ontem. A chance de que a bola de amanhã seja vermelha é 1/2. Isto se dá porque os únicos dois resultados remanescentes para este experimento aleatório são:

Dia Resultado 1 Resultado 2
Ontem Vermelha Verde
Hoje Vermelha Vermelha
Amanhã Verde Vermelha

Por outro lado, se você soubesse que tanto a bola de hoje, como a bola de ontem eram vermelhas, você teria certeza então de que pegaria a bola verde amanhã.

Esta discrepância mostra que a distribuição de probabilidade para a cor de amanhã depende não só do valor presente, mas também é afetada pela informação sobre o passado. Este processo estocástico de cores observadas não tem a propriedade de Markov. Usando o mesmo experimento acima, se, em vez de retiradas "sem reposição", tivermos retiradas "com reposição", o processo das cores observadas terá a propriedade de Markov.[18]

Uma aplicação da propriedade de Markov em uma forma generalizada está em computações do método de Monte Carlo via cadeias de Markov no contexto da estatística bayesiana.

Ver também

Predefinição:Referências

Predefinição:Processos estocásticos

  1. Markov, A. A. (1954). Theory of Algorithms. [Translated by Jacques J. Schorr-Kon and PST staff] Imprint Moscow, Academy of Sciences of the USSR, 1954 [Jerusalem, Israel Program for Scientific Translations, 1961; available from Office of Technical Services, United States Department of Commerce] Added t.p. in Russian Translation of Works of the Mathematical Institute, Academy of Sciences of the USSR, v. 42. Original title: Teoriya algorifmov. [QA248.M2943 Dartmouth College library. U.S. Dept. of Commerce, Office of Technical Services, number OTS 60-51085.]
  2. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4
  3. Predefinição:Citar periódico
  4. 4,0 4,1 4,2 4,3 Predefinição:Citar livro
  5. 5,0 5,1 Predefinição:Citar livro
  6. 6,0 6,1 Predefinição:Citar periódico
  7. Predefinição:Citar periódico
  8. Predefinição:Citar periódico
  9. 9,0 9,1 9,2 Predefinição:Citar periódico
  10. 10,0 10,1 Predefinição:Citar periódico
  11. Predefinição:Citar livro
  12. Predefinição:Citar livro
  13. Predefinição:Citar periódico
  14. Predefinição:Citar livro
  15. Predefinição:Citar periódico
  16. Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010.
  17. Predefinição:Citar livro
  18. Predefinição:Citar web