Teorema de Bayes

Fonte: testwiki
Revisão em 05h44min de 1 de agosto de 2023 por imported>O Aventureiro da Sabedoria (growthexperiments-addlink-summary-summary:3|0|0)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Predefinição:Fundamentos de probabilidadeEm teoria das probabilidades e estatística, o teorema de Bayes (alternativamente, a lei de Bayes ou a regra de Bayes) descreve a probabilidade de um evento, baseado em um conhecimento a priori que pode estar relacionado ao evento. O teorema mostra como alterar as probabilidades a priori tendo em vista novas evidências para obter probabilidades a posteriori.Predefinição:Harvref Por exemplo, o teorema de Bayes pode ser aplicado ao jogo das três portas (também conhecido como problema de Monty Hall). [1]

Uma das muitas aplicações do teorema de Bayes é a inferência bayesiana, uma abordagem particular da inferência estatística. Quando aplicado, as probabilidades envolvidas no teorema de Bayes podem ter diferentes interpretações de probabilidade. Com a interpretação bayesiana de probabilidade, o teorema expressa como a probabilidade de um evento (ou o grau de crença na ocorrência de um evento) deve ser alterada após considerar evidências sobre a ocorrência deste evento. A inferência bayesiana é fundamental para a estatística bayesiana.Predefinição:Harvref

O teorema de Bayes recebe este nome devido ao pastor e matemático inglês Thomas Bayes (1701 – 1761), que foi o primeiro a fornecer uma equação que permitiria que novas evidências atualizassem a probabilidade de um evento a partir do conhecimento a priori (ou a crença inicial na ocorrência de um evento). O teorema de Bayes foi mais tarde desenvolvido por Pierre-Simon Laplace, que foi o primeiro a publicar uma formulação moderna em 1812 em seu livro Teoria Analítica de Probabilidade, na tradução do francês. Harold Jeffreys colocou o algoritmo de Bayes e a formulação de Laplace em uma base axiomática. Jeffreys escreveu que "o teorema de Bayes é para a teoria da probabilidade o que o teorema de Pitágoras é para a geometria".[2]

Placa de neon, mostrando a expressão do teorema de Bayes.

História

Visualização do teorema de Bayes.

O teorema de Bayes recebe este nome devido ao pastor e matemático inglês Thomas Bayes (1701 – 1761), que estudou como calcular a distribuição para o parâmetro de probabilidade de uma distribuição binomial (terminologia moderna). O manuscrito não publicado de Bayes foi editado significativamente por Richard Price antes de ser lido postumamente na Royal Society. Price editou o principal trabalho de Bayes An Essay towards Solving a Problem in the Doctrine of Chances (1763),[3] que aparece em Philosophical Transactions[4] e contém o teorema de Bayes. Price escreveu uma introdução para o artigo, que fornece algumas das bases filosóficas da estatística bayesiana. Em 1765, Price foi eleito membro da Royal Society em reconhecimento ao seu trabalho sobre o legado de Bayes.[5]

O matemático francês Pierre-Simon Laplace reproduziu e estendeu os resultados de Bayes em 1774, aparentemente sem ter conhecimento do trabalho de Bayes.[6][7][8] A interpretação bayesiana da probabilidade foi desenvolvida principalmente por Laplace.[9] Stephen Stigler sugeriu em 1983 que o teorema de Bayes foi descoberto pelo matemático inglês cego Nicholas Saunderson pouco antes de Bayes.[10][11] Entretanto, esta interpretação tem sido contestada.[12] Martyn Hooper[13] e Sharon McGraynePredefinição:Harvref argumentaram que a contribuição de Richard Price foi substancial: Predefinição:Cquote

Definição formal

Visão esquemática do teorema de Bayes, em que Bi é uma partição do espaço de probabilidade Ω e A é um evento qualquer.

O teorema de Bayes é um corolário da lei da probabilidade total, expresso matematicamente na forma da seguinte equação:

P(AB)=P(BA)P(A)P(B),

em que A e B são eventos e P(B)0.[14]Predefinição:Harvref

O teorema de Bayes também pode ser escrito da seguinte maneira:

P(AB)P(B)=P(AB)=P(BA)=P(BA)P(A)=P(AB)P(B)[14]Predefinição:Harvref

Exemplo

Diagrama em árvore para o teste de droga, em que U, Ū, + e − são os eventos representando usuário, não usuário, resultado positivo e resultado negativo, respectivamente. As porcentagens entre parêntesis são calculadas.

Teste de drogas

Seja um teste de drogas 99% sensível e 99% específico. Isto é, o teste produzirá 99% de resultados verdadeiros positivos para usuários de drogas e 99% de resultados verdadeiros negativos para não-usuários de drogas. Suponha que 0,5% das pessoas são usuárias de drogas. Se um indivíduo selecionado aleatoriamente testar positivo, qual a probabilidade de ele ser usuário de drogas? Isto é, qual a probabilidade de não se cometer um falso positivo?[15]

P(usuário+)=P(+usuário)P(usuário)P(+)=P(+usuário)P(usuário)P(+usuário)P(usuário)+P(+não usuário)P(não usuário)=0,99×0,0050,99×0,005+0,01×0,99533,2%

Mesmo com a aparente precisão do teste, se um indivíduo testar positivo, é mais provável que ele não seja do que ele seja usuário de drogas. Isto porque o número de não-usuários é muito maior que o número de usuários de drogas. Então, o número de falsos positivos supera o número de positivos verdadeiros. Para usar números concretos, se 1000 indivíduos forem testados, espera–se que 995 não sejam usuários e 5 sejam usuários de drogas. Para os 995 não-usuários de drogas, são esperados 0,01×99510 falsos positivos. Para os 5 usuários de drogas, são esperados 0,99×55 positivos verdadeiros. Isto é, dos 15 resultados positivos, apenas 5 (ou 33%) são genuínos. Isto ilustra a importância da probabilidade condicional e como políticas podem ser equivocadas se as probabilidades condicionais forem negligenciadas.[16][15]

A importância da especificidade pode ser observada calculando–se que, mesmo se a sensibilidade for aumentada para 100% e a especificidade permanecer em 99%, a probabilidade do indivíduo ser um usuário de drogas subirá apenas de 33,2% para 33,4%. Entretanto, se a sensibilidade for mantida em 99% e a especificidade for aumentada para 99,5%, então a probabilidade do indivíduo ser um usuário de droga sobe para cerca de 49,9%.[15]

Interpretações

Visualização geométrica do teorema de Bayes. Na tabela, os valores 3, 1, 2 e 6 fornecem os pesos relativos de cada caso e condição correspondente. As imagens mostram as células da tabela envolvidas em cada métrica, sendo a probabilidade a fração de cada figura que está sombreada. Isto mostra que: P(AB)×P(B)=P(BA)×P(A). Isto é: P(AB)=P(BA)×P(A)P(B). Um raciocínio semelhante mostra que: P(A¯B)=P(BA¯)×P(A¯)P(B).

A interpretação do teorema de Bayes depende da interpretação da probabilidade atribuída aos termos. As duas interpretações principais são descritas abaixo.

Interpretação bayesiana

Na interpretação bayesiana (ou epistemológica), a probabilidade mede o grau de crença. O teorema de Bayes liga o grau de crença em uma posição antes e depois de se considerar as evidências. Por exemplo, acredita–se com 50% de certeza que uma moeda tem o dobro de probabilidade de cair cara. Se a moeda for jogada várias vezes, o grau de crença pode aumentar, diminuir ou se manter igual dependendo dos resultados observados (ver inferência bayesiana).[17]

Para proposição A e evidência B:

  • P(A) (probabilidade a priori) é o grau de crença inicial em A;
  • P(AB) (probabilidade a posteriori) é o grau de crença que representa B;
  • O quociente P(BA)P(B) é o suporte que B fornece para A.[17]

Interpretação frequencista

Ilustração da interpretação frequentista com o diagrama de árvore. O teorema de Bayes liga as probabilidades condicionais aos seus inversos.

Na interpretação frequencista, a probabilidade mede uma proporção de resultados. Por exemplo, suponha-se que uma experiência seja realizada muitas vezes. P(A) é a proporção de resultados com propriedade A e P(B) é a proporção de resultados com propriedade B. P(BA) é a proporção de resultados com propriedade B, excluindo os resultados sem propriedade A, e P(AB) é a proporção de resultados com propriedade A, excluindo os resultados sem propriedade B.[18]

Probabilidades condicionais

Predefinição:AP O papel do teorema de Bayes é melhor visualizado com o diagrama de árvore. Os dois diagramas dividem os mesmos resultados em A e em B em ordens opostas, para obter as probabilidades inversas. O teorema de Bayes serve como ligação entre estas diferentes partições.Predefinição:Harvref

Por exemplo, um entomologista vê o que poderia ser uma rara subespécie de besouro devido a um padrão em suas costas. Nas subespécies raras, 98% dos indivíduos tem o padrão. Isto é, P(padrãoraro)=98%. Nas subespécies comuns, 5% dos indivíduos tem o padrão. Estas subespécies raras correspondem a apenas 0,1% da população. Então, qual a probabilidade do besouro com padrão ser raro? Em outras palavras, qual o valor de P(raropadrão)?Predefinição:Harvref

Da expressão estendida do teorema de Bayes (uma vez que qualquer besouro pode ser apenas raro ou comum), tem–se:

P(raropadrão)=P(padrãoraro)P(raro)P(padrãoraro)P(raro)+P(padrãocomum)P(comum)=0,98×0,0010,98×0,001+0,05×0,9991,9%

Isto é, o besouro com um padrão nas costas encontrado pelo entomologista tem probabilidade de 1,9% de ser raro.Predefinição:Harvref

Formas

Eventos

Forma simples

Para eventos A e B, dado P(B)0:

P(AB)=P(BA)P(A)P(B).[19]

Na inferência bayesiana, deseja-se saber o grau de crença em um evento (ou conjunto de eventos) A, condicionalmente à ocorrência de um evento (ou conjunto de eventos) B fixado (quantidade que é conhecida como distribuição a posteriori). O teorema de Bayes mostra que a distribuição a posteriori é proporcional à probabilidade de B dado A (que corresponde à função de verossimilhança da amostra) vezes a probabilidade de A (chamada de probabilidade a priori ou grau de crença antes da coleta de evidências):

P(AB)P(A)×P(BA)  (proporcionalmente sobre A para dado B).Predefinição:HarvRef[19]

Forma alternativa

Outra forma do teorema de Bayes que é geralmente encontrada quando são consideradas duas afirmações ou hipóteses concorrentes é:

P(AB)=P(BA)P(A)P(BA)P(A)+P(BAc)P(Ac).Predefinição:Harvref

Para proposição A e evidência B:

  • P(A) (probabilidade a priori) é o grau de crença inicial em A;
  • P(Ac) é a probabilidade correspondente do grau de crença inicial contra A. P(Ac)=1P(A);
  • P(BA) (probabilidade condicional ou verossimilhança) é o grau de crença em B, dado que a proposição A é verdadeira;
  • P(BAc)(probabilidade condicional ou verossimilhança) é o grau de crença em B, dado que a proposição A é falsa;
  • P(AB) (probabilidade a posteriori) é a probabilidade para A, após considerar B para e contra A.[20]

Forma estendida

Para alguma partição {Aj} do espaço amostral, muitas vezes o espaço do evento é dado em termos de P(Aj) e P(BAj). Isto é útil para calcular P(B), usando a lei de probabilidade total:

P(B)=jP(BAj)P(Aj)P(AiB)=P(BAi)P(Ai)jP(BAj)P(Aj).Predefinição:Harvref

Variáveis aleatórias

Diagrama ilustrando o significado do teorema de Bayes como aplicado a um espaço de evento gerado por variáveis aleatórias contínuas X e Y. Existe uma instância do teorema de Bayes para cada ponto no domínio. Na prática, estas instâncias podem ser parametrizadas escrevendo as densidades de probabilidade específicas como funções de x e y.

Seja o espaço amostral Ω gerado por duas variáveis aleatórias X e Y. Em princípio, o teorema de Bayes aplica–se aos eventos A={X=x} e B={Y=y}. Entretanto, os termos se tornam 0 nos pontos em que qualquer variável tem densidade de probabilidade finita. Para continuar útil, o teorema de Bayes pode ser formulado em termos de densidades relevantes.

Forma simples

Se X é contínua e Y é discreta,

fX(xY=y)=P(Y=yX=x)fX(x)P(Y=y).[21]

Se X é discreta e Y é contínua,

P(X=xY=y)=fY(yX=x)P(X=x)fY(y).[21]

Se X e Y são contínuas,

fX(xY=y)=fY(yX=x)fX(x)fY(y),

em fX e fY representam as funções de distribuição de probabilidade de X e Y, respectivamente.[21]

Forma estendida

Diagrama ilustrando como um espaço de evento gerado por variáveis aleatórias contínuas X e Ygeralmente é concebido.

Um espaço de evento contínuo muitas vezes é dado em termos dos termos do numerador. Então, é útil eliminar o denominador usando a lei de probabilidade total. Para fY(y), isto se torna uma integral:

fY(y)=fY(yX=ξ)fX(ξ)dξ.[21]

Regra de Bayes

A regra da Bayes é o teorema de Bayes na forma de chances:

O(A1:A2B)=O(A1:A2)Λ(A1:A2B),

em que

Λ(A1:A2B)=P(BA1)P(BA2)

é chamado de fator Bayes ou razão de verossimilhança. As chances entre os dois eventos é simplesmente a razão entre as probabilidades dos dois eventos.

Então,

O(A1:A2)=P(A1)P(A2),

O(A1:A2B)=P(A1B)P(A2B).

Portanto, a regra de Bayes afirma que as chances posteriores são as chances iniciais multiplicadas pelo fator de Bayes. Em outras palavras, as probabilidades a posteriori são proporcionais às probabilidades a priori.Predefinição:HarvRef

Derivação

Para eventos

O teorema de Bayes pode ser derivado a partir da definição de probabilidade condicional:

P(AB)=P(AB)P(B), se P(B)0,

P(BA)=P(BA)P(A), se P(A)0,

pois P(BA)=P(AB).

Então,

P(AB)=P(AB)P(B)=P(BA)P(A)

Logo, ajustando-se os termos, tem-se:

P(AB)=P(BA)P(A)P(B), se P(B)0.Predefinição:Harvref

Para variáveis aleatórias

Para duas variáveis aleatórias contínuas X e Y, o teorema de Bayes pode ser analogamente derivado da definição de probabilidade condicional:fX(xY=y)=fX,Y(x,y)fY(y)

fY(yX=x)=fX,Y(x,y)fX(x)

fX(xY=y)=fY(yX=x)fX(x)fY(y).Predefinição:Harvref

Ver também

Predefinição:Referências

Leitura adicional

Ligações externas

Predefinição:Portal3

  1. Predefinição:Citar web
  2. Predefinição:Citar livro
  3. Predefinição:Citar livro
  4. Predefinição:Citar periódico
  5. Predefinição:Citar livro
  6. Laplace, Pierre-Simon et al. Mémoire sur la probabilité des causes par les évènements. Mémoires présentés par divers savants [à l’Académie royale des sciences], Paris, Imprimerie royale, v. 6, p. 621-656, 1774.
  7. Laplace, Pierre-Simon. Mémoire sur les approximations des formules qui sont fonctions de tres grands nombres. Œuvres completes X, Paris, p. 209-291, 1785.
  8. Predefinição:Citar livro
  9. Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Harvard University Press, Chapter 3.
  10. Predefinição:Citar periódico
  11. Predefinição:Citar livro
  12. Predefinição:Citar periódico
  13. Predefinição:Citar periódico
  14. 14,0 14,1 14,2 Predefinição:Citar livro.
  15. 15,0 15,1 15,2 Predefinição:Citar livro
  16. Predefinição:Citar livro
  17. 17,0 17,1 Predefinição:Citar web
  18. Predefinição:Citar livro
  19. 19,0 19,1 Predefinição:Citar livro
  20. Predefinição:Citar web
  21. 21,0 21,1 21,2 21,3 Predefinição:Citar livro