Teste Kolmogorov-Smirnov

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Predefinição:Estatística sidebar

Ilustração da estatística de Kolmogorov–Smirnov. A linha vermelha é a função distribuição acumulada, a linha azul é a função distribuição empírica e a seta preta é a estatística K–S.

Em estatística, o teste Kolmogorov–Smirnov (também conhecido como teste KS ou teste K–S) é um teste não paramétrico de bondade do ajuste sobre a igualdade de distribuições de probabilidade contínuas e unidimensionais que pode ser usado para comparar uma amostra com uma distribuição de probabilidade de referência (teste K–S uniamostral) ou duas amostras uma com a outra (teste K–S biamostral).[1] Recebe este nome em homenagem aos matemáticos russos Andrei Kolmogorov e Nikolai Smirnov.

A estatística de Kolmogorov–Smirnov quantifica a distância entre a função distribuição empírica da amostra e a função distribuição acumulada da distribuição de referência ou entre as funções distribuição empírica de duas amostras. A distribuição nula desta estatística é calculada sob a hipótese nula de que a amostra é retirada da distribuição de referência (no caso uniamostral) ou de que as amostras são retiradas da mesma distribuição (no caso biamostral). Em cada caso, as distribuições consideradas sob a hipótese nula são distribuições contínuas, mas não restritas.

O teste K–S biamostral é um dos métodos não paramétricos mais úteis e difundidos para a comparação de duas amostras, já que é sensível a diferenças tanto no local, como na forma das funções distribuição acumulada empírica das duas amostras.[2]

O teste de Kolmogorov–Smirnov pode ser modificado para servir como um teste da qualidade do ajuste. No caso especial do teste da normalidade da distribuição, as amostras são padronizadas e comparadas com uma distribuição normal padrão. Isto equivale a tornar a média e a variância da distribuição de referência iguais aos estimados da amostras, sabendo que usar isto para definir a distribuição de referência específica muda a distribuição nula da estatística. Vários estudos encontraram que, mesmo nesta forma corrigida, o teste é menos potente em avaliar a normalidade do que o teste de Shapiro–Wilk e o teste de Anderson–Darling.[3] Entretanto, estes outros testes também têm suas desvantagens. O teste de Shapiro–Wilk, por exemplo, é conhecido por não funcionar bem em amostras com muitos valores idênticos.

Estatística de Kolmogorov-Smirnov

A função distribuição empírica Fn para n observações Xi independentes e identicamente distribuídas é definida como

Fn(x)=1ni=1nI[,x](Xi)

em que I[,x](Xi) é a função indicadora, igual a 1 se Xix e igual a 0 de outro modo.

A estatística de Kolmogorov–Smirnov para uma dada função distribuição acumulada F(x) é

Dn=supx|Fn(x)F(x)|

em que supx é o supremo do conjunto de distâncias. Pelo teorema de Glivenko–Cantelli, se a amostra vier da distribuição F(x), então Dn converge a 0 quase certamente no limite quando n vai ao infinito. Kolmogorov fortaleceu este resultado ao oferecer efetivamente a razão desta convergência como mostrado abaixo. O Teorema de Donsker oferece um resultado ainda mais forte.

Na prática, a estatística exige um número relativamente grande de pontos de dados para que se rejeite adequadamente a hipótese nula.

Distribuição de Kolmogorov

A distribuição de Kolmogorov é a distribuição da variável aleatória

K=supt[0,1]|B(t)|

em que B(t) é a ponte browniana. A função distribuição acumulada de K é dada por[4]

Pr(Kx)=12k=1(1)k1e2k2x2=2πxk=1e(2k1)2π2/(8x2),

que também pode ser expressa pela função teta de Jacobi ϑ01(z=0;τ=2ix2/π). Tanto a forma da estatística do teste de Kolmogorov–Smirnov, como sua distribuição assintótica sob a hipótese nula foram publicadas por Kolmogorov,[5] enquanto uma tabela da distribuição foi publicada por Smirnov.[6] Relações de recorrência para a distribuição da estatística do teste em amostras finitas também foram divulgadas por Kolmogorov.[5]

Sob a hipótese nula de que a amostra vem da distribuição hipotetizada F(x),

nDnnsupt|B(F(t))|

em distribuição, em que B(t) é a ponte browniana.

Se F for contínua, então, sob a hipótese nula, nDn converge para a distribuição de Kolmogorov, que não depende de F. Este resultado também pode ser conhecido como teorema de Kolmogorov.

O teste de Kolmogorov–Smirnov para a qualidade do ajuste é construído pelo uso de valores críticos da distribuição de Kolmogorov.[7] A hipótese nula é rejeitada no nível α se

nDn>Kα,

em que Kα é encontrado a partir de

Pr(KKα)=1α.

A potência assintótica deste teste é 1.

Teste com parâmetros estimados

Se a forma ou os parâmetros de F(x) forem determinados a partir dos dados Xi, os valores críticos determinados desta forma são inválidos. Em tais casos, o método de Monte Carlo ou outros métodos podem ser exigidos e as tabelas foram preparadas para alguns casos. Os detalhes para as modificações exigidas para a estatística do teste e para os valores críticos para a distribuição normal e para a distribuição exponencial foram divulgados.[8] Publicações mais recentes incluem a distribuição de Gumbel.[9] O teste de Lillefors representa um caso especial desta questão para a distribuição normal. A transformação do logaritmo pode ajudar a superar casos em que os dados do teste de Kolmogorov parecem não se ajustar ao pressuposto de que veio da distribuição normal.

Distribuição nula discreta

O teste de Kolmogorov–Smirnov deve ser adaptado para variáveis discretas.[10] A forma da estatística do teste permanece igual à do caso contínuo, mas o cálculo de seu valor é mais sutil. Isto pode ser visto quando se computa a estatística do teste entre uma distribuição contínua f(x) e uma função de etapa g(x) que tem uma descontinuidade em xi. Em outras palavras, o limite limxxig(x), se existir, é diferente de g(xi). Assim, quando se computa a estatística

supx|g(x)f(x)|=maxi[max(|g(xi)f(xi)|,limxxi|g(x)f(xi1)|)],

não fica claro como realocar o limite, a não ser que se saiba o valor limitante da distribuição subjacente.

Teste Kolmogorov-Smirnov biamostral

Ilustração da estatística biamostral de Kolmogorov–Smirnov. As linhas vermelha e azul correspondem a funções distribuição empírica e a seta preta é a estatística K–S biamostral.

O teste Kolmogorov–Smirnov pode também ser usado para testar se duas distribuições de probabilidade unidimensionais subjacentes diferem entre si. Neste caso, a estatística de Kolmogorov–Smirnov é

Dn,m=supx|F1,n(x)F2,m(x)|,

em que F1,n e F2,m são as funções distribuição empírica da primeira e da segunda amostra respectivamente e sup é a função supremo.

A hipótese nula é rejeitada ao nível α se

Dn,m>c(α)n+mnm.[11]

n e m são os tamanhos da primeira e da segunda amostras respectivamente. O valor de c(α) é dado na tabela abaixo para os níveis mais comuns de α[11]

α 0.10 0.05 0.025 0.01 0.005 0.001
c(α) 1.22 1.36 1.48 1.63 1.73 1.95

e, em geral, por

c(α)=12ln(α2).

O teste biamostral verifica se as duas amostras de dados vêm da mesma distribuição e não especifica qual é esta distribuição comum, isto é, se é normal ou não normal. Tabelas de valores críticos para este caso também foram publicadas.[8][11] Estes valores críticos têm algo em comum com o teste de Anderson–Darling e o teste qui-quadrado, nomeadamente, o fato de que valores mais altos tendem a ser mais raros.[12]

Limites de confiança para a forma da função distribuição

Enquanto o teste Kolmogorov–Smirnov é geralmente usado para testar se uma dada F(x) é a distribuição de probabilidade subjacente de Fn(x), o procedimento pode ser invertido para dar limites de confiança à própria F(x). Caso se escolha um valor crítico da estatística de teste Dα, tal que P(Dn>Dα)=α, então a banda de largura ±Dα em torno de Fn(x) conterá inteiramente F(x) com probabilidade 1α.

Estatística de Kolmogorov–Smirnov em mais de uma dimensão

Um teste Kolmogorov–Smirnov de qualidade do ajuste multivariado e livre de distribuição foi proposto por Ana Justel, Daniel Peña e Rubén Zamar em 1997.[13] O teste usa uma estatística construída pelo uso da transformação de Rosenblatt e um algoritmo é usado para a computação no caso bivariado. Um teste aproximado facilmente computado em qualquer dimensão também é apresentado.

A estatística do teste Kolmogorov–Smirnov precisa ser modificada se um teste semelhante for aplicado a dados multivariados. Ela não pode ser aplicada diretamente porque a diferença máxima entre duas funções distribuição acumulada conjuntas geralmente não é igual à diferença máxima de qualquer uma das funções distribuição complementares. Assim, a diferença máxima será diferente, dependendo se Pr(x<Xy<Y) ou Pr(X<xY>y) ou qualquer um dos dois outros arranjos possíveis for usado. Pode-se exigir que o resultado do teste usado não dependa da escolha feita.

Uma abordagem à generalização da estatística de Kolmogorov–Smirnov para dimensões mais elevadas que leva em conta a preocupação acima consiste em comparar as funções distribuição acumulada das duas amostras com todos os ordenamentos possíveis e tomar o maior conjunto das estatísticas K–S resultantes. Em d dimensões, o número de ordenamentos é 2d1. Uma variação deste tipo foi proposta por J. A. Peacock[14] e outra por G. Fasano e A. Francischini,[15] ambas comparadas por R. H. C. Lopes.[16] Valores críticos para a estatística do teste podem ser obtidos por simulações, mas isto depende da estrutura de dependência da distribuição conjunta.

Ver também

Referências

Predefinição:Reflist

Ligações externas

Predefinição:Estatística

Predefinição:Portal3