Testes de hip teses paulo j azevedo di universidade do minho 2009
Download
1 / 39

- PowerPoint PPT Presentation


  • 80 Views
  • Uploaded on

Testes de Hipóteses Paulo J Azevedo DI - Universidade do Minho 2009. Revisão à análise de significância estatística. Testes de Significância. Determinar o grau de confiança com que se pode concluir que os factos observados reflectem mais do que simples coincidência do acaso.

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about '' - dawn-austin


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
Testes de hip teses paulo j azevedo di universidade do minho 2009

Testes de HipótesesPaulo J AzevedoDI - Universidade do Minho2009

Revisão à análise de significância estatística

Testes de Hipóteses


Testes de signific ncia
Testes de Significância

  • Determinar o grau de confiança com que se pode concluir que os factos observados reflectem mais do que simples coincidência do acaso.

  • Em Data Mining/Machine Learning são tipicamente usados para avaliar se a amostra que estamos a estudar (factos observados) é fruto do acaso (se é ou não significativa).

  • Neste contexto são muitas vezes usados para detectar falsas descobertas.

  • Permitem também avaliar se tem cabimento esperar que os padrões extraídos dos dados de treino (amostra) ocorram em dados futuros.

  • Todos os testes envolvem duas componentes:

    • Um valor observado (obtido da amostra),

    • O valor esperado se nada mais do que variabilidade aleatória (acaso) operar nesta situação.

  • Vários testes disponíveis dependendo do tipo de situação:.

Testes de Hipóteses


Testes de signific ncia 2
Testes de Significância (2)

  • Quando executamos um teste de significância estatística assumimos duas teses:

    • A hipótese especifica que a nossa investigação pretende averiguar (Hipótese alternativa H1),

    • A antítese da hipótese a investigar (Hipótese nula H0)

  • Exemplo com um ensaio médico: Avaliar se os resultados de um ensaio com um novo medicamente para prevenir AVCs aplicado a 1000 pacientes com 400 resultados positivos é significativo:

    • H0 - o novo medicamento não tem efeito significativo

    • H1 – o medicamento tem algum grau de eficácia na prevenção de AVCs

  • Em termos estatísticos:

    • H0 – o número de resultados positivos não é significativamente diferente do valor esperado por variabilidade aleatória MCE (mean chance expectation)

    • H1 – o valor observado é significativamente diferente do valor esperado.

Testes de Hipóteses


Direccionalidade da hip tese alternativa
Direccionalidade da Hipótese Alternativa

  • Dependendo do tipo de questão que queremos endereçar com a nossa hipótese alternativa, esta pode ser direccional ou não-direccional.

    • Não direccional, se não considerar em que sentido os valores observados se afastam do valor esperado (MCE). Assim temos:

      • H0: valor observado = MCE

      • H1: valor observado ≠ MCE

    • Direccional, se considera em que sentido os valores observados se afastam do valor esperado (MCE).

      • Ho: valor observado = MCE

      • H1: valor observado > MCE, ou em alternativa

      • H1: valor observado < MCE.

Testes de Hipóteses


Exemplo
Exemplo

  • Lançar 100 vezes uma moeda ao ar. Verificar se o número de caras obtido (59) é significativo (se a moeda é equilibrada o valor esperado é 50% do número de testes).

  • Usando a Binomial, com N=100,k=59,p=0.5,q=0.5.

  • Notar que há mais 9 caras do que o esperado!

  • De todos os possíveis cenários com 100 lançamentos, apenas 4.46% têm no mínimo 59 caras. O resultado dos nossos lançamentos é significativo (probabilidade ≤ 0.05)

One-sided ou One-tailed test

H1: nº caras > MCE.

(Hipótese direccional)

Este valor é denominado por p-value.

Testes de Hipóteses


Exemplo1
Exemplo

  • Agora para uma hipótese alternativa não direccional.

  • No nosso caso, H1: nº de caras ≠ MCE.

  • Ou seja, responder à pergunta: “Em 100 lançamentos, qual é a probabilidade de obter um excesso de caras ou coroas (>50) tão grande ou igual ao valor obtido (59)”.

  • Neste teste, o valor observado não é significativo (0.0892 > 0.05)

  • A pergunta do teste anterior era: “Em 100 lançamentos, qual é a probabilidade de obter um excesso de caras (>50) tão grande ou igual ao valor obtido (59)”

H1: nº caras ≠ MCE.

(Hipótese direccional)

Two-sided ou Two-tailed test

Valor da estatística das observações.

z = ((k - μ ) ± 0.5) / σ

Testes de Hipóteses


Algumas defini es
Algumas Definições

  • p-value: é a probabilidade de obter (de forma aleatória) um resultado tão ou mais extremo do que o que foi observado, assumindo que a hipótese nula é verdadeira. Isto é P(Obs ≥ MCE | H0)

  • Interpretação alternativa, p-value é o grau de contradição da hipótese nula pelas observações na amostra estudada. Quanto menor, maior o grau de contradição.

  • α é o grau de significância. O valor tradicional é 5%, mas pode também ser de 1% ou outros valores entre [0,1].

  • grau de confiança (1 - α).

  • α também define a região critica i.e. região onde a hipótese nula é rejeitada. α está relacionado com o erro Tipo I.

  • Erro tipo I, rejeitar H0 quando ela é verdadeira (α).

  • Erro tipo II, não rejeitar H0 quando ela é falsa (β).

  • Força do teste (power of the test): probabilidade de correctamente rejeitar H0. quando esta é falsa e não rejeitá-la quando ela é verdadeira. É, respectivamente, (1 - α) e (1 – β).

Testes de Hipóteses


Intervalos de confian a
Intervalos de Confiança

  • Em alternativa aos p-values, podemos usar intervalos de confiança. Usa-se para estimar parâmetros da população usando a amostra e.g. estimar média (μ) de uma população usando média da amostra (x).

  • O grau de confiança C = 1- α determina a probabilidade de o intervalo produzido pelo método usado incluir o verdadeiro valor do parâmetro a estimar. Trabalha sempre com a estatística do teste.

  • Para C =0.95, z*=1.96, então IC = [x-1.96+σ/√n , x+1.96+ σ/√n]

Testes de Hipóteses


Teste binomial
Teste Binomial

  • Testa a significância do desvio de uma amostra representando um conjunto de experiências de Bernoulli em relação à distribuição teórica esperada dessas observações i.e as variáveis são dicotómicas – sucesso/insucesso.

  • É um teste exacto !

    • Um teste de significância exacto é um teste onde todas as condições assumidas para a derivação da distribuição onde o teste estatístico é baseado são satisfeitas. Consequentemente, leva também à obtenção de um p-value exacto (e não aproximado).

    • Um teste aproximado é um teste onde a aproximação pode ser feita o mais precisa possível à custa da obtenção de uma amostra suficientemente grande.

Testes de Hipóteses


Teste binomial 2
Teste Binomial (2)

  • Parâmetros:

    • n, tamanho da amostra.

    • k, número de observações com sucessos em n.

    • p, probabilidade esperada para sucesso

    • q, probabilidade esperado para insucesso.

    • p = 1 – q (categorias dicotómicas!)

    • Para one-sided test (H1: observações > MCE):

      • p-value = prob(k,n,p,q) + prob(k+1,n,p,q)+ prob(k+2,p,q) + … + prob(n,n,p,q).

Cálculo computacionalmente pesado! Por vezes faz-se uma aproximação à Gaussiana (Normal)

Testes de Hipóteses


Testes param tricos
Testes Paramétricos

  • Estão relacionados com um ou mais parâmetros da população (distribuição assumida) e.g. média, desvio padrão.

  • Tipicamente é assumida a Gaussiana.

  • Testes de localização: relacionados com o valor esperado da população (média), onde o centro da população está localizado.

  • Vários tipos:

    • Uma amostra: dada uma amostra e um valor esperado de uma população, testar se a amostra foi tirada da população com o valor esperado dado.

    • Duas amostras independentes:dadas duas amostras independentes, testar se as amostra são originadas de populações com o mesmo valor esperado.

    • Duas amostras dependentes:dadas duas amostras dependentes (paired), testar se as amostra são tiradas de uma população com o mesmo valor esperado (tipicamente 0 para verificar significância da diferença).

Testes de Hipóteses


Student t test
Student t-test

  • Assume uma distribuição Gaussiana (Normal)

  • Ideal para aplicar a amostra com N<30, para N≥30 devemos usar o z-teste.

  • É um teste de médias.

  • H0: μ = μ0 (μ0 é o valor esperado da população)

  • H1: μ ≠ μ0, μ < μ0, μ > μ0 (dependendo de ser two-sided ou one-sided)

  • Estatística do teste:

    • onde N é o tamanho da amostra, X média na amostra, S desvio padrão na amostra.

  • Quando H0 é verdadeira a TS segue uma distribuição tN-1 (N - 1 graus de liberdade i.e. nº de parâmetros que podem ser variados independentemente).

Testes de Hipóteses


Student t test one sample
Student t-test (one sample)

  • Para um dado α fazemos o seguinte teste (sendo TS definida como):

  • Para

    • H1: μ ≠ μ0, TS ≤ -tN-1(α/2) ou TS ≥ tN-1(α/2)

    • H1: μ < μ0, TS < tN-1(α)

    • H1: μ > μ0,TS > tN-1(α)

  • Rejeitar H0 se o teste for positivo.

  • Os valores críticos de tN-1 podem ser obtidos de uma tabela…

Testes de Hipóteses


Distribui o t student

Graus de liberdade

Valor crítico α

Distribuição t-student

Valor da

t-estatística

  • Upper critical values of Student's t distribution with degrees of freedom

  • Probability of exceeding the critical value

Testes de Hipóteses


Student t test amostras independentes
Student t-test (amostras independentes)

  • Usado para verificar se as amostras provêm de populações com diferentes médias.

  • Três situações possíveis (e respectivas def. de TS):

    • Amostras de tamanhos e variância diferente,

    • Amostras de tamanhos diferentes mas variância igual,

    • Amostras de tamanhos e variância igual.

  • Se H0 for verdadeira TS segue uma distribuição tDF:

  • δ0 é a diferença entre valores esperados das populações

    Testes de Hipóteses


    Student t test 2 amostras independentes
    Student t-test (2) (amostras independentes)

    • Três situações possíveis para testar H0

      • H0: μA - μB =δ0

    • Para um dado valor de α, rejeitar H0 se as condições forem satisfeitas:

      • H1: μA - μB ≠δ0, se TS ≤ -tGL(α/2) ou TS ≥ tGL(α/2)

      • H1: μA - μB <δ0, se TS < tGL(α)

      • H1: μA - μB >δ0 , seTS > tGL(α)

    • Os valores críticos de tGL são os mesmo da tabela apresentada anteriormente.

    Testes de Hipóteses


    Student t test paired test
    Student t-test (paired test)

    • É o t-test que nos vais ser mais útil.

    • Assume amostra emparelhadas (por exemplo referente a observações no mesmo local ou tempo, etc).

    • Determina se as amostras diferem de uma forma significativa, considerando as condições de que as diferenças entre pares são independentes e que seguem uma distribuição Normal.

    • Hipóteses:

      • H0: μΔ= 0

      • H1: μΔ ≠ 0, μΔ < 0ou μΔ > 0

    • Onde

      • Δ = XA – XB é a diferença emparelhada entre as duas amostras,

      • μΔ o valor esperado da diferença das populações.

      • Onde Δ é a média das diferenças nas amostras, N o tamanho das amostras e SΔo desvio padrão das diferenças nas amostras.

    Testes de Hipóteses


    Student t test 2 paired test
    Student t-test (2) (paired test)

    • Quando H0 é verdadeira TS segue uma distribuição tN - 1

    • Para um dado α fazemos os seguintes testes:

      • H1: μΔ≠ 0, se TS ≤ -tN - 1(α/2) ou TS ≥ tN - 1(α/2)

      • H1: μΔ< 0, se TS < tN - 1(α)

      • H1: μΔ> 0, seTS > tN - 1(α)

    • rejeitando H0 quando eles são verdadeiros. Os valores críticos de tN – 1 são os mesmo da tabela anterior.

    • Notar que este teste acaba por ser one-sample (as diferenças entre pares formam uma só amostra)!

    • Testes alternativos

      • Z-test quando N>30,

      • Mann-Whitney para amostras independentes de populações não Normais.

      • Binomial, Wilcoxon para amostras emparelhadas de populações não Normais.

    Testes de Hipóteses


    Teste de mann whitney wilcoxon
    Teste de Mann-Whitney-Wilcoxon

    • Teste não paramétrico de localização. Avalia se duas amostras tem origem na mesma população. Uma alternativa ao paired t-test.

    • Assume que as observações são independentes e contínuas ou ordinais i.e. é possível estabelecer uma ordem sobre as observações.

    • Testa (em vez de comparar médias) se as populações são idênticas. É um teste de ranks sinalizados (signed rank).

    • Determina se há uma tendência em seriar mais alto uma amostra (observação) em relação à outra e.g. valores médicos antes e depois de tratamento. Hipótese nula assume que não há tendência.

    • Hipóteses:

      • H0:ηA = ηB (nº de valores positivos ≈ nº de negativos i.e. não há tendência)

      • H1:ηA ≠ ηB , ηA > ηB ou ηA < ηB

    Testes de Hipóteses


    Gera o de ranks com ties
    Geração de ranks (com ties)

    rank das diferenças em valor absoluto

    Rank das diferenças com sinal

    Diferenças nulas são ignoradas

    Tratamento de empates (ties): se duas ou mais diferenças têm o mesmo valor então todos passam a ter o valor médio desses ranks. e.g. 3º,4º e 5ª dá rank 4 para todos.

    W é a soma dos ranks

    (sem valores nulos)

    Amostra A

    Amostra B

    Valor absoluto da diferença

    Diferença entre amostras

    Testes de Hipóteses


    Teste de mann whitney wilcoxon1
    Teste de Mann-Whitney-Wilcoxon

    • Procedimento:

      • Calcular XA – XB, ignorar casos com valor zero,

      • Calcular |XA – XB|, rank deste valor e o rank sinalizado:

        • + se XA – XB > 0

        • - se XA – XB < 0

      • (soma de um rank = N(N-1)/2, sendo N o nº de observações)

      • Calcular W = soma dos signed ranks

      • Calcular δW

        onde N é o nº de signed ranks considerados (sem os nulos).

      • Estatística do teste é:

    Consultar valores críticos de z numa tabela própria. Com N > 20 aproxima à Normal.

    Testes de Hipóteses


    Teste de associa o
    Teste de Associação

    • Testes não paramétricos que medem o grau de dependência entre duas variáveis aleatórias.

    • Não assumem nenhum tipo de distribuição.

    • Assume observações de frequência de variáveis categóricas. As variáveis da amostra estão “divididas” em categorias.

    • As observações das duas variáveis são agrupadas em classes independentes (disjuntas).

    • Tipicamente, os dados do teste estão representados em tabelas de contingência 2 x 2. No entanto podemos ter mais do que 2 dimensões.

    • Testes a estudar

      • Teste do Χ2 (chi quadrado)

      • Teste exacto de Fisher,

    Testes de Hipóteses


    Teste do 2
    Teste do Χ2

    • Hipóteses:

      • H0 : as variáveis são independentes

      • H1 : as variáveis não são independentes

    • Sendo X e Y as nossas variáveis estas podem ser agrupadas em I (i=1,..I) e J (j=1,..,J) categorias numa tabela de contingência:

    • Onde Nij é a frequência observada da var X com a categoria i conjuntamente com a var Y com a categoria j.

    Testes de Hipóteses


    Teste do 2 2
    Teste do Χ2 (2)

    • Estatística do teste:

    • eij é a frequência esperada para a célula (i,j):

    • Se H0 for verdadeira, a TS segue a distribuição Χ2(I-1)(J-1).

    • Nº de graus de liberdade = (I-1) x (J-1)

    • Para um dado α, rejeitamos a hipótese nula se:

      • TS > Χ2(I-1)(J-1)(α)

    Testes de Hipóteses


    Exemplo com tabela 2 x 2
    Exemplo com tabela 2 x 2

    SEXO

    TB

    H0 : tipo de tuberculose que causa a morte a estes indivíduos é independente

    do seu sexo.

    e11 = (4853 x 3804) / 5375 = 3434.6

    Χ2= (3534 – 3434.6)2 / 3434.6 + (1319 – 1418.4)2 / 1418.4 + …..

    + (252 – 152.6)2 / 152.6 = 101.35

    Para α=0.05 temos Χ2(1)(1)(0.05) =3.84. Rejeitamos H0 se Χ2 > 3.84 o que é o caso.

    Conclusão: a proporção de homens que morre de tuberculose tipo SR é diferente

    da proporção de mulheres. Isto é, há evidências de uma associação entre tipo de

    TB e sexo.

    Valor obtido da tabela de distribuição do Χ2.

    Testes de Hipóteses


    Caracter sticas do teste do 2
    Características do teste do Χ2

    • É um teste não direccional. É sempre two-sided.

    • É um teste aproximado. O p-value é obtido por aproximação. No problema anterior p-value < 0.00001.

    • Para observações pequenas é um teste pouco fiável. Para valores esperado pequenos (eij < 5) não deve ser usado.

    • No caso específico de tabelas 2 x 2 devemos usar a Correcção de Yates para continuidade.

    • Para o problema anterior, YatesΧ2 = 100.39.

    Testes de Hipóteses


    Teste exacto de fisher
    Teste Exacto de Fisher

    • O teste ideal para aplicar com tabelas de contingência de dados pequenos esparsos e não balanceados.

    • Não sofre dos mesmos problemas do teste Χ2

    • Embora seja aplicável noutras situações, vamos sempre usar em tabelas 2 x 2 e com hipóteses alternativas direccionais (one-sided) i.e. afasta-se de H0 numa direcção específica!

    • É um teste exacto, portanto um p-value exacto.

    • A ideia geral é considerando a tabela de observações, “gerar” as tabelas com as mesmas margens, que são mais extremas que a observada, na mesma direcção da nossa observação e.g. que a proporção TB do tipo SR nas mulheres é menor que proporção TB tipo SR nos homens.

    Testes de Hipóteses


    Teste exacto de fisher 2
    Teste Exacto de Fisher (2)

    As margens estão a azul

    • Considerando a tabela de contingência 2 x 2 geral, temos:

    • A probabilidade de obter (de forma aleatória) as observações desta tabela é:

    • O p-value = ∑ p das tabelas tão ou mais extremas do que a observada. (tipicamente ∑ p: p < pobservada)

    • Para o exemplo anterior p-value = 2.959442371307591e-22

    n = a+b+c+d

    Testes de Hipóteses


    Goodness of fit testes para a qualidade do ajuste
    Goodness-of-fit(testes para a qualidade do ajuste)

    • No nosso caso, vai servir para verificar se duas amostras foram retiradas de uma mesma população. Tradicionalmente são utilizados para verificar a qualidade da adequação (fit) de uma distribuição teórica em relação a um conjunto de observações (amostra) e.g. testar a Normalidade de uma amostra.

    • Testes não paramétricos:

      • Para amostras de valores contínuos

        • Kolgomorov-Smirnov

      • Para amostras de valores categóricos

        • Pearson’s goodness-of-fit (Χ2)

    Testes de Hipóteses


    2 goodness of fit
    Χ2Goodness-of-fit

    • Verifica se duas amostras têm origem em populações idênticas.

    • H0 : populações A e B são idênticas

    • H1: populações A e B são diferentes

    • As observações NA e NB são agrupadas em K (K > 2) categorias (disjuntas).

    • Em cada amostra é contada a frequência absoluta de cada diferente ki categoria, com ki∈K.

    • As frequências esperadas são calculadas da seguinte forma:

    • com Nk = NkA + NkB , N = NA + NB sendo∑ekA= NA e ∑ekB= NB

    Testes de Hipóteses


    2 goodness of fit 2
    Χ2Goodness-of-fit (2)

    • A estatística do teste é:

    • H0 é verdadeira se TS segue uma distribuição Χ2K-1

    • Para um dado α, rejeitamos H0 se:

      • TS > Χ2K-1(α)

    Testes de Hipóteses


    Teste de kolgomorov smirnov duas amostras
    Teste de Kolgomorov-Smirnov(duas amostras)

    • É um teste exacto (Χ2 é aproximado) para amostras de valores contínuos.

    • Assume distribuições contínuas onde a forma e os parâmetros da função densidade de probabilidade são conhecidos

    • O teste compara a proximidade entre as funções de densidade acumulada (CDF) de cada amostra (também conhecidas por funções de distribuição empirica).

    • Encontra a máxima discrepância entre as duas CDFs e verifica se esta é estatisticamente significativa.

    • CDF das amostras são definidas como (N = ∑xi):

    Testes de Hipóteses


    Teste de kolgomorov smirnov 2 duas amostras
    Teste de Kolgomorov-Smirnov (2)(duas amostras)

    • H0 : FA(x) = FB(x)

    • H1 : FA(x) ≠ FB(x)

    • A estatística do teste é:

    • Para um dado α, rejeitamos H0 se o seguinte teste for verdadeiro:

    • Os valores críticos de √[(NANB )/(NA + NB )]D’(α) podem ser consultados na tabela da distribuição de Kolgomorov.

    Testes de Hipóteses


    Teste de kolgomorov smirnov 3 execu o
    Teste de Kolgomorov-Smirnov (3)(execução)

    Testes de Hipóteses


    M ltiplas hip teses
    Múltiplas Hipóteses

    Teste Binomial com:

    n=14, k=11, p=0.5, q=0.5,

    e H1: obs > MCE

    • Controle da capitalização do acaso.

    • Exemplo de situação típica:

      • Queremos contratar um corrector para investir na bolsa. A função deste corrector é emitir previsões sobre a subida/descida do indicador PSI20 ao fim de cada dia. Queremos ter a garantia que não contratamos um charlatão (alguém cujas previsões não são melhores do que o acaso). Para avaliar esta possibilidade usamos um teste de 14 dias de bolsa. Se o consultar acertar em 11 ou mais dias então aceitamo-lo como fiável.

      • São 11 em 14 dias porque há 50% de hipóteses de acertar em cada dia, logo há só 2.87% de acertar ao acaso em 11 ou mais dias.

      • Assim, se um corrector for contratado porque passou o teste dos 11 dias, temos uma probabilidade ≤ 0.0287 de contratar um charlatão.

    Testes de Hipóteses


    M ltiplas hip teses1
    Múltiplas Hipóteses

    • Nova situação:

      • Vamos imaginar agora que aceitamos 10 candidatos para esta função, onde vamos seleccionar o corrector com maior precisão.

      • Para n candidatos, n > 1, cada charlatão tem 2.87% de passar o teste.

      • Em geral, a probabilidade de seleccionar um charlatão

        é ≤1 - (1 – 0.0287)n.

        No caso de n=10, esta probabilidade é ≤ 25.3%

      • Conclusão: Se não ajustarmos o nosso limite α, que define quando um corrector passa a ser considerado um charlatão, aumentamos a probabilidade de ocorrer um erro do tipo I.

      • Com um nº suficientemente grande de charlatães entre os candidatos, iremos quase de certeza ter pelo menos um deles com um desempenho que passa qualquer limite α (sem a garantia de ele não ser um charlatão).

    Testes de Hipóteses


    M ltiplas hip teses 2
    Múltiplas Hipóteses (2)

    • Problema das Multiplas Comparações. Risco de erro tipo I é não mais do que α.

    • Probabilidade de ocorrer um erro de tipo I aumenta com o número de testes.

    • Para n testes αreal = 1 - (1 - α)n

    • Usar Ajustamento de Bonferroni:

      • (corrigir α para n testes como sendo κ= α/n)

      • tendência a ser um crivo demasiado fino!

    • Usar Ajustamento de Holm (k em vez de α).

      • Requer ordenação crescente dos p-values e ter disponíveis todos estes valores antes de determinar valor de ajustamento (k).

      • Para n testes,

    Testes de Hipóteses


    Ajustamento de bonferroni utiliza o t pica em data mining
    Ajustamento de Bonferroni(utilização típica em Data Mining)

    • Usar Ajustamento de Bonferroni (corrigir α para n testes como sendo κ= α/n).

    • Usar layered critical values,

    • Em vezes de um cutoff global que corrige o α inicial, obter vários α’L para cada nível L.

    Onde SL é o nº de padrões possíveis de gerar com tamanho L.

    Lmax é o tamanho máximo de um padrão.

    Temos a garantia que:

    Testes de Hipóteses


    Resumo
    Resumo

    • Testes de significância,

    • Inferência estatística e controle de fenómenos fruto do acaso,

    • Tipos de erro,

    • Testes paramétricos e não paramétricos,

    • Direccionalidade, poder do teste, região crítica, p-value eintervalos de confiança,

    • Testes de localização, associação e goodness-of-fit,

    • Múltiplas hipóteses e controle de erro,

    • Ajustamento do valor de significância (α).

    Testes de Hipóteses