1 / 28

MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA

MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA. Matriz de Confusão.

nydia
Download Presentation

MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA

  2. Matriz de Confusão • A matriz de confusão de uma hipótese h oferece uma medida efetiva do modelo de classificação, ao mostrar o número de classificações corretas versus as classificações preditas para cada classe, sobre um conjunto de exemplos T • O número de acertos, para cada classe, se localiza na diagonal principal M(Ci,Ci) da matriz • Os demais elementos M(Ci,Cj), para i ≠ j, representam erros na classificação • A matriz de confusão de um classificador ideal possui todos esses elementos iguais a zero uma vez que ele não comete erros

  3. Medidas de Desemepenho • Acurácia: porcentagem de amostras positivas e negativas classificadas corretamente sobre a soma de amostras positivas e negativas

  4. Estimação da taxa de erro (ou de acerto = Acuracia) • Holdout - 2/3 treinamento, 1/3 teste • Validação cruzada (k-fold) • K conjuntos exclusivos e exaustivos • O algoritmo é executado k vezes • Bootstrap • Com reposição de amostras

  5. Desbalanceamento de Classes • Suponha um conjunto de amostras com a seguinte distribuição de classes • dist(C1, C2, C3) = (99.00%, 0.25%, 0.75%) • Um classificador simples que classifique sempre novos exemplos como pertencentes à classe majoritária C1 teria uma precisão de 99,00% • Isto pode ser indesejável quando as classes minoritárias são aquelas que possuem informação importante. Por exemplo: • C1: paciente normal, • C2: paciente com doença A • C3: paciente com doença B

  6. Desbalanceamento de Classes Exemplo : C1 = pacientes com câncer (4 pacientes) C2 = pacientes saudáveis (500 pacientes) acc(M) = 90% • Classificou corretamente 454 pacientes que não tem câncer • Não acertou nenhum dos que tem câncer Pode ser considerado um “bom classificador”?

  7. Desbalanceamento de Classes • Quando se trabalha com classes desbalanceadas é desejável utilizar uma medida de desempenho diferente da precisão • A maioria dos sistemas de aprendizado é projetada para otimizar a precisão. Estes classificadores apresentam um desempenho ruim se o conjunto de treinamento encontra-se fortemente desbalanceado, • Algumas técnicas foram desenvolvidas para lidar com esse problema, tais como a introdução de custos de classificação incorreta, a remoção de amostras redundantes ou prejudiciais ou ainda a detecção de exemplos de borda e com ruído

  8. Medidas de Desemepenho • Sensitividade (Recall): porcentagem de amostraspositivasclassificadascorretamentesobre o total de amostraspositivas • Precisão: porcentagem de amostraspositivasclassificadascorretamentesobre o total de amostrasclassificadascomopositivas • Especificidade: porcentagem de amostrasnegativasidentificadascorretamentesobre o total de amostrasnegativas

  9. Medidas de Desempenho • F-measure também chamada F-score. É uma média ponderada de precisão e recall

  10. Curva ROC • ROC = Receiver Operating Characteristic Curve • Enfoque gráfico que mostra um trade-off entre as taxas de TP (TPR) e FP (FPR) de um classificador. • TPR = TP/(TP + FN) ( = recall) = Porcentagem de amostras corretamente classificadas como positivas dentre todas as positivas reais • FPR = FP/(TN + FP) Porcentagem de amostras erroneamente classificadas como positivas dentre todas as negativas reais • Ideal : TPR = 1 e FPR = 0

  11. Exemplo Pts without the disease Pts with disease Test Result

  12. Call these patients “negative” Call these patients “positive” Limiar Test Result

  13. Call these patients “negative” Call these patients “positive” True Positives Test Result without the disease with the disease

  14. Call these patients “negative” Call these patients “positive” False Positives Test Result

  15. Call these patients “negative” Call these patients “positive” True negatives Test Result

  16. Call these patients “negative” Call these patients “positive” False negatives Test Result

  17. Movendo o Limiarpara a direita ‘‘-’’ ‘‘+’’ Test Result

  18. Movendo o Limiarpara a esquerda ‘‘-’’ ‘‘+’’ Test Result

  19. Curva ROC 100% 0% False Positive Rate (1-specificity) 100% True Positive Rate (sensitivity) 0%

  20. Curva ROC • Cada ponto na curva corresponde a um dos modelos induzidos pelo classificador • Um bom modelo deve estar localizado próximo do ponto (0,1) • Modelos localizados na diagonal são modelos aleatórios • TPR = FPR • Modelos localizados acima da diagonal são melhores do que modelos abaixo da diagonal.

  21. Comparação curvas ROC 100% 100% True Positive Rate True Positive Rate 0% 0% 100% 100% 0% 0% False Positive Rate False Positive Rate A poor test: A good test:

  22. Comparando performance relativas de diferentes classificadores • Curvas Rocsão utilizadas para se medir a performance relativa de diferentes classificadores. M1 M2 Até aqui M2 é melhor do que M1 A partir daí, M1 fica melhor do que M2 x

  23. Análise da curva ROC • Ponto (0,1) é o classificador perfeito: classifica todas as amostras positivas e negativas corretamente. FPR=0 e TPR=1. • O ponto (0,0) representa um classificador que classifica todas as amostras como negativas, enquanto o ponto (1,1) corresponde a um classificador que classifica todas as amostras como positivas. • O ponto (1,0) é o classificador que classifica incorretamente todas as amostras. • Em muitos casos, os classificadores possuem um parâmetro que pode ser ajustado para aumentar TP aumentando também FP. Cada parâmetro fornece um par (FP, TP). Um classificador não-paramétrico é representado por um único ponto na curva ROC.

  24. Extremos da curva ROC 100% 100% True Positive Rate True Positive Rate 0% 0% 100% 100% 0% 0% False Positive Rate False Positive Rate Best Test: Worst test: The distributions don’t overlap at all The distributions overlap completely

  25. Area abaixo da curva ROC (AUC) • A área abaixo da curva ROC fornece medida para comparar performances de classificadores. • Quanto maior a área AUC melhor a performance global do classificador. • Classificador optimal: área =1 • Classificador randômico : área = 0.5

  26. AUC paradiferentescurvas ROC 100% 100% 100% 100% True Positive Rate True Positive Rate True Positive Rate True Positive Rate 0% 0% 0% 0% 100% 100% 100% 100% 0% 0% 0% 0% False Positive Rate False Positive Rate False Positive Rate False Positive Rate AUC = 100% AUC = 50% AUC = 90% AUC = 65%

  27. Referências • P-N Tan et al. Introduction to Data Mining – Capitulo 5, seção 5.7 • Jesse Davis, Mark Goadrich - The Relationship between Precision-Recall and ROC Curves. Proc. 23rd Int. Conf. On Machine Learning. 2006. • Gary M. Weiss. Mining with Rarity: A Unifying Framework. SIGKDD Explorations, Vol. 6, Issue 1, 2007. • Software: AUCCalculator 0.2 A Java program for finding AUC-ROC and AUC-PR http://www.cs.wisc.edu/~richm/programs/AUC/

More Related