1 / 44

Indução de Árvores e Regras Proposicionais de Decisão

Indução de Árvores e Regras Proposicionais de Decisão . Classificação versus Predição (Regressão). Classification: Afetação a uma classe (rotulo de um atributo categórico)

liam
Download Presentation

Indução de Árvores e Regras Proposicionais de Decisão

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Indução de Árvores e Regras Proposicionais de Decisão

  2. Classificação versus Predição (Regressão) • Classification: • Afetação a uma classe (rotulo de um atributo categórico) • Classifica dados (constroi um modelo) baseado em um conjunto de treinamento previamente rotulado e usa o modelo para classificar novas observações. • Previsão (Regressão): • Modela funções contínuas; previsão de valores desconhecidos ou ausentes • Aplicações • Aprovação de crédito • Diagnóstico médico • etc.

  3. Classificação: Um processo em duas etapas • Construção do Modelo (Aprendisagem): descrição de um conjunto de classes a priori • Supõe-se que cada observação é oriunda de uma classe predefinida, como indicado pelo atributo rótulo da classe • Conjunto de treinamento: O conjunto de observações usadas para construir o modelo • Exemplos de modelos: regras de classificação, árvores de decisão, fórmulas matemáticas • Uso do modelo: para classificar observações desconhecidas • Avaliação da precisão do modelo • O rótulo conhecido de uma observação é comparado com o resultado do modelo (conjunto de teste) • A taxa de erro é a percentagem de observações do conjunto teste que são classificadas incorretamente pelo modelo • O conjunto de teste deve ser independente do conjunto de treinamento, senão poderá ocorrer super ajustamento (over-fitting)

  4. Dados de treinamento Classificador (Modelo) Processo de Classificação (1): Construção do Modelo Algoritmos de Classificação IF categoria = ‘professor’ OU Anos > 6 THEN Efetivo = ‘sim’

  5. Classificador Dados de teste Dados não Processo de Classificação (2): Uso do modelo para a previsão (Jeferson, Professor, 4) Efetivo?

  6. Aprendizagem supervisada vs. Aprendizagem não supervisada • Aprendizagem supervisada (classificação) • Supervisão: Os dados de treinamento são rótulados pelas classes as quais pertencem • As novas observações são classificadas com base no conjunto de aprendizagem • Aprndizagem não supervisada(clustering) • As classes dos dados de treinamento são desconhecidas • O objetivo é formar / descobrir classes à partir dos dados

  7. Questões que dizem respeito à classificação e a previsão (1): Preparação de Dados • Preparação de Dados • Pré-processamento dos dados para reduzir o ruído e tratar os valores ausentes • Seleção de variáveis • Remoção dos atributos irrelevantes ou redundantes • Transformação dos dados • Generalização e/ou normalização dos dados

  8. Questões que dizem respeito à classificação e a previsão (2): Avaliação dos métodos • Previsão da taxa de erro • Velocidade e escalabilidade • Tempo para a construção do modelo • Tempo para o uso do modelo • Robustes • Ruido e valores ausentes values • Escalabilidade • Eficiencia em grandes base de dados • Interpretabilidade: • Compreensão fornecida pelo modelo • Adequação das regras • Tamanho das árvores de decisão • Compacticidade das regras de classificação

  9. Classificação via Árvores de Decisão • Árvores de Decisão • Estrutura semalhante a uma árvore • Os nós internos representam um teste em um atributo • Os ramos representam o resultado do teste • As folhas representam os rótulos das classes • Duas fases na geração de uma árvore de decisão • Construção da árvore • No início, todos os exemplos de treinamento estão na raíz • Os exemplos são particionados recursivamente com base nos atributos selecionados • Poda da árvore • Identificar e remover ramos que refletem ruidos e aberrações • Uso das árvores de decisão: Classificação de uma observação desconhecida

  10. Conjunto de treinamento

  11. Saída: Árvore de Decisão para “compra_computador” Idade? <=30 overcast >40 30..40 Estudante? Crédito? Sim não sim Passável excelente não sim não sim

  12. Algoritmo: Árvores de decisão • Algoritmo básico • A árvore é construida recursivamente de cima para baixo no modo dividir para conquistar • No início todos os exemplos se encontram na raíz • Os atributos são discretos (os atributos contínuos são discretizados previamente) • Os exemplos são particionados recursivamente com base em atributos selecionados • Os atributos são selecionados heuristicamente ou através de uma critério estatístico (ex., ganho de informação) • Condições de parada • Todas as amostras de um dado nó pertencem a mesma classe • Não há mais atributo disponível para futuras partições – usa-se voto da maioriapara classificar a folha • Não há mais exemplos disponíveis

  13. Critério para a seleção de atributos • ganho de informação (ID3/C4.5) • Supõe-se que todos os atributos são categóriocos • Pode ser modificado para atributos continuos • Selecione o atributo com o maior ganho de informação • Suponha que existem duas classes, P e N • Seja S o conjunto de exemplos com p elementos da classe P e n elementos da classe N

  14. Ganho de informação (ID3/C4.5) • A quantidade de informaçãonecessária para decidir se um exemplo arbitrário de S pertence a P ou a N é definedo como

  15. Ganho de informação em árvores de decisão • Suponha que usando-se um atributo A um conjunto S será particionado em {S1, S2 , …, Sv} • Se Si contem piexamplos de P e ni examplos de N, a entropia, ou a informação esperada necessária para classificar objetoss em todas as sub árvores Si é • A informação que seria ganha ao ramificar-se por A

  16. Seleção de atributos pelo calculo do ganho de informação Logo Da mesma forma • Classe P: computador? = “sim” • Classe N: computador? = “não” • I(p, n) = I(9, 5) = 0.940 • Calculo da entropia para idade:

  17. Extração de regras de classificação ‘a partir de árvores de decisão • Representa o conhecimento na forma de regras IF-THEN • Cria-se uma regra para cada caminho ligando a raíz a uma folha • Cada par atributo-valor ao lingo de um caminho forma uma conjunção • A folha fornece a previsão da classe • Exemplo IF idade = “<=30” AND estudante = “não” THEN computador? = “não” IF idade = “<=30” AND estudante = “sim” THEN computador? = “sim” IF idade = “31…40” THEN computador? = “sim” IF idade = “>40” AND crédito = “excelente” THEN computador? = “sim” IF idade = “<=30” AND crédito = “passável” THEN computador = “não”

  18. Evitar Overfitting em Classificação • A árvore gerada pode super ajustar os dados de treinamento • Ramos demais, alguns podem ser o resultado de anomalias devido a ruidos e dados aberrantes • Taxa de erro maior para as observações desconhecidas • Duas abordagens para evitar o overfitting • Pré-Poda: Parar a construção da árvore cedo—não dividir um nó se isso resultar em um critério abaixo de um limiar • Difícil escolher o limiar apropriado • Pos-Poda: Remover ramos de uma árvore completa—obter uma sequencia de árvores progressivamente podadas • Usar um conjunto de dados diferente dos dados de treinamento para decidir qual é a melhor árvore podada”

  19. Abordagens para determinar o tamanho final da árvore • Conjuntos de treinamento (2/3) e teste (1/3) separados • Usar cross validation, ex., 10-fold cross validation • Usar todos os dados para treinar • mas aplicar um teste estatístico (ex., qui-quadrado) para estimar se a expansão ou a poda de um nó pode ser realizada • etc.

  20. Melhoramentos na árvore de decisão básica • Permitir a manipulação de atributos contínuos • Definir dinamicamente novos atributos discretos que particionam os atributos contínuos em um conjunto de intevalos • Manipular valores ausentes • Atribuir o valor mais comum do atributo • Atribuir o valor mais provável • Construção de atributos • Criar novos atributos com base naqueles representados esparsamente

  21. ANTECEDENTES CONSEQUÊNCIA Regras de classificação • Cada antecedente: teste valor de um atributo da • instância para classificar. • Conseqüência: classificação da instância. Ex: IF tempo = sol AND dia = Dom THEN sair (T = sol)  (D = Dom) => sair

  22. Hipótese do Mundo fechado • Classificação de alvo booleano em um mundo fechado. • IF tempo = sol AND dia = Dom THEN racha • IF tempo = sol AND dia = Sab THEN racha

  23. y b a b a a a b b a a b 1 b b a b b x 1.2 Construindo regras • Passo inicial • if ? then class = a • Primeiro passo • if x > 1.2 then class = a • Essa regra cobre, tanto os bs quanto os as • Segundo passo • if x > 1.2 e y > 1 then class = a • Essa regra cobre somente a’s. • Algoritmo de Cobertura: selecionar uma classe e procurar uma forma de • cobrir todas as instâncias.

  24. Algoritmo de cobertura Para cada classe C Inicialize E como sendo o conjunto de instâncias Enquanto E contém instâncias na classe C Crie uma regra R sem antecedentes que prediz a classe C Enquanto R não for perfeita e houver mais atributos Para cada atributo A não mencionado em R e cada valor V Considere a adição de A=v nos antecedentes de R Selecione A e v que maximize Heuristic-function() Adicione A=v nos antecedentes de R Remova as instâncias cobertas por R deE

  25. Número dessa instâncias que pertencem à classe da regra Número de instâncias que disparam a regra Calcula o ganho de informação levando em conta o número de instâncias positivas Função heurística Correctness based Heuristic MAXIMIZAR Information based Heuristic MAXIMIZAR

  26. Comparando os critérios • Os dois critério classificam corretamente todas as instâncias. • Correctness Based • Privilegia regras 100% corretas mesmo com cobertura baixa • Trata primeiro os casos especiais • Information Based • Privilegia regras de alta cobertura mesmo com precisão baixa • Trata primeiro os casos gerais

  27. Exemplo Idade receita astigmatismo lagrimas lentes Jovem miope sim reduzido null Jovem miope sim normal forte Jovem hipermetropo sim reduzido null Jovem hipermetropo sim normal forte Pre-presbiotico miope sim reduzido null Pre-presbiotico miope sim normal forte Pre-presbiotico hipermetropo sim reduzido null Pre-presbiotico hypermetropo sim normal null Presbiotico miope sim reduzido null Presbiotico miope sim normal forte Presbiotico hypermetropo sim reduzido null Presbiotico hypermetropo sim normal null

  28. Exemplo Atributo-valorcbhibh idade = jovem 2/8 0.35 idade = pre-presbiotico 1/8 -0.12 idade = presbiotico 1/8 -0.12 Receita = miope 3/12 0.53 receita = hipermetropia 1/12 -0.3 astigmatismo = não 0/12 0.0 astigmatismo = sim 4/12 1.2 Taxa de produção de lágrimas= reduzida 0/12 0.0 Taxa de produção de lágrimas = normal 4/12 1.2

  29. Regras boas e regras ruins • Gerar regras que não são perfeitas no conjunto de treinamento ... • ... mas que são melhores na generalização do problema. • Solução: contrabalançar a precisão de uma regra nos exemplos e a qualidade de uma regra no problema • As heurísticas exibidas anteriormente causam overfit se usados isoladamente

  30. t P Probabilidade de uma regra aleatória ter um p igual a um valor qualquer i: P[i de t estarem em P] = Qualidade de uma regra T p

  31. M(R) = P[i de t estarem em P] = Qualidade de uma regra • A qualidade de uma regra é a probabilidade de uma regra gerada aleatoriamente ter um desempenho melhor ou igual à regra. • Para uma regra R:

  32. Ou seja, apenas 0,14% de chance de uma regra gerada aleatoriamente ser melhor do que esta regra. Exemplo • IF astigmatismo = sim AND produção de lagrimas = normal • THEN recomendação = forte • p/t = 4/6 • P/T = 4/24

  33. Gerando boas regras • 1. Gerar regras 100% precisas ou perfeitas • IF A=a AND B=b AND C=c THEN D=d • Precisão = 100%, qualidade = baixa • 2. Os testes do antecedente da regra são tirados gradualmente para tentar melhorar a qualidade da regra. • IF A = a AND B=b THEN D=d • precisão < 100%, qualidade = alta • Dessa forma as regras são melhores na generalização do problema.

  34. Listas de regras • Lista ordenada de decisão formada por regras que são interpretadas seqüencialmente • A primeira regra disparada leva a instância • Algoritmo de geração de listas de regras: • Inicialize E com o conjunto de instancias • Até que E esteja vazio • para cada classe C contida em E • -gere uma regra R perfeita para a classe C pelo cobertura • -calcule a medida de valor m(R) para a regra e para a regra m(R-) com a condição final retirada • -enquanto m(R)<m(R-) retire a condição final da regra e repita o passo anterior • das regras geradas escolha a que tem o menor m(R) • Imprima a regra R • retire de E as instâncias cobertas por R • continue

  35. Conjunto de teste • A medida de probabilidade da qualidade de uma regra é uma forma eficiente de comparar a qualidade entre duas regras. • Mas não tem muito valor estatístico porque é aplicada sobre os mesmo dados usados no crescimento da regra. • Solução (Reduced Error-Prunning): • Dividir os dados de forma que as medida sobre a qualidade de uma regra sejam feitas em uma conjunto separado

  36. Usando um conjunto de testes • CONJUNTO DE CRESCIMENTO • Usado para construir as regras • CONJUNTO DE PODA • Usado para verificar a qualidade da poda • Problemas ... • Como separar osconjuntos. • Instâncias chaves podem ser alocadas para o • conjunto de poda.

  37. Conjuntos • Variando o conjunto de poda é possível evitar perda de informação.

  38. Usando um conjunto de testes Inicialize E com o conjunto de instancias Divida E em Crescimento S1 e Poda S2 em uma razão 2:1 Para cada classe C para qual S1 e S2 tenham instancia - Use o algoritmo de cobertura para para criar uma regra perfeita para a classe C - Calcule w(R) para a regra em S2, e para a regra com o ultimo teste retirado w(R-) - Enquanto w(R-) > w(R-), remova o ultimo teste e repita o passo anterior Das regras geradas selecione a que tiver o maior w(R) Imprima a regra R Remova as instancias de E cobertas pela nova regra Continue • Possibilidades: • W(R) = qualidade da regra • W(R) = [p+(N - n)] / T

  39. Regras de Classificação vs. Árvores • Regras de classificação podem ser convertidas em árvores de decisão e vice-versa • Porém: • a conversão é em geral não trivial • dependendo da estrutura do espaço de instâncias, regras ou árvores são mais concisas ou eficientes • Regras são compactas • Regras são em geral altamente modulares (mas raramente são completamente modulares)

  40. X > 1.2 sim não b Y > 2.6 não sim b a Vantagens de Árvores de Decisão Exemplo de conversão árvore -> regras IF x >1.2 AND y > 2.6 THEN class = a If x < 1.2 then class = b If x > 1.2 and y < 2.6 then class = b • Sem mecanismo de interpretação preciso regras podem ser ambíguas • Instâncias podem “passar através” de conjunto de regras não sistematicamente “fechado”

  41. x 1 3 2 y 1 2 3 a z 1 3 2 w b b 1 3 2 a b b Vantagens de Regras de Classificação Exemplo de conversão regra/árvore If x=1 and y=1 then class = a If z=1 and w=1 then class = b • Árvores são redundantes e não incrementais • Árvores não são ambíguas e não falham em • classificar

  42. O que é previsão • Previsão é similar a classificação • Primeiro, constroi-se o modelo • Depois, usa-se o modelo para prever valores desconhecidos • O mais importante método de previsão é a regressão • Regressão linear e múltipla • Regressão não linear • Previsão é diferente de classificação • Classificação dis respeito a previsão do rótulo de uma classe • Previsão é apropriada para modelar funções contínuas

  43. Análise de regressão e Modelo Log-Linear em previsão • Regressão linear: Y =  +  X • Dois parametros ,  and  espeficicam a reta e devem ser estimados a partir dos dados disponíveis. • Em geral aplica-se o critério dos quadrados mínimos aos valores conhecidos Y1, Y2, …, X1, X2, …. • Regressão Múltipla: Y = b0 + b1 X1 + b2 X2. • Muitas funçòes não lineares podem ser expressas na forma acima. • Modelos Log-Linear: • Uma tabela de multiplas entradas com a distribuição de probabilidade conjunta é aproximada pelo produto de tabelas de ordem inferior. • Probabilidade: p(a, b, c, d) = ab acad bcd

  44. Regressão localmente ponderada • Constrói uma aproximação explicita de uma função f • em uma região próxima de xq • Aproximação linear, quadrática, exponencial, ... de f • Regressão linear: faprox = w0 + w1 y1(x) + … + wp yp(x) • Escolher os pesos wi • que minimiza a soma dos quadrados dos erros • em relação aos k vizinhos mais próximos de xq

More Related