1 / 64

Introdução à Análise de Agrupamentos (Abordagem Numérica e Conceptual)

Introdução à Análise de Agrupamentos (Abordagem Numérica e Conceptual). Prof. Francisco de A. T. de Carvalho fatc@cin.ufpe.br. Agrupamento (Clustering).

thurman
Download Presentation

Introdução à Análise de Agrupamentos (Abordagem Numérica e Conceptual)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introdução à Análise de Agrupamentos(Abordagem Numérica e Conceptual) Prof. Francisco de A. T. de Carvalho fatc@cin.ufpe.br

  2. Agrupamento (Clustering) Métodos usados para a construção de grupos de objetos com base nas semelhanças e diferenças entre os mesmos de tal maneira que os grupos obtidos são os mais homogêneos e bem separados possíveis. Duas grandes classes de problemas em classificação: classificação supervisionada  classificação supervisionada A classificação não supervisionada se propõe a encontrar classes homogêneas a partir de um conjunto de indivíduos Objetivo: os indivíduos semelhantes devem pertencer a mesma classe É um objetivo intuitivo mas não é uma definição precisa da noção de classe

  3. Agrupamento (Clustering) Agrupar para que? Existe classes “naturais” e o desafio é encontra-las Deseja-se construir as classes segundo estruturas classificatórias (impostas) Encontrar classes úteis para o usuário Simplificação dos dados Geração de Hipóteses Predição com base nos grupos formados O que é um grupo? Não existe uma única definição satisfatória Coesão interna Isolamento externo

  4. (a) (b) (c) (d) a) Grupos coesos e isolados b) Grupos isolados mas não coesos c) Grupos coesos com vários pontos intermediários d) Não existência de grupos “naturais”

  5. Principais Etapas da Formação de Agrupamentos a) aquisição dos dados 1) Seleção das observações (indivíduos, objetos, casos, itens) 2) Seleção das variáveis (caracteres, descritores) e das correspondentes escalas 3) Construção da Tabela de Dados b) Pré-processamento dos dados 1) Mudança de escala 2) Normalização 3) Extração de caracteres c) Construção da Tabela de Dados d) Cálculo da Proximidade 1) Escolha de um Índice de Proximidade 2) Construção da Matriz de Proximidades e) Seleção de um Algoritmo de Formação de Grupos em função do tipo de agrupamento desejado f) Análise e Interpretação dos Resultados

  6. Indivíduo : conjunto das indivíduos (população, amostra)   : indivíduo (especimen) ou grupo de indivíduos (espécie) Variáveis A cada característica (escolhida pelo usuário ou por um especialista), pode-se associar uma ou mais variáveis: Di: Domínio da variável yi

  7. As variáveis podem ser • quantitativas • contínuas (ex, Peso, Altura) • discretas (ex, numero de antenas, número de filhos) • qualitativas (ex, sexo, grau de instrução) • binárias (ex, presença de asas) • com escala • nominal (ex, sexo (masculino, feminino)), • ordinal (ex, Grau de instrução{primário, segundário, superior}) • intervalar (ex, grau celsius) • proporcional (ex, grau kelvin, idade)

  8. Representação do Conhecimento (lista de pares atributo-valor) Y = {Y1, …, Yp} : Conjunto de variáveis (descritores, atributos, …) D = {D1, …, Dp} : Conjunto dos domínios das variáveis  = {1, …, p} : Conjunto das OTUs (indivíduos, casos, objetos, observações)

  9. Espaço de descrição elemento de  + valor em D Yj Y + + + + + Yp + + Y1 W D

  10. Tabela de Dados N objetos ou individuos ={1,…, i ,…, N } p descritores Y={Y1,…, Yj,…, Yp} A cada objeto i de  é associado um vetor de descrição representando as p medidas A cada variável ou parametro Yj é associado um vetor Que representa o conjunto de valores observados de  sobre Yj

  11. Tipos de Tabelas • quantitativas • qualitativas • binárias • heterogêneas • Exemplo:

  12. Índices de Proximidade • Similaridade • Dissimilaridade • Índice de Similaridade • É uma função • tal que • Quanto mais próximo dois indivíduos mais elevado é o valor da medida • de similaridade entre eles

  13. Índice de Dissimilaridade É uma função tal que Quanto mais próximos dois indivíduos menor é o valor da medida de dissimilaridade entre eles

  14. a 1 0 b 1 x y w 0 z Exemplos de Índices de Proximidade a) Tabelas de variáveis quantitativas b) Tabelas de variáveis binárias

  15. Outros aspectos relativos aos índices de proximidade • Escala das Variáveis • Correlação entre as Variáveis • Descrições heterogêneas (Variáveis de diferentes tipos) • Índices de proximidade entre padrões descritos por strings ou árvores • Índices de proximidade dependentes do contexto • Índices de proximidade conceptual

  16. Estruturas classificatórias Cobertura Partição

  17. Estruturas Classificatórias Hierarquia Piramide

  18. Métodos de AgrupamentoEm Taxinomia Numérica distingue-se três grupos de métodosTécnicas de OtimizaçãoObjetivo: obter uma partição. Número de grupos fornecido pelo usuárioTécnicas hierárquicasObjetivo: obter uma hierarquia (ou uma pirâmide) Pode-se obter uma partição “cortando-se” a hierarquia em um determinado nível.Técnicas de CoberturaObjetivo: obter grupos que eventualmente podem partilhar indivíduos.

  19. Outros Aspectos Relativos aos Métodos de AgrupamentoMétodos Aglomerativos versus Métodos DivisivosMétodos Monotéticos versus Métodos PoliteticosAgrupamento Hard versus Agrupamento FuzzyMétodos Incrementais versus Métodos não IncrementaisMétodos Paramétricos versus Métodos não ParamétricosMétodos Geométricos versus Métodos não Geométricos

  20. Classificação Hierarquica Diagrama de Venn sobre os dados bi-dimensionais Dendograma

  21. Métodos Hierárquicos Parte-se de uma tabela de dados e calcula-se uma distância entre os individuos de  Os métodos ascendentes hierárquicos tem por objetivo a construção de uma sequencia de partições encaixadas chamada hierarquia. A representação gráfica dessas hierarquias é realisada por uma arvore hierarquica ou dendrograma.

  22. Hierarquia com índice Hierarquia com indice (H,f) Hierarquia H

  23. Índices de agregação entre as classes ligação minima ligação maxima Aumentação da inercia ou indice de WARD gA é o centro de gravidade da classe A m corresponde a ponderação das classes

  24. Relação entre f e D f é um indice sobre a hierarquia H, D é um indice de agregação entre classes Para os indices D usuais (H,f) é uma hierarquia com indice (não há inversão) Senão, pode-se utilisar Nesse caso (H,f) é sempre uma hierarquia com indice

  25. Técnicas de Hierárquicas Algoritmo Geral de Agrupamento Hierárquico AglomerativoPasso 1: Iniciar o agrupamento formado por grupos unitáriosPasso 2: Encontre, no agrupamento corrente, o par de grupos de dissimilaridade mínimaPasso 3: Construa um novo grupo pela fusão desse par de grupos de dissimilaridade mínimaPasso 4: Atualize a matriz de dissimilaridades: suprima as linhas e as colunas correspondentes aos grupos fusionados e adicione uma linha e uma coluna correspondente as dissimilaridades entre o novo grupo e os grupos antigosPasso 5: Se todos os objetos estão grupados, pare; senão vá para o passo 2

  26. Exemplo E01:(Sono=Pouco,T=Carro,Conic=Sim,Alcool=Não,Sair=Não,Fome=Sim) E02:(Sono=Pouco,T=Carona,Conic=Não,Alcool=Não,Sair=Sim,Fome=Sim) E03:(Sono=Sim,T=Carro,Conic=Não,Alcool=Sim,Sair=Sim,Fome=Não) E04:(Sono=Sim,T=Outros,Conic=Sim,Alcool=Sim,Sair=Sim,Fome=Não) Passo 1: C1={E01}, C2={E02}, C3={E03}, C4={E04}Passo 2: dmin = 2  C5= C3  C4 = {E03,E04}Passo 3:

  27. Exemplo (CONT.)Passo 4: dmin = 3  C6= C1  C2={E01,E02} Passo5Passo 6: dmin = 4  C7 = C5  C6={E01,E02,E03,E04} C07 C6 C5 E01 E02 E03 E04

  28. Métodos de Partição A estrutura classificatória deseja é a partição. Definindo-se uma função de homogeneidade ou um critério de qualidade sobre uma partição, o problema de classificação torna-se um problema perfeitamente definido em otimização discreta. Encontrar, entre o conjunto de todas as partições possíveis, uma partição que otimize um critério definido à priori.  é finito e, portanto, existe um conjunto finito de partições. Esse problema é sempre soluvel por enumeração completa. Na pratica isso é irrealisável pois temos, com um conjunto de N objetos em K classes, aproximadamente soluções possiveis.

  29. Problema de Otimização Seja um critério U, definido de , onde é o conjunto de todas as partições em K classes não vazias . O problema de otimização se exprime sob a forma:

  30. Otimização iterativa Parte-se de uma solução realizável Escolha Na etapa t+1, tem-se uma solução realizável procura-se uma solução realizável Escolha que verifica O algoritmo para assim que

  31. Algoritmo de vizinhança • Uma das estattégias mais utilisadas para contruir a função g é: • associar a toda solução real’zável Q um conjunto finito de soluções realisáveis V(Q), chamada vizinhança de Q, • Depois selecionar a solução ótima segundo esse critério U nessa vizinhança (solução localmente ótima). Por exemplo pode-se tomar como vizinhança de Q todas as partições obtidas a partir da partição Q mudando um só indivíduo de classe Dois exemplos bem conhecidos desse tipo de algoritmo são o algoritmo das transferênciase o algoritmo k-means

  32. Algoritmo das transferências O critério U associado à partição Q é a soma das inércias de cada uma das classes, isto é, a inércia intra-classes: d é a distância euclidiana, nj representa o numero de elementos e wj é o centro de gravidade da classe Qj. Se o indivíduo ei é afetado em uma classe Ql, diferente da sua classe de afetação atual tem-se:

  33. Algoritmo (a) Initialisação No início, tem-se uma partição Q. O número de elementos nje o centro de gravidade wjsão calculados para cada uma das classes. (b) Etapa Iterativatest0 Para todo i de 1 àN faça a classe de i é s determinar l tal que test1 (c)Se test  0 então vá para (b)

  34. Algoritmo k-means Com um algoritmo de vizinhança, não é necessário, para obter a diminuição do critério, de tomar sistematicamente a melhor solução, basta tomar nessa vizinhança uma solução melhor do que a solução em curso. No algoritmo k-means a etapa (b) torna-se: A diminuição do criterio U da inércia intra-classe está assegurada graças ao teorema de Huygens É impossivel demonstrar que uma das estratégias fornece sistematicamente uma melhor solução.

  35. Afetação de um novo indivíduo Uma função de afetação f de D em C={1,..,K}define uma partição do espaço de representação com Na convergência desses algoritmos, a função f é construida da seguinte maneira :

  36. Algoritmos que possuem duas etapas de optimisação • A primeira etapa é a etapa de représentation, ela consiste em definir um representante ou prototipo para cada uma das classes. • A segunda etapa é a etapa de afetação, ela modifica a classe de fetação de cada um dos indivíduos. Obsevações: A atualisação será realizada após a apresentação de todos os indivíduos de . A ordem de apresentação dos indivíduos não tem mais nenhuma influência sobre os resultados.

  37. Algoritmo dos centros móveis (a) initialisação No início tem-se uma partição Q ou um subconjunto de K elementos de . (b) Etapa de afetação test0Para todo i de 1 a N faça determinar l tal que test1 (c) Etapa de representação Para todo j de 1 a K faça calcular o centro de gravidade e o efetivo da nova classe Qj (d)se test  0 vá para (b)

  38. Exemploy1 1.0 1.5 3.0 5.0 3.5 4.5 3.5y2 1.0 2.0 4.0 7.0 5.0 5.0 4.5Passo 1: k = 2 e G1={1,2,3} e G2={4,5,6,7}Passo2: g1 = (1.83, 2.33) e g2 = (4.13, 5.38)Passo3:d(wi,g1) 1.57 0.47 2.04 5.64 3.15 3.78 2.74d(wi,g2) 5.38 4.28 1.78 1.83 0.74 0.53 1.08Grupo G1 G1 G2 G2 G2 G2 G2Passo 4: G1={1,2} e G2 = {3,4,5,6,7} Houve modificação dos grupos? Sim. Vá para o passo 2Etc.

  39. Métodos ParamétricosAbordagem probabilistaOs dados D são uma mistura de k distribuições normais uni-variadas de mesma variância 2Cada observação é descrita pelo vetor (xi, zi1, …, zik), ondea) xi é o valor da i-ésima observação; b) zij = 1 se a observação é proveniente do j-ésimo grupo e zij = 0, senãoDiz-se também que xi é a variável observada e zi1, …, zik são as variáveis ocultasTrata-se de estimar (aprender) as médias de cada uma das k distribuições normais: a) encontrar a hipótese h = < 1,…, k> que maximiza a verossimilhança dessa médias, isto é, encontrar a hipótese h = < 1… k> que maximiza p(D/h)

  40. Métodos ParamétricosO Algoritmo EM (Expectation, Maximisation)Inicialização: h = < 1,…, k>, onde 1,…, ksão valores iniciais arbitráriosEtapa 1: Calcular o valor esperado E[zij] de cada variável oculta zij, supondo verdadeira a hipótese atual h = < 1,…, k>E[zij] é a probabilidade de que a observação xi tenha sido gerada pela j-ésima distribuição normal

  41. O Algoritmo EM (Expectation, Maximisation)Etapa 2: Calcular a nova hipótese h’ = < ’1,…, ’k> de máxima verossimilhança, supondo que os valores de cada variável oculta zij é o seu valor esperado E[zij] calculado no Passo 1. Substituir a hipótese h = < 1,…, k> pela hipótese h’ = < ’1,…, ’k> e recomeçar. Nesse caso, a hipótese de máxima verossimilhança é dada por:Esse algoritmo converge para uma hipótese h que representa um máximo de verossimilhança local

  42. Agrupamento ConceptualUm grupo pode ser descrito em:extensão (enumeração dos seus membros) ou em compreensão (conjunto de propriedades que definem a pertinência de um elemento à um grupo)Agrupamento não conceptual fornece: apenas descrição em extensão de cada grupo. a obtenção dos grupos leva em conta apenas as descrições dos indivíduos.Agrupamento conceptual fornece: também a descrição em compreensão (intencional) de cada grupo. formação dos grupos levam em consideração também a qualidade da descrição em compreensão de cada grupo

  43. Agrupamento Conceitual funciona em 2 fases:agregação: encontrar grupos de um conjunto de indivíduos segundo uma estrutura considerada e um ou mais critérios fixadoscaracterização: determinar uma descrição (conceito) de cada um dos grupos obtidos na fase de agregaçãoEm aprendizagem de máquina caracterização = aprendizagem à partir de exemplosAs 2 fases podem ser: simultâneas seqüenciais (na maioria dos casos)

  44. Iniciar com  (Conjunto de Individuos) Geração de k Agrupamentosem competição Agrupamento 1 ••• Agrupamento k {C11, …, C1m1} {Ck1, …, Ckmk} Iniciar com um Agrupamento Geração de descrições conceituais em competição par o Agrupamento ••• {D1(C1), ... D1(C1m1) ... {Dn(C1), ... Dn(C1m1)

  45. Tipos de abordagens em Agrupamento Conceitual:3 dimensõesEstrutura do espaço de observação: partição, hierarquia, coberturaAlgoritmo: incremental (Formação de Conceitos) ou batch (Descoberta de Conceitos)Linguagem de descrição (representação do conhecimento): Lógica de Atributos (ordem 0) Lógica de Predicados de 1a Ordem Lógica de predicados de 2a Ordem

  46. Caracterização (descrição) dos grupos em lógica 0 Seja  um conjunto de observações descritas por p atributos (variáveis) y1, …, yp cujos domínios são D1, …, Dp. Um objeto simbólico a = [y1  A1]  …  [y1  Ap], onde Ai  Di, i  {1, …, p}, expressa a condição “atributo y1 toma seus valores em A1e … e atributo yp toma os seus valores em Ap” Pode-se associar a a uma função fa:{1, 0} tal que fa() = 1  yi () Ai, i  {1, …, p},   A extensão de a é definida como ext (a) = {  / fa()=1}

  47. variáveis Domínios {azul, vermelho, verde} Cor Tamanho {grande, médio, pequeno} Forma {esfera, bloco, triângulo} Considere o seguinte objeto simbólico a = [Cor  {az,vm}] [Tam{g}][Forma {e,b}] a é uma generalização de qualquer conjunto de objetos cuja cor é azul ou vermelho, cujo tamanho é grande e cuja forma é esfera ou bloco Exemplo

  48.   esta na extensão de a (é membro de a)se fa()=1 isto é, se sua cor é azul ou vermelha, seu tamanho é grande e sua forma é esfera ou bloco Dizemos que um objeto simbólico a é uma generalização de um conjunto de indivíduos  se  , fa()=1 Sejam dois objetos simbólicos a = i [yi  Ai] e b = i [yi  Bi]. Diz-se que b < a se Bi  Ai i. Nesse caso diz-se que a é mais geral do que b e b é menos geral do que a Diz-se que um objeto simbólico a é maximamente especifico de um conjunto de indivíduos  se: a é uma generalização de  e não existe um outro objeto simbólico b generalização de  tal que b < a

  49. Sejam os individuos 1 = [Cor  {az}] [Tam{g}][Forma {e}] 2 = [Cor  {az}] [Tam{m}][Forma {e}] 3 = [Cor  {az}] [Tam{p}][Forma {b}] Três possíveis generalizações desses conjuntos por um objeto simbólico a = [Cor  {az}] [Tam{g,m,p}][Forma {e,b}] b = [Cor  {az}] [Tam{g,m,p}][Forma {e,b,t}] c = [Cor  {az,vm,vd}] [Tam{g,m,p}][Forma {e,b,t}] c é mais geral do que b que é mais geral do que a a é maximamente especifico do conjunto de indivíduos acima.

  50. Um objeto simbólico a é uma descrição discriminante de um conjunto 1 de indivíduos em relação à um outro conjunto 2 de indivíduos se: a é uma generalização de 1 e não existe  2 tal que fa()=1 Um objeto simbólico a é uma descrição maximamente discriminante de um conjunto 1 de indivíduos em relação à um outro conjunto 2 de indivíduos se: a é uma descrição discriminante de 1 em relação à 2 e não existe um outro objeto b i) que seja uma descrição discriminante de 1 em relação à 2 e ii) que seja mais geral do que a (b > a)

More Related