1 / 21

Fusion Of Continuous-Valued Outputs

Fusion Of Continuous-Valued Outputs. Equipe: Henrique Lins ( hsmpl ) João Pascoal Neto ( jrpn ) Mário Barbosa ( mbaj ) Tiago Farias ( tfs ). Roteiro. Introdução Adquirindo scores Scores discriminantes Estimadores de Laplace Combinadores Conscientes à Classe Não treináveis

Download Presentation

Fusion Of Continuous-Valued Outputs

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. FusionOfContinuous-Valued Outputs Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)

  2. Roteiro • Introdução • Adquirindo scores • Scores discriminantes • Estimadores de Laplace • Combinadores Conscientes à Classe • Não treináveis • Treináveis • CombinadoresIndiferentes à Classe • Templates de Decisão • CombinadorDempster-Shafer

  3. Introdução • Viável para vetores de características contínuas • Utiliza vários classificadores diferentes • Cada classificador gera um score para cada classe • Scores são armazenados em uma matriz conhecida como Perfil de Decisão (DP)

  4. Introdução • Dimensão da DP é L x C onde L é a quantidade de classificadores e C é a quantidade de classes • Cada score pertence aos reais no intervalo [0,1] • Para cada coluna (classe) é calculado o scoreμ(x) • A classe que possuir o maior μ(x) é a escolhida

  5. Introdução • Espaço de Características Intermediário • Scores iniciais são colocados nesse espaço • Outro classificador gera uma classlabel

  6. Adquirindo scores • Alguns exemplos • Classificadores discriminantes • Classificador Parzen • Softmax • Função softmax normaliza resultados gerados • Score 0 = Não há suporte para a classe • Score 1 = Suporte máximo para a classe

  7. Adquirindo scores de probabilidades • Scores probabilísticos são mais confiáveis • Vários algoritmos • LDC • QDC • Convergência para função softmax • Softmax adaptado para problemas de 2 classes

  8. Redes neurais e classificadores Kernel • Para uma rede neural (RN) com c saídas • Saídas denotadas por (y1, y2, ..., yc) | yiє R, para i = 1, 2, ..., c. • Alvo denotado por (t1, ..., tc) | tiє {0, 1}, para i = 1, 2, ..., c. • AQUI!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

  9. Estimador de Laplace • Árvores de estimativas de probabilidades (PETs) • Calcula com precisão probabilidades a posteriori • Estimativa da probabilidade utiliza-se de proporção de classes do conjunto de treinamento • PET não é confiável para poucos elementos • Usa-se a correção de Laplace para resolver este problema • Ajusta as estimativas para evitar extremos

  10. Estimador de Laplace • Suavização da regularização do estimador • Utilização de uma parametro m (m-estimator) • m muito grande, probabilidade restrita • m muito pequeno, falta de regularização • m x P(wj) ≈ 10 é considerado a melhor alternativa

  11. Estimador de Laplace • Adaptação de Ting e Witten • Onde ω* é a classe majoritária • Utilizando distâncias • Baseado no k-nn

  12. Combinadores Conscientes à Classe • Divididos em duas categorias • Não-treináveis • Treináveis • Combinadores não-treináveis • Sem parâmetros adicionais • O conjunto final já está preparado • Operações diretas no Perfil de Decisão • Combinadores treináveis • Combinações de pesos • Integral Fuzzy

  13. Combinadores Não-Treináveis • Geram o μ(x) para cada coluna (classe) da DP • Aplicação de uma combinação sobre a coluna • Média Simples • Máximo • Média cortada (trimmedmean) • Utiliza um percentual α para “podar” o conjunto • Produto

  14. Combinadores Não-Treináveis • Média Generalizada • α = -∞ (mínimo) • α = -1 (média harmônica) • α = 0 (média geométrica) • α = -1 (média aritmética) • α = -∞ (máximo) • O “otimismo” do combinador cresce com o α

  15. Combinadores Não-Treináveis

  16. Combinadores Não-Treináveis • OWA (OrderedWeightedAveraging) • Conjunto de L coeficientes • Um coeficiente para cada classificador • Trabalha com colunas do DP(x) separadamente • Coluna organizada em ordem decrescente • Seja b um vetor de coeficientes

  17. Combinadores Não-Treináveis • b varia de acordo com o combinador escolhido • Se L = 5 e o operador usado é o trimmedmean • b = [0, 1/3, 1/3, 1/3, 0] (transposta)

  18. Combinadores Treináveis • Média ponderada • Três grupos baseados no número de pesos • L pesos. Um peso para cada classificador • (c x L) pesos. Um peso para cada conjunto {classe, classificador} • (c x c x L) pesos. DEPOIS!!

  19. Combinadores Treináveis • Integral Fuzzy • Gera bons resultados de classficação • Confronta competência contra o suporte mais alto • Trabalha com subconjunto de classificadores • medida fuzzy = “força” de cada subconjunto • Para L classificadores, existem (2^k) – 1 subconjuntos • Logo, são (2^k) – 1 medidas fuzzy

  20. Combinadores Treináveis

  21. Combinadores Indiferentes à Classe • Geram μj(x) usando todos os scores da DP

More Related