Estudo e implementa o de algoritmos de infer ncia e aprendizado em redes bayesianas
Download
1 / 65

Estudo e implementação de algoritmos de inferência e aprendizado em redes bayesianas - PowerPoint PPT Presentation


  • 158 Views
  • Uploaded on

Estudo e implementação de algoritmos de inferência e aprendizado em redes bayesianas. Felipe Leal Valentim Orientação: Rudini Menezes Sampaio Co-Orientação: Ricardo Martins de Abreu Silva. Roteiro. Fundamentos da teoria da probabilidade Redes bayesianas Inferência bayesiana

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' Estudo e implementação de algoritmos de inferência e aprendizado em redes bayesianas' - edith


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
Estudo e implementa o de algoritmos de infer ncia e aprendizado em redes bayesianas

Estudo e implementação de algoritmos de inferência e aprendizado em redes bayesianas

Felipe Leal Valentim

Orientação: Rudini Menezes Sampaio

Co-Orientação: Ricardo Martins de Abreu Silva


Roteiro
Roteiro aprendizado em redes

  • Fundamentos da teoria da probabilidade

  • Redes bayesianas

  • Inferência bayesiana

  • Aprendizado de parâmetros

  • Aprendizado de estrutura

  • O sistema UFLABayes

  • Resultados

  • Conclusões


Fundamentos da teoria da probabilidade vari vel aleat ria
Fundamentos da Teoria da probabilidade aprendizado em redes Variável aleatória

  • Algo que se refere a “parte” do mundo cujo “status” é inicialmente desconhecido.

  • Por exemplo, DorDeCabeça poderia se referir ao fato de uma pessoa estar sentindo uma dor de cabeça, e inicialmente não se sabe se o “status” seria verdadeiro ou falso.

  • Classificação dependendo do tipo do domínio:

    • Booleanas : DorDeCabeça = (verdadeiro, falso)

    • Discretas : Tempo = ( ensolarado, chuvoso, nublado)

    • Contínuas : Renda = (Renda<350, 351<Renda<900, Renda >900)


Fundamentos da teoria da probabilidade probabilidade incondicional
Fundamentos da Teoria da probabilidade aprendizado em redes Probabilidade incondicional

  • Notação: P(A)

    A probabilidade a priori (P(A)), só deverá ser usada na ausência de outra evidência

  • Ex: P(cárie=verdadeiro) = 0.1 - significa que, como não há outra informação, a probabilidade de um paciente ter cárie é de 10%

  • Distribuição de probabilidade a priori:

    P(tempo = chuvoso) = 0.28

    P(tempo = ensolarado) = 0.7

    P(tempo = nublado) = 0.02

    P(tempo) = (0.28, 0.7, 0.02) - distribuição a priori


Fundamentos da teoria da probabilidade probabilidade condicional
Fundamentos da Teoria da probabilidade aprendizado em redes Probabilidade condicional

  • Notação: P(A|B)

  • Usada quando se tem alguma evidência no domínio da aplicação

  • Representa a probabilidade de A “dado que tudo que sabemos” é B

  • Ex: P(Cárie|DorDeDente) = 0.8 - indica que se a única evidência é que o paciente tem dor de dente, então a probabilidade dele ter cárie será 80%

  • P(A|B,C)

  • A probabilidade a priori é um caso especial da probabilidade condicional - P(A|)


Fundamentos da teoria da probabilidade regra do produto
Fundamentos da Teoria da Probabilidade aprendizado em redes Regra do produto

  • Probabilidade condicional pode ser definida em termos da probabilidade a priori. Denotada pela equação:

    P(A,B) = P(A|B) P(B)

    ou

    P(A,B) = P(B|A) P(A)

    Regra do produto

    “Para que A e B sejam verdadeiros é necessário B ser verdadeiro e então A ser verdadeiro dado B”


O teorema de bayes
O Teorema de Bayes aprendizado em redes

  • Dada as duas equações da regra do produto:

    P(A,B) = P(A|B) P(B)

    P(A,B) = P(B|A) P(A)

  • Igualando e dividindo as equações por P(A), obtém-se:

    P(B|A) = P(A|B) P(B)

    P(A)

  • Esta equação é conhecida como Regra de Bayes (Lei de Bayes ou Teorema de Bayes) que representa a base da maioria dos sistemas de IA para inferência probabilística


Fundamentos da teoria da probabilidade exemplo
Fundamentos da Teoria da Probabilidade aprendizado em redes Exemplo

Prob. Condicional de Mamografia dado Câncer

Probabilidade a priori de Câncer

P(mamo+) = P(mamo+ | cancer+)*P(cancer+)

+ P(mamo+ | cancer-)*P(cancer-) =

= 80%*1% + 0,96%*99% = 1,7504%

Antes de qualquer observação,

qual a probabilidade de

uma mulher se deparar

com um exame de mamografia

com resultado positivo?

Marginalização

De posse de uma mamografia

com resultado positivo

qual é a probabilidade

de uma mulher estar

com câncer de mama?

P(cancer+ | mamo+) = P(mamo+ | cancer+)

*P(cancer+) / P(mamo+) = 80%*1% / 1,7504%

= 45,7% (probabilidade a posteriori)

Teorema de Bayes


2 redes bayesianas
2) aprendizado em redes Redes bayesianas

Uma Rede Bayesiana é um grafo acíclico e dirigido onde:

  • Cada nó da rede representa uma variável aleatória

  • Um conjunto de ligações ou arcos dirigidos conectam pares de nós

  • cada nó recebe arcos dos nós que tem influência direta sobre ele.

  • Cada nó possui uma tabela de probabilidade condicional associada que quantifica os efeitos que os pais têm sobre ele

    É composta por dois elementos:

  • Estrutura gráfica S;

  • Parâmetros numéricos Θ.


Defini o de redes bayesianas

P(S) aprendizado em redes

P(C|S)

P(B|S)

P(X|C,S)

P(D|C,B)

Definição de redes bayesianas

Fumar

Causa

Cancer

Bronquite

Efeito

Raio-X

Dispnea

P(S, C, B, X, D)

= P(S) P(C|S) P(B|S) P(X|C,S) P(D|C,B)

Permite uma representação eficiente da distribuição conjunta total!


Constru o de redes bayesianas
Construção de redes aprendizado em redes bayesianas

  • Defina uma ordenação para as variáveis;

  • Enquanto restarem variáveis no conjunto

  • Selecione uma variável Xi e adicione um nó para ela à rede;

  • Defina os pais de Xi (pa(Xi)) com algum conjunto mínimo de nós que já

  • estão na rede.

  • Defina a tabela de probabilidades condicionais de Xi;

[RUSSEL & NORVIG, 2003]


Constru o de redes bayesianas exemplo rede alarme

Ladrão aprendizado em redes

Terremoto

Alarme

MariaLiga

JoãoLiga

Construção de redes bayesianas Exemplo Rede Alarme

Ordem: L T A J M


3 infer ncia bayesiana
3) aprendizado em redes Inferência bayesiana

  • A tarefa básica de um sistema de redes bayesianas é computar a distribuição da probabilidade condicional para um conjunto de variáveis de consulta, dado os valores de um conjunto de variáveis de evidência

    P(Variável_consulta|Variáveis_Evidência)


Infer ncia bayesiana
Inferência aprendizado em redes bayesiana

Classificação dos Algoritmos de Inferência [CASTILHO & GUTIERREZ, 1997]

  • Exatos

  • Aproximados

  • Simbólicos

    Principais Algoritmos Exatos

  • Eliminação de Variáveis [RUSSEL & NORVIG, 2004; COZMAN, 2001]

  • Enumeração [RUSSEL & NORVIG, 2004]

  • Junction Tree

    Principais Algoritmos Aproximados

  • Forward Sampling [RUSSEL & NORVIG, 2004]

  • Likelihood Weighting [FUNG & CHANG, 1990, RUSSEL & NORVIG, 2004]

  • Gibbs Sampling [GEMAN & GEMAN, 1984; RUSSEL & NORVIG, 2003]

  • Metropolis-hasting


M todos exatos de infer ncia
Métodos exatos de inferência aprendizado em redes

  • Montar uma tabela de distribuição conjunta total é uma maneira muito ineficiente de se computar a inferência exata:

    • Complexidade de Tempo = O(n2n)

    • Complexidade de espaço = O(2n)


Algoritmo de enumera o
Algoritmo de Enumeração aprendizado em redes

  • A idéia básica do algoritmo de Enumeração é avaliar a equação (1) sem ter que montar explicitamente a tabela de probabilidade conjunta total.

  • Apenas, percorrem-se os nós da rede propagando as evidências e extraindo as probabilidades para que sejam feitas os somatórios e multiplicações necessárias.

Equação 1


Algoritmo de enumera o1
Algoritmo de Enumeração aprendizado em redes

Variável de consulta

B

E

A

Evidências

M

J

Equação 1

P(B|J,M)??


Algoritmo de enumera o2
Algoritmo de Enumeração aprendizado em redes

Nota-se que a Figura torna explícita as subexpressões

repetidas que são avaliadas pelo algoritmo.

Os produtos P(j | a)P(m | a) e P(j | a)P(m | a) são calculados

duas vezes, um para cada valore de e.


Algoritmo de elimina o de vari veis
Algoritmo de Eliminação de variáveis aprendizado em redes

  • Elimina os cálculos repetidos do algoritmo de Enumeração;

  • A idéia é simples : efetuar o cálculo apenas uma vez e guardar os resultados para uso posterior;

  • Esta é uma forma de programação dinâmica.


Algoritmo de elimina o de vari veis exemplo
Algoritmo de Eliminação de variáveis aprendizado em redes Exemplo

Variável de consulta

B

E

B = Burglary

E = Earthquake

M = MaryCalls

J = JohnCalls

A

Evidências

M

J


Variável de consulta : B aprendizado em redes

Evidências : J = true , M = true

Ordenação das variáveis : M, J, A, B, E (das folhas para a raiz)

B

E

J

A

Variável analisada:

M

  • Como a variável A é oculta vai-se eliminá-la (através da soma). Para isso é necessário:

  • Efetuar o produto pontual dos factores que têm o parâmetro A:

  • fAJM(A,B,E) = fA(A,B,E) x fJ(A) x fM(A)

  • Eliminar a variável A obtendo o factor fÂJM(B,E)

[fB(B) , fÊÂJM(B) ]

[fE(E) , fB(B) , fÂJM(B,E) ]

Factores :

[fJ(A) , fM(A) ]

[ fB(B) , fÂJM(B,E) ]

[fA(A,B,E) , fJ(A) , fM(A) ]

[ fÂJM(B,E) ]

[ fM(A) ]

[ ]


Algoritmo de elimina o de vari veis1
Algoritmo de Eliminação de variáveis aprendizado em redes

Problemas do algoritmo Eliminação de variáveis:

  • A configuração inicial das variáveis influencia no tempo de execução dos algoritmos.

  • Encontrar uma configuração inicial ótima é um problema NP-Completo.


Algoritmos aproximados de infer ncia
Algoritmos aproximados de inferência aprendizado em redes

  • Utilizam distintas técnicas de simulação para obter valores aproximados das probabilidades

  • Classificação:

    • Simulação estocástica

    • Simplificação de modelos

    • Busca e propagação de crenças em ciclos

Simulação estocástica

Simula o fluxo do impacto ou influência da evidência sobre o resto das variáveis


Algoritmo forward sampling
Algoritmo aprendizado em redes Forward Sampling

  • O Forward Sampling é um algoritmo para produzir amostras de uma distribuição difícil de amostrar a partir de uma distribuição fácil de amostrar.


Forward Sampling aprendizado em redes

Distribuição analisada :

P(B|A=n) : (0.8,0.2)

P(D|B=n) : (0.1,0.9)

P(A): (0.4,0.6)

P(E|C=n,D=y) :(0.999, 0.001)

P(C|A=n) : (0.4,0.6)

Número aleatório:

0.55

0.01

0.9

0.5

0,8

Amostra gerada:

D = y

B = n

A = n

C = n

E = y

Amostras Consistentes !!!

A

Evidências:

B

C

n

y

Amostra geradas:

n

n

y

y

n

D

E

Contador das amostras geradas:

0

1

0

1

0

0

0

1

1

1


Forward sampling
Forward Sampling aprendizado em redes

Problemas do Forward Sampling

  • Se uma evidência é muito rara, a maioria das configurações geradas serão rejeitadas e será necessário muitas simulações para se gerar um número razoável de configurações compatíveis.

  • A fração de amostras consistentes com a evidência cai exponencialmente conforme o número de variáveis de evidência cresce, assim, esse algoritmo é simplesmente inútil para problemas complexos.


Algoritmo likelihood weighting
Algoritmo aprendizado em redes Likelihood Weighting

  • Resolve o problema de rejeições do Forward Sampling, gerando apenas amostras consistentes;

  • Cada evento gerado é ponderado pela probabilidade de que o evento concorde com a evidência, medida pela função de ponderação:


Likelihood Weighting aprendizado em redes

Evidência?

sim

não

Gera amostra

Atualiza peso

0.07

0.7

1

Distribuição :

P(E|C=n,D=y) = (0.999,0.001)

P(A) = (0.4 , 0.6)

P(C|A=y) = (0.7,0.3)

Número aleatório:

0,55

0.75

0.3

Peso = Peso * P(B=n|A=y)

Peso = Peso * P(D=y|B=n)

A = y

C = y

Amostra gerada:

C = n

Peso = 0.7

Peso = 0.07

A

Evidências:

B

C

Amostras geradas:

y

n

y

D

E

Contador das amostras geradas:

0

0

0

0.07

0.07

0.07


Algoritmo gibbs sampling
Algoritmo aprendizado em redes Gibbs Sampling

  • Gera cada amostra baseado na configuração gerada pela amostra anterior e atualiza a configuração atual para amostras futuras;

  • Depende de uma configuração inicial;

  • A estimativa do algoritmo é baseada na probabilidade da variável fazer a transição de um estado para outro – probabilidade de transição


Cobertura de markov
Cobertura de Markov aprendizado em redes

  • Um nó é condicionalmente independente de todos os outros nós na rede, dados seus pais e pais dos filhos – isso é, dada sua cobertura de Markov:

O conjunto de nós em cinza representa a Cobertura de Markov de A


Gibbs Sampling aprendizado em redes

A, D, E

Cobertura de Markov :

B,C,E

B, C

α( P(C=y|A=y)*P(A=y)*P(D=y|B=n)*P(E=n|C=y,D=n) , P(C=n|A=y)*P(A=y)*P(D=y|B=n)*P(E=n|C=n,D=n))

α( P(A=y) *P(B=n|A=y)*P(C=y|A=y) , P(A=n) *P(B=n|A=n)*P(C=y|A=n) )

Distribuição :

α(P(D=y|B=n)*P(B=n|A=y)*P(C=n|A=y)*P(E=n|C=n,D=y) ,P(D=n|B=n)*P(B=n|A=y)*P(C=n|A=y)*P(E=n|C=n,D=n))

Distribuição analisada :

(0.7 , 0.3)

(0.1 , 0.9)

(0.8 , 0.2)

Número aleatório:

0,45

0.85

0,55

Amostra gerada:

C = n

D = n

A = y

A

Evidências:

B

C

Configuração atual:

y

y

n

y

n

y

n

n

D

E

Contador das amostras geradas:

2

0

0

3

1

1

1

3

3

1

0

1

2

0

0

1

2

0

2

0

0

0

1

0

2


Gibbs sampling
Gibbs Sampling aprendizado em redes

  • Problema 1: Se a configuração inicial é pouco provável, as primeiras serão pouco representativas.

    Solução: Burn-in (Descartar as primeiras 5-10% das configurações)

  • Problema 2: As configurações podem ficar restritas a certas configurações.

    Solução: Para alcançar as configurações mais prováveis, uma variável poderia alterar seu estado um estado altamente improvável.

  • Problema 3: Pode ser muito difícil obter uma configuração inicial (NP-Difícil)

    Solução: Usar heurísticas para determinar a configuração.

    O algoritmo Forward Samplig pode ser usado para determinar uma configuração inicial,


Algoritmo gibbs weighting
Algoritmo aprendizado em redes Gibbs Weighting*

  • Analisa a mesma distribuição que o algoritmo Gibbs Sampling, e gera amostras da mesma forma que esse algoritmo, porém, atualiza a contagem segundo a função de ponderação, como o algoritmo Likelihood Weighting.


4 aprendizado de par metros
4) aprendizado em redes Aprendizado de parâmetros

  • Consiste em aprender automaticamente as TPC´s de uma rede bayesiana, dada a sua estrutura e uma base de dados.

Dados

Algoritmo

de Aprendizado de

Parâmetros

+

B

E

B

E

C

A

C

A

D

D


Algoritmo aprendeparametros para aprendizado de par metros
Algoritmo aprendizado em redes AprendeParametros para aprendizado de parâmetros

TPC de C:

Base de dados:

v

f

v

f

v

0.5

1

0.5

1

f

v

0.875

7

f

0.125

1

v

f

Normalizando

v

f

f

v

P(A)

A

f

v

f

v

C

P(C|A)

B

P(B|A)

f

v

f

f

D

E

v

v

P(D|B)

P(E|C,D)


5 aprendizado de estrutura
5) aprendizado em redes Aprendizado de estrutura

  • Consiste em aprender automaticamente a estrutura gráfica de uma rede bayesiana, dada uma base de dados.

Dados

B

Algoritmo

de aprendizado

de estrutura

E

+

Conhecimento

de Fundo

C

A

D


Aprendizado de estrutura
Aprendizado de estrutura aprendizado em redes

Duas abordagens principais para o aprendizado de estrutura:

  • Métodos baseados em Busca e Pontuação

    • Vantagem: Menor complexidade no tempo

    • Desvantagem: Não garante encontrar melhor solução

      Algoritmos:

      - K2

  • Métodos baseados em análise de dependência

    • Vantagem: Sob certas condições, encontra a melhor solução

    • Desvantagem: Teste de independência com uma quantidade muito grande de variáveis pode se tornar inviável

      Algoritmos:

      - PC

      - CBL


Algoritmos de busca e pontua o
Algoritmos de busca e pontuação aprendizado em redes

  • Busca no espaço de estruturas a “melhor” estrutura

  • Definição da medida de avaliação (Pontuação)

  • Processo de busca prossegue enquanto a pontuação de uma rede for significativamente melhor que a anterior


Algoritmo k2 busca e pontua o
Algoritmo aprendizado em redes K2 (Busca e pontuação)

  • Busca entre as 2n(n-1)/2 configurações possíveis a que maximiza a função de pontuação (n = nº de variáveis).

  • Necessita de uma ordenação prévias das variáveis.

  • A ordenação das variáveis garante que a estrutura da rede não terá ciclos.


Algoritmo k2 busca e pontua o1
Algoritmo aprendizado em redes K2 (Busca e pontuação)

MAX(Função de pontuação)

Ordenação: A, B, C e D

A

B

C

D


Algoritmos de an lise de depend ncia
Algoritmos de análise de dependência aprendizado em redes

  • Procura uma rede que represente da melhor maneira possível a distribuição conjunta que surge da amostra aleatória

  • É fundamental que esta rede represente todas as relações de independência e dependência da distribuição conjunta induzida pela amostra.

  • As principais diferenças entre os algoritmos do enfoque análise de dependência são: a maneira como os conjuntos de variáveis S são determinados e as regras para associar direções aos arcos.


6 o sistema uflabayes
6) aprendizado em redes O Sistema UFLABayes

  • Implementado em Java;

  • Implementado em camadas de interface gráfica, IO, aprendizado e inferência;

  • Permite a inferência, aprendizado de parâmetros e de estrutura de forma sistêmica;

  • As operações são dividas em módulos: módulo de inferência,módulo aprendizado de parâmetros, módulo de aprendizado de estrutura;


O sistema uflabayes
O Sistema aprendizado em redes UFLABayes

Algoritmos Implementados

  • Algoritmos de inferência

    • Enumeração

    • Eliminação de variáveis

    • Forward Sampling

    • Likelihood Weighting

    • Gibbs Sampling

    • Gibbs Sampling Burn-in

    • Gibbs Weighting

  • Algoritmo de aprendizado de parâmetros

    • Algoritmo AprendeParâmetros

  • Algoritmo de aprendizado de estrutura

    • Algoritmo K2


7 resultados
7) aprendizado em redes Resultados

8.1) O Sistema UFLABayes

8.2) Algoritmos de Inferência exata - Tempo de execução

8.3) Algoritmos de inferência aproximada - Convergência

8.4) Algoritmo de aprendizado de parâmetros - Divergência KL

8.5) Algoritmo de aprendizado de estrutura - Análise estrutural


O sistema uflabayes1
O Sistema aprendizado em redes UFLABayes

  • Constitui-se de uma ferramenta computacional que permite o aprendizado e a inferência através dos diferentes algoritmos implementados, permitindo uma análise e comparação de cada método.

  • Apesar de ser bastante genérico, o sistema foi projetado de modo que possa atender problemas reais e ser utilizado como um sistema especialista.

  • O software será distribuído livremente.



Algoritmos aproximados
Algoritmos aproximados execução

  • Testados em redes de topologias diversas;

  • Análise de precisão dos resultados variando o número de simulações e o tempo de execução;


Rede de teste asia
Rede de teste Asia execução




Algoritmos de infer ncia aproximada an lise de precis o n de itera es rede asia
Algoritmos de inferência aproximada – Análise de precisão - nº de iterações – Rede Asia


Algoritmos de infer ncia aproximada an lise de precis o n de itera es rede dogproblem
Algoritmos de inferência aproximada – Análise de precisão - nº de iterações – Rede DogProblem


Algoritmos de infer ncia aproximada an lise de precis o n de itera es rede cardiagnostic
Algoritmos de inferência aproximada – Análise de precisão - nº de iterações – Rede carDiagnostic



Algoritmos de infer ncia aproximada an lise de precis o tempo rede dogproblem
Algoritmos de inferência aproximada – Análise de precisão - Tempo – Rede DogProblem


Algoritmos de infer ncia aproximada an lise de precis o tempo rede cardiagnostic
Algoritmos de inferência aproximada – Análise de precisão - Tempo – Rede carDiagnostic


Algoritmo aprendeparametros an lise da diverg ncia kl
Algoritmo precisão - AprendeParametros – Análise da divergência KL

  • A divergência KL mede a qualidade de quaisquer probabilidades estimadas calculando a distância entre a probabilidade estimada e a probabilidade exata pela equação:


Algoritmo aprendeparametros an lise da diverg ncia kl1
Algoritmo precisão - AprendeParametros – Análise da divergência KL


Algoritmo k2 an lise estrutural
Algoritmo K2 – Análise estrutural precisão -

Rede original

Rede aprendida


Conclus es algoritmos para infer ncia exata
Conclusões – Algoritmos para inferência exata precisão -

  • Enumeração

    • Fácil implementação;

    • Em redes menores é bem aceitável, porém, Inviável para redes com muitos vértices – requer um tempo muito grande de processamento;

  • Eliminação de Variáveis

    • Melhoria substancial da eficiência em relação ao algoritmo de Enumeração, porém ainda inviável para redes maiores;


Conclus es algoritmos para infer ncia aproximada
Conclusões – Algoritmos para inferência aproximada precisão -

  • Forward Sampling

    • Eficiente em redes menores, porém inútil para problemas complexos devido ao grande número de amostras rejeitadas;

  • Likelihood Weighting

    • Boa convergência, considerando o tempo e o número de simulações;

    • Fácil implementação;

      Gibbs Sampling

    • Algoritmo mais poderoso: melhor convergência considerando o tempo e número de simulações;

    • O burn-in aumenta a eficiência do algoritmo quando um número grande de simulações é requisitado;

  • Gibbs Weighting

    • Desempenho similar aos de seus precursores Gibbs Sampling e Likelihood Weighting.

    • Boa convergência considerando o número de simulações, porém requer muito tempo para a convergência.


Conclus es algoritmos de aprendizado
Conclusões – Algoritmos de aprendizado precisão -

  • Algoritmo K2

    • Aprende a estrutura da rede, mas necessita de muitos casos na base dados (50.000 casos para uma rede com apenas oito e não encontrou o resultado ótimo) ;

    • Não é uma tarefa barata cara coletar muitos dados para alimentar a base dados;

  • Algoritmo AprendeParâmetros

    • Converge para o resultado exato com o aumento de número de casos na base de dados;

    • Necessidade de muitos casos para a convergência para o resultado exato.

Os algoritmos de aprendizado fornecem uma ajuda valiosa para a modelagem de um problema utilizando redes bayesianas, porém, a ajuda de um especialista para validar ou re-calibrar os dados aprendidos não deve ser descartada.


Trabalhos futuros
Trabalhos Futuros precisão -

  • Analisar o impacto da ordenação de variáveis no tempo de execução do algoritmo Eliminação de Variáveis;

  • Implementar o algoritmo Junction Tree, para obter uma sequência melhor para algoritmo Eliminação de Variáveis (encontrar a sequência ótima de eliminação um problema NP-Completo).

  • Fazer análises mais sofisticadas nos algoritmos, buscando identificar outras propriedades que permitam uma maior contribuição para esta área;

  • Analisar possíveis melhorias e adaptações no algoritmo Gibbs Sampling;

    .


Trabalhos futuros1
Trabalhos Futuros precisão -

  • Estudar e implementar outros algoritmos de aprendizado de estrutura, baseados em diferentes métodos permitindo uma comparação entre eles;

  • Estudar as abordagens de aprendizagem de estrutura que trabalham quando a base de dados contêm dados faltosos;

  • Estudar a fundo as propriedades e características dos algoritmos de aprendizado de estrutura que permita uma maior contribuição para a área;

  • Implementar algoritmos de inferência e aprendizado para variáveis contínuas;

  • Especializar o sistema para atender a um problema real


Bibliografia
Bibliografia precisão -

[CASTILHO & GUTIERREZ, 1997] CASTILHO E., GUTIERREZ J.. "Expert Systems and Probabilistic Network Models". Ed. Springer, 1997.

[COOPER & HERSKOVITS, 1992] COOPER G. F., HERSKOVITS E.. "A Bayesian method for the induction of probabilistic networks from data". Machine Learning, v. 9, p. 309-347, 1992.

[COZMAN, 2000] COZMAN F. G.. "Generalizing Variable Elimination in Bayesian Netorks". To appears: Workshop on Probabilistic Reasoning in Artificial Intelligence, Atibaia, 2000.

[FUNG & CHANG, 1990] FUNG R., CHANG K.C.. "Weighing and integrating evidence for stochastic simulation in Bayesian networks". In M. Henrion, R. Shachter, L. Kanal, & J. Lemmer (Eds.), Uncertainty in Artificial Intelligence 5. Amsterdam: Elsevier.

[GEMAN & GEMAN, 1984] GEMAN S., GEMAN D.. "Stochastic relaxation, Gibbs distribution and Bayesian restoration of images". IEE Transactions on Pattern Analysis and Machine Intelligence 6: p.721–741, 1984.

[JENSEN, 2001] JENSEN F.V.. "Bayesian Networks and Decision Graphs". Ed. Springer, 2001.

[NEAPOLITAN, 1990] NEAPOLITAN R.E.. "Learning Bayesian Networks". Ed. Prentice Hall, 2003.

[RUSSEL & NORVIG, 2004] RUSSEL S. J., NORVIG P.; "Inteligência Artificial". Tradução da 2a Edição. Ed.Campus, 2004.

[SILVA & LADEIRA , 2002] SILVA, W. T. da., LADEIRA, M. "Mineração de dados em redes Bayesianas". In: CONGRESSO DA SOCIEDADE BRASILEIRA DE COMPUTAÇÃO, 22., 2002, Florianópolis. Anais... Florianópolis: UFSC, 2002.


ad