Eliminaci n de variables para diagramas de influencia con nodos super valor
This presentation is the property of its rightful owner.
Sponsored Links
1 / 47

Eliminación de variables para diagramas de influencia con nodos super valor PowerPoint PPT Presentation


  • 73 Views
  • Uploaded on
  • Presentation posted in: General

Eliminación de variables para diagramas de influencia con nodos super valor. Manuel Luque Gallego Proyecto Elvira II San Sebastián 19-21 de Mayo de 2004. Índice. Introducción Problema Eliminación de variables para DI con nodos SV Ejemplo de evaluación Conclusiones

Download Presentation

Eliminación de variables para diagramas de influencia con nodos super valor

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Eliminaci n de variables para diagramas de influencia con nodos super valor

Eliminación de variables para diagramas de influencia con nodos super valor

Manuel Luque Gallego

Proyecto Elvira II

San Sebastián

19-21 de Mayo de 2004


Ndice

Índice

  • Introducción

  • Problema

  • Eliminación de variables para DI con nodos SV

  • Ejemplo de evaluación

  • Conclusiones

  • Perspectivas futuras y Elvira


Introducci n

Introducción

  • Diagramas de influencia

    • Comunicación entre analistas de decisiones y expertos

    • Evaluación directa

    • Representación compacta de la estructura probabilista

    • Éxito en ámbitos médicos


Introducci n1

Introducción

  • Problema médico: Carcinoma pulmonar no microcítico


Introducci n2

Introducción

  • Evaluación de DI:

    MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V

    • Eliminación Ci: 

    • Eliminación Di: max

    • Secuencia de eliminación legal según <.

  • Separabilidad

    • Aplicar operadores a parte de nuestra función de valor

    • Reducción de la dimensionalidad de las operaciones

    • Aparición en los DI de los nodos super-valor


Introducci n3

Introducción

  • Explotación de la separabilidad de la función de utilidad en el problema del carcinoma pulmonar no microcítico


Problema planteado

Problema planteado

  • Posibilidades de evaluación

    • Opción A: Algoritmos para DI sin nodos SV

    • Opción B: Algoritmo de Tatman y Shachter para DI con nodos SV

  • Opción A: (Eliminación de variables para DI)

    • Ventaja: Eficiencia del algoritmo para DI

    • Inconvenientes:

      • Pérdida de la separabilidad de la función de valor

      • Determinación de las variables requeridas


Problema planteado1

Problema planteado

  • Inconvenientes de la opción A

    • Pérdida de la separabilidad de la función de valor

      • Suma (o producto) implícita de los nodos de valor

      • Potenciales de utilidad de mayor tamaño


Problema planteado2

Problema planteado

  • Inconvenientes de la opción A

    • Determinación de las variables requeridas

      • Eliminación según orden total  Eliminar A

      • Eliminación de A une V1 y V2


Problema planteado3

Problema planteado

  • Inconvenientes de la opción A

    • DI tras la eliminación de A  Aparecen como requeridas variables que no lo eran (en este caso B)


Problema planteado4

Problema planteado

  • Opción B: (Algoritmo de Tatman y Shachter)

    • Ventaja: Conservación de la separabilidad de la función de valor

    • Inconvenientes:

      • Ineficiencia de la inversión de arcos

      • Pronta destrucción de la estructura de nodos super-valor en algunos casos

      • Determinación de las variables requeridas


Problema planteado5

Problema planteado

  • Inconvenientes de la opción B

    • Ineficiencia de la inversión de arcos


Problema planteado6

Problema planteado

  • Inconvenientes de la opción B

    • Pronta destrucción de la estructura de nodos super-valor


Problema planteado7

Problema planteado

  • Inconvenientes de la opción B

    • Tras eliminar A y proceder a eliminar D ésta requerirá B, cuando no debería


Eliminaci n de variables para di con nodos sv

Eliminación de variables para DI con nodos SV

  • Objetivos

    • Eliminar la necesidad de invertir arcos

    • Mantener el máximo tiempo posible la separabilidad de la función de valor

    • Mejora en la determinación de las variables requeridas

      • Potenciales de utilidad de menor tamaño

      • Mejora en la explicación del razonamiento


Eliminaci n de variables para di con nodos sv1

Eliminación de variables para DI con nodos SV

  • Planteamiento del problema: Evaluación

    MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V

    • Eliminación Ci: 

    • Eliminación Di: max

    • Secuencia de eliminación legal según <.

  • Matriz: p(C|D)V

  • V puede presentar + y * anidados


Eliminaci n de variables para di con nodos sv2

Eliminación de variables para DI con nodos SV

  • Ejemplo

  • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))

  • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))

  • Eliminar A

    • Sacar factor común Φ2(B)

    • Dificultad de análisis con esta representación

  • Representación unívoca de la matriz a través de un árbol


Eliminaci n de variables para di con nodos sv3

Eliminación de variables para DI con nodos SV

  • Representación en árbol

    • Dos tipos de nodos en el árbol

      • Operandos: Potenciales de probabilidad y de utilidad

      • Operadores: + y *

    • La raíz del árbol inicial siempre es un *

      • Hijos de la raíz son los potenciales de probabilidad y la estructura de nodos de valor


Eliminaci n de variables para di con nodos sv4

Eliminación de variables para DI con nodos SV

  • Evaluación

    • Eliminación de variables se traduce en transformaciones sobre el árbol

    • Dificultad:

      • Estudio de las transformaciones lícitas a realizar sobre el árbol

      • Estudio de la aplicación de los operadores A y maxD al árbol


Eliminaci n de variables para di con nodos sv5

Eliminación de variables para DI con nodos SV

  • Operaciones lícitas a realizar sobre el árbol

    • Operaciones de compactación

      • Secuencia de operadores del mismo tipo


Eliminaci n de variables para di con nodos sv6

Eliminación de variables para DI con nodos SV

  • Operaciones lícitas a realizar sobre el árbol

    • Operaciones de compactación

      • Reducción de nodos operadores con hijos operandos hoja


Eliminaci n de variables para di con nodos sv7

Eliminación de variables para DI con nodos SV

  • Operaciones lícitas a realizar sobre el árbol

    • Aplicación de la propiedad distributiva

  • Son transformaciones de equivalencia aplicables en cualquier subárbol


Eliminaci n de variables para di con nodos sv8

Eliminación de variables para DI con nodos SV

  • Eliminación de A aleatoria

    • Comportamiento de Acon el +

      A [Φ1 + Φ2]=

      AΦ1 + AΦ2

    • La aplicación del operador A a un árbol + supone aplicarlo a cada uno de sus hijos


Eliminaci n de variables para di con nodos sv9

Eliminación de variables para DI con nodos SV

  • Eliminación de A aleatoria

    • Aplicación del operador A a los potenciales hoja  Marginalizar el potencial en A

    • Comportamiento de Acon el *, si Φ1no depende de A y Φ2sí depende de A

      A [Φ1 * Φ2] = Φ1 AΦ2


Eliminaci n de variables para di con nodos sv10

Eliminación de variables para DI con nodos SV

  • Problema de la eliminación de A aleatoria con el *

    • Necesidad de que sólo una rama del * dependa de A para poder aplicar recursivamente el operador A


Eliminaci n de variables para di con nodos sv11

Eliminación de variables para DI con nodos SV

  • Resolución del problema de la eliminación de A aleatoria con el *

    • Suposición de árbol factorizado  Hijos de * son + o bien potenciales hoja gracias a la aplicacación de las propiedades de compactación

    • Objetivo: Reducción del número de ramas dependientes de A en los *

    • Reducción del número de ramas dependientes de A a través de la compactación de potenciales hoja hijos de * dependientes de A


Eliminaci n de variables para di con nodos sv12

Eliminación de variables para DI con nodos SV

  • Resolución del problema de la eliminación de A aleatoria con el *

    • Reducción del número de ramas dependientes de A a través de la aplicación de la propiedad distributiva entre ellas


Eliminaci n de variables para di con nodos sv13

Eliminación de variables para DI con nodos SV

  • Árbol obtenido tras aplicar la propiedad distributiva


Eliminaci n de variables para di con nodos sv14

Eliminación de variables para DI con nodos SV

  • Propiedad distributiva en la resolución del problema de la eliminación de A aleatoria con el *

    • Decidir qué * distribuir y respecto a qué dos ramas

    • Optimizaciones:

      • Distribuir siempre los * de mayor profundidad en el árbol

      • Realizar todas las compactaciones posibles antes de distribuir y tras distribuir

    • Justificación de las optimizaciones:

      • Son cálculos que aunque se pospongan siempre habrá que realizarlos

      • Posponerlos puede llevar a tener que repetirlos en varias partes del árbol


Eliminaci n de variables para di con nodos sv15

Eliminación de variables para DI con nodos SV

  • Ejemplo de por qué no se ha de posponer la compactación

    • Desarrollamos sólo un sumando en producto de sumas para preservar al máximo la estructura


Eliminaci n de variables para di con nodos sv16

Eliminación de variables para DI con nodos SV

  • Ejemplo tras aplicar distributiva


Eliminaci n de variables para di con nodos sv17

Eliminación de variables para DI con nodos SV

  • Eliminación de D decisión

    • Aplicación del operador maxD a los potenciales hoja  Marginalizar el potencial en D

    • Comportamiento del maxD con un operador (+ ó *) :

      maxD[Φ1op Φ2]= Φ1 op maxDΦ2

      si Φ1no depende de A y Φ2sí depende de A

    • Sólo se puede aplicar recursivamente el operador maxDsi hay una sola rama dependiente de D

    • Unir todas las ramas dependientes de D en una sola, reducirla en un potencial hoja y aplicar el operador maxD


Eliminaci n de variables para di con nodos sv18

Eliminación de variables para DI con nodos SV

  • Ejemplo de eliminación de decisión (I)


Eliminaci n de variables para di con nodos sv19

Eliminación de variables para DI con nodos SV

  • Ejemplo de eliminación de decisión (II)


Eliminaci n de variables para di con nodos sv20

Eliminación de variables para DI con nodos SV

  • Ejemplo de eliminación de decisión (III)


Eliminaci n de variables para di con nodos sv21

Eliminación de variables para DI con nodos SV

  • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión


Eliminaci n de variables para di con nodos sv22

Eliminación de variables para DI con nodos SV

  • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión

    • Necesidad de reducir las ramas dependientes a una sola


Eliminaci n de variables para di con nodos sv23

Eliminación de variables para DI con nodos SV

  • Procedimiento general

    • Determinar el orden de eliminación de variables

    • Construir el árbol equivalente a la matriz y factorizarlo

    • MIENTRAS queden variables por eliminar

      • Sea X la variable a eliminar

      • SI X es variable aleatoria

        • Aplicar sucesivamente el proceso de compactar hojas y distribuir * en relación a X hasta que no queden nodos * que distribuir

        • Marginalizar en A en las hojas del árbol dependientes de A

      • Si X es decisión

        • Determinar el menor subárbol que abarque todas las ramas dependientes de D

        • Reducir a una hoja dicho subárbol

        • Maximizar en D dicho potencial hoja

  • FIN MIENTRAS

  • Corrección y terminación del algoritmo


  • Ejemplo de evaluaci n

    Ejemplo de evaluación

    • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))

    • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))


    Ejemplo de evaluaci n1

    Ejemplo de evaluación

    • Eliminar A

      • Aplicar distributiva en el nodo raíz (único a distribuir)


    Ejemplo de evaluaci n2

    Ejemplo de evaluación

    • Eliminar A

      • Compactar tras distribuir

      • Marginalizar en las hojas


    Ejemplo de evaluaci n3

    Ejemplo de evaluación

    • Eliminar D

      • Reducir subárbol con más de una rama


    Ejemplo de evaluaci n4

    Ejemplo de evaluación

    • Eliminar D

      • No ha sido necesario reducir ningún subárbol

      • La estrategia óptima para D no ha dependido de B


    Ejemplo de evaluaci n5

    Ejemplo de evaluación

    • Eliminar B

      • Aplicar distributiva en el único nodo a distribuir (raíz)


    Ejemplo de evaluaci n6

    Ejemplo de evaluación

    • Eliminar B

      • Compactar tras distribuir

      • Marginalizar en las hojas


    Conclusiones

    Conclusiones

    • Se ha evitado la carga computacional de la inversión de arcos

    • La separabilidad de la función de valor se preserva el máximo tiempo posible

      • Realiza una menor destrucción de la estructura de nodos de valor que el algoritmo de Tatman y Shachter

      • Sólo aplica la distributividad cuando es necesario y a las ramas imprescindibles

      • Potenciales de un tamaño menor durante la evaluación

    • Mejora en la determinación de las variables requeridas

      • No es necesario “eliminar redundancia” antes de comenzar la evaluación

      • Variables requeridas para cada decisión son en el peor caso las mismas que con el algoritmo de Tatman y Shachter y un subconjunto en otros casos (ver ejemplo)

      • Lo mismo le sucede respecto al algoritmo de eliminación de variables de Jensen “tradicional”


    Perspectivas futuras y elvira

    Perspectivas futuras y Elvira

    • Situación actual de la “eliminación de redundancia” en Elvira

      • Realizada antes de la evaluación a través del algoritmo de Faguiouli y Zaffalon

      • Método de eliminación de variables de Jensen “tradicional” con unión de los nodos de utilidad

    • En este momento DI con nodos SV son evaluados con algoritmos para DI sin nodos SV (ReductionAndEvalID)

    • Incorporación del algoritmo propuesto a Elvira (VariableEliminationSV)

    • Estudio de mejoras en la aplicación de la distributividad

      • Selección de las ramas a distribuir

      • Reestructuración previa de las ramas antes de distribuir para conseguir mayor factorización tras ella (agrupar ramas no dependientes de la variable a eliminar)

    • En la implementación el árbol se transforma en grafo dirigido para conseguir un ahorro en memoria tras distribuir (el ahorro en tiempo ya lo daba la compactación) al compartir subárboles


  • Login