1 / 47

Eliminación de variables para diagramas de influencia con nodos super valor

Eliminación de variables para diagramas de influencia con nodos super valor. Manuel Luque Gallego Proyecto Elvira II San Sebastián 19-21 de Mayo de 2004. Índice. Introducción Problema Eliminación de variables para DI con nodos SV Ejemplo de evaluación Conclusiones

janine
Download Presentation

Eliminación de variables para diagramas de influencia con nodos super valor

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Eliminación de variables para diagramas de influencia con nodos super valor Manuel Luque Gallego Proyecto Elvira II San Sebastián 19-21 de Mayo de 2004

  2. Índice • Introducción • Problema • Eliminación de variables para DI con nodos SV • Ejemplo de evaluación • Conclusiones • Perspectivas futuras y Elvira

  3. Introducción • Diagramas de influencia • Comunicación entre analistas de decisiones y expertos • Evaluación directa • Representación compacta de la estructura probabilista • Éxito en ámbitos médicos

  4. Introducción • Problema médico: Carcinoma pulmonar no microcítico

  5. Introducción • Evaluación de DI: MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V • Eliminación Ci:  • Eliminación Di: max • Secuencia de eliminación legal según <. • Separabilidad • Aplicar operadores a parte de nuestra función de valor • Reducción de la dimensionalidad de las operaciones • Aparición en los DI de los nodos super-valor

  6. Introducción • Explotación de la separabilidad de la función de utilidad en el problema del carcinoma pulmonar no microcítico

  7. Problema planteado • Posibilidades de evaluación • Opción A: Algoritmos para DI sin nodos SV • Opción B: Algoritmo de Tatman y Shachter para DI con nodos SV • Opción A: (Eliminación de variables para DI) • Ventaja: Eficiencia del algoritmo para DI • Inconvenientes: • Pérdida de la separabilidad de la función de valor • Determinación de las variables requeridas

  8. Problema planteado • Inconvenientes de la opción A • Pérdida de la separabilidad de la función de valor • Suma (o producto) implícita de los nodos de valor • Potenciales de utilidad de mayor tamaño

  9. Problema planteado • Inconvenientes de la opción A • Determinación de las variables requeridas • Eliminación según orden total  Eliminar A • Eliminación de A une V1 y V2

  10. Problema planteado • Inconvenientes de la opción A • DI tras la eliminación de A  Aparecen como requeridas variables que no lo eran (en este caso B)

  11. Problema planteado • Opción B: (Algoritmo de Tatman y Shachter) • Ventaja: Conservación de la separabilidad de la función de valor • Inconvenientes: • Ineficiencia de la inversión de arcos • Pronta destrucción de la estructura de nodos super-valor en algunos casos • Determinación de las variables requeridas

  12. Problema planteado • Inconvenientes de la opción B • Ineficiencia de la inversión de arcos

  13. Problema planteado • Inconvenientes de la opción B • Pronta destrucción de la estructura de nodos super-valor

  14. Problema planteado • Inconvenientes de la opción B • Tras eliminar A y proceder a eliminar D ésta requerirá B, cuando no debería

  15. Eliminación de variables para DI con nodos SV • Objetivos • Eliminar la necesidad de invertir arcos • Mantener el máximo tiempo posible la separabilidad de la función de valor • Mejora en la determinación de las variables requeridas • Potenciales de utilidad de menor tamaño • Mejora en la explicación del razonamiento

  16. Eliminación de variables para DI con nodos SV • Planteamiento del problema: Evaluación MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V • Eliminación Ci:  • Eliminación Di: max • Secuencia de eliminación legal según <. • Matriz: p(C|D)V • V puede presentar + y * anidados

  17. Eliminación de variables para DI con nodos SV • Ejemplo • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Eliminar A • Sacar factor común Φ2(B) • Dificultad de análisis con esta representación • Representación unívoca de la matriz a través de un árbol

  18. Eliminación de variables para DI con nodos SV • Representación en árbol • Dos tipos de nodos en el árbol • Operandos: Potenciales de probabilidad y de utilidad • Operadores: + y * • La raíz del árbol inicial siempre es un * • Hijos de la raíz son los potenciales de probabilidad y la estructura de nodos de valor

  19. Eliminación de variables para DI con nodos SV • Evaluación • Eliminación de variables se traduce en transformaciones sobre el árbol • Dificultad: • Estudio de las transformaciones lícitas a realizar sobre el árbol • Estudio de la aplicación de los operadores A y maxD al árbol

  20. Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Operaciones de compactación • Secuencia de operadores del mismo tipo

  21. Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Operaciones de compactación • Reducción de nodos operadores con hijos operandos hoja

  22. Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Aplicación de la propiedad distributiva • Son transformaciones de equivalencia aplicables en cualquier subárbol

  23. Eliminación de variables para DI con nodos SV • Eliminación de A aleatoria • Comportamiento de Acon el + A [Φ1 + Φ2]= AΦ1 + AΦ2 • La aplicación del operador A a un árbol + supone aplicarlo a cada uno de sus hijos

  24. Eliminación de variables para DI con nodos SV • Eliminación de A aleatoria • Aplicación del operador A a los potenciales hoja  Marginalizar el potencial en A • Comportamiento de Acon el *, si Φ1no depende de A y Φ2sí depende de A A [Φ1 * Φ2] = Φ1 AΦ2

  25. Eliminación de variables para DI con nodos SV • Problema de la eliminación de A aleatoria con el * • Necesidad de que sólo una rama del * dependa de A para poder aplicar recursivamente el operador A

  26. Eliminación de variables para DI con nodos SV • Resolución del problema de la eliminación de A aleatoria con el * • Suposición de árbol factorizado  Hijos de * son + o bien potenciales hoja gracias a la aplicacación de las propiedades de compactación • Objetivo: Reducción del número de ramas dependientes de A en los * • Reducción del número de ramas dependientes de A a través de la compactación de potenciales hoja hijos de * dependientes de A

  27. Eliminación de variables para DI con nodos SV • Resolución del problema de la eliminación de A aleatoria con el * • Reducción del número de ramas dependientes de A a través de la aplicación de la propiedad distributiva entre ellas

  28. Eliminación de variables para DI con nodos SV • Árbol obtenido tras aplicar la propiedad distributiva

  29. Eliminación de variables para DI con nodos SV • Propiedad distributiva en la resolución del problema de la eliminación de A aleatoria con el * • Decidir qué * distribuir y respecto a qué dos ramas • Optimizaciones: • Distribuir siempre los * de mayor profundidad en el árbol • Realizar todas las compactaciones posibles antes de distribuir y tras distribuir • Justificación de las optimizaciones: • Son cálculos que aunque se pospongan siempre habrá que realizarlos • Posponerlos puede llevar a tener que repetirlos en varias partes del árbol

  30. Eliminación de variables para DI con nodos SV • Ejemplo de por qué no se ha de posponer la compactación • Desarrollamos sólo un sumando en producto de sumas para preservar al máximo la estructura

  31. Eliminación de variables para DI con nodos SV • Ejemplo tras aplicar distributiva

  32. Eliminación de variables para DI con nodos SV • Eliminación de D decisión • Aplicación del operador maxD a los potenciales hoja  Marginalizar el potencial en D • Comportamiento del maxD con un operador (+ ó *) : maxD[Φ1op Φ2]= Φ1 op maxDΦ2 si Φ1no depende de A y Φ2sí depende de A • Sólo se puede aplicar recursivamente el operador maxDsi hay una sola rama dependiente de D • Unir todas las ramas dependientes de D en una sola, reducirla en un potencial hoja y aplicar el operador maxD

  33. Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (I)

  34. Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (II)

  35. Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (III)

  36. Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión

  37. Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión • Necesidad de reducir las ramas dependientes a una sola

  38. Eliminación de variables para DI con nodos SV • Procedimiento general • Determinar el orden de eliminación de variables • Construir el árbol equivalente a la matriz y factorizarlo • MIENTRAS queden variables por eliminar • Sea X la variable a eliminar • SI X es variable aleatoria • Aplicar sucesivamente el proceso de compactar hojas y distribuir * en relación a X hasta que no queden nodos * que distribuir • Marginalizar en A en las hojas del árbol dependientes de A • Si X es decisión • Determinar el menor subárbol que abarque todas las ramas dependientes de D • Reducir a una hoja dicho subárbol • Maximizar en D dicho potencial hoja • FIN MIENTRAS • Corrección y terminación del algoritmo

  39. Ejemplo de evaluación • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))

  40. Ejemplo de evaluación • Eliminar A • Aplicar distributiva en el nodo raíz (único a distribuir)

  41. Ejemplo de evaluación • Eliminar A • Compactar tras distribuir • Marginalizar en las hojas

  42. Ejemplo de evaluación • Eliminar D • Reducir subárbol con más de una rama

  43. Ejemplo de evaluación • Eliminar D • No ha sido necesario reducir ningún subárbol • La estrategia óptima para D no ha dependido de B

  44. Ejemplo de evaluación • Eliminar B • Aplicar distributiva en el único nodo a distribuir (raíz)

  45. Ejemplo de evaluación • Eliminar B • Compactar tras distribuir • Marginalizar en las hojas

  46. Conclusiones • Se ha evitado la carga computacional de la inversión de arcos • La separabilidad de la función de valor se preserva el máximo tiempo posible • Realiza una menor destrucción de la estructura de nodos de valor que el algoritmo de Tatman y Shachter • Sólo aplica la distributividad cuando es necesario y a las ramas imprescindibles • Potenciales de un tamaño menor durante la evaluación • Mejora en la determinación de las variables requeridas • No es necesario “eliminar redundancia” antes de comenzar la evaluación • Variables requeridas para cada decisión son en el peor caso las mismas que con el algoritmo de Tatman y Shachter y un subconjunto en otros casos (ver ejemplo) • Lo mismo le sucede respecto al algoritmo de eliminación de variables de Jensen “tradicional”

  47. Perspectivas futuras y Elvira • Situación actual de la “eliminación de redundancia” en Elvira • Realizada antes de la evaluación a través del algoritmo de Faguiouli y Zaffalon • Método de eliminación de variables de Jensen “tradicional” con unión de los nodos de utilidad • En este momento DI con nodos SV son evaluados con algoritmos para DI sin nodos SV (ReductionAndEvalID) • Incorporación del algoritmo propuesto a Elvira (VariableEliminationSV) • Estudio de mejoras en la aplicación de la distributividad • Selección de las ramas a distribuir • Reestructuración previa de las ramas antes de distribuir para conseguir mayor factorización tras ella (agrupar ramas no dependientes de la variable a eliminar) • En la implementación el árbol se transforma en grafo dirigido para conseguir un ahorro en memoria tras distribuir (el ahorro en tiempo ya lo daba la compactación) al compartir subárboles

More Related