1 / 34

Incerteza

Incerteza. Capítulo 13 IA - Mestrado FEI. Outline. incerteza Probabilidade Sintaxe e Semântica Inferência Independência e Regra de Bayes. incerteza. Seja a ação A t = sair para o aeroporto t minutos antes do vôo. A t me levará ao aeroporto a tempo? Problemas:

hewitt
Download Presentation

Incerteza

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Incerteza Capítulo 13 IA - Mestrado FEI

  2. Outline • incerteza • Probabilidade • Sintaxe e Semântica • Inferência • Independência e Regra de Bayes

  3. incerteza Seja a ação At = sair para o aeroporto t minutos antes do vôo. At me levará ao aeroporto a tempo? Problemas: • Estados parcialmente observáveis (estado das estradas, tráfego, outros planos, etc.) • Sensores ruidosos (relatórios de trafego) • incerteza quanto aos efeitos das ações (pneu furado, etc.) • Grande complexidade em modelar e prever trafego Assim, um procedimento puramente lógico • Riscaria deduzir algo potencialmente falso: “A25 me levará a tempo””, ou • Levaria a conclusões muito fracas para tomada de decisões: “A25 me levará a tempo, se nenhum acidente ocorrer na ponte, e se não chover, e se nenhum pneu furar, e ...” (A1440 poderia ser um solução lógica razoável, porém eu teria que passar a noite no aeroporto)

  4. Métodos para lidar com incerteza • Default ou lógica não monotônica: • Assuma que o carro não possua um pneu furado; • Assuma que A25 funcionaria a menos que haja evidência do contrário; • ! Quais (e quantas) hipóteses são razoáveis? Como manipular conclusões falhas? • Regras com fatores de incerteza: • A25 |-> 0.3 chegar ao aeroporto a tempo • mangueira |-> 0.99 grama molhada • Grama molhada |->0.7 chuva • ! Problemas com a combinação de regras contraditórias: A mangueira causa chuva??

  5. Métodos para lidar com incerteza • Probabilidade • Modela o grau de crença de um agente • Dado evidências disponíveis • A25 chegará ao aeroporto a tempo com probabilidade 0.04 • (Fuzzy manipula o grau de veracidade NÃO incerteza. E.g. “Grama está molhada” é verdade com um grau de 0.2)

  6. Probabilidade A probabilidade proporcionaum meio para resumir a incerteza que vem de nossa: • preguiça: falha em numerar todas as exceções, antecedentes ou consequêntes para assegurar uma regra sem exceções • ignorância: falta de conhecimento sobre fatos relevantes, condições iniciais, etc. Probabilidade subjetiva ou Bayesiana: • Probabilidade se relaciona a proposições sobre o estado de crença do agente e.g., P(A25 | no reported accidents) = 0.06

  7. Probabilidade • Proposições probabilísticas não são proposições sobre o mundo! • Portanto o compromisso ontológico da teoria da probabilidade é o mesmo da lógica clássica: • As sentenças são verdadeiras ou falsas: • Atribuir prob. 0 (1) a S significa na crença inequívoca de que S é falsa (verdadeira) • (fuzzy assume um outro compromisso...)

  8. Probabilidade • A probabilidade de uma sentença depende das percepções que o agente recebeu até o momento (evidências) • Portanto, probabilidades mudam a partir de novas evidências: • e.g., P(A25 | nenhum acidente, 5 a.m.) = 0.15 [ Isso é análogo à relação de conseqüência lógica: BC |= a ] Todas as declarações de probabilidade devem indicar a evidência de acordo com a qual a prob. está sendo avaliada.

  9. Decisões sob incertezas Suponha o seguinte conjunto de crenças: P(A25 chega a tempo | …) = 0.04 P(A90 chega a tempo| …) = 0.70 P(A120 chega a tempo| …) = 0.95 P(A1440 chega a tempo| …) = 0.9999 • Que ação tomar? Depende de minhas preferências sobre perder o vôo vs. tempo esperando, etc. • Teoria da utilidade representa preferências (todo estado tem um grau de utilidade) • Teoria da Decisão = teoria da probabilidade + teoria da utilidade

  10. Introdução à probabilidade: • Proposições: graus de crença são aplicados a proposições (afirmação sobre uma situação) • Elemento básico: variável aleatória – algo que se refere a uma parte do mundo cujo “status” é inicialmente desconhecido; • Domínio • V. aleatórias booleanas:e.g., Carie = <verdadeiro, falso> • V. aleatórias discretas:e.g., Clima possui valores em <ensolarado, chuvoso, nublado, neve> • V. aleatórias contínuas: e.g., temperatura • Valores do domínio devem ser exaustivos e mutuamente exclusivos

  11. Introdução à probabilidade: • Evento Atômico: Especificação completa do estado do mundo sobre o qual o agente está inseguro. • Uma atribuição de valores específicos a TODAS as variáveis as quais o mundo é formado • mutuamente exclusivos (no máximo um deles pode ocorrer em cada instante) • exaustivos: pelo menos um deles tem que ocorrer

  12. Evento atômico: exemplo Se o mundo consistir somente de 2 var. booleanas Carie e DordeDente, então há quatro eventos atômicos distintos: Cárie = false ∧ DordeDente = false Carie = false ∧ DordeDente = true Cárie = true ∧ DordeDente = false Cárie = true ∧ DordeDente = true

  13. Axiomas de probabilidade • Para quaisquer proposições A, B • 0 ≤ P(A) ≤ 1 • P(verdade) = 1 e P(falso) = 0 • (proposições neces. verdadeiras -- válidas -- prob=1 e proposições neces. falsas – não satisfatíveis -- prob.=0) • P(A∨B) = P(A) + P(B) - P(A∧B)

  14. probabilidade • A probabilidade de uma proposição é igual à soma das probabilidades dos eventos atômicos em que ela é válida: P(a) = Σei ∈e(a)P(ei) • Essa equação fornece um método simples de calcular a probabilidade de qqr proposição dada uma distr. conjunta total que especifique todos os eventos atômicos.

  15. Probabilidade incondicional ou a priori • É o grau de crença acordado para uma proposição na ausência de quaisquer outras informações e.g., P(Carie = verdadeiro) = 0.1 and P(Clima = ensolarado) = 0.72 • Distribuição de Probabilidades: todos os valores de uma variável aleatória: P(Clima) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma da 1) • Distribuição de probabilidade conjunta: probabilidades de todas as combinações de valores de um conjunto de variáveis aleatórias P(Clima,Carie) = tabela 4 × 2 de valores: Weather = sunny rainy cloudy snow Cavity = true 0.144 0.02 0.016 0.02 Cavity = false 0.576 0.08 0.064 0.08

  16. Probabidade incondicional ou a priori • Uma distribuição conjunta total especifica a probabilidade de todo evento atômico e é, portanto, uma especificação completa da incerteza sobre o mundo. • Qualquer questão sobre um domínio pode ser respondida a partir de sua distribuição conjunta total.

  17. Probabilidade Condicional ou posterior • Uma vez que alguma evidência relativa às variáveis aleatórias é conhecida, as prob. a priori não são mais aplicáveis. Em vez disso, devemos usar as probabilidades Condicionais ou posteriores e.g., P(carie | dordeDente) = 0.8 i.e., dado que dordeDente é tudo o que se sabe a respeito de carie • Distribuições condicionais: P(X| Y) = fornece o conjunto de valores de P(X = xi| Y = yj) para cada i, j possível • E se sabemos também que cárie é verdade: P(carie | dordeDente,cárie) = 1 • Novas evidências podem ser irrelevantes, • portanto,e.g., • P(carie|dordeDente, ensolarado) =P(carie | dordeDente) = 0.8

  18. Probabilidade Condicional • Podem ser definidas em termos de prob. a priori: P(a | b) = P(a ∧ b) / P(b) if P(b) > 0 • Regra do produto provê uma definição alternativa: P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) • Isso pode ser generalizado para distribuições totais: e.g. P(Clima,Carie) = P(Clima | Carie) P(Carie) • (que é um conjunto de 4 × 2 equações, não uma multiplicação matricial.) • Regra da cadeia é obtida a partir de aplicações sucessivas da regra do produto: P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = ∏i= 1^n P(Xi | X1, … ,Xi-1)

  19. Inferência Probabilística • Inferência probabilística: a computação da evidência observada de probabilidades posteriores para proposições de consulta; • Inferência com o uso de distribuições conjuntas totais: base de conhecimento a partir da qual são derivadas respostas para todas as perguntas.

  20. Inferência Probabilística • Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: • Para qqr proposiçãoa, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = ∑w:w|=aP(w)

  21. Inferência Probabilística • Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: • Para qqr proposiçãoa, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = ∑w:w|=aP(w) • P(toothache)= 0.108+0.012+0.016+0.064= 0.2

  22. Inferência Probabilística • Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: • Para qqr proposiçãoa, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = ∑w:w|=aP(w) • P(toothache v carie)= 0.108+0.012+0.016+0.064+0.072+0.008= 0.28

  23. Inferência Probabilística • Podemos calcular probabilidades condicionais: P(cavity|toothache) = P(cavity∧toothache) P(toothache) = 0.016+0.064 0.108+0.012+0.016+0.064 = 0.4

  24. O denominador pode ser visto como uma constante de normalização α P(Cavity | toothache) = αP(Cavity,toothache) = α [P(Cavity,toothache,catch) + P(Cavity,toothache, catch)] = α [<0.108,0.016> + <0.012,0.064>] = α <0.12,0.08> = <0.6,0.4> Idéia geral: computar a distribuição sobre a variável de consulta fixando as variáveis de evidências e somando sobre as variáveis ocultas.

  25. Inferência probabilísticainferência por enumeração Objetivo: calcular a distribuição de probabilidades das variáveis de consultaX (ex. Cavity), dados valores específicos e (ex. Toothache) para as variáveis de evidênciaE. Seja Y asvariáveis restantesnão observadas (ex. Catch). A consulta P(X|e) pode ser avaliada como: P(X|e) = α Σy P(X, e, y) • Note que, juntas, as var. X, E e Y constituem o conjunto completo de var. para o domínio; • assim, P(X, e, y) é simplesmente um subconjunto de probabilidades a partir da distribuição conjunta total.

  26. Problemas com inf. por enumeração • Complexidade de tempo (pior caso): O(dn) • Onde d é a cardinalidade do maior domínio e n é o número de variáveis. • Complexidade de espaço O(dn) para armazenar a distribuição conjunta • Como encontrar as probabilidades para O(dn) elementos??

  27. Independência • A e B são independentes sse P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(Toothache, Catch, Cavity, Weather) = P(Toothache, Catch, Cavity) P(Weather) • 32 entradas reduzidas a 12; • n lançamentos independentes de moedas O(2n) →O(n) • Independência absoluta é rara. • Odontologia é uma área com centenas de variáveis, nenhuma das quais absolutamente independente. O que fazer?

  28. Independência Condicional • Se eu tenho cárie, a probabilidade do boticão acertar esse dente não depende de minha dor de dente: (1) P(catch | toothache, cavity) = P(catch | cavity) • A mesma independência ocorre se eu não tiver uma cárie: (2) P(catch | toothache, cavity) = P(catch | cavity) • I.e. Catch (Boticão) écondicionalmente independente da dordeDente dado Cárie: P(Catch | Toothache,Cavity) = P(Catch | Cavity) • Sentenças Equivalentes : P(Toothache | Catch, Cavity) = P(Toothache | Cavity) P(Toothache, Catch | Cavity) = P(Toothache | Cavity) P(Catch | Cavity)

  29. Independência Condicional • Escrevendo toda a distribuição total utilizando a regra da cadeia: P(Toothache, Catch, Cavity) = P(Toothache | Catch, Cavity) P(Catch, Cavity) = P(Toothache | Catch, Cavity) P(Catch | Cavity) P(Cavity) = P(Toothache | Cavity) P(Catch | Cavity) P(Cavity) • Na maioria dos caso, o uso da independência condicional reduz o tamanho da representação em distribuição conjunta de exponencial em n para linear em n.

  30. Bayes' Rule • Da regra do produto P(a∧b) = P(a | b) P(b) = P(b | a) P(a) ⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) • Ou na forma da distribuição conjunta: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) • Útil para acessar regras probabilísticas de diagnóstico através de probabilidades causais: • P(Cause|Effect) = P(Effect|Cause) P(Cause) / P(Effect) • E.g., let M be meningitis, S be stiff neck: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008 • Note: posterior probability of meningitis still very small

  31. Regra de Bayes e Independência Condicional P(Cavity | toothache ∧ catch) = αP(toothache ∧ catch | Cavity) P(Cavity) = αP(toothache | Cavity) P(catch | Cavity) P(Cavity) • Este é um exemplo de um modelo de Bayes Ingênuo: P(Cause,Effect1, … ,Effectn) = αP(Cause)x∏iP(Effecti|Cause) • O número total de parâmetros é linearn

  32. Ex1 - Assuma varias bolas coloridas contidas em três caixas B1, B2 e B3 distintas e indistinguíveis. As bolas estão distribuídas da seguinte forma dentro das caixas: • Uma caixa é selecionada aleatoriamente, dentro da qual uma bola é selecionada aleatoriamente. A bola retirada é vermelha. Qual é a probabilidade posterior da caixa selecionada ser B1? Explique.

  33. 4) [Uncertainty] (2.0) Sejam as seguintes variáveis: • F = teve gripe • S = tomou a vacina contra gripe • Assuma os seguintes resultados médicos: • P(F) = 0.75 • P(S) = 0.5 • P(F|S) = 0.1 • Dado que você sabe que alguem está com gripe, qual é a probabilidade desta pessoa ter tomado a vacina contra gripe? Explique os seus cálculos.

  34. (13.11) Suponha que você receba uma bolsa com n moedas imparciais. Você é informado de que n-1 dessas moedas são normais, com cara de um lado e coroa no outro, enquanto uma moeda é falsa, com cara em ambos os lados. • a)Suponha que você enfie a mão na bolsa, escolha uma moeda uniformemente ao acaso, lance a moeda e obtenha como resultado cara. Qual é a probabilidade (condicional) de que a moeda escolhida seja a moeda falsa? • b) Suponha que você continue lançando a moeda até um total de k vezes depois de escolhe-la e veja k caras. Qual é a probabilidade condicional desta ser a moeda falsa?

More Related