SlideShare uma empresa Scribd logo
1 de 42
Baixar para ler offline
Incerteza, Cap 13 
Ronaldo F. Ramos, Dr. 
ronaldo@cefet-ce.br 
Adaptado de : aima.cs.berkeley.edu
Roteiro 
! Incerteza 
! Probabilidade 
! Sintaxe e Semântica 
! Inferência 
! Independência e regra de Bayes
Incerteza 
Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo 
Esta ação At nos deixará pontualmente? 
Problemas: 
1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 
2. sensores de ruído (relatórios com situação do tráfego) 
3. incerteza nos resultados das ações (pneu furado, etc.) 
4. complexidade excessiva da modelagem e previsão do tráfego. 
Consequentemente uma abordagem puramente lógica poderia: 
1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 
2. levará a conclusões muitos fracas para tomada de decisões: 
“A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e 
meus pneus permanecerem intactos etc etc.” 
(A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que 
permanecer a noite toda no aeroporto …)
Métodos para tratamento da Incerteza 
! Logica Default ou não monotônica: 
! Assumir que meu carro não terá um pneu furado 
! Assumir que A25 funcionará a não ser que seja contradita pela 
evidência 
! Questões: Que suposições são razoáveis? Como tratar 
contradições? 
! Regras com graus fictícios: 
! A25 |→0.3 chegar a tempo 
! Irrigador |→ 0.99 GramaMolhada 
! GramaMolhada |→ 0.7 Chuva 
! Questões: Problemas com combinações, ex., Irrigador causa 
chuva?? 
! Probabilidade 
! Modela o grau de crença do agente 
! Dada uma evidência disponível, 
! A25 me deixará a tempo com probabilidade 0.04
Probabilidade 
Assertivas probabilisticas sumarizam os efeitos de : 
! Preguiça: falha em enumerar exceções, qualificações, etc. 
! Ignorância: falta de fatos relevantes, condições iniciais, etc. 
Probabilidade Subjetiva: 
! Probabilidades relatam proposições sobre o estado 
de conhecimento do agente 
! ex. P(A25 | não houve acidentes) = 0.06 
Isto não são afirmações sobre o mundo. 
Probabilidades de proposições podem mudar de acordo 
com novas evidências: 
ex., P(A25 | não houve acidentes as 5h)= 0.15
Tomando decisões em face da incerteza 
Suponha que acreditemos que: 
P(A25 me deixará a tempo| …) = 0.04 
P(A90 me deixará a tempo|…) = 0.70 
P(A120 me deixará a tempo| …) = 0.95 
P(A1440 me deixará a tempo| …) = 0.9999 
! Que ação devo escolher? 
Dependerá de minhas preferências por vôos não 
disponíveis vc tempo gasto esperando, etc. 
! Teoria da Utilidade é usada para representar e inferir 
preferências 
! Teoria da Decisão = Teoria da Probabilidade + Teoria da 
Utilidade
Sintaxe 
! Elemento Básico: variável aleatória 
! Semelhante a logica proposicional: mundos possíveis definidos pela 
atribuição de valores a variáveis aleatórias. 
! Variables aleatórias booleanas 
ex., Cárie (tenho cárie?) 
! Variáveis aleatórias discretas 
ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> 
! Valores de domínios devem ser exautivos e mutuamente exclusivos 
! Proposição elementar construída pela atribuição de um valor a A 
! Proposições complexas formadas a partir de proposições elementares 
e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso 
variável aleatória: ex., Tempo = ensolarado, Cárie = falso 
(abreviado como cárie)
Sintaxe 
! Evento Atômico: Uma especificação completa 
do estado do mundo sobre o qual o agente é 
incerto 
! Ex. Se o mundo consiste de apenas duas variáveis 
aleatórias booleanas Cárie e DorDeDente, então 
existem 4 possíveis eventos atômicos: 
Cárie = falso ∧ DorDeDente = falso 
Cárie = falso ∧ DorDeDente = verdade 
Cárie = verdade ∧ DorDeDente = falso 
Cárie = verdade ∧ DorDeDente = verdade 
! Eventos atômicos são mutualmente 
exclusivos e exaustivos
Axiomas da Probabilidade 
! Para quaisquer proposições A, B 
! 0 ≤ P(A) ≤ 1 
! P(verdade) = 1 e P(falso) = 0 
! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
Probabilidade a Priori 
! Probabilidade a priori ou probabilidade incondicional de proposições 
ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a 
uma crença inicial antes da chegada de qualquer evidência nova. 
! Distribuição de Probabilidade dá valores para todas possíveis 
atribuições: 
P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) 
! Distribuição de probabilidade conjunta para um conjunto de variáveis 
aleatórias dá a probabilidade de todos os eventos sobre estas variáveis 
! Ex. 
P(Tempo,Cárie) = uma matriz 4 × 2 de valores: 
Tempo = sol chuva nuvens neve 
Cárie = verdade 0.144 0.02 0.016 0.02 
Cárie = falso 0.576 0.08 0.064 0.08 
! Toda questão a cerca do domínio pode ser respondida pela 
distribuição de probabilidade conjunta
Probabilidade Condicional 
! Probabilidade Condicional ou posterior 
! ex.P(cárie | dordedente) = 0.8 
i.e., dado que dordedente é tudo o que sei. 
! Se sabemos mais, ex. que cárie é dada. Então temos: 
P(cárie | dordedente,cárie) = 1 
! Novas evidências podem ser irrelevantes, permitindo a 
simplificação, ex., 
P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 
! Este tipo de inferência, sancionada pelo conhecimento do 
domínio é crucial
Probabilidade Condicional 
! Definição. 
P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 
! A regra do produto dá uma formulação alternativa: 
P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) 
! Uma versão geral serve para distribuições inteiras. Ex., 
P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) 
! (Visto como um conjunto de 4 × 2 equações, não é 
multiplicação de matrizes) 
! Regra da Cadeia é derivada por sucessivas aplicações da regra 
do produto: 
P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) 
= P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) 
= … 
= πi=n 1 
P(Xi | X1, … ,Xi-1)
Inferência por enumeração 
! Começa com a distribuição de probabilidade 
conjunta: 
DordeDente ~DordeDente 
Boticão ~Boticão Boticão ~Boticão 
0,108 0,012 0,072 0,008 
0,016 0,064 0,144 0,576 
Cárie 
~Cárie 
! Para qualquer proposição soma-se o eventos 
atômicos onde a mesma é verdade. 
P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 
(Chamada de probabilidade marginal) 
Podemos também calcular 
P(carie v dordedente) = 
0,108+0,012+0,072+0,008+0,016+0,064=0,28. 
etc.
Inferência por enumeração 
! Iniciar com a distribuição conjunta: 
! Pode calcular também as probabilidades 
condicionais: 
P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) 
P(dordedente) 
= 0.016+0.064 
0.108 + 0.012 + 0.016 + 0.064 
= 0.4
Normalização 
! Denominador pode ser visto como uma constante de 
normalização 
P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) 
= α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ 
Boticao)] 
= α [<0.108,0.016> + <0.012,0.064>] 
= α <0.12,0.08> = <0.6,0.4> 
Idéia geral: Calcular a distribuição sobre a variável de consulta 
fixando as variáveis de evidência e somando as variáveis 
ocultas.
Inferência por enumeração 
Normalmente estamos interessandos: 
Na distribuição conjunta posterior das variáveis de consulta Y 
sendo dados valores específicos (e) para as variáveis de evidência E 
Sejam as variáveis ocultas H = X - Y - E 
Então a totalização esperada dos valores da distribuição conjunta é 
realizada pela soma das variáveis ocultas: 
P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) 
! Os termos são partes da distribuição conjunta pelo fato de que Y, E e 
H juntos são exaustivos dentro do conjunto de variáveis aleatórias. 
Problemas óbvios: 
1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da 
variável aleatória) 
2. Complexidade de espaço é O(dn) para armazenamento da distribuição 
conjunta 
3. Como encontrar valores para elementos de entrada em ordem O(dn)?
Independência 
! A e B são independentes sse: 
P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) 
P(DorDeDente, Boticão, Cárie, Tempo) 
= P(DorDeDente, Boticão, Cárie) P(Tempo) 
! 32 entradas foram reduzidas a 12; 
! Para n moedas independentes (não “viciadas “) teríamos O(2n) 
→O(n) (! reduzida) 
! Independência Absoluta é poderosa, mas rara. 
! Odontologia é um campo amplo com centenas de variáveis , 
nenhuma das quais é independente. O que fazer?
Independência Condicional 
! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas 
independentes 
! Se temos cárie, a probabilidade de ter que usar o 
boticão não depende do fato de termos dor de dente. 
(1) P(boticão | dordedente, cárie) = P(boticão | cárie) 
! O memos ocorre se não temos cárie: 
(2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) 
! Boticao é condicionalmente independente de 
DorDeDente dado Cárie 
! Declarações equivalentes: 
P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) 
P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
Independência condicional-cont 
! Escreve-se uma Distribuição conjunta completa 
usando a regra da cadeia. 
P(DorDeDente, Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) 
= P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
I.e., 2 + 2 + 1 = 5 números independentes 
! Na maioria dos casos a independência reduz o 
tamanho da representação da distribuição conjunta 
de exponencial para linear em n .
Regra de Bayes 
! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) 
⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) 
! Na forma de distribuição: 
P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) 
! Útil para determinação de uma probabilidade de 
diagnóstico a partir da probabilidade causal: 
! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) 
! E.g., seja M para o fator de alguém estar com meningite, S 
para ter o percoço rígido: 
P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
Regra de Bayes e Independência Condicional 
P(Cárie | DorDeDente ∧ Boticão) 
= αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) 
= αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) 
P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) 
Número total de Parâmetros é linear em n
Redes Bayesianas 
! Def: Notação gráfica para declarações de independência 
condicional e consequentemente para uma especificação 
compacta de distribuições conjuntas complexas 
! Sintaxe: 
! Um conjunto de “nós”, um por variável 
! Um grafo direcional acíclico mostrando influencias diretas 
! Uma distribuição condicional para cada nó dado seu pais 
P (Xi | Pais (Xi)) 
! No caso mais simples, a distribuição condicional é representada como uma tabela de 
prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos 
pais
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo do Alarme 
Alguém estando no trabalho recebe o telefone do vizinho 
João Rapadura dizendo que o alarme da casa está tocando, 
mas a vizinha do outro lado Maria Amargura não 
ligou.Algumas vezes o alarme é disparado por pequenos 
tremores de terra. Será que tem um ladrão na casa? 
Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga 
A rede reflete o conhecimento "causal": 
Um ladrão(burglar) pode disparar o alarme 
Um terremoto (earthquake) pode disparar o alarme 
O Alarme pode fazer Maria(Mary) telefonar 
O Alarme pode fazer Joao(John) telefonar
A rede!
Compactação da Rede 
! Uma tabela com variáveis aleatórias booleanas Xi com k 
parentes booleanos terá 2k linhas para a combinação de valores 
dos pais 
! Cada linha requererá um valor p para Xi = Verdade 
(o valor para Xi = false é 1-p) 
! Se cada variável não tem mais que k pais, a rede completa fará 
O(n · 2k) valores 
! I.e., cresce linearmente com n, vs. O(2n) para a distribuição 
conjunta total 
! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores 
(vs. 25-1 = 31)
Semântica da Rede 
A distribuição conjunta total é definida como o produto 
das distribuições condicionais locais 
P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) 
e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) 
= P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
Rede não puramente causal 
! Vamos usar o exemplo do alarme com a seguinte ordem de 
inserção dos nós: 
! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. 
Roubo 
Terremoto 
Alarme 
JohnCalls 
MaryCalls
Redes não puramente causais 
" Problemas: 
" A figura possui duas conexões a mais 
" julgamento não natural e difícil das probabilidades 
" Tendo uma rede puramente causal, teríamos um 
número menor de conexões
Tipos de Inferência em Redes Bayesianas 
Causal – Causa para efeito 
" P(JohnCalls/Roubo) = 0,86 
Roubo Alarme JohnCalls 
Evidência Query 
Diagnóstico – Efeito para Causa 
" P(Roubo/JohnCalls) = 0,016 
JohnCalls Alarme Roubo 
Evidência Query 
! Intercausal (entre causas com um efeito comum) 
! P(Roubo/Alarme) = 0,376 
! P(Roubo/Alarme ∧Terremoto) = 0,373 
Roubo Alarme Terremoto 
Query Evidência
Tipos de Inferências 
" Mista (combinando duas ou mais das de cima) 
" P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 
" Este é um uso simultâneo de inferência causal e diagnóstico. 
JohnCalls Alarme Terremoto 
Evidência Query Evidência
Independência de Novo 
• Dependências 
• Intuitiva. 
• Dois nós conectados 
influenciam um ao outro 
simetricamente. 
• Independências 
• Exemplo: I (J;M|A), 
I(B;E) 
• Outros I(B;E|A)? 
• -- d-seperation. 
• (Separação Direcional)
Separação -d 
M e B são separados-d Dado A 
(Independentes) 
B A M
Separação –d - Divergente 
M e J são separados-d Dado A 
(Independentes) 
A 
J M 
Influencia pode 
ocorrer de J em M se 
não conhecemos A 
mas I(J;M|A)
Separação –d – convergente 
E e B são separados-d NÃO Dado A 
(Independentes) 
E B 
A 
E não pode influenciar 
B dado que A não é 
conhecido. 
I(E;B)
Consultas (Query) 
Informações interessantes das probabilidades conjuntas: 
Qual a probabilidade de ambos Maria e John ligarem se 
acontecer um roubo? P(M, J|B) 
Qual a mais provável explicação para o fato que Maria 
Ligou? 
Pode ser Respondido por Inferência na RB 
P(M,J|B)=P(B, M, J)/P(B) = 
ΣA 
E 
P E B A M J P B 
, 
( ( , , , , )) / ( )
Algoritmo de Eliminação de Variáveis – Inferência 
Exata 
• Idéia: Somar uma variável por vez, gerando uma nova 
distribuição em relação as outras variáveis conectando com a 
variável eliminada. 
• Quando Elimina-se E gera-se uma distribuição de A e B 
• Alta Complexidade (NP-HARD) usar Algoritmos de Formação 
de Agrupamentos /Árvores de Junção
Inferência Aproximada 
! Amostagem direta 
! Amostragem de rejeição 
! Ponderação de probabilidade 
! Simulação de Cadeias de Markov- 
Algoritmo CMMC (Cadeia de Markov 
Monte Carlo)
Modelos Temporais 
R t-1 P(Rt) 
V 0,7 
F 0,3 
R t-1 
U t-1 
R t 
U t 
R t+1 
U t +1 
R t P(Ut) 
V 0,9 
F 0,2
Modelos Temporais 
Hipótese de Markov: Estado atual depende apenas 
de um histórico finito de estados anteriores. 
Processos de Markov ou Cadeias de Markov 
Processo de Markov de Primeira Ordem: 
P(Xt|X0:t-1) = P(Xt|Xt-1) 
Usos: Filtragem, monitoramento e suavização
Modelos Temporais 
! Redes bayesianas dinâmicas 
! Casos especiais: 
! MOM – Modelos Ocultos de Markov 
! Filtros de Kalman 
! Etc. 
! Aplicações em PDS/Voz, Imagem, etc 
! Fica para a próxima .........................

Mais conteúdo relacionado

Mais procurados

Exercicio - Introdução a Hardware Revisão
Exercicio - Introdução a Hardware RevisãoExercicio - Introdução a Hardware Revisão
Exercicio - Introdução a Hardware RevisãoSuzana Viana Mota
 
Histórico e-evolução-dos-computadores-mbr1
Histórico e-evolução-dos-computadores-mbr1Histórico e-evolução-dos-computadores-mbr1
Histórico e-evolução-dos-computadores-mbr1Fernanda Firmino
 
Apostila de-estatistica-experimental-20141234567
Apostila de-estatistica-experimental-20141234567Apostila de-estatistica-experimental-20141234567
Apostila de-estatistica-experimental-20141234567Erick Amâncio
 
Teste de hipóteses - paramétricos
Teste de hipóteses - paramétricosTeste de hipóteses - paramétricos
Teste de hipóteses - paramétricosRodrigo Rodrigues
 
Aula 10 maquinade turing
Aula 10   maquinade turingAula 10   maquinade turing
Aula 10 maquinade turingwab030
 
Tomografia Computadorizada - Introdução
Tomografia Computadorizada - IntroduçãoTomografia Computadorizada - Introdução
Tomografia Computadorizada - Introduçãocelais0814
 
Etograma do estudo do comportamento de vespas Polistes Canadensis
Etograma do estudo do comportamento de vespas Polistes Canadensis Etograma do estudo do comportamento de vespas Polistes Canadensis
Etograma do estudo do comportamento de vespas Polistes Canadensis Priscila Oliveira Boralho
 
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptx
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptxARTIFICIAL INTELLIGENCE SLIDESHARE.pptx
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptxmatsiemokgalabong
 
Trabalho robótica industrial
Trabalho robótica industrialTrabalho robótica industrial
Trabalho robótica industrialJordy Oliveira
 
artificial intelligence
artificial  intelligence artificial  intelligence
artificial intelligence Aamir Kiyani
 
The State of Artificial Intelligence in 2018: A Good Old Fashioned Report
The State of Artificial Intelligence in 2018: A Good Old Fashioned ReportThe State of Artificial Intelligence in 2018: A Good Old Fashioned Report
The State of Artificial Intelligence in 2018: A Good Old Fashioned ReportNathan Benaich
 
Deciphering voice of customer through speech analytics
Deciphering voice of customer through speech analyticsDeciphering voice of customer through speech analytics
Deciphering voice of customer through speech analyticsR Systems International
 
Prática Somador (lÓGICA dIGITAL)
Prática Somador (lÓGICA dIGITAL)Prática Somador (lÓGICA dIGITAL)
Prática Somador (lÓGICA dIGITAL)Jose Adriano
 
Semiologia de animais selvagens
Semiologia de animais selvagensSemiologia de animais selvagens
Semiologia de animais selvagensMarília Gomes
 
Introdução ao comportamento animal - etologia e bem-estar animal
Introdução ao comportamento animal - etologia e bem-estar animalIntrodução ao comportamento animal - etologia e bem-estar animal
Introdução ao comportamento animal - etologia e bem-estar animalMarília Gomes
 

Mais procurados (20)

Exercicio - Introdução a Hardware Revisão
Exercicio - Introdução a Hardware RevisãoExercicio - Introdução a Hardware Revisão
Exercicio - Introdução a Hardware Revisão
 
Medicina veterinária
Medicina veterináriaMedicina veterinária
Medicina veterinária
 
Histórico e-evolução-dos-computadores-mbr1
Histórico e-evolução-dos-computadores-mbr1Histórico e-evolução-dos-computadores-mbr1
Histórico e-evolução-dos-computadores-mbr1
 
Aula de coluna cervical
Aula de coluna cervicalAula de coluna cervical
Aula de coluna cervical
 
Apostila de-estatistica-experimental-20141234567
Apostila de-estatistica-experimental-20141234567Apostila de-estatistica-experimental-20141234567
Apostila de-estatistica-experimental-20141234567
 
John mcCarthy
John mcCarthyJohn mcCarthy
John mcCarthy
 
Teste de hipóteses - paramétricos
Teste de hipóteses - paramétricosTeste de hipóteses - paramétricos
Teste de hipóteses - paramétricos
 
Prova técnico radiologia
Prova técnico radiologiaProva técnico radiologia
Prova técnico radiologia
 
Aula 10 maquinade turing
Aula 10   maquinade turingAula 10   maquinade turing
Aula 10 maquinade turing
 
Tomografia Computadorizada - Introdução
Tomografia Computadorizada - IntroduçãoTomografia Computadorizada - Introdução
Tomografia Computadorizada - Introdução
 
Etograma do estudo do comportamento de vespas Polistes Canadensis
Etograma do estudo do comportamento de vespas Polistes Canadensis Etograma do estudo do comportamento de vespas Polistes Canadensis
Etograma do estudo do comportamento de vespas Polistes Canadensis
 
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptx
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptxARTIFICIAL INTELLIGENCE SLIDESHARE.pptx
ARTIFICIAL INTELLIGENCE SLIDESHARE.pptx
 
Trabalho robótica industrial
Trabalho robótica industrialTrabalho robótica industrial
Trabalho robótica industrial
 
Aula01 - Logica de Programação
Aula01 - Logica de ProgramaçãoAula01 - Logica de Programação
Aula01 - Logica de Programação
 
artificial intelligence
artificial  intelligence artificial  intelligence
artificial intelligence
 
The State of Artificial Intelligence in 2018: A Good Old Fashioned Report
The State of Artificial Intelligence in 2018: A Good Old Fashioned ReportThe State of Artificial Intelligence in 2018: A Good Old Fashioned Report
The State of Artificial Intelligence in 2018: A Good Old Fashioned Report
 
Deciphering voice of customer through speech analytics
Deciphering voice of customer through speech analyticsDeciphering voice of customer through speech analytics
Deciphering voice of customer through speech analytics
 
Prática Somador (lÓGICA dIGITAL)
Prática Somador (lÓGICA dIGITAL)Prática Somador (lÓGICA dIGITAL)
Prática Somador (lÓGICA dIGITAL)
 
Semiologia de animais selvagens
Semiologia de animais selvagensSemiologia de animais selvagens
Semiologia de animais selvagens
 
Introdução ao comportamento animal - etologia e bem-estar animal
Introdução ao comportamento animal - etologia e bem-estar animalIntrodução ao comportamento animal - etologia e bem-estar animal
Introdução ao comportamento animal - etologia e bem-estar animal
 

Destaque

Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - ronaldo ramos
 
Curso de IA - Parte 4 -
Curso de IA - Parte 4 -Curso de IA - Parte 4 -
Curso de IA - Parte 4 -ronaldo ramos
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]ronaldo ramos
 
Apresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma AracatiApresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma Aracatironaldo ramos
 
Inteligência Artificial - Data Mining
Inteligência Artificial - Data MiningInteligência Artificial - Data Mining
Inteligência Artificial - Data Miningronaldo ramos
 
Logica programacao python-slides
Logica programacao python-slidesLogica programacao python-slides
Logica programacao python-slidesronaldo ramos
 
Creando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyCreando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyNahuel Defossé
 
Gerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresGerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresAnderson Favaro
 
Desarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyDesarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyErnesto Crespo
 
Árvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoÁrvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoGustavo Chaves
 
Inteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em GrafosInteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em GrafosRafael Pinto
 

Destaque (20)

Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 -
 
Curso de IA - Parte 4 -
Curso de IA - Parte 4 -Curso de IA - Parte 4 -
Curso de IA - Parte 4 -
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]
 
Apresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma AracatiApresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma Aracati
 
Inteligência Artificial - Data Mining
Inteligência Artificial - Data MiningInteligência Artificial - Data Mining
Inteligência Artificial - Data Mining
 
Logica programacao python-slides
Logica programacao python-slidesLogica programacao python-slides
Logica programacao python-slides
 
Compiladores
CompiladoresCompiladores
Compiladores
 
Compiladores 5
Compiladores 5Compiladores 5
Compiladores 5
 
Introducao a LPC
Introducao a LPCIntroducao a LPC
Introducao a LPC
 
Compiladores-aula01
Compiladores-aula01Compiladores-aula01
Compiladores-aula01
 
Compiladores 1
Compiladores 1Compiladores 1
Compiladores 1
 
Teoria da Computação
Teoria da ComputaçãoTeoria da Computação
Teoria da Computação
 
Creando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyCreando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con Kivy
 
Gerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresGerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - Compiladores
 
Árvore B
Árvore BÁrvore B
Árvore B
 
Árvores Rubro Negras
Árvores Rubro NegrasÁrvores Rubro Negras
Árvores Rubro Negras
 
Desarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyDesarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y Kivy
 
Árvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoÁrvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenação
 
Inteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em GrafosInteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em Grafos
 
Árvores balanceadas - AVL
Árvores balanceadas - AVLÁrvores balanceadas - AVL
Árvores balanceadas - AVL
 

Semelhante a Probabilidade, Incerteza e Tomada de Decisões

Semelhante a Probabilidade, Incerteza e Tomada de Decisões (20)

37
3737
37
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf
 
3 probabilidade
3   probabilidade3   probabilidade
3 probabilidade
 
P1fmt20141
P1fmt20141P1fmt20141
P1fmt20141
 
Aula 5 probabilidade
Aula 5   probabilidadeAula 5   probabilidade
Aula 5 probabilidade
 
Notas de aula 01 2015-2
Notas de aula 01 2015-2Notas de aula 01 2015-2
Notas de aula 01 2015-2
 
aula estatistica.ppt
aula estatistica.pptaula estatistica.ppt
aula estatistica.ppt
 
Teoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptxTeoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptx
 
Aula 6 probabilidade condicional
Aula 6   probabilidade condicionalAula 6   probabilidade condicional
Aula 6 probabilidade condicional
 
Rlm
RlmRlm
Rlm
 
Raciocínio lógico argumentativo
Raciocínio lógico argumentativoRaciocínio lógico argumentativo
Raciocínio lógico argumentativo
 
m60
m60m60
m60
 
Modulo 4
Modulo 4Modulo 4
Modulo 4
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
29-aula29.pdf
29-aula29.pdf29-aula29.pdf
29-aula29.pdf
 
Estatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao BayesianaEstatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao Bayesiana
 
Trabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relaticoTrabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relatico
 
Estatística: Modelos Discretos
Estatística: Modelos DiscretosEstatística: Modelos Discretos
Estatística: Modelos Discretos
 
Probabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantasProbabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantas
 

Mais de ronaldo ramos

javascript_funcional.pdf
javascript_funcional.pdfjavascript_funcional.pdf
javascript_funcional.pdfronaldo ramos
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdfronaldo ramos
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfronaldo ramos
 
paradigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfparadigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfronaldo ramos
 
paradigmas_de_programacao.pdf
paradigmas_de_programacao.pdfparadigmas_de_programacao.pdf
paradigmas_de_programacao.pdfronaldo ramos
 
paradigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfparadigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfronaldo ramos
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdfronaldo ramos
 
48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdfronaldo ramos
 
47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdfronaldo ramos
 

Mais de ronaldo ramos (20)

03_lisp.pdf
03_lisp.pdf03_lisp.pdf
03_lisp.pdf
 
02_lisp.pdf
02_lisp.pdf02_lisp.pdf
02_lisp.pdf
 
01_lisp.pdf
01_lisp.pdf01_lisp.pdf
01_lisp.pdf
 
javascript_funcional.pdf
javascript_funcional.pdfjavascript_funcional.pdf
javascript_funcional.pdf
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdf
 
_001_introducao.pdf
_001_introducao.pdf_001_introducao.pdf
_001_introducao.pdf
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdf
 
paradigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfparadigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdf
 
paradigmas_de_programacao.pdf
paradigmas_de_programacao.pdfparadigmas_de_programacao.pdf
paradigmas_de_programacao.pdf
 
paradigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfparadigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdf
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdf
 
40-aula40.pdf
40-aula40.pdf40-aula40.pdf
40-aula40.pdf
 
43-aula43.pdf
43-aula43.pdf43-aula43.pdf
43-aula43.pdf
 
48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf
 
47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf
 
46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf
 
42-aula42.pdf
42-aula42.pdf42-aula42.pdf
42-aula42.pdf
 
39-aula39.pdf
39-aula39.pdf39-aula39.pdf
39-aula39.pdf
 
38-aula38.pdf
38-aula38.pdf38-aula38.pdf
38-aula38.pdf
 
36-aula36.pdf
36-aula36.pdf36-aula36.pdf
36-aula36.pdf
 

Último

DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdf
DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdfDIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdf
DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdfIedaGoethe
 
William J. Bennett - O livro das virtudes para Crianças.pdf
William J. Bennett - O livro das virtudes para Crianças.pdfWilliam J. Bennett - O livro das virtudes para Crianças.pdf
William J. Bennett - O livro das virtudes para Crianças.pdfAdrianaCunha84
 
Caixa jogo da onça. para imprimir e jogar
Caixa jogo da onça. para imprimir e jogarCaixa jogo da onça. para imprimir e jogar
Caixa jogo da onça. para imprimir e jogarIedaGoethe
 
Habilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasHabilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasCassio Meira Jr.
 
Simulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfSimulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfEditoraEnovus
 
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASB
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASBCRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASB
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASBAline Santana
 
Sociologia Contemporânea - Uma Abordagem dos principais autores
Sociologia Contemporânea - Uma Abordagem dos principais autoresSociologia Contemporânea - Uma Abordagem dos principais autores
Sociologia Contemporânea - Uma Abordagem dos principais autoresaulasgege
 
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptx
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptxSlides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptx
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptxLuizHenriquedeAlmeid6
 
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdf
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdfcartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdf
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdfIedaGoethe
 
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOLEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOColégio Santa Teresinha
 
ALMANANHE DE BRINCADEIRAS - 500 atividades escolares
ALMANANHE DE BRINCADEIRAS - 500 atividades escolaresALMANANHE DE BRINCADEIRAS - 500 atividades escolares
ALMANANHE DE BRINCADEIRAS - 500 atividades escolaresLilianPiola
 
UFCD_10392_Intervenção em populações de risco_índice .pdf
UFCD_10392_Intervenção em populações de risco_índice .pdfUFCD_10392_Intervenção em populações de risco_índice .pdf
UFCD_10392_Intervenção em populações de risco_índice .pdfManuais Formação
 
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasCenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasRosalina Simão Nunes
 
Regência Nominal e Verbal português .pdf
Regência Nominal e Verbal português .pdfRegência Nominal e Verbal português .pdf
Regência Nominal e Verbal português .pdfmirandadudu08
 
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024HORA DO CONTO5_BECRE D. CARLOS I_2023_2024
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024Sandra Pratas
 
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptx
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptxApostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptx
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptxIsabelaRafael2
 
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologia
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologiaAula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologia
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologiaaulasgege
 
Gerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalGerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalJacqueline Cerqueira
 

Último (20)

DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdf
DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdfDIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdf
DIA DO INDIO - FLIPBOOK PARA IMPRIMIR.pdf
 
William J. Bennett - O livro das virtudes para Crianças.pdf
William J. Bennett - O livro das virtudes para Crianças.pdfWilliam J. Bennett - O livro das virtudes para Crianças.pdf
William J. Bennett - O livro das virtudes para Crianças.pdf
 
Caixa jogo da onça. para imprimir e jogar
Caixa jogo da onça. para imprimir e jogarCaixa jogo da onça. para imprimir e jogar
Caixa jogo da onça. para imprimir e jogar
 
Habilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e EspecíficasHabilidades Motoras Básicas e Específicas
Habilidades Motoras Básicas e Específicas
 
Simulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdfSimulado 1 Etapa - 2024 Proximo Passo.pdf
Simulado 1 Etapa - 2024 Proximo Passo.pdf
 
Em tempo de Quaresma .
Em tempo de Quaresma                            .Em tempo de Quaresma                            .
Em tempo de Quaresma .
 
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASB
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASBCRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASB
CRÔNICAS DE UMA TURMA - TURMA DE 9ºANO - EASB
 
Sociologia Contemporânea - Uma Abordagem dos principais autores
Sociologia Contemporânea - Uma Abordagem dos principais autoresSociologia Contemporânea - Uma Abordagem dos principais autores
Sociologia Contemporânea - Uma Abordagem dos principais autores
 
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptx
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptxSlides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptx
Slides Lição 4, CPAD, Como se Conduzir na Caminhada, 2Tr24.pptx
 
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdf
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdfcartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdf
cartilha-pdi-plano-de-desenvolvimento-individual-do-estudante.pdf
 
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃOLEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
LEMBRANDO A MORTE E CELEBRANDO A RESSUREIÇÃO
 
ALMANANHE DE BRINCADEIRAS - 500 atividades escolares
ALMANANHE DE BRINCADEIRAS - 500 atividades escolaresALMANANHE DE BRINCADEIRAS - 500 atividades escolares
ALMANANHE DE BRINCADEIRAS - 500 atividades escolares
 
UFCD_10392_Intervenção em populações de risco_índice .pdf
UFCD_10392_Intervenção em populações de risco_índice .pdfUFCD_10392_Intervenção em populações de risco_índice .pdf
UFCD_10392_Intervenção em populações de risco_índice .pdf
 
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicasCenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
Cenários de Aprendizagem - Estratégia para implementação de práticas pedagógicas
 
Regência Nominal e Verbal português .pdf
Regência Nominal e Verbal português .pdfRegência Nominal e Verbal português .pdf
Regência Nominal e Verbal português .pdf
 
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024HORA DO CONTO5_BECRE D. CARLOS I_2023_2024
HORA DO CONTO5_BECRE D. CARLOS I_2023_2024
 
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptx
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptxApostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptx
Apostila da CONQUISTA_ para o 6ANO_LP_UNI1.pptx
 
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologia
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologiaAula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologia
Aula - 1º Ano - Émile Durkheim - Um dos clássicos da sociologia
 
Gerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem OrganizacionalGerenciando a Aprendizagem Organizacional
Gerenciando a Aprendizagem Organizacional
 
Orientação Técnico-Pedagógica EMBcae Nº 001, de 16 de abril de 2024
Orientação Técnico-Pedagógica EMBcae Nº 001, de 16 de abril de 2024Orientação Técnico-Pedagógica EMBcae Nº 001, de 16 de abril de 2024
Orientação Técnico-Pedagógica EMBcae Nº 001, de 16 de abril de 2024
 

Probabilidade, Incerteza e Tomada de Decisões

  • 1. Incerteza, Cap 13 Ronaldo F. Ramos, Dr. ronaldo@cefet-ce.br Adaptado de : aima.cs.berkeley.edu
  • 2. Roteiro ! Incerteza ! Probabilidade ! Sintaxe e Semântica ! Inferência ! Independência e regra de Bayes
  • 3. Incerteza Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo Esta ação At nos deixará pontualmente? Problemas: 1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 2. sensores de ruído (relatórios com situação do tráfego) 3. incerteza nos resultados das ações (pneu furado, etc.) 4. complexidade excessiva da modelagem e previsão do tráfego. Consequentemente uma abordagem puramente lógica poderia: 1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 2. levará a conclusões muitos fracas para tomada de decisões: “A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e meus pneus permanecerem intactos etc etc.” (A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que permanecer a noite toda no aeroporto …)
  • 4. Métodos para tratamento da Incerteza ! Logica Default ou não monotônica: ! Assumir que meu carro não terá um pneu furado ! Assumir que A25 funcionará a não ser que seja contradita pela evidência ! Questões: Que suposições são razoáveis? Como tratar contradições? ! Regras com graus fictícios: ! A25 |→0.3 chegar a tempo ! Irrigador |→ 0.99 GramaMolhada ! GramaMolhada |→ 0.7 Chuva ! Questões: Problemas com combinações, ex., Irrigador causa chuva?? ! Probabilidade ! Modela o grau de crença do agente ! Dada uma evidência disponível, ! A25 me deixará a tempo com probabilidade 0.04
  • 5. Probabilidade Assertivas probabilisticas sumarizam os efeitos de : ! Preguiça: falha em enumerar exceções, qualificações, etc. ! Ignorância: falta de fatos relevantes, condições iniciais, etc. Probabilidade Subjetiva: ! Probabilidades relatam proposições sobre o estado de conhecimento do agente ! ex. P(A25 | não houve acidentes) = 0.06 Isto não são afirmações sobre o mundo. Probabilidades de proposições podem mudar de acordo com novas evidências: ex., P(A25 | não houve acidentes as 5h)= 0.15
  • 6. Tomando decisões em face da incerteza Suponha que acreditemos que: P(A25 me deixará a tempo| …) = 0.04 P(A90 me deixará a tempo|…) = 0.70 P(A120 me deixará a tempo| …) = 0.95 P(A1440 me deixará a tempo| …) = 0.9999 ! Que ação devo escolher? Dependerá de minhas preferências por vôos não disponíveis vc tempo gasto esperando, etc. ! Teoria da Utilidade é usada para representar e inferir preferências ! Teoria da Decisão = Teoria da Probabilidade + Teoria da Utilidade
  • 7. Sintaxe ! Elemento Básico: variável aleatória ! Semelhante a logica proposicional: mundos possíveis definidos pela atribuição de valores a variáveis aleatórias. ! Variables aleatórias booleanas ex., Cárie (tenho cárie?) ! Variáveis aleatórias discretas ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> ! Valores de domínios devem ser exautivos e mutuamente exclusivos ! Proposição elementar construída pela atribuição de um valor a A ! Proposições complexas formadas a partir de proposições elementares e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso variável aleatória: ex., Tempo = ensolarado, Cárie = falso (abreviado como cárie)
  • 8. Sintaxe ! Evento Atômico: Uma especificação completa do estado do mundo sobre o qual o agente é incerto ! Ex. Se o mundo consiste de apenas duas variáveis aleatórias booleanas Cárie e DorDeDente, então existem 4 possíveis eventos atômicos: Cárie = falso ∧ DorDeDente = falso Cárie = falso ∧ DorDeDente = verdade Cárie = verdade ∧ DorDeDente = falso Cárie = verdade ∧ DorDeDente = verdade ! Eventos atômicos são mutualmente exclusivos e exaustivos
  • 9. Axiomas da Probabilidade ! Para quaisquer proposições A, B ! 0 ≤ P(A) ≤ 1 ! P(verdade) = 1 e P(falso) = 0 ! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
  • 10. Probabilidade a Priori ! Probabilidade a priori ou probabilidade incondicional de proposições ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a uma crença inicial antes da chegada de qualquer evidência nova. ! Distribuição de Probabilidade dá valores para todas possíveis atribuições: P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) ! Distribuição de probabilidade conjunta para um conjunto de variáveis aleatórias dá a probabilidade de todos os eventos sobre estas variáveis ! Ex. P(Tempo,Cárie) = uma matriz 4 × 2 de valores: Tempo = sol chuva nuvens neve Cárie = verdade 0.144 0.02 0.016 0.02 Cárie = falso 0.576 0.08 0.064 0.08 ! Toda questão a cerca do domínio pode ser respondida pela distribuição de probabilidade conjunta
  • 11. Probabilidade Condicional ! Probabilidade Condicional ou posterior ! ex.P(cárie | dordedente) = 0.8 i.e., dado que dordedente é tudo o que sei. ! Se sabemos mais, ex. que cárie é dada. Então temos: P(cárie | dordedente,cárie) = 1 ! Novas evidências podem ser irrelevantes, permitindo a simplificação, ex., P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 ! Este tipo de inferência, sancionada pelo conhecimento do domínio é crucial
  • 12. Probabilidade Condicional ! Definição. P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 ! A regra do produto dá uma formulação alternativa: P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) ! Uma versão geral serve para distribuições inteiras. Ex., P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) ! (Visto como um conjunto de 4 × 2 equações, não é multiplicação de matrizes) ! Regra da Cadeia é derivada por sucessivas aplicações da regra do produto: P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = πi=n 1 P(Xi | X1, … ,Xi-1)
  • 13. Inferência por enumeração ! Começa com a distribuição de probabilidade conjunta: DordeDente ~DordeDente Boticão ~Boticão Boticão ~Boticão 0,108 0,012 0,072 0,008 0,016 0,064 0,144 0,576 Cárie ~Cárie ! Para qualquer proposição soma-se o eventos atômicos onde a mesma é verdade. P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 (Chamada de probabilidade marginal) Podemos também calcular P(carie v dordedente) = 0,108+0,012+0,072+0,008+0,016+0,064=0,28. etc.
  • 14. Inferência por enumeração ! Iniciar com a distribuição conjunta: ! Pode calcular também as probabilidades condicionais: P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) P(dordedente) = 0.016+0.064 0.108 + 0.012 + 0.016 + 0.064 = 0.4
  • 15. Normalização ! Denominador pode ser visto como uma constante de normalização P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) = α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ Boticao)] = α [<0.108,0.016> + <0.012,0.064>] = α <0.12,0.08> = <0.6,0.4> Idéia geral: Calcular a distribuição sobre a variável de consulta fixando as variáveis de evidência e somando as variáveis ocultas.
  • 16. Inferência por enumeração Normalmente estamos interessandos: Na distribuição conjunta posterior das variáveis de consulta Y sendo dados valores específicos (e) para as variáveis de evidência E Sejam as variáveis ocultas H = X - Y - E Então a totalização esperada dos valores da distribuição conjunta é realizada pela soma das variáveis ocultas: P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) ! Os termos são partes da distribuição conjunta pelo fato de que Y, E e H juntos são exaustivos dentro do conjunto de variáveis aleatórias. Problemas óbvios: 1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da variável aleatória) 2. Complexidade de espaço é O(dn) para armazenamento da distribuição conjunta 3. Como encontrar valores para elementos de entrada em ordem O(dn)?
  • 17. Independência ! A e B são independentes sse: P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(DorDeDente, Boticão, Cárie, Tempo) = P(DorDeDente, Boticão, Cárie) P(Tempo) ! 32 entradas foram reduzidas a 12; ! Para n moedas independentes (não “viciadas “) teríamos O(2n) →O(n) (! reduzida) ! Independência Absoluta é poderosa, mas rara. ! Odontologia é um campo amplo com centenas de variáveis , nenhuma das quais é independente. O que fazer?
  • 18. Independência Condicional ! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas independentes ! Se temos cárie, a probabilidade de ter que usar o boticão não depende do fato de termos dor de dente. (1) P(boticão | dordedente, cárie) = P(boticão | cárie) ! O memos ocorre se não temos cárie: (2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) ! Boticao é condicionalmente independente de DorDeDente dado Cárie ! Declarações equivalentes: P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
  • 19. Independência condicional-cont ! Escreve-se uma Distribuição conjunta completa usando a regra da cadeia. P(DorDeDente, Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) = P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) I.e., 2 + 2 + 1 = 5 números independentes ! Na maioria dos casos a independência reduz o tamanho da representação da distribuição conjunta de exponencial para linear em n .
  • 20. Regra de Bayes ! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) ⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) ! Na forma de distribuição: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) ! Útil para determinação de uma probabilidade de diagnóstico a partir da probabilidade causal: ! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) ! E.g., seja M para o fator de alguém estar com meningite, S para ter o percoço rígido: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
  • 21. Regra de Bayes e Independência Condicional P(Cárie | DorDeDente ∧ Boticão) = αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) = αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) ! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) Número total de Parâmetros é linear em n
  • 22. Redes Bayesianas ! Def: Notação gráfica para declarações de independência condicional e consequentemente para uma especificação compacta de distribuições conjuntas complexas ! Sintaxe: ! Um conjunto de “nós”, um por variável ! Um grafo direcional acíclico mostrando influencias diretas ! Uma distribuição condicional para cada nó dado seu pais P (Xi | Pais (Xi)) ! No caso mais simples, a distribuição condicional é representada como uma tabela de prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos pais
  • 23. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 24. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 25. Exemplo do Alarme Alguém estando no trabalho recebe o telefone do vizinho João Rapadura dizendo que o alarme da casa está tocando, mas a vizinha do outro lado Maria Amargura não ligou.Algumas vezes o alarme é disparado por pequenos tremores de terra. Será que tem um ladrão na casa? Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga A rede reflete o conhecimento "causal": Um ladrão(burglar) pode disparar o alarme Um terremoto (earthquake) pode disparar o alarme O Alarme pode fazer Maria(Mary) telefonar O Alarme pode fazer Joao(John) telefonar
  • 27. Compactação da Rede ! Uma tabela com variáveis aleatórias booleanas Xi com k parentes booleanos terá 2k linhas para a combinação de valores dos pais ! Cada linha requererá um valor p para Xi = Verdade (o valor para Xi = false é 1-p) ! Se cada variável não tem mais que k pais, a rede completa fará O(n · 2k) valores ! I.e., cresce linearmente com n, vs. O(2n) para a distribuição conjunta total ! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores (vs. 25-1 = 31)
  • 28. Semântica da Rede A distribuição conjunta total é definida como o produto das distribuições condicionais locais P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) = P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
  • 29. Rede não puramente causal ! Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós: ! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. Roubo Terremoto Alarme JohnCalls MaryCalls
  • 30. Redes não puramente causais " Problemas: " A figura possui duas conexões a mais " julgamento não natural e difícil das probabilidades " Tendo uma rede puramente causal, teríamos um número menor de conexões
  • 31. Tipos de Inferência em Redes Bayesianas Causal – Causa para efeito " P(JohnCalls/Roubo) = 0,86 Roubo Alarme JohnCalls Evidência Query Diagnóstico – Efeito para Causa " P(Roubo/JohnCalls) = 0,016 JohnCalls Alarme Roubo Evidência Query ! Intercausal (entre causas com um efeito comum) ! P(Roubo/Alarme) = 0,376 ! P(Roubo/Alarme ∧Terremoto) = 0,373 Roubo Alarme Terremoto Query Evidência
  • 32. Tipos de Inferências " Mista (combinando duas ou mais das de cima) " P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 " Este é um uso simultâneo de inferência causal e diagnóstico. JohnCalls Alarme Terremoto Evidência Query Evidência
  • 33. Independência de Novo • Dependências • Intuitiva. • Dois nós conectados influenciam um ao outro simetricamente. • Independências • Exemplo: I (J;M|A), I(B;E) • Outros I(B;E|A)? • -- d-seperation. • (Separação Direcional)
  • 34. Separação -d M e B são separados-d Dado A (Independentes) B A M
  • 35. Separação –d - Divergente M e J são separados-d Dado A (Independentes) A J M Influencia pode ocorrer de J em M se não conhecemos A mas I(J;M|A)
  • 36. Separação –d – convergente E e B são separados-d NÃO Dado A (Independentes) E B A E não pode influenciar B dado que A não é conhecido. I(E;B)
  • 37. Consultas (Query) Informações interessantes das probabilidades conjuntas: Qual a probabilidade de ambos Maria e John ligarem se acontecer um roubo? P(M, J|B) Qual a mais provável explicação para o fato que Maria Ligou? Pode ser Respondido por Inferência na RB P(M,J|B)=P(B, M, J)/P(B) = ΣA E P E B A M J P B , ( ( , , , , )) / ( )
  • 38. Algoritmo de Eliminação de Variáveis – Inferência Exata • Idéia: Somar uma variável por vez, gerando uma nova distribuição em relação as outras variáveis conectando com a variável eliminada. • Quando Elimina-se E gera-se uma distribuição de A e B • Alta Complexidade (NP-HARD) usar Algoritmos de Formação de Agrupamentos /Árvores de Junção
  • 39. Inferência Aproximada ! Amostagem direta ! Amostragem de rejeição ! Ponderação de probabilidade ! Simulação de Cadeias de Markov- Algoritmo CMMC (Cadeia de Markov Monte Carlo)
  • 40. Modelos Temporais R t-1 P(Rt) V 0,7 F 0,3 R t-1 U t-1 R t U t R t+1 U t +1 R t P(Ut) V 0,9 F 0,2
  • 41. Modelos Temporais Hipótese de Markov: Estado atual depende apenas de um histórico finito de estados anteriores. Processos de Markov ou Cadeias de Markov Processo de Markov de Primeira Ordem: P(Xt|X0:t-1) = P(Xt|Xt-1) Usos: Filtragem, monitoramento e suavização
  • 42. Modelos Temporais ! Redes bayesianas dinâmicas ! Casos especiais: ! MOM – Modelos Ocultos de Markov ! Filtros de Kalman ! Etc. ! Aplicações em PDS/Voz, Imagem, etc ! Fica para a próxima .........................