html5-img
1 / 206

Capitolo I

Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo. Capitolo I. Introduzione. Processo Stocastico: un processo stocastico è un processo che è costituito da eventi la cui realizzazione non è deterministica, ma caratterizzata da incertezza

Download Presentation

Capitolo I

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Metodi Probabilistici, Statistici e Processi StocasticiUniversità Carlo CattaneoEmanuele Borgonovo

  2. Capitolo I

  3. Introduzione • Processo Stocastico: un processo stocastico è un processo che è costituito da eventi la cui realizzazione non è deterministica, ma caratterizzata da incertezza • Esempio: i tempi di arrivo dei clienti in un grande centro commerciale o il numero di clienti che arriva al centro commerciale nell’intervallo dt attorno al tempo t.

  4. Elementi introduttivi di Teoria della Probabilità

  5. Probabilità • E’ possibile definire la Probabilità? • Sì, ma ci sono due scuole • La prima dice che la probabiltà è una porprietà oggettiva degli eventi (Scuola Frequentista) • La seconda dice che la Probabilità è una misura “soggettiva”della verosimiglianza degli eventi (De Finetti)

  6. Gli Assiomi di Kolmogorov U B A

  7. C A B D E Aree e rettangoli? • Supponete di saltare dentro U a caso. Chiamate P(A) la probabilità di saltare in A. Quanto vale? • Sarà l’area di A diviso l’area di U: P(A)=A/U • In questo caso P(U)=P(A)+ P(B)+ P(C)+ P(D)+ P(E) U

  8. Legge della somma delle probabilità • Dati n eventi non mutuamente esclusivi, in generale la probabilità dell’unione di detti n eventi sarà la somma delle probabilità degli eventi singoli, cui si sottrarrà la somma delle probabilità delle doppie intersezioni, si sommeranno le probabilità delle triple intersezioni e così via. • In termini di aree

  9. Legge della somma delle probbilità in termini di aree U • 2 eventi • 3 eventi B AB A U B C AB A

  10. In formule • Dimostrazione. Introduciamo un insieme di n eventi, A1, A2,…, An e consideriamo un esperimento casuale su di essi. Indichiamo con Ii la variabile indicatrice dell’evento Ai. La definiamo come segue: • Sia N il numero di eventi che si verificano. Varrà:

  11. Probabiltà Unione: prova (2) • N è una variabile casuale. Ci chiediamo: qual è il valore atteso di N, E[N]? • Prima di rispondere, vediamo un “trucco” di calcolo combinatorio che ci tornerà utile: • Ora, notiamo che • Quindi, se introduciamo la variabile indicatrice di N così definita: • Otteniamo:

  12. Probabiltà Unione: prova (3) • Quindi vale per IN il seguente sviluppo in termini di binomio di Newton: • …Il k+1 deriva dal fatto che davanti alla somma c’è un segno -… • Ora, calcoliamo il valore atteso di IN • Il passaggio all’interno della somma deriva dal fatto che il valore atteso è un operatore Lineare • Esplicitiamo i termini:

  13. Probabiltà Unione: prova (4) • Calcoliamo i termini: • E così via. • Ora notiamo che: • Quindi: • q.e.d.

  14. Probabilità Condizionale • Supponete ora che B è avvenuto. Quindi siete saltati dentro l’area B. B AB A • Ora non protrete che concordare che: • P(A|B)=P(AB)/P(B) • Quindi: P(AB)=P(A|B) *P(B)

  15. Esempio • Nel gioco del lotto, si vince con il 6. Qual è la probabilità, in sei estrazioni senza rimpiazzo, su 90 numeri di ottenere 6? • Giochiamo 1 colonna e calcoliamo la probabilità di vincere. La probabilità è che la prima cifra estratta sia una delle nostre 6, la seconda sia una delle rimanenti 5 e così via. Indichiamo con I l’evento “la prima cifra estratta è una di quelle giocate da noi,” con II l’evento “la seconda cifra è esatta dato che la prima è una delle nostre 6,”, con III l’evento ““la terza cifra è una delle rimanenti 4, dato che le prime due sono delle nostre 6,” etc. • Dobbiamo calcolare: P(I,II,III,IV,IV,VI). Utilizziamo la probabilità condizionale: • P(I,II,III,IV,V,VI)= P(VI | I,II,III,IV,IV)*P(V,IV,III,II,I)= P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* P(IV,III,II,I)= …=P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* …*P(II |I)*P(I) • La probailità che la prima sia una delle nostre è data da 6/90. La probabilità che la seconda sia una delle cifre giocate dato che la prima è una delle 6 è 5/89. Così via per le altre. Dunque:

  16. A4 A3 A1 A2 IL teorema della probabilità Totale U • Teorema probabilità totale: dati N eventi mutuamente esclusivi (A1, A2,…,AN) e esaustivi, la probabilità di un altro evento E in U è data da: E

  17. Esempio • Ad una lotteria, si gioca con una scatola che contiene cappelli eleganti e sportivi in egual proporzione. Il gioco è il seguente. Si estrae un cappello. Se è elegante si ha diritto a tirare una moneta. Se esce testa, si estrae un altro cappello. Non si ha diritto ad altre estrazioni. Qual è la probabilità di vincere due cappelli eleganti? • Soluzione: Applichiamo il teorema della probabilità totale a P(2 cappelli eleganti): • P(2 cappelli eleganti)=P(II cap. el.|1 estrazione)*P(1estrazione)+P(II cap. el.|II estrazione)*P(II estrazioni). • Chiaramente P(2 cappelli|1 estrazione)=0, quindi: • P(II cappelli elegante)=P(II cap. el.|II estrazione)*P(IIestrazione). • P(II estrazione)= P(II estrazioni|I sprt)*P(I sprt)+P(II estrazione|I eleg)*P(I eleg) • Ora: se il primo è sportivo non si ha diritto a seconda estrazione. • Osserviamo poi che: P(II estrazione| I eleg)= P(testa) =1/2 • Quindi: P(II estrazione)=1/2·1/2=0.25 • Inoltre: P(II cap. el .)=P(II cap. el.|II estrazione)*P(II estrazione)=1/2*0.25=0.125 • Per esercizio calcolare: • La probabiltà di uscire con un cappello • La probabilità di uscire con un cappello elegante e con uno sportivo • Ripetere gli stessi calcoli se I cappelli sono in proporzione 2/3 sportivi/eleganti

  18. Variabile Casuale • Sia S lo spazio degli stati. Per stato si può intendere il risultato di un esperimento statistico, ovvero un evento casuale. • Scriviamo: sS per denotare che l’esito s appartiene ad S. Ora, s è un evento casuale. • Introduciamo una funzione matematica che lega il risultato dell’esperimento, s, ad un numero reale, x. • Scriviamo: X: S

  19. Esempio • Teniamo in considerazione gli arrivi di clienti al vostro negozio. Siete soggetti ad un mercato perfettamente concorrenziale, per cui il numero di clienti che arriva nel tempo dt non è deterministico ma casuale. • Supponiamo che il break-even del vostro negozio sia 50 clienti al giorno. Quindi la giornata è in profitto se il numero di clienti (s) è >50, in perdita se s<50. • Introduciamo x=1 se la giornata è in profitto, x=0 se la giornata è in perdita. X: S(0,1), è una variabile casuale nel senso definito prima

  20. Probabilità di una variabile casuale • Riprendendo il nostro esempio, la probabilità che X sia pari ad 1 è la probabilità che s abbia più di 50 clienti, ovvero P(X=1)=P(S>50). • Detto s1 l’insieme di tutti gli eventi per cui è X=1, s1 è la contro-immagine di 1, ovvero: X-1(1)=s1. • Più in generale: P(XA)=P[s  X-1(A)] • cioè la probabilità che il valore della variabile casuale X sia nell’intervallo A è pari alla probabilità che gli eventi casuali s cadano nella controimmagine di A

  21. Funzione di Partizione • La funzione di partizione (cumulative distribution) di una variabile casuale risponde alla definizione di essere la probabilità che il valore della variabile casuale sia inferiore ad un valore di riefrimento. • Scriviamo: FX(x)=P(X<=x) • Per una variabile discreta: • Per una variabile continua deve esistere una funzione f(u) tale che: • La funzione f(u) è detta densità di probabilità di X

  22. Relazione tra F(x) ed f(x) • Se f(x) è continua, allora vale: • Esempio. Sia 0<T< una variabile casuale caratterizzata da una distribuzione esponenziale, ovvero f(t) dt=e- tdt è la probabilità che T abbia un valore compreso tra t e dt. • Qual è la probabilità che T<t? Soluzione • P(T<t)=F(t)=

  23. Valore atteso • Il valore atteso di una variabile aleatoria continua è definito da: • Esempio: • Per una variabile discreta: • Esempio: calcolare il valore atteso della variabile aleatoria in Tabella a fianco

  24. Varianza • La varianza esprime lo scostamento quadratico medio dal valor medio. E’ definita da: • Notiamo la relazione tra V[X] e E[X2]. Si ha: • E[X2] è detto momento di ordine 2 o secondo momento della distribuzione f(x).

  25. Skewness • E’ il parametro che misura il grado di asimmetria di una distribuzione. • La definiamo come momento centrale del III ordine: • Se la distribuzione è simmetrica la skewness è nulIa. • Di sotto la skewness delle distribuzioni più comuni

  26. Funzione generatrice dei momenti • Abbiamo definito i momenti di X come E[X], E[X2], E[X3],…, E[Xn]. • La funzione generatrice dei momenti è una funzione definita come segue: • I momenti di X possono essere ottenuti per differenziazione della funzione generatrice, valutando la derivata n-esima in t=0.

  27. Capitolo II: Distribuzioni Notevoli

  28. Distribuzione binomiale • Consideriamo un fenomeno casuale caratterizzato da due soli possibili esiti (+/-; testa/croce). Consideriamo ora una serie di N eventi in cui l’esito di ogni esperimento è indipendente dall’esito dell’esprimento precedente. • Una possibile realizzazione dell’esperimento è la seguente: +,+,+,-,-,+,-,+,-,-. • Abbiamo ottenuto 5+ e 5-. Se indichiamo con p e q le probabilità di + e – rispettivamente, e consideriamo l’ipotesi di indipendenza, la probabilità di questa serie è: p5*q5. • La seguente serie avrebbe potuto realizzarsi: -,-,-,+,+,-,+,-,+,+. • Anche la probabilità di questa realizzazione è: p5*q5. • Ora, supponiamo di essere interessati solo al numero di eventi, ovvero per noi sono di successo tutte le possibili serie in cui compaiono 5 testa e 5 croce. • La probabilità di successo per serie di 10 lanci è data dalla probabilità di tutte le possibili permutazioni di 5 elementi su 10. Quante sono? • Sono • Dove è il buon vecchio coefficiente binomiale. Quindi la probabilità di una sere 5/5 è:

  29. Distribuzione binomiale (2) • In generale, la probabilità di k eventi su n tentativi in cui ad ogni tentativo solo 2 sono i possibili esiti è data da: • Notiamo che q=1-p. • La precendente ditribuzione è detta binomiale o di Bernoulli.

  30. Momenti della distribuzione binomiale • La funzione caratteristica della distribuzione binomiale è: • Ne segue: • Quindi: V[X]=E[K2]-E[K] 2=np(1-p)

  31. La distribuzione ipergeometrica • Consideriamo il seguente problema. Dovete testare una serie di prodotti. Avete a disposizione un lotto di N prodotti, dei quali M sono difettosi. Prendiamo un campione di n oggetti tra questi. Qual è la probabilità che x degli n oggetti siano difettosi? • Innanzitutto consideriamo che su N oggetti, vi sono modi di selezionare n oggetti. Quindi il nostro “spazio” delle probabilità diventa fatto da elementi. • Adesso chiediamoci: abbiamo a disposizione N oggetti, dobbiamo scelglierne x difettosi tra M e n-x non difettosi tra N-M. In quanti modi si può fare? Supponiamo che gli oggetti siano “X” (difettoso) e “-” non difettoso. Si potrebbero disporre su una linea come: • X - - X X - - - X X - X – X ………..X. • Potremmo anche ordinarli e non cambierebbe nulla: • X X X X X X X ………..X - - - - - -… -. • Ora dobbiamo formare un gruppo di n in cui x siano difettosi. Possiamo scegliere x difettosi su M. In quanti modi?

  32. La distribuzione ipergeometrica (2) • Analogamente dobbiamo scegliere gli n-x oggetti non difettosi tra gli N-M oggetti non difettosi. Come nel caso precedente, se gli oggetti sono indistinguibili a priori, abbiamo modi possibili. • Possiamo quindi combinare gli con gli nello scegliere gli oggetti. Quindi i modi possibili di creare serie di n oggetti di cui x sono difettosi su un lotto di N è: • Dunque, se è il numero totale di casi possibili, la probabilità di creare n-tuple con x elementi difettosi dato un lotto di N elementi è: • Che prende il nome di distribuzione ipergeometrica

  33. Esempio • Supponiamo di avere a che fare con un’urna che contiene 100 schede elettorali. Si scontrano due candidati al ballottaggio. A fine voto si saprà che il candidato A avrà 55 voti e il candidato B 45. Qual è la probabilità che, estraendo 10 schede, 6 siano di A e 4 siano di B? • Soluzione: N=500; M=55; n=10; x=6.

  34. Esempio (2) • Chiediamoci ora, qual è la probabilità che su 20 schede le schede di A e B estratte mantengano la stessa proporzione(12 a 8)?

  35. Dalla distribuzione binomiale… • Consideriamo la distribuzione di una variabile random che segua una distribuzione binomiale con np= lasciamo tendere n ad infinito e p che tende a 0, con  è costante. • Osserviamo cosa succede alla distribuzione binomiale:

  36. ..alla distribuzione di Poisson • P è detta distribuzione di Poisson •  prende il nome di rateo o tasso della distribuzione • Significato: probabilità di avere k eventi, dato il tasso .

  37. Momenti della distribuzione di Poisson • Quindi:

  38. Distribuzione di Gauss • Una variabile X (-, +) segue la distribuzione di Gauss N(,) se la sua densità di probabilità è data da: • La corrispondente distribuzione cumulativa è:

  39. Grafici Cumulative Gaussian Distribution 10000 9000 8000 7000 6000 5000 4000 3000 2000 1000 0 -5 -4 -3 -2 -1 0 1 2 3 4 x

  40. Funzioni di Variabile Casuale • Regola per funzioni di variabili casuali • Sia X una variabile casuale e y=g(x) funzione di X. A sua volta Y è una variabile aleatoria. Qual è la probabilità che il valore di Y sia intorno ad y? • Per semplicità consideriamo g(x) monotona crescente o decrescente. f(x) è una corrispondenza biunivoca, quindi la probabilità che Y sia in dy attorno a y è la stessa che X sia in dx attorno x. Quindi: fY(y)dy=fX(x)dx. Ne segue: • Se f(x) non è monotona crescente, allora vi saranno più punti in cui è x=f-1(y). La precedente formula si generalizza in:

  41. Dalla distribuzione normale… • Sia Y tale che lnY=X e X~N(, ). Qual è la distribuzione di Y? • Si applica la precedente regola in quanto ex è una funzione monotona crescente. Calcoliamo:

  42. …alla distribuzione Log-normale… • La distribuzione: prende il nome di distribuzione lognormale e rappresenta la distribuzione di una variable il cui logaritmo segue una distribuzione gaussiana. • Notate che X=ln(Y) è ~N( ,2 ), mentre Y ~LN( , 2) e  , non sono il valor medio e la deviazione standard di Y. • Valgono le seguenti relazioni trai parametri  ed  della distribuzione lognormale e il valor medio () e la varianza (2) di Y:

  43. Grafici della distribuzione lognormale

  44. La distribuzione Beta • La distribuzione beta della variabile X, con ax  b è definita come segue: • (q,r) è detta funzione beta. • Momenti della distribuzione:

  45. Grafico per a=-10, b=10, q=2,r=3 q=4,r=3 Grafico per a=-10, b=10, q=3,r=3 (simmetrico) La distribuzione Beta (2)

  46. La distribuzione  • Una variabile continua  () segue una distribuzione  se la sua densità di probabilità è data da: • Dove: •  (parametro di forma), (parametro di scala)>0 e • () è la funzione , una funzione notevole, che generalizza il concetto di fattoriale ai numeri non interi. () è definita come segue: • I parametri  (parametro di locazione) e sono legati al valore medio ed alla varianza di  dalle seguenti relazioni:

  47. Grafici della distribuzione 

  48. Problemi • Utilizzando la regola del cambio di variabile, dato X~N(0,1), trovare la distribuzione di X2. Notate che è una distribuzione 2. • Per ciascuna delle distribuzioni presentate, eccetto la beta, trovare, : • La funzione generatrice dei momenti • I primi tre momenti: E[X], E[X2], E[X3] • La varianza • Per la distribuzione beta, trovare: il modo, la mediana,la media e la varianza.

  49. Problemi • Considerate la funzione () . • Dimostrate che vale la seguente relazione: ()= (-1 )(-1). • Deducetene che, se  è intero, si riduce alla formula del fattoriale.

  50. Capitolo III:Propagazione dell’Incertezza

More Related