1 / 80

Corso di Introduzione alla Finanza Quantitativa ( matematica computazionale )

Corso di Introduzione alla Finanza Quantitativa ( matematica computazionale ). Desenzano 10/11 Settembre 2011 17/18 Settembre 2011 A cura di: Luigi Piva www.intermarketstrategies.eu Equity Line Solutions – Londra. www.intermarketstrategies.eu.

zan
Download Presentation

Corso di Introduzione alla Finanza Quantitativa ( matematica computazionale )

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Corso di Introduzione alla Finanza Quantitativa(matematicacomputazionale) Desenzano 10/11 Settembre 2011 17/18 Settembre 2011 A cura di: Luigi Piva www.intermarketstrategies.eu EquityLineSolutions – Londra

  2. www.intermarketstrategies.eu

  3. MODULO 4  -  Domenica 18 settembre  9.00-13.00 e 14.30-17.00  ELEMENTI DI STATISTICA E PROBABILITA’ • 1-       La rilevazione statistica: fasi, modalità, tabelle, frequenze, le rappresentazioni grafiche dei dati; • 2-       Le medie e le dispersioni • 3-       Teoria di probabilità discreta • 4-       rapporti statistici • 5-       numeri indice: semplici, a base mobile, composti. • 6-       Statistica combinatoria (coefficienti binomiali, multinomiali) • 7-       Variabili casuali, vettori casuali • 8-       Teoremi fondamentali di probabilità (dipendente, indipendente,…) • 9-   Distribuzioni • 10-   Applicazione della binomiale ai modelli di prezzo azioni • 11-   Applicazione della binomiale ai modelli di opzioni europee.

  4. Statistica Descrittiva La statistica descrittiva studia i criteri di rilevazione, di classificazione e di sintesi delle informazioni relative ad una popolazione oggetto di studio. La statistica descrittiva raccoglie le informazioni sulla popolazione, o su una parte di essa, Campione, in Distribuzioni semplici o complesse (almeno due caratteri), e le sintetizza attraverso famiglie di indici: valori medi, indici di variabilità, indici di forma, rapporti statistici, relazioni statistiche. I risultati ottenuti in tal modo si possono definire certi, a meno di errori di misurazione, che essendo dovuti al caso, in media, si annullano per definizione.La statistica descrittiva ha come obiettivo quello di organizzare, riassumere e presentare i dati in modo ordinato; i suoi strumenti permettono quindi di sintetizzare i dati.

  5. Statistica Descrittiva Una valutazione approssimata della misura di probabilità da assegnare a un evento casuale si può effettuare in modo empirico se si determina la frequenza degli esiti favorevoli di un esperimento casuale ripetuto n volte. Se l'esperimento ripetuto consiste nella rilevazione di certe caratteristiche di una popolazione (o universo), ovvero di un generico insieme di N oggetti o individui (con N che puoò anche essere infinito), il risultato di n prove è una serie di dati, la cui analisi porta a determinare una legge di probabilità empirica per la caratteristica della popolazione che vogliamo studiare.

  6. Statistica Descrittiva Precisiamo che le serie di dati da esaminare statisticamente sono quelle che si deducono dalla osservazione di un campione della popolazione, ossia di un numero n limitato (e possibilmente piccolo) dei suoi N elementi. Per ottenere risultati attendibili sulle caratteristiche dell'intera popolazione, occorre perciò che i campioni siano adeguatamente scelti in modo da essere rappresentativi dell'universo dal quale sono stati estratti. In secondo luogo, occorre sviluppare i metodi che attraverso l'analisi dei campioni consentano di stimare in modo attendibile le caratteristiche o parametri della popolazione che si intende esaminare. Il campionamento e i metodi di stima dei parametri sono oggetto della Statistica inferenziale, di cui ci occuperemo ora.

  7. Statistica Descrittiva Ci limiteremo, invia preliminare, ad esporre le tecniche in uso per l'organizzazione degli n dati raccolti,e per la rappresentazione delle probabilità empiriche che da essi si deducono. Le n osservazioni effettuate possono avere come obiettivo la definizione di caratteri qualitativi della popolazione, consistenti in certe caratteristiche di natura non numerica (come ad esempio il colore, il grado di istruzione, l'attivita professionale, la preferenza per un candidato,...) oppure di caratteri quantitativi (ad es. il reddito,...) che si riferiscono invece a qualsiasi grandezza misurabile. A loro volta, i caratteri quantitativi possono essere discreti se assumono solo un numero limitato di valori, oppure continui con valori in un assegnato intervallo di .

  8. Statistica Descrittiva Nei riguardi dei possibili risultati dell'esame di un carattere qualitativo, che sono chiamati modalità, osserviamo che in certi casi essi sono comunque suscettibili di un ordinamento (come ad esempio il grado di istruzione sopra citato), mentre spesso non hanno alcun ordinamento rispetto alle altre modalità (il colore, il sesso,...). In entrambi i casi, e sempre possibile associare a ciascuna modalità un numero reale, in modo che la serie di dati risultante dalle osservazioni sia ancora riconducibile ad un insieme di numeri reali, denito su un sottoinsieme (discreto) di .

  9. Distribuzioni di frequenze Consideriamo dunque una serie di n dati numerici {x1, x2, …,xn} ricavati da altrettante osservazioni fatte sugli elementi di una popolazione, e relativi ad un suo carattere quantitativo X continuo, oppure discreto ma con un numero elevato di modalità. Questi dati si chiamano determinazioni di X oppure realizzazioni o valori empirici. Indicato con Δ ⊆ l'insieme delle modalita del carattere, definiamone una partizione {Δ i} , i = 1,2….m in m classi tra loro disgiunte, tale che la loro unione coincida con Δ , e con Δ i intervalli i aperti a destra:

  10. Distribuzioni di frequenze Ad ogni classeΔi, avente ai e bi come confini inferiore e superiore, si associa Poi la sua ampiezza bi - ai (non necessariamente uguale per ogni indice i) e il suo valore centrale xi che e la semisomma dei suoi confini. La scelta delle classi Δi è arbitraria, ma deve essere fatta in modo da ottenere una rappresentazione significativa dei dati raccolti sul carattere da studiare: è preferibile che il loro numero sia elevato, occorre evitare di definire intervalli parziali che contengano pochi dati della serie. Di regola, e bene che i dati in ciascuna classe siano maggiori o uguali a 5

  11. Distribuzioni di frequenze Se la serie si riferisce a un carattere discreto con modalità appartenenti all'insieme dei numeri naturali, si può assumere queste modalità come valori centrali di altrettante classi di ampiezza uguale e unitaria. Poiché per definizione ogni dato raccolto appartiene ad una ed una sola classe Δi della partizione, si può procedere al calcolo delle seguenti quantità: • la frequenza assoluta ni di ciascuna classe (a volte chiamata anche incidenza ) che e il numero di elementi della serie che appartengono alla classe i. Si noti che si avra: n1 + n2 + ...+ nm = n ;

  12. Distribuzioni di frequenze • la frequenza relativa fi = ni/n di ciascuna classe, detta anche probabilità empirica, e tale che f1 + f2 + … + fm= 1. • la frequenza cumulata Ni, somma delle prime i frequenze assolute: • la frequenza cumulata relativa Fi, somma delle prime i probabilita empiriche:

  13. Distribuzioni di frequenze Con i dati raccolti si può costruire un istogramma che rappresenta la distribuzione delle frequenze per ciascuna classe del campione. Questa si ottiene riportando sulle ascisse le varie classi , e sulle ordinate i valori della funzione costante a tratti. In modo analogo si può costruire l’istogramma delle frequenze relative, chiamato anche distribuzione delle probabilità empiriche. Esso si ottiene riportando la funzione costante a tratti. La sua area complessiva e uguale ad 1, ovvero alla probabilità dell'evento certo.

  14. Distribuzioni di frequenze Esempio: se considero un certo insieme di "oggetti" : 1. alunni di una classe 2.gli studenti nati in Italia di una data università 3.i prodotti che un supermercato ha venduto in una settimana 4. ... e per ognuno di essi dispongo di una informazione dello stesso tipo: 1.altezza (degli alunni) 2.comune di nascita (degli studenti) 3.nome (dei prodotti) 4. ...

  15. Distribuzioni di frequenze Per avere una idea di come si distribuiscono queste informazioni: 1.quali sono le altezze più frequenti? 2.quali sono le principali zone di provenienza degli studenti? 3.come si ripartiscono le vendite tra i diversi deneri dei prodotti? 4. ... posso fare una classificazione, cioè suddividere l'insieme delle informazioni possibili del tipo che sto studiando: 1.l'insieme dei numeri positivi (le misure in una unità fissata) 2.l'insieme dei nomi dei comuni italiani 3.l'insieme dei nomi dei prodotti in vendita nel supermercato 4. ...

  16. Distribuzioni di frequenze In classi separate e contare quante informazioni del mio elenco cadono in ciascuna classe: 1.gli intervalli [0, 140), [140, 150), [150, 160), ... 2.le regioni 3.i latticini, i dolci, i detersivi, ... 4.  Il numero di informazioni che cade in una modalità viene detto frequenza (assoluta) di tale modalità; il rapporto tra frequenza e numero totale delle informazioni raccolte viene detto frequenza relativa. La tabella che associa a ogni modalità la corrispondente frequenza [relativa] viene detta distribuzione relativa].

  17. Distribuzioni di frequenze In classi separate e contare quante informazioni del mio elenco cadono in ciascuna classe: 1.gli intervalli [0, 140), [140, 150), [150, 160), ... 2.le regioni 3.i latticini, i dolci, i detersivi, ... 4.  Il numero di informazioni che cade in una modalità viene detto frequenza (assoluta) di tale modalità; il rapporto tra frequenza e numero totale delle informazioni raccolte viene detto frequenza relativa. La tabella che associa a ogni modalità la corrispondente frequenza [relativa] viene detta distribuzione relativa].

  18. Distribuzioni di frequenze Sotto è riprodotta una tabella che include sia la distribuzione che la distribuzione relativa delle località di nascita degli studenti dell'università della città XX rispetto alle modalità Nord, Centro, Sud (e Isole):

  19. Distribuzioni di frequenze Gli istogrammi che raffigurano distribuzioni sono chiamati istogrammi di distribuzione. Se le modalità non sono di tipo numerico, esse vengono rappresentate con segmenti di lunghezza fissata su ognuno dei quali viene tracciato un rettangolo di altezza proporzionale alla corrispondente frequenza. In genere non importa l'ordine con cui vengono disposti i diversi rettangoli. Gli istogrammi in questi casi vengono chiamati anche diagrammi a barre (essi vengono usati per visualizzare graficamente il confronto tra due o più quantità, non necessariamente tra frequenze).   Se le modalità sono di tipo numerico, i segmenti vengono disposti in ordine

  20. Distribuzioni di frequenze Gli istogrammi che raffigurano distribuzioni sono chiamati istogrammi di distribuzione. Se le modalità non sono di tipo numerico, esse vengono rappresentate con segmenti di lunghezza fissata su ognuno dei quali viene tracciato un rettangolo di altezza proporzionale alla corrispondente frequenza. In genere non importa l'ordine con cui vengono disposti i diversi rettangoli. Gli istogrammi in questi casi vengono chiamati anche diagrammi a barre (essi vengono usati per visualizzare graficamente il confronto tra due o più quantità, non necessariamente tra frequenze).   Se le modalità sono di tipo numerico, i segmenti vengono disposti in ordine

  21. Distribuzioni di frequenze Ad es. nel caso della distribuzione:  gli intervalli [0,5), [5,10), ….. vengono rappresentati in ordine, con segmenti uguali, come nell'istogramma A, o proporzionali alle ampiezze - a [60,75) corrisponde un segmento triplo di quello scelto per [0,5) -, come nell'istogramma B:

  22. Distribuzioni di frequenze intervalli rappresentati con segmenti uguali

  23. Distribuzioni di frequenze intervalli rappresentati con segmenti proporzionali alle loro ampiezze

  24. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza Così come nel calcolo delle probabilità si usano i momenti per individuare Alcune proprietà rappresentative della distribuzione probabilistica di una variabile aleatoria, nella Statistica descrittiva si definiscono i seguenti parametri di posizione per le distribuzioni di frequenze. La media pesata: dove xi e il valore centrale delle classi. Se la serie di dati non e raggruppata in classi, in modo che m = n e ni = 1 per ogni i, allora x e la media aritmetica,che in generale non e uguale alla media pesata.

  25. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza La moda (Mo), che è il valore centrale della classe con la frequenza più elevata. Se esiste più di una classe con un valore massimo delle frequenze, la distribuzione e detta multimodale e questo parametro perde il suo significato di indice di posizione central La mediana si puo definire come il valore di x che divide in parti uguali la superficie coperta dall'istogramma delle frequenze relative. Se i dati xi sono n determinazioni del carattere X(ω ), la mediana è tale che.

  26. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza Il quantile di ordine α è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) e caratterizzate da valori rispettivamente minori e maggiori di qα. I quantili di ordini "semplici", espressi come frazioni, vengono anche chiamati con altri nomi. I quantili di ordini 1/n, 2/n, ..., (n-1)/n dividono la popolazione in n parti ugualmente popolate; il quantile di ordine α=m/n è detto m-esimo n-ile. • La mediana è il quantile di ordine 1/2. • I quartili sono i quantili di ordini 1/4, 2/4 e 3/4.

  27. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza • Nel caso di una densità di probabilità la funzione di ripartizioneF è continua e il quantile di ordine α è definito da F(qα)=α. Questo quantile può non essere unico se la funzione di densità è nulla in un intervallo, ovvero se la funzione di ripartizione è costante ed assume il valore α per più di un valore qα; ciononostante per ognuno di questi valori la popolazione viene correttamente divisa in due parti proporzionali ad α e (1-α). • Nel caso di una densità discreta il quantile di ordine α è un valore qα nel quale la frequenza cumulata raggiunge o supera α, ovvero tale che la somma delle frequenze fino a quel valore sia almeno α e che la somma delle frequenze da quel valore sia al più 1-α. In questo caso, oltre alla non unicità del quantile si può avere una divisione non proporzionale ad α e 1-α (del resto una popolazione finita non può essere divisa che in un numero finito di modi). Nel caso di una distribuzione in classi di valori si usa talvolta "supporre" che i valori siano distribuiti in modo uniforme all'interno di ciascuna classe, in modo da calcolare il quantile (per interpolazione) su una funzione di ripartizione continua.

  28. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza In teoria delle probabilità e in statistica la varianza di una variabile aleatoria X (e della distribuzione di probabilità che questa segue) è un numero, indicato con Var(X), che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dalla media E[X]. La varianza di X è definita come il valore atteso del quadrato della variabile aleatoria centrata Y=X-E[X]

  29. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza La deviazione standard o scarto tipo[1] o scarto quadratico medio è un indice di dispersione delle misure sperimentali, vale a dire una misura di variabilità di una popolazione di dati o di una variabile casuale. La deviazione standard misura la dispersione dei dati intorno al valore atteso ed ha la stessa unità di misura dei valori osservati (al contrario della varianza che ha come unità di misura il quadrato dell'unità di misura dei valori di riferimento). In statistica la precisione si può esprimere come deviazione standard. Il termine "standard deviation" è stato introdotto in statistica da Pearson[2] assieme alla lettera greca σ che lo rappresenta

  30. Indici di tendenza centrale e di dispersione medie, moda, mediana quantili, varianza Il termine italiano "deviazione standard" ne è la traduzione più utilizzata nel linguaggio comune; il termine dell'Ente Nazionale Italiano di Unificazione è tuttavia "scarto tipo", definito come la radice quadrata positiva della varianza Se non indicato diversamente, la deviazione standard è semplicemente la radice quadrata della varianza, la quale viene coerentemente rappresentata con il quadrato di sigma (σ²).

  31. Variabili Casuali In teoria di probabilità , una variabile casuale (o variabile aleatoria o variabile Stocastica può essere pensata come il risultato numerico di un esperimento quando questo non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado a sei facce può essere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori 1,2,3,4,5,6. Possiamo definirenumero aleatorio (termine suggerito dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza di informazioni.

  32. Variabili Casuali Il risultato di una prova di un generico esperimento casuale non e sempre esprimibile direttamente in termini di numeri reali (si pensi per esempio al lancio di una moneta, o all'estrazione da un'urna di palline con colori diversi). Tuttavia, nello sviluppo del Calcolo delle probabilità siamo interessati ad associare un numero reale x = X(ω) a qualsiasi risultato ω (omega) di ogni prova dell'esperimento casuale. La variabile casuale X(ω) è dunque una funzione che fa corrispondere a ciascun risultato ω dell'esperimento casuale un elemento x nel campo dei numeri Reali.

  33. Variabili Casuali Esempio: nel lancio di una moneta per due volte, in cui Ω = (TT; TC;CT;CC) definiamo la variabile casuale X(ω) che a ciascuno dei 4 possibili eventi elementari associa un "guadagno" 1 se esce T, e una "perdita" di una unita se esce C. La variabile causale X(ω) assume allora tre valori discreti:

  34. Variabili Casuali E l'immagine di Ω e il sottoinsieme: X(Ω) = {2; 0; 2} nel campo dei Reali. Poiché i quattro eventi elementari sono equiprobabili con probabilità P(ω) = 1/4, si ha che la probabilità immagine, indotta in X(Ω) per ciascuno dei tre valori di X, vale rispettivamente:

  35. Funzione di Distribuzione L'insieme {ω :X ≤ x } è un evento in β, che d'ora in poi scriveremo più sinteticamente con (X ≤ x). Ad esso e possibile assegnare una probabilità P(X ≤ x) che al variare di x nel campo Reale, definisce la funzione ordinaria di variabile reale: Fx(x) = P( X ≤ x) Questa funzione e chiamata funzione di distribuzione (cumulata), o funzione di ripartizione di X(ω). Dunque, FX(x) definisce la distribuzione delle probabilità di eventi in un esperimento casuale e, con riferimento alla variabile casuale X(ω) che associamo a tale esperimento, misura la probabilità che X(ω) assuma valori minori o uguali al reale x.

  36. Funzione di Distribuzione Se X(ω) assume un numero finito o una infinità numerabile di valori reali xi; i =1,… n,.. con probabilità Pi, allora è chiamata variabile casuale discreta. La sua funzione di distribuzione, illustrata in figura, è una funzione costante a tratti con punti Di discontinuità in xi :

  37. Funzione di Distribuzione Al contrario, se FX(x) è continua e derivabile ovunque tranne al più in un Insieme numerabile di punti, allora X(ω) e una variabile casuale continua, definita in un insieme continuo X(Ω) nel campo Reale come illustrato in figura :

  38. Funzione di Distribuzione Esempio: La variabile casuale definita nell’esempio a proposito del lancio ripetuto di una moneta e discreta perche può assumere solo i tre valori x1 = -2; x2 = 0; x3 = 2. La sua funzione di distribuzione vale: E il suo grafico è quello delle variabile casuale discreta di cui sopra

  39. Distribuzione di probabilità • se la variabile casuale X è discreta, cioè l'insieme dei possibili valori (il rango o supporto di X) è finito o numerabile , è definita anche la funzione di massa (o funzione massa di probabilità o densità discreta), ossia la funzione di probabilità discreta p(x) = P(X = x) • se la variabile casuale X è continua , cioè l'insieme dei possibili valori ha la proprietà di continuità , è definita anche la funzione di densità di probabilità , cioè la funzione f non negativa tale per cui

  40. Distribuzione di probabilità Variabili casuali continue: data una variabile casuale X(ω) continua in X(Ω)appartenente al campo Reale e scelto un insieme B ⊆ X(Ω), introduciamo la funzione integrabile fx(x) : R [0;+ ∝ ) tale che: Tale funzione fx(x) si chiama densità di probabilità o funzione di densità di X(ω),e il suo integrale misura la probabilità che X(ω) abbia valori x ∈ β.

  41. Distribuzione di probabilità Per gli assiomi del Calcolo delle probabilità, essa deve soddisfare le seguenti proprieta: dove S e il supporto di fx(x), ossia l'insieme S = { x ∈ R : fx(x) > 0 }

  42. Distribuzione di probabilità In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. Ancorché non formalizzato, il concetto della distribuzione statistica attorno ad una media era noto fin dall'antichità

  43. Teoria di Probabilità discreta In teoria delle probabilità una distribuzione discreta è una distribuzione di probabilità definita su un insieme discreto S. In particolare questo insieme può essere finito oppure numerabile (i suoi elementi possono essere elencati tramite i numeri naturali : S = {s0,s1,s2,...}). Una variabile aleatoria (o stocastica, o casuale è discreta se segue una distribuzione di probabilità discreta. Se l'insieme S è contenuto nei numeri relai, si può definire la funzione di ripartizione della distribuzione, che assume valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini , costante sugli intervalli semiaperti [sn,sn + 1[.

  44. Teoria di Probabilità discreta In teoria delle probabilità una distribuzione discreta è una distribuzione di probabilità definita su un insieme discreto S. In particolare questo insieme può essere finito oppure numerabile (i suoi elementi possono essere elencati tramite i numeri naturali : S = {s0,s1,s2,...}). Una variabile aleatoria (o stocastica, o casuale è discreta se segue una distribuzione di probabilità discreta. Se l'insieme S è contenuto nei numeri relai, si può definire la funzione di ripartizione della distribuzione, che assume valori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini , costante sugli intervalli semiaperti [sn,sn + 1[.

  45. Teoria di Probabilità discreta Particolari distribuzioni discrete di probabilità sono: • La distribuzione normale • La distribuzione binomiale • La distribuzione multinomiale • La distribuzione di Beroulli • La distribuzione di Poisson (o degli eventi rari), • La distribuzione geometrica • La distribuzione di Pascal

  46. Distribuzione Normale In teoria della probabilità, la distribuzione normale, o Gaussiana dal matematico tedesco Carl Gauss , è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valore medio. Il grafico della funzione di densità di probabilità associata è a forma di campana, nota come Campana di Gauss (o anche come curva degli errori, curva a campana, ogiva). La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema centrale del limite.

  47. Distribuzione Normale Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali come un semplice modello per fenomeni complessi. La distribuzione normale dipende da due parametri, la media μ e la varianza σ2, ed indicata tradizionalmente con: N (μ ,σ2 )

  48. Distribuzione Normale Una variabile casuale nel campo reale X(ω) ha una distribuzione normale o gaussiana se la sua densità vale : dove i parametri mX ∈ R e σ-quadrox> 0 sono rispettivamente il valor medio e la Varianza (sigma quadro) di X(ω). La distribuzione normale ha la seguente funzione di distribuzione:

  49. Distribuzione Normale Ne segue che Fx(x), funzione di distribuzione, è monotona crescente tra 0 e 1, e vale 1/2 per x = mxperche la densità è simmetrica rispetto al suo valore medio, si veda la figura : A sinistra vediamo la densità di fx(x)

  50. Distribuzione Binomiale In teoria della probabilità la distribuzione binomiale è una distribuzione di probabilità discreta che descrive il numero di successi in un processo di Bernoulli, ovvero la variabile casuale Sn = X1+X2+…Xn che somma n variabili aleatorie indipendenti di uguale distribuzione di BernoulliiB(p). un processo di Bernoulli è un particolare processo aleatorio discreto, ovvero una famiglia numerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di BernoulliB(p). Un processo di Bernoulli può essere considerato come una sequenza infinita di lanci di una moneta . Ogni singolo lancio è detto prova di Bernoulli.

More Related