Il calcolo delle probabilità
Il calcolo delle probabilità è stato introdotto e si utilizza per risolvere problemi in cui le soluzioni sono legate al caso, o nei quali le informazioni non sono sufficienti per fare una valutazione di tipo deterministico .
Esempi:
Quale numero uscirà nella prossima puntata del gioco della roulette?
Che tempo farà domani?
ORIGINE STORICA
La probabilità, pur essendo considerata dal punto di vista filosofico, non era conosciuta al mondo antico nei suoi aspetti quantitativi.
I primi documenti che si conservano risalgono al XVI secolo e riguardano i giochi d’azzardo.
G. Cardano (1501-1576) : perdendo sistematicamente nel gioco dei dadi, intraprese per primo lo studio matematico della probabilità, scrivendo nel 1526
“Liber de Ludo aleae” ( pubblicato postumo nel 1663)
Afferma che bisogna fare scommesse per compensarsi del tempo perduto e dà dei consigli su come barare.
Galileo, nella sua opera Sopra le scoperte dei dadi (1630), si occupò di probabilità, stimolato da quesiti postigli da nobili fiorentini appassionati del gioco della “zara” (un gioco con tre dadi) e fece osservazioni probabilistiche legate alla propagazione degli errori nelle misurazioni.
La nascita del Calcolo delle Probabilità si fa risalire comunemente al fitto carteggio tra Pascal (1623-1662) e Fermat (1601-1665), avvenuto verso la metà del XVII secolo, e sollecitato dai problemi proposti dal Cavaliere de Méré, un accanito giocatore d’azzardo, molto interessato alla matematica, all’amico Blaise Pascal.
I problemi introdotti dal Cavaliere de Méré riprendono tematiche già introdotte da Pacioli, Cardano e Tartaglia.
Ad esempio: gettando un dado otto volte un giocatore deve tentare di ottenere uno; dopo tre lanci non riusciti, però, il gioco viene interrotto. Come va suddivisa la posta? ( enunciato particolare del celebre Problème des partis)
Dalle discussioni epistolari tra Pascal e Fermat riceve un notevole impulso anche il calcolo combinatorio ( si ricordino le proprietà del triangolo aritmetico o triangolo di Pascal).
Non è un caso che lo sviluppo del calcolo delle probabilità coincida con l’avvento della scienza sperimentale.
C. Huygens (1629-1695) : nel suo “De Ratiociniis in Ludo Aleae” (Sui ragionamenti nel gioco dei dadi) (1657) ripropose in maniera più sistematica il contenuto del carteggio fra Pascal e Fermat, dando anche una risposta a un quesito, non risolto da Pascal, di quale fosse la cifra equa da pagare a un giocatore per subentrargli in una data puntata.
Famiglia Bernoulli:
Jakob Bernoulli (1654-1705) – “Ars conjectandi” ( Arte del congetturare) ( pubblicato postumo nel 1713) – primo trattato importante sulla teoria della probabilità
“Noi definiamo l’arte di congetturare, o stocastica, come quella di valutare il più esattamente possibile le probabilità delle cose, affinché sia sempre possibile, nei nostri giudizi e nelle nostre azioni, orientarci su quella che risulta la scelta migliore, più appropriata, più sicura, più prudente; il che costituisce il solo oggetto della saggezza del filosofo e della prudenza del politico”.
Jakob Bernoulli è un matematico e scienziato svizzero. Nella sua opera Ars conjectandi troviamo i concetti anticipatori del calcolo delle probabilità, insieme ai cosiddetti numeri di Bernoulli e al primo enunciato della legge dei grandi numeri, oggi fondamentale per le Scienze statistiche.
Il teorema di Bernouilli sulla legge dei grandi numeri
“In base a esso, se E è un evento e p è la probabilità (costante) di successo, cioè la probabilità del verificarsi di E in una prova, allora la frequenza relativa dei successi su n prove indipendenti eseguite converge a p’, cioè se il numero n delle prove effettuate è sufficientemente grande, è quasi certo che la frequenza relativa dei successi nelle n prove differirà assai poco dalla probabilità di successo nella singola prova”.
Se lanciamo una moneta, tutti sappiamo che la probabilità che esca “testa” è del 50%, cioè ½, e così per la probabilità che esca “croce”. Ciò significa che se eseguo dieci lanci otterrò esattamente 5 volte “testa” e cinque volte “croce”? Certo che no, rispondiamo tutti: per quanto ne so a priori, potrei ottenere dieci uscite dell’una e zero dell’altra. Se però effettuo un numero molto grande di tentativi, la frequenza (cioè il verificarsi di uno dei due eventi), per esempio l’uscita “testa”, si avvicina, cioè tende alla probabilità teorica, nel nostro caso ½. Se vogliamo ancora un esempio per chiarire ulteriormente, pensiamo al sesso di un nascituro: anche in questo caso la probabilità che sia maschio o femmina è del 50%, ma su quattro figli non è detto che due siano maschi e due femmine. Se però pensiamo, ai nati in Italia, per esempio nel 2005, quindi un numero abbastanza grande, scopriamo che i nati sono in tutto 554022 di cui 268325 femmine e 285697 maschi. E’ facile (con la calcolatrice…) calcolare il rapporto tra nati femmine o maschi e quella totale (circa 0,51 nel primo caso e 0,48 nel secondo) e si vede che tale rapporto tende a 0,5.
La parola “tende” è stata sottolineata per due motivi: il primo è che questa semplice parola in Matematica rappresenta un importante concetto, quello di limite ; il secondo perché ci servirà, più avanti, a confutare alcune false credenze propinate ai giocatori del lotto per convincerli a continuare a puntare, mascherando le motivazioni sotto una falsa parvenza scientifica.
La probabilità si calcola come rapporto tra i casi ritenuti favorevoli al verificarsi di un evento e quelli ritenuti possibili; con il concetto di speranza matematica si arriverà a quello di gioco equo .
Si definisce “speranza Matematica”il prodotto della somma da vincere per la probabilità di vincerla; per esempio se la probabilità p=1/18 è la probabilità al gioco del Lotto che esca un numero su una determinata ruota (spiegheremo più avanti come si perviene a questo valore) ed io gioco 1 €, la speranza matematica è
1 € x €, cioè circa 0,056 €
Come si nota, la speranza matematica è un valore espresso, per esempio, in Euro.
Se vogliamo capire meglio il significato di questo concetto, possiamo dire che esso rappresenta la previsione della vincita media per partita che si avrà facendone un numero molto elevato.
Questa nuova nozione ci porta ad un’altra, il cosiddetto gioco equo : esso si verifica quando il prezzo del gioco è uguale alla speranza Matematica della vincita, cioè se alla fine i giocatori si trovano a non aver guadagnato nulla, ma anche a non aver perso nulla, ovvero se la speranza Matematica di ciascun giocatore è nulla. Quindi:
Prezzo pagato = Vincita * probabilità.(1)
Di qui ricaviamo che la somma che dovremmo ricevere in caso di vincita è pari al rapporto tra il prezzo pagato e la probabilità, sempre che il gioco sia equo.
Daniel Bernoulli (1700-1782) – applicazione della probabilità al commercio, alla medicina e all’astronomia. Introduzione del calcolo infinitesimale nel C.d. P.
A.de Moivre (1667-1754) :
“Doctrine de chances” (1718) – questioni sul gioco dei dadi, sull’estrazione di palline di diverso colore da urne, sul problema del punteggio in giochi con diverse probabilità di vittoria, su rendite vitalizie. Si trova già in questa opera quella che verrà chiamata la definizione classica di probabilità, generalmente attribuita a Pierre Simon de Laplace.
Il C.d.P. non ha comunque nel XVIII secolo uno sviluppo paragonabile ad altri rami della Matematica e si sviluppa con incertezza e diffidenza.
Un importante contributo viene fornito da Joseph Louis Lagrange (1736-1813) che associa il C.d.P. alla teoria degli errori.
La prima opera di grandissimo interesse è dovuta a Laplace.
P.S. de Laplace (1749-1827) :
“Théorie analytique des probabilités” (1812) , nella sua seconda edizione preceduto dal saggio introduttivo “Essai Philosophique des probabilités”.
Raccoglie i risultati sulla probabilità raggiunti.
La teoria delle probabilità è in fondo soltanto senso comune espresso in numeri.
A.N. Kolmogorov (1903- 1987) :
“Grundbegriffe” (1933)
Fondamento assiomatico della teoria della probabilità mediante l’uso della teoria della misura di Lebesgue.
B. de Finetti (1906-1985) : Probabilità soggettiva. La sua interpretazione fu a lungo ignorata e il riconoscimento avvenne soprattutto grazie a L.J. Savage che diffuse nel mondo anglosassone gli aspetti della teoria relativi al suo impiego nell’inferenza statistica.Sempre concreto e vivo l’interessamento alla didattica. Egli sostenne decisamente la necessità di render intuitiva la matematica.
DEFINIZIONI DI PROBABILITÀ
DEFINIZIONE CLASSICA La probabilità di un evento casuale è il rapporto tra il numero dei casi favorevoli e quello dei casi possibili, supposti tutti gli eventi elementari equiprobabili.
DEFINIZIONE FREQUENTISTA ( legge empirica del caso)- Al crescere delle prove la frequenza dell’esito si avvicina alla sua probabilità. La prima definizione implicita di probabilità nella storia è quella frequentista.
DEFINIZIONE SOGGETTIVISTA La probabilità di un evento A rappresenta il grado di fiducia che un individuo coerente attribuisce, secondo le sue informazioni, all’avverarsi di A.
Se vogliamo essere più operativi possiamo dire che la probabilità di un evento per un individuo è il prezzo che egli stima equo attribuire a un importo unitario esigibile, se A si verifica.
Ognuna di queste definizioni ammette dei limiti e si applica solo a casi particolari.
La definizione classica è “circolare” nel senso che definisce la probabilità utilizzando il concetto di eventi equiprobabili e si applica solo a insiemi finiti; quella frequentista è vincolata alla possibilità di realizzare prove ripetute nelle stesse, identiche condizioni; quella soggettivista non è accettata da alcuni perché ritenuta fondata su una visione non oggettiva.
Il problema della definizione del concetto di probabilità è molto delicato. Lo dimostra anche il fatto che il calcolo delle probabilità è stato incluso piuttosto tardi nell’ambito delle discipline matematiche, e che ancora oggi è in corso il dibattito connesso con le sue applicazioni pratiche.
Le leggi fondamentali del Calcolo delle Probabilità sono però comuni, nelle condizioni di applicabilità di ciascuna, a tutte e tre le definizioni. Ciò porterebbe a considerare una convergenza tra le tre definizioni; rimane però una profonda distanza concettuale, che si manifesta operativamente nell’inferenza statistica e nella teoria statistica delle decisioni.
La maggior parte dei matematici è in accordo con la teoria assiomatica della probabilità, dovuta a Kolmogorov, che considera la probabilità come una misura finita, coerente con l’estensione della teoria della misura a spazi astratti ( M.Fréchet, H. Lebesgue). Essa ha il pregio di garantire il rigore logico e prende avvio proprio dalle leggi fondamentali del Calcolo delle Probabilità per una costruzione assiomatica.
L’AMBIENTE
Indichiamo con il termine esperimento un processo qualunque di cui non possiamo conoscere il risultato, ma del quale ci sono noti gli esiti possibili, che chiamiamo casi elementari.
Indichiamo con Ω l’insieme che ha come elementi i casi elementari e lo chiamiamo spazio dei casi elementari.
Esempi – Nel lancio di un dado Ω = {1;2;3;4;5;6}
Nel lancio di una moneta Ω = {T;C}
Nel lancio di due dadi Ω = {(1;1); (1;2); (1;3); …..(2;1); (2;2)………………….}
Nella scelta di un punto appartenente a un quadrato di lato unitario Ω = [0;1] 2
Ogni sottoinsieme di Ω è detto evento. Ogni caso elementare è anche un evento, Ø è l’evento impossibile, Ω è l’evento certo.
Esempi – Nell’estrazione di una carta da gioco da un mazzo di 40 carte, W è l’insieme costituito dalle quaranta carte da gioco.
Sono eventi:
A = l’estrazione del fante di cuori
B = l’estrazione di una carta di fiori
C = l’estrazione di un asso o di un re
D = l’estrazione di una figura
E = l’estrazione di una carta che non sia di fiori
IL LINGUAGGIO
Il linguaggio che viene utilizzato è quello della teoria degli insiemi.
Dati due eventi A e B, si indicherà:
– con A∪B l’evento corrispondente al verificarsi di A o di B ( cioè se si verifica almeno uno dei due eventi)
– con A∩B l’evento corrispondente al verificarsi di A e di B ( cioè se si verificano entrambi gli eventi)
– con A c l’evento corrispondente al non verificarsi di A ( evento contrario ad A)
– con A – B l’evento corrispondente al verificarsi di A e al non verificarsi di B (A – B = A∩Bc)
Due eventi si dicono incompatibili se non possono verificarsi contemporaneamente, cioè se la loro intersezione è l’insieme vuoto.
Due eventi si dicono indipendenti se il verificarsi di uno non modifica la probabilità del verificarsi dell’altro.
ALCUNE SEMPLICI REGOLE
La probabilità di un evento impossibile è 0
p(∅) = 0
La probabilità di un evento certo è 1
p(E) = 1
Se A è un evento di probabilità p, la probabilità del suo evento contrario è 1 – p
p(¬A) = 1 – p(A)
Se due eventi A e B sono incompatibili, la probabilità dell’evento unione è uguale alla somma delle probabilità dei singoli eventi
se p(A∩B) = ∅ allora p (A∪B) = p(A)+p(B)
Se due eventi A e B sono compatibili, la probabilità dell’evento unione è uguale alla somma delle probabilità dei singoli eventi alla quale va sottratta la probabilità della loro intersezione
se p(A∩B) ≠ ∅ allora p(A∪B) = p(A)+p(B) – p(A∩B)
Categorie:K10- Probabilità e Statistica - Probability and Statistics
Rispondi