Web - Amazon

We provide Linux to the World

ON AMAZON:


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Probabilità - Wikipedia

Probabilità

Da Wikipedia, l'enciclopedia libera.

Quello di probabilità è un concetto che - utilizzato a partire dal '600 - è diventato con il passare del tempo la base di diverse discipline scientifiche. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui faranno ricorso numerose scienze sia naturali che sociali.

Vedasi anche: Teoria della probabilità.

Indice

[modifica] Metodologia

[modifica] Tre definizioni

  • Definizione classica (Laplace): si applica ad esperimenti casuali i cui eventi elementari sono ritenibili equiprobabili. La probabilità di un evento è il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché questi ultimi siano ugualmente possibili.
  • Definizione frequentista (von Mises): si applica ad esperimenti casuali i cui eventi elementari non sono ritenibili ugualmente possibili, ma l'esperimento è ripetibile più volte sotto le stesse condizioni. La probabilità di un evento è associata alla frequenza relativa del verificarsi dell'evento stesso, su un elevato numero di prove (tendenti all'infinito).
  • Definizione soggettiva o soggettivista (De Finetti, Savage, Ramsey): si applica a esperimenti casuali i cui eventi elementari non sono ritenibili ugualmente possibili e l'esperimento non è ripetibile più volte sotto le stesse condizioni. La probabilità di un evento è fornita secondo l'esperienza personale e le informazioni disponibili.

Quindi se i casi possibili sono n e l'insieme dei casi favorevoli sono nA, per la teoria classica la probabilità che accada l'evento A sarà:

p_A = \frac {n_A}{n}

mentre per la teoria frequentista essa sarà:

p_A = \lim_{n \to \infty} \frac {n_A}{n}

In entrambe le definizioni la probabilità è una funzione il cui insieme di definizione, o meno propriamente dominio, è un numero reale compreso fra 0 e 1, estremi inclusi. La teoria classica considera che tutti i casi siano equiprobabili, cosa che, invece, nella realtà non accade sempre. La legge frequentista, infatti, considera ciò e, quindi, si basa sulla sperimentazione per cui è una legge sperimentale detta anche legge empirica del caso.

Diverso l'approccio bayesiano di cui è importante rappresentante Bruno de Finetti. Questa teoria introduce la speranza matematica.

Un esempio, dovuto al de Finetti, chiarisce tutto. Immaginiamo che ci sia una partita di calcio e che lo spazio dei tre eventi siano la vittoria della squadra di casa, la vittoria della squadra ospite e il pareggio. Vediamo cosa accade con i tre approcci:

  • secondo la teoria classica esiste 1 probabilità su 3 che avvenga il primo evento
  • secondo la teoria frequentista ci si può dotare di un almanacco e controllare tutte le partite precedenti e calcolare la frequenza di un evento
  • oppure, secondo la teoria soggettiva, ci si può documentare sullo stato di forma dei calciatori, sul terreno di gioco e così via fino ad emettere una probabilità soggettiva.

Risulta interessante notare che nella definizione classica è contenuto un vizio logico. Il fatto di supporre che tutti i casi siano egualmente possibili implica di avere definito in precedenza la probabilità nel momento stesso in cui la si definisce.

[modifica] Definizione Frequentista

Calcolo delle probabilità

In matematica con il calcolo delle probabilità si intende lo studio degli eventi casuali probabili, cioè quegli eventi che possono o non possono verificarsi e che dipendono unicamente dal caso. Tale studio permette di assegnare agli eventi casuali o aleatori un valore numerico al fine di poter confrontare oggettivamente tali eventi e decidere quale tra essi ha maggiore probabilità di verificarsi. La probabilità matematica di un evento casuale è uguale al rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, ammettendo che tutti i casi abbiano la stessa possibilità di verificarsi.

Nel lancio casuale di un dado non truccato l'uscita della faccia con il numero 2 ha una probabilità matematica di 1/6, in quanto i casi possibili sono 6, avendo il dado 6 facce ed essendo il numero dei casi favorevoli all'evento "uscita della faccia 2" 1, poiché una sola faccia del dado porta impresso il numero 2. Gli eventi casuali probabili vengono così associati a un numero compreso tra 0 e 1: la sua probabilità matematica calcolata nel modo descritto sopra.

Quando non è noto il numero dei casi favorevoli o il numero dei casi possibili, o sono ignoti entrambi per un evento casuale, è evidente che non si può calcolare la sua probabilità matematica. Si ricorre in questo caso alla probabilità statistica determinata osservando un modello naturale o artificiale dell'evento casuale da studiare. Se il campione è abbastanza grande, la legge dei grandi numeri dice che è lecito considerare la frequenza dell'evento uguale alla sua probabilità statistica.

La definizione frequentista poggia su quella che è definita legge (o postulato) empirica del caso ovvero legge dei grandi numeri: in una successione di prove effettuate nelle medesime condizioni, la frequenza di un evento si avvicina alla probabilità dell'evento stesso, e l'approssimazione tende a migliorare con l'aumentare delle prove.

[modifica] Impostazione assiomatica

L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa. La sua impostazione assiomatica si mostrava adeguata a prescindere dall'adesione a una o all'altra scuola di pensiero.

  1. Gli eventi sono sottoinsiemi di uno spazio S, e formano una classe additiva A.
  2. Ad ogni a appartenente alla classe A è assegnato un numero reale non negativo P(a) e mai superiore ad uno, detto probabilità di a.
  3. P(S)=1, ovvero la probabilità di un evento certo è pari ad 1
  4. Se l'intersezione tra a e b è vuota, allora P(a U b)=P(a)+P(b)
  5. Se A(n) è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli A(n) tende a 0, allora lim P(A(n))=0

[modifica] Teoremi

Dai suddetti assiomi derivano alcuni teoremi fondamentali, quali

nonché concetti chiave come

[modifica] Cenni storici

I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656) nei quali i due autori ottengono degli elenchi di numeri facendo ricorso alle permutazioni.

Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat.

La nascita del concetto moderno di probabilità viene attribuita a due grandi scienziati quali erano Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665), in particolar modo nella corrispondenza che si scambiavano discutendo di un problema legato al gioco d'azzardo: Se si lanciano più volte due dadi, quanti lanci sono necessari affinché si possa scommettere con vantaggio che esca il doppio sei?
(nota: vedi riquadro sul calcolo delle probabilità)

Nello stesso periodo Christiaan Huygens (1629-1695) scrive de ratiociniis in aleæ lugo nel quale utilizza il concetto di valore atteso e il campionamento statistico con e senza riposizione (vedi rispettivamente variabile casuale ipergeometrica e variabile casuale binomiale).

I suoi lavori influenzano tra l'altro Pierre de Montmort (1678-1719) che scrive nel 1708 Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre.

Pascal annuncia nel 1654 all'Accademia di Parigi che sta lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propone la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.

Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli dove vienen formulato il primo teorema limite, ovvero la legge dei grandi numeri.

Solo nel '900, negli anni '30, si viene a creare pure una moderna teoria della probabilità grazie soprattutto a Andrey Nikolaevich Kolmogorov che nel 1933 sviluppa la teoria assiomatica in Grundbegriffe der Wahrscheinlichkeitsrechnung ispirandosi alla teoria della misurazione o delle scale di misura il cui dibattito - in quel periodo - era particolarmente acceso tra le psico-discipline.

Nella prima metà del '900 si imposta anche la teoria soggettivista, la cui formulazione è dovuta a Bruno de Finetti.

[modifica] Difficoltà nell'utilizzo delle probabilità

Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con risposte apparentemente illogiche:

  • nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quale siano gli eventi: i lati delle carte e non le carte stesse
  • nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel considerare un unico evento quelli che in realtà sono due
  • nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita

[modifica] Voci correlate



Static Wikipedia 2008 (March - no images)

aa - ab - als - am - an - ang - ar - arc - as - bar - bat_smg - bi - bug - bxr - cho - co - cr - csb - cv - cy - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - jbo - jv - ka - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nn - -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -
https://www.classicistranieri.it - https://www.ebooksgratis.com - https://www.gutenbergaustralia.com - https://www.englishwikipedia.com - https://www.wikipediazim.com - https://www.wikisourcezim.com - https://www.projectgutenberg.net - https://www.projectgutenberg.es - https://www.radioascolto.com - https://www.debitoformativo.it - https://www.wikipediaforschools.org - https://www.projectgutenbergzim.com