Curtosi
Da Wikipedia, l'enciclopedia libera.
Questa voce riguardante un argomento di matematica non è ancora stata tradotta completamente dalla lingua inglese.
Se sei in grado, potresti contribuire a terminarla.
Il testo da tradurre potrebbe essere nascosto: clicca su modifica per visualizzarlo. Non usare programmi di traduzione automatica. |
La curtosi (nota anche come kurtosi), nel linguaggio della statistica, è un allontanamento dalla normalità distributiva, rispetto alla quale si verifica un maggiore appiattimento (distribuzione platicurtica) o un maggiore allungamento (distribuzione leptocurtica). La più nota misura della kurtosi è l'indice di Fisher, ottenuto facendo il rapporto tra il momento centrato di ordine 4 e il quadrato della varianza. Il valore dell'indice corrispondente alla distribuzione normale (gaussiana) è 0 (qualora si utilizzi l'indice qui sotto mostrato che, come si vede, è centrato in zero poiché viene sottratto 3). Un valore minore di 0 indica una distribuzione platicurtica, mentre un valore maggiore di 0 indica una distribuzione leptocurtica (è possibile che alcuni indici non siano centrati in zero e quindi il valore ottenuto nel caso di normalità è 3).
Indice |
[modifica] Introduzione
In statistica, l'indice di curtosi (o kurtosi) è uno degli indici relativi alla forma di una distribuzione, che costituisce una misura dello "spessore" delle code di una funzione di densità, ovvero il grado di "appiattimento" di una distribuzione. L'interesse per questo indice è dato dal fatto che lo "spessore" delle code influenza il comportamento di diverse statistiche.
Benché sia stato evidenziato che non c'è una relazione tra il grado di appiattimento e il coefficiente e l'indice di curtosi (si veda oltre), (Irving Kaplansky, nel 1945 in "A common error concerning Kurtosis") è rimasto in uso tale terminologia.
[modifica] Coefficiente di curtosi
Il coefficiente di curtosi è dato dalla formula:
Dove:
è l'indice di curtosi, dove m4 e m2 sono rispettivamente il momento centrale di ordine 4 e 2. Nel caso di una variabile casuale normale, β2 = 3, così che il coefficiente di curtosi γ2 risulta pari a zero.
Se il coefficiente di curtosi è:
- >0 la curva si definisce leptocurtica, cioè più "appuntita" di una normale.
- <0 la curva si definisce platicurtica, cioè più "piatta" di una normale.
- =0 la curva si definisce normocurtica, cioè "piatta" come una normale.
Il calcolo del coefficiente di curtosi ha senso solo nelle distribuzioni unimodali.
Siccome β2 e γ2 vengono calcolate facendo lo scarto dalla media alla quarta potenza, valori equidistanti dalla media (simmetrici rispetto la media) contribuiscono con lo stesso importo e valori distanti dalla media sono molto più "importanti" di quelli prossimi alla media, cosicché distribuzioni "larghe" producono β2 e γ2 elevati.
Essendo β2 un numero puro (il denominatore e il numeratore hanno la stessa unità di misura), moltiplicare i valori della distribuzione con una costante non ha effetti sull'indicatore. Così come non ha effetti lo spostamento dell'intera curva, in quanto sia il numeratore che il denominatore fanno rifermento alla media della distribuzione.
In altre parole: se la v.c. X ha un indicatore di curtosi pari a β2 e Y = a + bX, allora Y è anch'essa una v.c. che assume un indicatore di curtosi pari a β2.
Il coefficiente di curtosi (così come quello di simmetria), non rappresenta una buona stima del corrispondente parametro della popolazione se calcolato su piccoli campioni. Ciò nonostante, anche in presenza di piccoli campioni, valori elevati di tali indicatori devono far insorgere nel ricercatore il dubbio che le eventuali ipotesi di normalità non siano verificate.
Nella teoria delle probabilità e nelle statistiche, la curva di frequenza è una misura della distribuzione di probabilità di una variabile casuale con un valore reale. La più alta curva di frequenza significa che l'aumento della varianza è dovuto le deviazioni estreme rare, in contrasto con le frequenti deviazioni modesto-graduate.
[modifica] Fonti
- Joanes, D. N. & Gill, C. A. (1998) Comparing measures of sample skewness and kurtosis. Journal of the Royal Statistical Society (Series D): The Statistician 47 (1), 183–189. doi:10.1111/1467-9884.00122
[modifica] Voci correlate
- Blind Source Separation
- Funzione generatrice dei momenti
- Gaussiana
- Analisi delle componenti indipendenti
- Irving Kaplansky, che evidenziò l'assenza di relazione tra il concetto di "grado di appiattimento" e gli indici di curtosi e di simmetria.
- Media
- Simmetria (statistica)
- Varianza
[modifica] Collegamenti esterni
- (EN) Free Online Software (Calculator) computes various types of skewness and kurtosis statistics for any dataset (includes small and large sample tests)..
- (EN) Kurtosis on the Earliest known uses of some of the words of mathematics
- Portale Matematica: accedi alle voci di Wikipedia che parlano di matematica