Distribució gamma

Infotaula distribució de probabilitatDistribució Gamma
Funció de densitat de probabilitat
Probability density plots of gamma distributions
Funció de distribució de probabilitat
Cumulative distribution plots of gamma distributions
Tipusdistribution de Tweedie, família exponencial, generalized gamma distribution (en) Tradueix, distribució matriu gamma, distribució univariant i distribució de probabilitat contínua Modifica el valor a Wikidata
Paràmetres
  • k ( 0 , ) {\displaystyle k\in (0,\infty )} forma
  • θ ( 0 , ) {\displaystyle \theta \in (0,\infty )} escala
Suport x ( 0 , ) {\displaystyle x\in (0,\infty )}
fdp f ( x ) = 1 θ k Γ ( k ) x k 1 e x / θ {\displaystyle f(x)={\frac {1}{\theta ^{k}\,\Gamma (k)}}\,x^{k-1}e^{-x/\theta }}
FD F ( x ) = 1 Γ ( k ) γ ( k , x θ ) {\displaystyle F(x)={\frac {1}{\Gamma (k)}}\gamma \left(k,{\frac {x}{\theta }}\right)}
Esperança matemàtica k θ {\displaystyle k\,\theta }
MedianaNo té expressió tancada
Moda ( k 1 ) θ ,   si   k 1 {\displaystyle (k-1)\theta ,\ {\text{si}}\ k\geq 1}
Variància k θ 2 {\displaystyle k\,\theta ^{2}}
Coeficient de simetria 2 k {\displaystyle {\frac {2}{\sqrt {k}}}}
Curtosi 6 k {\displaystyle {\frac {6}{k}}}
Entropia k + ln θ + ln Γ ( k ) + ( 1 k ) ψ ( k ) {\displaystyle {\begin{aligned}k&+\ln \theta +\ln \Gamma (k)\\&+(1-k)\psi (k)\end{aligned}}}
FGM ( 1 θ t ) k ,   per a  t < 1 θ {\displaystyle (1-\theta t)^{-k},\ {\text{per a }}t<{\frac {1}{\theta }}}
FC ( 1 θ i t ) k {\displaystyle (1-\theta it)^{-k}}
Informació de Fisher I ( k , θ ) = ( ψ ( 1 ) ( k ) θ 1 θ 1 k θ 2 ) {\displaystyle I(k,\theta )={\begin{pmatrix}\psi ^{(1)}(k)&\theta ^{-1}\\\theta ^{-1}&k\theta ^{-2}\end{pmatrix}}}
MathworldGammaDistribution Modifica el valor a Wikidata

En la teoria de la probabilitat i l'estadística, la distribució gamma és una família de distribucions contínues amb dos paràmetres que inclouen com a casos particulars moltes distribucions importants, com la distribució exponencial, khi quadrat o Erlang. Té un paràmetre d'escala θ i un paràmetre de forma k. Si k és un nombre sencer aleshores la distribució representa la suma de k variables aleatòries exponencials, cadascuna de les quals té mitjana θ. La referència bàsica d'aquest article és Johnson et al.[1].

Funció de densitat i parametritzacions

Hi ha dues parametritzacions diferents de la distribució gamma. La primera[2] utilitza un paràmetre d'escala θ ( 0 , ) {\displaystyle \theta \in (0,\infty )} i un paràmetre de forma k ( 0 , ) {\displaystyle k\in (0,\infty )} , i és àmpliament utilitzada tant en Estadística com en Probabilitats; a més, és la més habitual en el programari estadístic.[3] La funció de densitat és

f ( x ; k , θ ) = { 1 θ k Γ ( k ) x k 1 e x / θ , si   x > 0 , 0 , si   x 0 , {\displaystyle f(x;k,\theta )={\begin{cases}{\dfrac {1}{\theta ^{k}\,\Gamma (k)}}\,x^{k-1}\,e^{-x/\theta },&{\text{si}}\ x>0,\\0,&{\text{si}}\ x\leq 0,\end{cases}}}

on Γ ( k ) {\displaystyle \Gamma (k)} és la funció gamma. Si X {\displaystyle X} és una variable aleatòria amb aquesta distribució, s'escriu X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} o X Gamma ( k , θ ) {\displaystyle X\sim {\text{Gamma}}(k,\theta )} .


La segona parametrització utilitza un paràmetre d'escala inversa, que també s'anomena paràmetre de taxa (rate parameter), β ( 0 , ) {\displaystyle \beta \in (0,\infty )} , β = 1 / θ {\displaystyle \beta =1/\theta } , i el paràmetre de forma α = k ( 0 , ) {\displaystyle \alpha =k\in (0,\infty )} . Aquesta parametrització també s'utilitza molt, per exemple en teoria de la probabilitat [4] o en Estadística bayesiana.[5] La funció de densitat, amb aquesta parametrització és

f ( x ; α , β ) = { β α Γ ( α ) x α 1 e β x , si   x > 0 , 0 , si   x 0. {\displaystyle f(x;\alpha ,\beta )={\begin{cases}{\dfrac {\beta ^{\alpha }}{\Gamma (\alpha )}}\,x^{\alpha -1}\,e^{-\beta x},&{\text{si}}\ x>0,\\0,&{\text{si}}\ x\leq 0.\end{cases}}}


En aquest article utilitzarem la primera parametrització.

Funció de distribució

F ( x ; k , θ ) = { 1 Γ ( k ) γ ( k , x θ ) , si   x 0 0 , si   x < 0 , {\displaystyle F(x;k,\theta )={\begin{cases}{\dfrac {1}{\Gamma (k)}}\gamma {\big (}k,{\dfrac {x}{\theta }}{\big )},&{\text{si}}\ x\geq 0\\0,&{\text{si}}\ x<0,\end{cases}}}
on γ ( k , x ) {\displaystyle \gamma (k,x)} és la funció gamma incompleta inferior.

Propietat d'escala

Sigui X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} . Aleshores per qualsevol c > 0 {\displaystyle c>0} , tenim que c X Γ ( k , c θ ) {\displaystyle c\,X\sim \Gamma (k,c\,\theta )} . Aquesta propietat es comprova calculant la funció de densitat de c X {\displaystyle c\,X} .

En particular, si X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} , aleshores X θ Γ ( k , 1 ) {\displaystyle {\frac {X}{\theta }}\sim \Gamma (k,1)} i, recíprocament, si Y Γ ( k , 1 ) {\displaystyle Y\sim \Gamma (k,1)} , aleshores θ Y Γ ( k , θ ) {\displaystyle \theta \,Y\sim \Gamma (k,\theta )} ; Johnson et al[6] anomenen distribució gamma estàndard a la distribució Γ ( k , 1 ) {\displaystyle \Gamma (k,1)} .

En termes de les funcions de densitat tenim la relació

f ( x ; k , θ ) = 1 θ f ( x θ ; k ; 1 ) , {\displaystyle f(x;k,\theta )={\frac {1}{\theta }}\,f{\Big (}{\frac {x}{\theta }};k;1{\Big )},}
que és una de les característiques dels paràmetres d'escala.

La propietat d'escala permet reduir diverses propietats (per exemple el càlcul dels moments) a casos més senzills.

Moments

La distribució gamma té moments de tots els ordres. Si X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} , aleshores per a n 1 {\displaystyle n\geq 1} ,

E [ X ] = θ k i E [ X n ] = θ n k ( k + 1 ) ( k + n 1 ) ,   n 2. {\displaystyle E[X]=\theta k\quad {\text{i}}\quad E[X^{n}]=\theta ^{n}k(k+1)\cdots (k+n-1),\ n\geq 2.}


En particular,

E [ X 2 ] = θ 2 k ( k + 1 ) , {\displaystyle E[X^{2}]=\theta ^{2}k(k+1),}
d'on
Var ( X ) = E [ X 2 ] ( E [ X ] ) 2 = θ 2 k . {\displaystyle {\text{Var}}(X)=E[X^{2}]-{\big (}E[X]{\big )}^{2}=\theta ^{2}k.}

E [ X ] = θ k i Var ( X ) = θ 2 k . {\displaystyle E[X]=\theta k\quad {\text{i}}\quad {\text{Var}}(X)=\theta ^{2}k.}


Prova
Calcularem els moments pel cas de la distribució gamma estàndard, és dir, amb θ = 1 {\displaystyle \theta =1} , dels quals es dedueixen els del cas general per la propietat d'escala. Reduirem la integral que intervé el càlcul dels moments a la funció gamma: Concretament, si Y Γ ( k , 1 ) {\displaystyle Y\sim \Gamma (k,1)} , llavors
E [ Y n ] = 1 Γ ( k ) 0 x n + k 1 e x d x = Γ ( n + k ) Γ ( k ) = ( k + n 1 ) ( k n 2 ) k , {\displaystyle E[Y^{n}]={\frac {1}{\Gamma (k)}}\int _{0}^{\infty }x^{n+k-1}e^{-x}\,dx={\frac {\Gamma (n+k)}{\Gamma (k)}}=(k+n-1)(k-n-2)\cdots k,}
on a la darrera igualtat igualtat hem utilitzat l'equació funcional de la funció gamma Γ ( t + 1 ) = t Γ ( t ) ,   t > 0 {\displaystyle \Gamma (t+1)=t\,\Gamma (t),\ t>0} . Per a X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} , per la propietat d'escala, amb les notacions anteriors, tenim que
E [ X n ] = E [ ( θ Y ) n ] = θ n E [ Y n ] . {\displaystyle E[X^{n}]=E{\big [}(\theta Y)^{n}{\big ]}=\theta ^{n}\,E[Y^{n}].}


Funció generatriu de moments i funció característica

La distribució gamma Γ ( k , θ ) {\displaystyle \Gamma (k,\theta )} té funció generatriu de moments en una semirecta que conté el zero:

M ( t ) = 1 ( 1 θ t ) k , t ( , 1 θ ) . {\displaystyle M(t)={\frac {1}{(1-\theta t)^{k}}},\quad t\in (-\infty ,{\frac {1}{\theta }}).}


Prova
De nou, començarem per la distribució gamma estàndard: Si Y Γ ( k , 1 ) {\displaystyle Y\sim \Gamma (k,1)} , llavors
M Y ( t ) = 1 Γ ( k ) 0 e t x x k 1 e x d x = 1 Γ ( k ) 0 e x ( 1 t ) x k 1 d x . {\displaystyle M_{Y}(t)={\frac {1}{\Gamma (k)}}\int _{0}^{\infty }e^{tx}x^{k-1}e^{-x}\,dx={\frac {1}{\Gamma (k)}}\int _{0}^{\infty }e^{-x(1-t)}x^{k-1}\,dx.}
Si t < 1 {\displaystyle t<1} , fem el canvi x = y / ( 1 t ) {\displaystyle x=y/(1-t)} i tenim
M Y ( t ) = 1 Γ ( k ) ( 1 t ) k 0 e y y k 1 d y = 1 ( 1 t ) k . {\displaystyle M_{Y}(t)={\frac {1}{\Gamma (k)\,(1-t)^{k}}}\,\int _{0}^{\infty }e^{-y}y^{k-1}\,dy={\frac {1}{(1-t)^{k}}}.}
.

En el cas general, X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} , per la propietat d'escala, si definim Y = X / θ {\displaystyle Y=X/\theta } , llavors Y Γ ( k , 1 ) {\displaystyle Y\sim \Gamma (k,1)} . Per les propietats de les funcions generatrius, per t < 1 / θ {\displaystyle t<1/\theta } ,

M X ( t ) = E [ e t X ] = E [ e t θ Y ] = M Y ( t θ ) = 1 ( 1 t θ ) k . {\displaystyle M_{X}(t)=E{\big [}e^{tX}{\big ]}=E{\big [}e^{t\theta Y}{\big ]}=M_{Y}(t\theta )={\frac {1}{(1-t\theta )^{k}}}.}


La funció característica és [4]

φ ( t ) = 1 ( 1 i θ t ) k = exp { k log ( 1 i θ t ) } , t R , {\displaystyle \varphi (t)={\frac {1}{(1-i\theta t)^{k}}}=\exp {\Big \{}-k\log(1-i\theta t){\Big \}},\quad t\in \mathbb {R} ,}
on log {\displaystyle \log } és la branca principal del logaritme, és a dir, amb la part imaginària a ( π , π ) {\displaystyle (-\pi ,\pi )} .

Caràcter reproductiu

Si X 1 Γ ( k 1 , θ ) {\displaystyle X_{1}\sim \Gamma (k_{1},\theta )} i X 2 Γ ( k 2 , θ ) {\displaystyle X_{2}\sim \Gamma (k_{2},\theta )} independents, aleshores X 1 + X 2 Γ ( k 1 + k 2 , θ ) {\displaystyle X_{1}+X_{2}\sim \Gamma (k_{1}+k_{2},\theta )} ; és diu que la distribució Γ ( k , θ ) {\displaystyle \Gamma (k,\theta )} és reproductiva[7] respecte el paràmetre k {\displaystyle k} . Aquesta propietat es demostra utilitzant les funcions característiques (o les funcions generatrius de moments) de X 1 {\displaystyle X_{1}} i X 2 {\displaystyle X_{2}} .


Més generalment, si X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} són independents, X i Γ ( k i , θ ) {\displaystyle X_{i}\sim \Gamma (k_{i},\theta )} , aleshores

i = 1 n X i Γ ( i = 1 n k i , θ ) . {\displaystyle \sum _{i=1}^{n}X_{i}\sim \Gamma {\big (}\sum _{i=1}^{n}k_{i},\theta {\big )}.}
.

La distribució gamma és infinitament divisible

La distribució gamma Γ ( k , θ ) {\displaystyle \Gamma (k,\theta )} és infinitament divisible (o infinitament descomposable),[8] això és, sigui X Γ ( k , θ ) {\displaystyle X\sim \Gamma (k,\theta )} , aleshores per a qualsevol enter n 1 {\displaystyle n\geq 1} , existeixen (en algun espai de probabilitat) variables aleatòries X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} independents i idènticament distribuïdes tals que

X   = D   X 1 + + X n , {\displaystyle X\ {\overset {\mathcal {D}}{=}}\ X_{1}+\cdots +X_{n},}
on = D {\displaystyle {\overset {\mathcal {D}}{=}}} indica la igualtat en distribució o llei. Aquí cal prendre X i Γ ( k / n , θ ) ,   i = 1 , , n {\displaystyle X_{i}\sim \Gamma (k/n,\theta ),\ i=1,\dots ,n} .

La representació de Lévy-Khintchine[9] de la funció característica és

φ ( t ) = exp { k 0 ( e i t x 1 ) e x / θ x d x } . {\displaystyle \varphi (t)=\exp {\Big \{}k\int _{0}^{\infty }{\big (}e^{itx}-1{\big )}\,{\frac {e^{-x/\theta }}{x}}\,dx{\Big \}}.}
Per tant, la mesura de Lévy té densitat
g ( x ) = k e x / θ x , x > 0 , {\displaystyle g(x)=k\,{\frac {e^{-x/\theta }}{x}},\quad x>0,}
i la part gaussiana i la deriva (drift) són zero (vegeu Sato [10] per a les definicions d'aquests termes).

Aproximació de la distribució gamma per la distribució normal

En aquest apartat suposarem que el paràmetre k {\displaystyle k} és un nombre natural. Sigui X k Γ ( k , 1 ) {\displaystyle X_{k}\sim \Gamma (k,1)} , aleshores, com conseqüència del teorema central de límit,

X k k k   D k   N ( 0 , 1 ) . {\displaystyle {\frac {X_{k}-k}{\sqrt {k}}}\ {\underset {k\to \infty }{\overset {\mathcal {D}}{\longrightarrow }}}\ {\mathcal {N}}(0,1).}
(Vegeu les notacions a convergència de variables aleatòries.) En altres paraules, per a k {\displaystyle k} gran, X k {\displaystyle X_{k}} és aproximadament normal N ( k , k ) {\displaystyle {\mathcal {N}}(k,k)} .

Prova
Sigui T 1 , T 2 , {\displaystyle T_{1},T_{2},\dots } una successió de variables aleatòries independents totes amb llei Γ ( 1 , 1 ) {\displaystyle \Gamma (1,1)} (és dir, amb distribució exponencial de paràmetre 1). Tenim que E [ T i ] = 1 {\displaystyle E[T_{i}]=1} i Var ( T i ) = 1 {\displaystyle {\text{Var}}(T_{i})=1} . Llavors, pel teorema central del límit,
i = 1 k T i k k   D k   N ( 0 , 1 ) . {\displaystyle {\frac {\sum _{i=1}^{k}T_{i}-k}{\sqrt {k}}}\ {\underset {k\to \infty }{\overset {\mathcal {D}}{\longrightarrow }}}\ {\mathcal {N}}(0,1).}
Però per la propietat reproductiva, i = 1 k T i Γ ( k , 1 ) {\displaystyle \sum _{i=1}^{k}T_{i}\sim \Gamma (k,1)} .

Però aquesta aproximació a la distribució normal és molt lenta i el següent resultat dóna una aproximació més ràpida: Sigui X k Γ ( k , 1 ) {\displaystyle X_{k}\sim \Gamma (k,1)} . Aleshores

2 ( X k k 1 4 )   D k   N ( 0 , 1 ) . {\displaystyle 2{\Big (}{\sqrt {X_{k}}}-{\sqrt {k-{\tfrac {1}{4}}}}{\Big )}\ {\underset {k\to \infty }{\overset {\mathcal {D}}{\longrightarrow }}}\ {\mathcal {N}}(0,1).}
És a dir, per a k {\displaystyle k} gran, X k {\displaystyle {\sqrt {X_{k}}}} és aproximadament normal N ( k 1 4 , 1 4 ) {\displaystyle {\mathcal {N}}{\Big (}{\sqrt {k-{\tfrac {1}{4}}}},{\tfrac {1}{4}}{\Big )}} .[11]

Prova
Considerem la variable aleatòria
Z k = X k k 1 4 . {\displaystyle Z_{k}={\sqrt {X_{k}}}-{\sqrt {k-{\frac {1}{4}}}}.}
Per la fórmula de canvi de variables, la funció de densitat de Z k {\displaystyle Z_{k}} és
g k ( x ) = 2 ( k 1 ) ! ( x + k 1 4 ) 2 k 1 exp { ( x + k 1 4 ) 2 } . {\displaystyle g_{k}(x)={\frac {2}{(k-1)!}}\,{\Big (}x+{\sqrt {k-{\tfrac {1}{4}}}}{\Big )}^{2k-1}\exp {\Big \{}-{\Big (}x+{\sqrt {k-{\tfrac {1}{4}}}}{\Big )}^{2}{\Big \}}.}
Llavors es comprova que
lim k g k ( x ) = 2 2 π e 2 x 2 , {\displaystyle \lim _{k\to \infty }g_{k}(x)={\frac {2}{\sqrt {2\pi }}}\,e^{-2x^{2}},}
que és la funció de densitat d'una distribució normal N ( 0 , 1 4 ) {\displaystyle {\mathcal {N}}(0,{\tfrac {1}{4}})} . De les propietats de la convergència en distribució es dedueix que Z k {\displaystyle Z_{k}} convergeix en distribució a una distribució N ( 0 , 1 4 ) {\displaystyle {\mathcal {N}}(0,{\tfrac {1}{4}})} . Vegeu [11] pels detalls.



Altres propietats

Família exponencial

La distribució gamma pertany a la família exponencial de dos paràmetres i té paràmetres naturals k 1 {\displaystyle k-1} i 1 / θ {\displaystyle 1/\theta } , i estadístics naturals X {\displaystyle X} i ln ( X ) {\displaystyle \ln(X)} .

Moda

Quan k 1 {\displaystyle k\geq 1} , la funció de densitat de la distribució Γ ( k , θ ) {\displaystyle \Gamma (k,\theta )} té un únic màxim al punt θ ( k 1 ) {\displaystyle \theta (k-1)} ; és diu que aquest valor és la moda de la distribució i que la distribució és unimodal. El valor del màxim és ( k 1 ) k 1 e ( k 1 ) / ( θ Γ ( k ) ) {\displaystyle (k-1)^{k-1}e^{-(k-1)}/(\theta \,\Gamma (k))} , que per la fórmula de Stirling, per a valors grans de k {\displaystyle k} es pot aproximar per 1 / ( θ 2 π ( k 1 ) ) {\displaystyle 1/{\Big (}\theta {\sqrt {2\pi (k-1)}}{\Big )}} .[12]

Quan k ( 0 , 1 ) {\displaystyle k\in (0,1)} , aleshores la densitat no està afitada, ja que, en aquest cas, lim x 0 + f ( x ; k , θ ) = . {\displaystyle \lim _{x\to 0^{+}}f(x;k,\theta )=\infty .}

Entropía

L'entropia ve donada per

1 θ k Γ ( k ) 0 x k 1 e x / θ [ ( k 1 ) ln x x / θ k ln θ ln Γ ( k ) ] d x {\displaystyle {\frac {-1}{\theta ^{k}\Gamma (k)}}\int _{0}^{\infty }{\frac {x^{k-1}}{e^{x/\theta }}}\left[(k-1)\ln x-x/\theta -k\ln \theta -\ln \Gamma (k)\right]\,dx\!}
= [ ( k 1 ) ( ln θ + ψ ( k ) ) k k ln θ ln Γ ( k ) ] {\displaystyle =-\left[(k-1)(\ln \theta +\psi (k))-k-k\ln \theta -\ln \Gamma (k)\right]\!}
= k + ln θ + ln Γ ( k ) + ( 1 k ) ψ ( k ) {\displaystyle =k+\ln \theta +\ln \Gamma (k)+(1-k)\psi (k)\!}

on ψ(k) és la funció digamma.

Divergència Kullback-Leibler

La divergència Kullback-Leibler entre una Γ(α0, β0) (la distribució veritable) i una Γ(α, β) (la distribució que l'aproxima) ve donada per

D K L ( α , β | | α 0 , β 0 ) = log ( Γ ( α 0 ) β 0 α 0 Γ ( α ) β α 0 ) + ( α α 0 ) ψ ( α ) + α β β 0 β 0 {\displaystyle D_{\mathrm {KL} }(\alpha ,\beta ||\alpha _{0},\beta _{0})=\log \left({\frac {\Gamma ({\alpha _{0}})\beta _{0}^{\alpha _{0}}}{\Gamma (\alpha )\beta ^{\alpha _{0}}}}\right)+(\alpha -{\alpha _{0}})\psi (\alpha )+\alpha {\frac {\beta -\beta _{0}}{\beta _{0}}}}

Transformada de Laplace

La transformada de Laplace de la distribució gamma és:

F ( s ) = β α ( s + β ) α {\displaystyle F(s)={\frac {\beta ^{\alpha }}{(s+\beta )^{\alpha }}}}

Estimació dels paràmetres

Màxima versemblança

La funció de versemblança per a N observacions iid ( x 1 , , x N ) {\displaystyle (x_{1},\ldots ,x_{N})} és

L ( θ ) = i = 1 N f ( x i ; k , θ ) {\displaystyle L(\theta )=\prod _{i=1}^{N}f(x_{i};k,\theta )\,\!}

de la qual podem calcular la log-versemblança

( θ ) = ( k 1 ) i = 1 N ln ( x i ) x i / θ N k ln ( θ ) N ln Γ ( k ) . {\displaystyle \ell (\theta )=(k-1)\sum _{i=1}^{N}\ln {(x_{i})}-\sum x_{i}/\theta -Nk\ln {(\theta )}-N\ln {\Gamma (k)}.}

L'estimador màxim-versemblant s'obté maximitzant la log-versemblança, és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar que la funció és convexa i que per tant té un sol extrem). Procedint d'aquesta manera trobem que:

θ ^ = 1 k N i = 1 N x i . {\displaystyle {\hat {\theta }}={\frac {1}{kN}}\sum _{i=1}^{N}x_{i}.\,\!}

Substituint aquest resultat a l'expressió de la log-versemblança dona

= ( k 1 ) i = 1 N ln ( x i ) N k N k ln ( x i k N ) N ln ( Γ ( k ) ) . {\displaystyle \ell =(k-1)\sum _{i=1}^{N}\ln {(x_{i})}-Nk-Nk\ln {\left({\frac {\sum x_{i}}{kN}}\right)}-N\ln {(\Gamma (k))}.\,\!}

Per trobar el màxim respecte de k cal calcular la derivada i igualar-la a zero, amb què s'obté:

ln ( k ) ψ ( k ) = ln ( 1 N i = 1 N x i ) 1 N i = 1 N ln ( x i ) {\displaystyle \ln {(k)}-\psi (k)=\ln {\left({\frac {1}{N}}\sum _{i=1}^{N}x_{i}\right)}-{\frac {1}{N}}\sum _{i=1}^{N}\ln {(x_{i})}\,\!}

on

ψ ( k ) = Γ ( k ) Γ ( k ) {\displaystyle \psi (k)={\frac {\Gamma '(k)}{\Gamma (k)}}\!}

és la funció digamma. No existeix cap fórmula tancada per a k, però la funció es comporta bé numèricament (és convex), i per tant és senzill trobar-ne una solució numèrica, per exemple amb el mètode de Newton. És possible trobar un valor inicial per a k emprant el mètode dels moments, o emprant l'aproximació

ln ( k ) ψ ( k ) 1 k ( 1 2 + 1 12 k + 2 ) . {\displaystyle \ln(k)-\psi (k)\approx {\frac {1}{k}}\left({\frac {1}{2}}+{\frac {1}{12k+2}}\right).\,\!}

Si definim

s = ln ( 1 N i = 1 N x i ) 1 N i = 1 N ln ( x i ) , {\displaystyle s=\ln {\left({\frac {1}{N}}\sum _{i=1}^{N}x_{i}\right)}-{\frac {1}{N}}\sum _{i=1}^{N}\ln {(x_{i})},\,\!}

aleshores k és aproximadament

k 3 s + ( s 3 ) 2 + 24 s 12 s {\displaystyle k\approx {\frac {3-s+{\sqrt {(s-3)^{2}+24s}}}{12s}}}

que és dins d'un 1,5% del valor correcte.

Estimador Bayesià

Si considerem que k és conegut i θ {\displaystyle \theta } és desconegut, la funció de densitat a posteriori per a θ {\displaystyle \theta } és (assumint que la distribució a priori és proporcional a 1 / θ {\displaystyle 1/\theta } )

P ( θ | k , x 1 , . . . , x N ) 1 / θ i = 1 N f ( x i ; k , θ ) . {\displaystyle P(\theta |k,x_{1},...,x_{N})\propto 1/\theta \prod _{i=1}^{N}f(x_{i};k,\theta ).\,\!}

Definint

y i = 1 N x i , P ( θ | k , x 1 , , x N ) = C ( x i ) θ N k 1 e y / θ . {\displaystyle y\equiv \sum _{i=1}^{N}x_{i},\qquad P(\theta |k,x_{1},\dots ,x_{N})=C(x_{i})\theta ^{-Nk-1}e^{-y/\theta }.\!}

Per tal de calcular l'esperança cal calcular la integral respecte &theta, el qual pot dur-se a terme emprant un canvi de variables que revela que 1/&theta segueix una distribució gamma amb paràmetres α = N k ,     β = y {\displaystyle \scriptstyle \alpha =Nk,\ \ \beta =y} .

0 θ N k 1 + m e y / θ d θ = 0 x N k 1 m e x y d x = y ( N k m ) Γ ( N k m ) . {\displaystyle \int _{0}^{\infty }\theta ^{-Nk-1+m}e^{-y/\theta }\,d\theta =\int _{0}^{\infty }x^{Nk-1-m}e^{-xy}\,dx=y^{-(Nk-m)}\Gamma (Nk-m).\!}

Els moments podem calcular-se especificant diferents valors per a m a la següent expressió

E ( x m ) = Γ ( N k m ) Γ ( N k ) y m , {\displaystyle E(x^{m})={\frac {\Gamma (Nk-m)}{\Gamma (Nk)}}y^{m},\!}

Per exemple, l'esperança +/- la desviació estàndard de la distribució a posteriori de θ {\displaystyle \theta } és:

y N k 1 {\displaystyle {\frac {y}{Nk-1}}} +/- y 2 ( N k 1 ) 2 ( N k 2 ) . {\displaystyle {\frac {y^{2}}{(Nk-1)^{2}(Nk-2)}}.}

També és possible obtenir estimadors Bayesians sense assumir que k és conegut, però en general no és possible obtenir-ne una expressió senzilla.

Generació de valors d'una distribució gamma

Tenint en compte la propietat d'escala esmentada anteriorment, és suficient generar una variable gamma amb β = 1 i després transformar-la a qualsevol altre valor de β amb una simple divisió.

Emprant el fet que una distribució Γ(1, 1) és el mateix que una distribució exponencial Exp(1), i tenint en compte el mètode per generar variables aleatòries exponencials, arribem a la conclusió que si U prové d'una distribució uniforme en (0, 1], aleshores -ln(U) segueix una Γ(1, 1). Emprant la propietat de què la suma de variables aleatòries gamma independents segueix novament una distribució gamma, extenem el resultat:

k = 1 n ln U k Γ ( n , 1 ) , {\displaystyle \sum _{k=1}^{n}{-\ln U_{k}}\sim \Gamma (n,1),}

on Uk són uniformement distribuïdesen (0, 1] i independents.

Tanmateix aquesta estratègia només funciona si n és un nombre sencer. Ara veurem com generar observacions d'una Γ(δ, 1) per a 0 < δ < 1, ja que després podem aplicar la propietat de la suma per al cas 1 < &delta.

A continuació presenten un algoritme, sense demostració. Es tracta d'un cas particular del mètode d'acceptació-rebuig:

  1. Sigui m= 1.
  2. Generar V 2 m 1 {\displaystyle V_{2m-1}} i V 2 m {\displaystyle V_{2m}} — independents i uniformement distribuïdes a (0, 1].
  3. Si V 2 m 1 v 0 {\displaystyle V_{2m-1}\leq v_{0}} , on v 0 = e e + δ {\displaystyle v_{0}={\frac {e}{e+\delta }}} , aleshores anar a 4, altrament anar a 5.
  4. Sigui ξ m = V 2 m 1 1 / δ ,   η m = V 2 m ξ m δ 1 {\displaystyle \xi _{m}=V_{2m-1}^{1/\delta },\ \eta _{m}=V_{2m}\xi _{m}^{\delta -1}} . Anar a 6.
  5. Sigui ξ m = 1 ln V 2 m 1 ,   η m = V 2 m e ξ m {\displaystyle \xi _{m}=1-\ln {V_{2m-1}},\ \eta _{m}=V_{2m}e^{-\xi _{m}}} .
  6. Si η m > ξ m δ 1 e ξ m {\displaystyle \eta _{m}>\xi _{m}^{\delta -1}e^{-\xi _{m}}} , aleshores incrementar m i tornar a 2.
  7. Assumim que ξ = ξ m {\displaystyle \xi =\xi _{m}} és l'observació d'una Γ ( δ , 1 ) {\displaystyle \Gamma (\delta ,1)}

Per resumir,

θ ( ξ i = 1 [ k ] ln U i ) Γ ( k , θ ) , {\displaystyle \theta \left(\xi -\sum _{i=1}^{[k]}{\ln U_{i}}\right)\sim \Gamma (k,\theta ),}

on [k] és la part sencera de k, i ξ ha estat generat emprant l'algoritme que hem presentat δ = {k} (la part fraccional de k), Uk i Vl segueixen la distribució explicada anteriorment i són independents.

La Llibreria científica GNU disposa de rutines robustes per a generar observacions de moltes distribucions, incloent la distribució Gamma.

Distribucions relacionades

Casos particulars

  • Si X Γ ( k = 1 , θ = 1 / λ ) {\displaystyle X\sim {\Gamma }(k=1,\theta =1/\lambda )\,} , aleshores X segueix una distribució exponencial amb paràmetre λ.
  • Si X Γ ( k = v / 2 , θ = 2 ) {\displaystyle X\sim {\Gamma }(k=v/2,\theta =2)\,} , aleshores X és idènticament distribuïda a una χ²(ν), la distribució khi-quadrat amb ν graus de llibertat.
  • Si k {\displaystyle k} és un nombre sencer, la distribució gamma es denomina distribució d'Erlang que serveix per a modelar el temps d'arribada fins a la k {\displaystyle k} -ena "arribada" en un procés de Poisson d'una dimensió amb intensitat 1/θ.
  • Si X 2 Γ ( 3 / 2 , 2 a 2 ) {\displaystyle X^{2}\sim {\Gamma }(3/2,2a^{2})\,} , aleshores X segueix una distribució de Maxwell-Boltzmann amb paràmetre a.
  • X S k e w L o g i s t i c ( θ ) {\displaystyle X\sim \mathrm {SkewLogistic} (\theta )\,} , aleshores l o g ( 1 + e X ) Γ ( 1 , θ ) {\displaystyle \mathrm {log} (1+e^{-X})\sim \Gamma (1,\theta )\,}

Altres

  • Si X segueix una Γ(k, θ) aleshores 1/X segueix una distribució gamma inversa amb paràmetres k i θ-1.
  • Si X i Y són Γ(α, θ) i Γ(β, θ) independents, respectivament, aleshores X / (X + Y) segueix una distribució beta amb paràmetres α i β.
  • Si Xi són Γ(αi,θ) independents, aleshores el vector (X1 / S, ..., Xn / S), on S = X1 + ... + Xn, segueix una distribució de Dirichlet amb paràmetres α1, ..., αn.

Distribució gamma amb tres paràmetres

Johnson et al.[6] introdueixen la distribució gamma amb tres paràmetres: a més dels paràmetres de forma i escala k , θ ( 0 , ) {\displaystyle k,\theta \in (0,\infty )} , consideren un paràmetre de posició γ R {\displaystyle \gamma \in \mathbb {R} } ; la distribució ve definida per la funció de densitat

f ( x ; k , θ , γ ) = { 1 θ k Γ ( k ) ( x γ ) k 1 e ( x γ ) / θ , si   x > γ , 0 , si   x γ . {\displaystyle f(x;k,\theta ,\gamma )={\begin{cases}{\dfrac {1}{\theta ^{k}\,\Gamma (k)}}\,(x-\gamma )^{k-1}\,e^{-(x-\gamma )/\theta },&{\text{si}}\ x>\gamma ,\\0,&{\text{si}}\ x\leq \gamma .\end{cases}}}


Notes

  1. Johnson, Kotz i Balakrisnan, 1994, Chapter 17.
  2. Forbes, C; Evans, M.; Hastings, N.; Peacock, B. Statistical distributions.. 4th ed.. Oxford: Wiley-Blackwell, 2010, p. 109. ISBN 978-0-470-62724-2. 
  3. «The R project for statistical computing». [Consulta: 9 febrer 2023].
  4. 4,0 4,1 Sato, Ken-iti. Lévy processes and infinitely divisible distributions. Cambridge, U.K.: Cambridge University Press, 1999, p. 13. ISBN 0-521-55302-4. 
  5. Bernardo, J. M.; Smith, A. F. M.. Bayesian theory. Chichester, Eng.: Wiley, 1994, p. 118. ISBN 0-471-92416-4. 
  6. 6,0 6,1 Johnson, Kotz i Balakrisnan, 1994, p. 337.
  7. Wilks, S. S.. Mathematical statistics. Nova York: Wiley, 1962, p. 176. ISBN 0-471-94644-3. 
  8. Loeve, Michel. Teoría de la probabilidad. Madrid: Tecnos, D.L. 1976, p. 289. ISBN 84-309-0663-0. 
  9. Sato, Ken-iti. Lévy processes and infinitely divisible distributions. Cambridge, U.K.: Cambridge University Press, 1999, p. 45. ISBN 0-521-55302-4. 
  10. Sato, Ken-iti. Lévy processes and infinitely divisible distributions. Cambridge, U.K.: Cambridge University Press, 1999, p. 37-39. ISBN 0-521-55302-4. 
  11. 11,0 11,1 Williams, D. Weighing the odds : a course in probability and statistics. Cambridge: Cambridge University Press, 2001, p. 164. ISBN 0-521-80356-X. 
  12. Feller, William. Introducción a ls probabilidades y sus aplicaciones, vol. 2. Mexico: Editorial Limua, 1978, p. 76. 

Bibliografia

  • Hogg, R. V. and Craig, A. Introduction to Mathematical Statistics, 4th edition. Nova York: Macmillan, 1978. (Vegeu la secció 3.3.)
  • Johnson, N. L.; Kotz, S.; Balakrishnan, N. Continuous Univariate Distributions, Volume 1. 2a edició. Nova York: Wiley, 1994. ISBN 0-471-58495-9. 
  • Choi, S. C: and R. Wette, R. (1969) Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias, Technometrics, 11(4) 683-69

Enllaços externs

  • Weisstein, Eric W., «Gamma distribution» a MathWorld (en anglès).
  • Engineering Statistics Handbook
  • Vegeu aquesta plantilla
Distribucions discretes
amb suport finit
Distribucions discretes
amb suport infinit
Distribucions contínues
suportades sobre un interval acotat
Distribucions contínues
suportades sobre un interval semi-infinit
Distribucions contínues
suportades en tota la recta real
Distribucions contínues
amb el suport de varis tipus
Barreja de distribució variable-contínua
Distribució conjunta
Discreta
Ewens
Multinomial
Multinomial de Dirichlet
Multinomial negativa
Contínua
Dirichlet
Dirichlet generalitzada
Estable multivariant
Gamma normal
Gamma normal inversa
Normal multivariable
t multivariable
Matriu de valor
Matriu gamma
Matriu gamma inversa
Matriu normal
Normal de Wishart
Normal de Wishart inversa
t matriu
Wishart
Wishart inversa
Direccionals
Univariada (circular)
Asimètrica de Laplace envoltada
Cauchy envoltada
Exponencial envoltada
Lévy envoltada
Normal envoltada
Circular uniforme
Univariada de von Mises
Bivariada (esfèrica)
Kent
Bivariada (toroidal)
Bivariada de von Mises
Multivariada
von Mises-Fisher
Bingham
Degenerada i singular
Degenerada
Delta de Dirac
Singular
Cantor
Famílies