In teoria delle probabilità la distribuzione casuale gamma inversa è una distribuzione di probabilità , dipendente da due parametri α e β.
La variabile aleatoria ha come supporto i reali positivi e parametri strettamente maggiori di zero. X : Ω → R + {\displaystyle X:\Omega \rightarrow \mathbb {R} ^{+}} α , β ∈ R + {\displaystyle \alpha ,\beta \in \mathbb {R} ^{+}} La sua funzione di densità di probabilità è f ( x ) = β α Γ ( α ) e − β x x α + 1 {\displaystyle f(x)={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}{\frac {e^{-{\frac {\beta }{x}}}}{x^{\alpha +1}}}} La funzione di distribuzione cumulativa di probabilità è F ( x ) = ∫ 0 x f ( t ) d t = Γ ( α , β / x ) Γ ( α ) {\displaystyle F(x)=\int _{0}^{x}{f(t)dt}={\frac {\Gamma (\alpha ,\beta /x)}{\Gamma (\alpha )}}} dove Γ ( α , β / x ) {\displaystyle \Gamma (\alpha ,\beta /x)} è la funzione gamma incompleta e Γ ( α ) {\displaystyle \Gamma (\alpha )} la funzione gamma di Eulero .
Calcoliamo i momenti semplici della nostra distribuzione
μ k = ∫ 0 ∞ x k f ( x ) d x = β α Γ ( α ) ∫ 0 ∞ e − β x x α + 1 − k d x {\displaystyle \mu _{k}=\int _{0}^{\infty }x^{k}f(x)dx={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}\int _{0}^{\infty }{\frac {e^{-{\frac {\beta }{x}}}}{x^{\alpha +1-k}}}dx}
Ora applichiamo la sostituzione z = β x ⇔ d z = − β x 2 d x = − z 2 β d x {\displaystyle z={\frac {\beta }{x}}\Leftrightarrow dz=-{\frac {\beta }{x^{2}}}dx=-{\frac {z^{2}}{\beta }}dx} troviamo quindi quanto segue
μ k = β α + 1 Γ ( α ) ∫ 0 ∞ z α − 1 − k β α + 1 − k e − z d z = β k Γ ( α ) ∫ 0 ∞ z α − k − 1 e − z d z {\displaystyle \mu _{k}={\frac {\beta ^{\alpha +1}}{\Gamma (\alpha )}}\int _{0}^{\infty }{\frac {z^{\alpha -1-k}}{\beta ^{\alpha +1-k}}}e^{-z}dz={\frac {\beta ^{k}}{\Gamma (\alpha )}}\int _{0}^{\infty }z^{\alpha -k-1}e^{-z}dz}
Quest'ultimo integrale converge per α − k ∈ R + ⇒ α > k {\displaystyle \alpha -k\in \mathbb {R} ^{+}\Rightarrow \alpha >k}
nel caso possiamo applicare la definizione integrale della funzione Γ ( x ) = ∫ 0 ∞ t x − 1 e − t d t {\displaystyle \Gamma (x)=\int _{0}^{\infty }t^{x-1}e^{-t}dt}
μ k = β k ⋅ Γ ( α − k ) Γ ( α ) = β k ∏ i = 1 k 1 α − i {\displaystyle \mu _{k}=\beta ^{k}\cdot {\frac {\Gamma (\alpha -k)}{\Gamma (\alpha )}}=\beta ^{k}\prod _{i=1}^{k}{\frac {1}{\alpha -i}}}
Da qui possiamo ricavarci il valore atteso della nostra variabile aleatoria
E [ X ] = β α − 1 {\displaystyle \mathbb {E} [X]={\frac {\beta }{\alpha -1}}} per ogni α > 1
e la sua varianza , che ricordiamo essere
V a r ( X ) := E [ ( X − E [ X ] ) 2 ] = E [ X 2 ] − E 2 [ X ] {\displaystyle Var(X):=\mathbb {E} [(X-\mathbb {E} [X])^{2}]=\mathbb {E} [X^{2}]-\mathbb {E} ^{2}[X]}
Che nel nostro caso esisterà per il parametro α > 2
V a r ( X ) = β 2 ( α − 1 ) ( α − 2 ) − β 2 ( α − 1 ) 2 = β 2 ( α − 1 ) − β 2 ( α − 2 ) ( α − 1 ) 2 ( α − 2 ) = β 2 ( α − 1 ) 2 ( α − 2 ) {\displaystyle Var(X)={\frac {\beta ^{2}}{(\alpha -1)(\alpha -2)}}-{\frac {\beta ^{2}}{(\alpha -1)^{2}}}={\frac {\beta ^{2}(\alpha -1)-\beta ^{2}(\alpha -2)}{(\alpha -1)^{2}(\alpha -2)}}={\frac {\beta ^{2}}{(\alpha -1)^{2}(\alpha -2)}}}
Procediamo ora ad un semplice calcolo per ottenere la moda della nostra distribuzione
( d f d x ) x = x ∗ = 0 ⇒ [ β x ∗ − 1 − ( α + 1 ) ] β α Γ ( α ) x ∗ − ( α + 2 ) e − β x ∗ = 0 {\displaystyle \left({\frac {df}{dx}}\right)_{x=x^{*}}=0\Rightarrow \left[\beta {x^{*}}^{-1}-(\alpha +1)\right]{\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}{x^{*}}^{-(\alpha +2)}e^{-{\frac {\beta }{x^{*}}}}=0}
il secondo fattore di questo prodotto non si annulla mai e può essere semplificato, ottenendo così un'unica soluzione. Pertanto se la derivata si annulla in un solo punto e la funzione vale 0 agli estremi dell'intervallo [ 0 , ∞ ) {\displaystyle [0,\infty )} in cui è definita positiva, allora il nostro punto è effettivamente un punto di massimo.
x ∗ = β α + 1 {\displaystyle {x^{*}}={\frac {\beta }{\alpha +1}}}
Per cui l'intera distribuzione è maggiorata da
f ( x ∗ ) = ( α + 1 ) α + 1 β Γ ( α ) e − ( α + 1 ) {\displaystyle f(x^{*})={\frac {(\alpha +1)^{\alpha +1}}{\beta \Gamma (\alpha )}}e^{-(\alpha +1)}}
X ∼ Inv-Gamma ( α , β ) {\displaystyle X\sim {\mbox{Inv-Gamma}}(\alpha ,\beta )} allora X ∼ Inv-chi-square ( ν ) {\displaystyle X\sim {\mbox{Inv-chi-square}}(\nu )} se α = ν 2 {\displaystyle \alpha ={\frac {\nu }{2}}} e β = 1 2 {\displaystyle \beta ={\frac {1}{2}}} ; X {\displaystyle X} è la variabile casuale chi quadro inversa X ∼ Gamma ( k , θ ) {\displaystyle X\sim {\mbox{Gamma}}(k,\theta )} allora Y ∼ Inv-Gamma ( k , θ ) {\displaystyle Y\sim {\mbox{Inv-Gamma}}(k,\theta )} se Y = 1 X {\displaystyle Y={\frac {1}{X}}} ; X {\displaystyle X} è la variabile casuale Gamma X : Ω → A ⊆ R {\displaystyle X:\Omega \rightarrow A\subseteq \mathbb {R} }
Y : Ω ′ → B ⊆ R {\displaystyle Y:\Omega '\rightarrow B\subseteq \mathbb {R} }
X è nel nostro caso una variabile aleatoria di tipo Gamma , per cui la sua funzione di densità di probabilità si può scrivere come segue
f X ( x ) = β α x α − 1 e − β x Γ ( α ) {\displaystyle f_{X}(x)={\frac {\beta ^{\alpha }x^{\alpha -1}e^{-\beta x}}{\Gamma (\alpha )}}} e l'insieme di supporto A coincide con i reali positivi. Definiamo quindi la trasformazione a cui associare la nuova variabile aleatoria Y.
g : A → B {\displaystyle g:A\rightarrow B}
Y = g ( X ) = 1 X {\displaystyle Y=g(X)={\frac {1}{X}}} per cui anche B effettivamente coincide con i reali positivi.
Pertanto procediamo con il calcolare f Y ( y ) {\displaystyle f_{Y}(y)} dato dalla seguente relazione
f Y ( y ) = f X ( g − 1 ( y ) ) | d d y g − 1 ( y ) | {\displaystyle f_{Y}(y)=f_{X}\left(g^{-1}(y)\right)\left|{\frac {d}{dy}}g^{-1}(y)\right|} f Y ( y ) = β α Γ ( α ) ⋅ y − α + 1 e − β y 1 y 2 = β α Γ ( α ) ⋅ y − α − 1 e − β y {\displaystyle f_{Y}(y)={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}\cdot y^{-\alpha +1}e^{-{\frac {\beta }{y}}}{\frac {1}{y^{2}}}={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}\cdot y^{-\alpha -1}e^{-{\frac {\beta }{y}}}} Che risulta essere proprio la nostra variabile aleatoria discussa finora.