s
19 708 Pages

Gamme de distribution
Densité de probabilité Fonction
Densité de probabilité Fonction
Fonction de distribution
Fonction de distribution
paramètres 0 \ « /> et 0 \ « />
ou
0 \ « /> et 0 \ « />
(, )
soutien
densité Fonction
(avec la fonction gamma)
Fonction de distribution
( est le incomplètes fonction Gamma régularisé inférieur)
valeur attendue
mode si
variance
asymétrie Index
Curtosi
Entropy
(avec la fonction digamma)
fonction de génération de moment pour
fonction caractéristique

en la théorie des probabilités la distribution gamma est un distribution de probabilité continue, qui il comprend, comme des cas particuliers, même distributions exponentiel et Chi carré.

Il est utilisé comme modèle général des temps d'attente dans le théorie des files d'attente, surtout si elles sont des effets importants qui éliminent l ' « absence de » mémoire de la distribution exponentielle. en statistique bayésienne Il est courant aussi bien que la distribution a priori que cette distribution a postériori.

définition

La distribution Gamma est la distribution de probabilité de la variable aléatoire définie comme la somme des variables aléatoires indépendantes de distribution exponentielle; la distribution Gamma est une distribution de probabilités définies sur reals positif, . Selon les auteurs, est paramétrés de deux façons différentes: soit par la paire de nombres positifs , soit par la paire de nombres positifs . Les deux paramètres sont liés par les relations et . Dans ce qui suit, nous nous référerons à la plage de paramètres.

son la fonction de densité de probabilité il est

,

est le fonction gamma Euler.

Nous pouvons observer que si la peine

son fonction de distribution cumulative est le incomplètes fonction Gamma moins régularisé

,

Il est la fonction Gamma incomplète inférieure.

traits

la moments simples la plage de distribution des paramètres ils sont

Lorsqu'il fait le remplacement d'habitude pour obtenir la représentation intégrale de la fonction gamma d'Euler.

la distribution a, en particulier,

  • valeur attendue ,
  • variance ,
  • index asymétrie
  • index kurtosis

des moments de génération de fonction

qui existe pour chaque valeur de t tel que 0 \ t Rightarrow<\theta ^{-1}}" />

propriété

si Il suit la distribution gamma puis Il suit la distribution gamma.

si ils sont variables aléatoires indépendant, chacune avec une distribution Gamma, leur somme Il suit la distribution gamma.

autres distributions

La distribution gamma généralise distributions différentes:

Nell 'inférence bayésienne la distribution Gamma peut décrire à la fois a priori que a postériori observation du paramètre de différentes distributions de probabilité, comme le distribution exponentielle et distribution de Poisson.

la inverse distribution Gamma Il est la distribution inverse d'une variable aléatoire qui suit la distribution gamma.

si et sont des variables aléatoires indépendantes avec des distributions et , puis suit la la distribution Beta , tandis que Il en résulte une distribution bêta du second type.

De manière plus générale, le transporteur , décrit par variables aléatoires indépendantes distributions , Il fait suite à une la distribution de Dirichlet paramètre .

Une généralisation de la distribution Gamma est Wishart, qui généralise la distribution .

estimateurs

On calcule maintenant les évaluateurs qu'ils peuvent, étant donné un échantillon plage vraisemblablement distribué, nous redonnons une estimation de ses paramètres et .

Pour ce faire, nous adoptons la la méthode du maximum de vraisemblance, Par conséquent, nous commençons par écrire la fonction de vraisemblance que l'échantillon

Nous commençons par déterminer , le paramètre le plus facile à estimer.

Nous notons que la fonction de vraisemblance est partout positive et dans les limites des extrêmes , disparaît.

Par conséquent, si nous imposons son dérivé égal à zéro, dans le cas où la solution est unique, celle-ci doit nécessairement être un point maximum.

Nous avons maintenant besoin de faire correspondre cette expression à zéro

Et voici notre estimateur , qui est très rappelle d'une moyenne arithmétique, mis à l'échelle sur le paramètre k (dont on se souvient d'être égal à 1 dans le cas particulier de la distribution exponentielle). On peut facilement noter que la valeur attendue de cet estimateur est précisément , compte tenu de la linéarité de l'opérateur.

rappel

Examinons maintenant le calcul de l'estimateur pour

Ici aussi, la fonction de vraisemblance annule la limite de et , par conséquent, nous procédons au calcul du dérivé.

avec indiquer la fonction digamma bien défini

Cela peut être exprimé par une relation intégrale

Égale à zéro notre fonction de vraisemblance nous obtenons notre point maximum

La fonction digamma dans le réel positif est strictement croissante, donc il y a une fonction inverse

Cet estimateur est obtenu asymptotiquement correct, mais doit être vérifié pour des valeurs finies sa valeur attendue que, si elle se révèle être k, il serait alors un estimateur approprié.

puis on calcule

où nous avons utilisé la linéarité de l'espérance et de sa définition écrite variable aléatoire continue.

Il est évident que toutes les intégrales dans la variable i-ième sont égaux entre eux, leur somme donne n fois l'intégrale unique dans la variable générique d'intégration t.

et le résultat de celle-ci est solidaire précisément pour tout k avec une partie réelle positive. Nous avons ensuite obtenu l'identité

cela ne suffit pas de dire que l'estimateur est correct (non seulement pour les grands n), mais il est néanmoins nécessaire.

Articles connexes

D'autres projets

liens externes

(FR) Eric W. Weisstein, Gamme de distribution, en MathWorld, Wolfram Research.