s
19 708 Pages

la la méthode du maximum de vraisemblance, en statistiques, Il est une procédure mathématique pour déterminer une valuer. Cas particulier de la classe plus large des méthodes d'estimation basée sur les estimateurs extrêmes, la méthode consiste à maximiser la fonction de vraisemblance, défini selon la probabilité d'observer une réalisation donnée échantillon, conditionnellement les valeurs prises par paramètres statistiques sous réserve de l'estimation. La méthode a été développée à l'origine par généticien et statistique monsieur Ronald Fisher, entre 1912 et 1922.

La philosophie de la méthode du maximum de vraisemblance

donné une distribution de probabilité , avec fonction de masse (ou densité, si continue) Probabilité , caractérisé par un paramètre , donné une champion les données observées taille vous pouvez calculer la probabilité associée aux données observées:

D'autre part, il se peut que le paramètre On ne sait pas, mais on sait que l'échantillon est extrait de la distribution . Une idée d'estimer Nous utilisons ensuite les données disponibles pour nous: pour obtenir des informations sur .

La méthode de recherche du maximum de vraisemblance plus de valeur probable de , à savoir la recherche, dans l'espace de toutes les valeurs possibles de , la valeur du paramètre optimise la probabilité d'obtenir l'échantillon donné. D'un point de vue mathématique, ou de manière équivalente il est appelé fonction de vraisemblance, et valuer On obtient le maximum de vraisemblance en tant que:

Exemples

Afin d'illustrer la méthode du maximum de vraisemblance, envisager un échantillon de variables aléatoires identiquement et indépendamment distribué, avec distribution normale: . la fonction de vraisemblance est associée à:

La maximisation de fonction de vraisemblance est équivalent à maximiser la logarithme:

les paramètres et Ils sont déterminés par la résolution du problème de maximisation:

Les conditions du premier ordre pour un maximum de définir le système d'équations suivant en et :

où les guillemets paramètres ci-dessus indiquent leurs estimateurs. à partir de la première équation instantanément descend valuer vraisemblance maximale médias:

à-dire la moyenne d'échantillon. la variance l'estimateur Elle est donnée par l'expression suivante[1]:

Le remplacement dans le deuxième équation, vous avez la valuer vraisemblance maximale variance:

qui est, variance de l'échantillon.

L'exemple est particulièrement apte, car elle permet d'illustrer certaines propriétés de estimateurs Maximum Likelihood. Il est facile de vérifier la exactitude (ou non biaisé) de :

D'autre part, Il n'a pas cette propriété. Rappelant que:

il en résulte que:

donc Il n'est pas un estimateur non biaisé; un estimateur statistique serait donné par:

Il vaut la peine d'autre part d'observer que l'estimateur du maximum de vraisemblance est un estimateur asymptotiquement mais correct; En fait:

En particulier, tout estimateur du maximum de vraisemblance est asymptotiquement correcte et asymptotiquement normalement distribué.

L'expression de la variance la valuer Il est au-delà des besoins de cet exemple.

Il est intéressant de constater que estimateurs les dérivés de cette section sont identiques à ceux obtenus dans les mêmes conditions, en utilisant la méthode des moments; éviter tout doute, s'il vous plaît noter que les deux méthodes de recherche estimateurs ne conduisent pas nécessairement à identifier le même estimateurs en termes plus généraux.

cas pathologiques

Au-delà des problèmes mis en évidence dans les exemples ci-dessus, d'autres difficultés, de portée plus générale, peuvent être associés aux estimateurs du maximum de vraisemblance.

La valeur de l'estimateur du maximum de vraisemblance ne peut appartenir à l'espace des paramètres . Prenons le cas d'un échantillon de V.C. identiquement et indépendamment distribué, avec distribution de Poisson paramètre 0 « />. la fonction de vraisemblance est associée à:

Alors que la fonction log-vraisemblance est:

L'estimateur du maximum de vraisemblance serait donc . Supposons, cependant, que ; parce que , l'estimation obtenue par la méthode du maximum de vraisemblance est pas admissible.

À première vue, le problème peut sembler un détail mathématique de peu d'importance dans la pratique; son champ d'application dans les applications, cependant, est plus importante qu'il n'y paraît. Restant dans l'exemple, comme expliqué ci-dessus, il convient de noter que le poissoniana de casuale de variabile est souvent utilisé comme modèle pour le nombre d'arrivées à une porte, un bureau, un arrêt de bus, etc. (Il est une application de théorie des files d'attente, qui fait référence à la précision processus de Poisson); dans ce contexte, est le taux prévu des arrivées par unité de temps. Il est clair que l'hypothèse dans une certaine mesure fausse le processus en cours d'examen: il se peut que, dans l'intervalle de temps correspondant à l'échantillon utilisé pour l'estimation, aucun client est arrivé au comptoir (pas de passagers à un arrêt de bus, etc.); cela ne signifie pas que nous devrions attendre à ce que tout client (ou passager, etc.) n'arrive!

L'estimateur du maximum de vraisemblance également Il est pas nécessairement unique. Prenons, par exemple, le cas d'un échantillon de manière identique et indépendamment distribués variables aléatoires ayant une distribution uniforme sur l'intervalle , avec . la fonction de vraisemblance est associée à:

désigne la fonction de l'indicateur. On suppose que l'échantillon est commandé de telle sorte que:

(Cette hypothèse est permise parce que la Elles sont distribuées de manière indépendante). Il est facile de montrer que:

Il en résulte que l'estimateur du maximum de vraisemblance pour est unique, ssi ; autrement, un nombre infini de valeurs de l'estimateur maximise la fonction de vraisemblance.

Les propriétés des estimateurs de maximum de vraisemblance

invariance fonctionnelle

si est le valuer maximum de vraisemblance pour le paramètre , alors la valuer vraisemblance maximale il est , à condition que est un bijective.

distorsion

la estimateurs vraisemblance maximale, comme illustré dans les exemples, peuvent être déformé (Ie incorrect ou en anglais biaisé), Également d'une manière cohérente. D'autre part, ils sont asymptotiquement correcte.

L'efficacité et le comportement asymptotique

la estimateurs Maximum Likelihood En règle générale ne permet pas d'atteindre la limite inférieure pour la variance déterminé par le résultat de Cramer-Rao, Toutefois, la valeur asymptotiquement, à savoir la variance dévie de la limite inférieure de Cramer-Rao pour un montant infinitésimal de croître n. la estimateurs maximum de vraisemblance sont également asymptotiquement normalement distribué.

notes

  1. ^ Nous gardons à l'esprit la propriétés de linéarité de la variance.

bibliographie

  • D. C. Boes, F. A. Graybill, A. M. Mood (1988), Introduction à la statistique, McGraw-Hill Books Italie, ISBN 88-386-0661-7 (texte sur les principes fondamentaux de la statistiques Mathématiques, avec plusieurs chapitres sur les méthodes de recherche estimateurs)

Articles connexes

D'autres projets

liens externes

Activité wiki récente

Aidez-nous à améliorer BooWiki
Commencez