Ondobo emmanuel
Définitions :
Soit X une variable aléatoire réelle, de loi ou bien discrète ou bien continue, dont on veut estimer un paramètre θ. On note cette famille de lois paramétriques. Alors on définit une fonction f telle que :
fθ(x) représente la densité de X (où θ apparaît) et Pθ(X = x) représente une probabilité discrète (où θ apparaît).
On appelle vraisemblance de θ au vu des observations (x1,...,xi,...,xn) d'un n-échantillon indépendamment et identiquement distribué selon la loi , le nombre :
On cherche à trouver le maximum de cette vraisemblance pour que les probabilités des réalisations observées soient aussi maximum. Ceci est un problème d'optimisation. On utilise généralement le fait que si L est dérivable (ce qui n'est pas toujours le cas) et si L admet un maximum global en une valeur, alors la dérivée première s'annule en et que la dérivée seconde est négative. Réciproquement, si la dérivée première s'annule en et que la dérivée seconde est négative en, alors est un maximum local (et non global) de L(x1,...,xi,...,xn;θ). Il est alors nécessaire de vérifier qu'il s'agit bien d'un maximum global. La vraisemblance étant positive et le logarithme népérien une fonction croissante, il est équivalent et souvent plus simple de maximiser le logarithme népérien de la vraisemblance (le produit se transforme en somme, ce qui est plus simple à dériver). On peut facilement construire la statistique Yn = Θ qui est l'estimateur voulu.
Ainsi en pratique :
La condition nécessaire
Ou
permet de trouver la valeur . est un maximum local si la condition suffisante est remplie au point critique :
ou
Pour simplifier, dans les cas de lois continues, où parfois la densité de probabilité est nulle sur un certain intervalle, on peut omettre d'écrire la vraisemblance pour cet intervalle uniquement.
Généralisation
Pour une variable aléatoire réelle X de loi quelconque définie par une fonction de répartitionF(x), on peut considérer des petits