Statistique
Principales propriétés souhaitables[modifier]
Si \widehat{\theta} est un estimateur de θ on dit qu'il est:
* Convergent si: \widehat{\theta} tend en probabilité vers θ quand le nombre d'observations augmente. Plus le nombre d'observations est grand et plus l'on se rapproche de la vraie valeur. Cette propriété d'un estimateur est essentielle si l'on veut pouvoir estimer avec grande précision le paramètre θ. En effet, si c'est le cas, pour augmenter la précision de l'estimateur, il suffira d'effectuer plus de mesures. * Sans biais si: \mathbb{E}(\widehat{\theta})=\theta.\, On peut voir un estimateur sans biais comme un estimateur pour lequel on ne fait pas d'erreur systématique pour une taille d'échantillon donnée. À contrario pour un estimateur qui aurait un biais il pourrait par exemple exister des valeurs du paramètre θ pour lesquelles on sur estimerait ou sous estimerait de façon systématique la grandeur que l'on cherche à évaluer. C'est pour qu'il soit sans biais que l'on estime d'ordinaire la variance quand on a n observations par \frac{n}{n-1}\sigma^2 et non par σ2 par exemple.
Ces deux propriétés sont essentielles et en règle générale on considère que tout estimateur devrait au moins vérifier ces deux propriétés pour qu'on puisse le considérer comme suffisamment précis. On peut de plus vouloir qu'un estimateur soit efficace (c'est-à-dire que l'estimation qu'il fournit varie le moins possible autour de la valeur à estimer) ou robuste (c'est-à-dire qu'il soit peu sensible aux variations d'une mesure sur les n). Ces deux propriétés sont détaillées plus bas dans les sections Optimisation d'estimateur et Robustesse.
Statistique exhaustive et information[modifier]