Les mécanismes bayésiens de l'induction
Stanislas Dehaene Stanislas Dehaene Chaire de Psychologie Cognitive Expérimentale
Cours n°2 Les mécanismes Bayésiens de l’induction
Le « scandale de l’induction » éclairé par la théorie Bayésienne
Un exemple d’induction rapide (Tenenbaum, Science, 2011): Les objects rouges sont des « tufa ».
L’induction Bayésienne dans l’apprentissage du langage: ‐ si les hypothèses sur le sens des mots sont des branches d’un arbre des catégories de sens envisageables sens envisageables ‐ alors la règle Bayésienne va automatiquement choisir la catégorie la plus petite, compatible avec les observations (une des versions du « rasoir d’Ockham automatique »)
Supposons que toutes les hypothèses aient la même probabilité a priori (contra Rosch et al, 1976). P(H|D1,D2,D3) est proportionnelle au produit des vraisemblances P(Di|H) (en supposant que les observations sont conditionnellement indépendantes) Les hypothèses H qui correspondent à des branches « trop petites » sont immédiatement éliminées : leur vraisemblance est nulle pour au moins l’un des mots: P(Di|H) = 0 Pour les autres catégories : P(Di|H) = 1/n où n est le nombre d’éléments de la catégorie Le mécanisme de Bayes attribue automatiquement une vraisemblance plus faible aux catégories les plus grandes: g p g P(Di|H) 1/8 |H) = 1/8 P(Di|H) = 1/14 C’est l’une des versions du rasoir d’Ockham:
Supposons que toutes les hypothèses ont la même probabilité a priori (contra Rosch et al, 1976). P(H|D1,D2,D3) est proportionnelle au produit des vraisemblances P(Di|H) (en supposant que les observations sont conditionnellement indépendantes) Les hypothèses H qui correspondent à des branches « trop petites » sont immédiatement éliminées : leur vraisemblance est nulle pour au moins l’un des mots: P(Di|H) = 0 Pour les autres catégories : P(Di|H) = 1/n où n est le nombre d’éléments de la catégorie Le mécanisme