Chapitre svm
Depuis quelques années, des nouvelles méthodes d’apprentissage se développent sur la base de la Théorie de l’Apprentissage Statistique (Statistical Learning Theory) de Vapnik et Chervonenkis [Vapnik, 1995]. L’une de ces méthodes, appelée Machine à Vecteur de Support ou SVM (Support Vector Machine) , permet de réaliser des estimations en classification (à deux classes ou plus) [Burges, 1998] ou en régression [Smola et al., 1998].
De telles méthodes permettent généralement de s’affranchir de contraintes statistiques sur les données étudiées comme la normalité de la distribution. De plus, elles sont non linéaires ce qui leur donne un pouvoir de généralisation supérieure dans certains cas, aux méthodes de régressions plus classiques.
Dans ce chapitre, nous présenterons tout d’abord une théorie de la classification avec les SVM puis les résultats de l’utilisation de cette méthode pour « la vérification pour l’identification des signature manuscrites Off-line. »
2.2 Théorie des Support Vector Machines
Le SVM est un modèle discriminant qui tente de minimiser les erreurs d’apprentissage tout en maximisant la marge séparant les données des classes. La maximisation de la marge est une méthode de régularisation qui réduit la complexité du classifieur. Elle sert à pénaliser les paramètres du modèle de la même façon que la méthode du «weight decay» qui altère les poids de grande amplitude dans un PMC [1][G.E. Hinton, 1987]. La pénalisation des paramètres du SVM dans le but de maximiser la marge est une méthode de sélection de modèle implicite à l’apprentissage. Ce processus produit un ensemble réduit de prototypes faisant partie de l’ensemble d’apprentissage qu’on appelle communément vecteurs de support. Son comportement est, par ailleurs, conditionné par le type du noyau utilisé et par les valeurs octroyées à ses paramètres. Le noyau d’un SVM est une fonction symétrique défini-positive qui permet de projeter les données dans un espace transformé