Algorithme d'apprentissage du Perceptron

L'algorithme d'apprentissage du perceptron a été développé originallement par Frank Rosenblatt à la fin des années 50. Les motifs d'apprentissage sont présentés aux neurones d'entrée ; la sortie est calculée. Alors, les poids de connexion wj sont modifiés d'une quantité qui est proportionnelle au produit de : L'algorithme est le suivant :
  1. Initialisation des poids et seuil à de petites valeurs aléatoires.
  2. Présentation d'un vecteur x au neurones d'entrée et calcul de la sortie.
  3. Mise à jour des poids selon :
  4.  où
  5. Répétition des étapes 2 et 3 jusqu'à ce que :
Notez que l'apprentissage n'intervient seulement lorsqu'une erreur est faite, dans le cas contraire, les poids demeurent inchangés.
Cette règle est donc une forme modifiée de la règle d'apprentissage de Hebb.

Pendant l'apprentissage, il est souvent utile de mesurer la performance du réseau pendant qu'il essaye de trouver l'ensemble de poids optimal. Une mesure d'erreur ou fonction de coût commune est la somme des erreurs quadratiques. Elle est calculée sur l'ensemble des paires de vecteur d'entrée / vecteur de sortie de l'ensemble d'apprentissage et est donnée par l'équation suivante :

 

où p est le nombre de paires de vecteur d'entrée / vecteur de sortie dans l'ensemble d'apprentissage.


[retour ]