Algorithme d'apprentissage du Perceptron
L'algorithme d'apprentissage du perceptron a été développé
originallement par Frank Rosenblatt à la fin des années 50.
Les motifs d'apprentissage sont présentés aux neurones d'entrée
; la sortie est calculée. Alors, les poids de connexion wj
sont modifiés d'une quantité qui est proportionnelle au produit
de :
-
la différence entre la sortie réelle, y, et la sortie
désirée, d, et
-
le motif d'entrée, x.
L'algorithme est le suivant :
-
Initialisation des poids et seuil à de petites valeurs aléatoires.
-
Présentation d'un vecteur x au neurones d'entrée et
calcul de la sortie.
-
Mise à jour des poids selon :
où
-
d est la sortie désirée,
-
t est l'itération courante, et
-
eta est le gain ou taille du pas, avec 0.0 < n < 1.0
-
Répétition des étapes 2 et 3 jusqu'à ce que
:
-
l'erreur de l'itération est inférieure à un seuil
d'erreur spécifié par l'utilisateur.
-
un nombre d'itérations prédéterminé s'est écoulé.
Notez que l'apprentissage n'intervient seulement lorsqu'une erreur est
faite, dans le cas contraire, les poids demeurent inchangés.
Cette règle est donc une forme modifiée de la règle
d'apprentissage de Hebb.
Pendant l'apprentissage, il est souvent utile de mesurer la performance
du réseau pendant qu'il essaye de trouver l'ensemble de poids optimal.
Une mesure d'erreur ou fonction de coût commune est la somme
des erreurs quadratiques. Elle est calculée sur l'ensemble des paires
de vecteur d'entrée / vecteur de sortie de l'ensemble d'apprentissage
et est donnée par l'équation suivante :
où p est le nombre de paires de vecteur d'entrée / vecteur
de sortie dans l'ensemble d'apprentissage.
[retour ]