Perceptron
Un article de Wikipédia, l'encyclopédie libre.
Cet article est une ébauche concernant l’informatique.
Vous pouvez partager vos connaissances en l’améliorant. (Comment ?).
|
Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (en anglais feedforward neural network). Le perceptron a été inventé en 1957 par Franck Rosenblatt au Cornell Aeronautical Laboratory, inspiré par la théorie cognitive de Friedrich Hayek et celle de Donald Hebb.
Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie à laquelle toutes les entrées sont connectées. Les entrées et la sortie sont booléennes.
Le potentiel post-synaptique où Wi est le poids de l'entrée ei.
La fonction d'activation est la fonction de Heaviside (la fonction signe est parfois utilisée) , avec. Ici, b définit le seuil à dépasser pour que la sortie soit à 1.
On trouve fréquemment une variante de ce modèle de base dans laquelle la sortie prend les valeurs -1 et 1 au lieu de 0 et 1.
[modifier] Apprentissage du Perceptron
[modifier] Loi de Hebb
Voir règle de Hebb.
[modifier] Bibliographie
- F. Rosenblatt (1958), "The perceptron: a probabilistic model for information storage and organization in the brain",
- - repris dans J.A. Anderson & E. Rosenfeld (1988), Neurocomputing. Foundations of Research, MIT Press