Download as pdf
Download as pdf
You are on page 1of 13
RETRO-PROPAGATION DE L'ERREUR 1 a 2 5 F 3 1 3 4 3 fa) y i 5 6 ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fic. VL3. — Le réseau de neurones avec une couche cachée pour dé 's étapes de l'apprentissage par rétro-propagation de erreur. La couche d’entrée comporte 3 neurones, la couche cachée 2, la couche de sortie 3. Tl doit apprendr ocier le stimulus x = (12 3{7 & la réponse 1.3.7]? Les matrices de connexions W et Z sont indiquées sur Ia VI.2.1. UN EXEMPLE Pour illustrer le déroulement de la rétro-propagation, on peut prendre un exemple simple. Le détail des calculs se trouve ci-dessous. Ils sont illustrés par une série de figures. Prenons comme exemple un réseau avec I = 3 cellules d’entrée, L = 2 cellules cachées et J = 3 cellules de sortie. La matrice de connexions W relie les cellules de la couche d’entrée aux cellules de la couche cachée (la notation W est utilisée plutdt que Wy pour alléger l’écriture). Elle est d’ordre L x [ = 2 x 3, Elle vaut: Be lp5 opel w-[5 2 ale La matrice de connexions Z relie les cellules de la couche cachée aux cellules de la couche de sortie (la notation Z est utilisée plutét que 144 LES RESEAUX DE NEURONES \ 5 \ ain ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fig. VL4. Débat de lapprentissage par rétro-propagation de Verreur. Le stimulus x = {1 2 3] est appliqué aux cellules d’entrée qui le transmettent aux cellules de la couche cachée. L'activation en provenance de la couche cachée est filtrée (i.¢., multipliée) par les synapses qui relient les cellules de la couche d’entrée a la couche cachée. Chaque cellule de la couche cachée calcule son activation. Cela revient & effectuer la multiplica- tion matricielle Wx. Ziq pour alléger l’écriture). Elle est d’ordre J x L =3 x 2. Elle vaut: « ae Z= [3 ‘] . (VLA 5 6 Le but du réseau est d’apprendre a associer un ensemble de stimt a un ensemble de réponses. Pour cet exemple, il doit apprendre pa cet ensemble l'association suivante: 1 Jd le stimulus x = 2] doit donner la réponse t = [3] » (VL 3. eT Dans un premier temps, on transmet l'information dans le sens no! On commence par calculer l’activation des cellules de la couche cach notée b: _ _ [14 vewe: [44] RETRO-PROPAGATION DE L'ERREUR 145 ie i ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fig. V1.5. — Les cellules de la couche cachées transforment leur activation en réponse en utilisant une fonction logistique. Elles transmet- tent ensuite cette activation aux synapses qui les relient aux cellules de la couche de sortie Cette activation est ensuite convertie en réponse. En utilisant la fonc- tion logistique, on obtient: (v1.18) b= f(b) = (| 0.7311 Cette activation est ensuite transmise aux cellules de la couche de sortie. Elles calculent leur activation : 0.2264 a=Zh= [ases| ; 0.8397. (VI.16) elles la transforment en réponse en utilisant la fonction logistique: (V1.17) 146 LES RESEAUX DE NEURONES ENTREE (COUCHE CACHEE SORTIE SUPERVISE! Fic. VI.6. — Les cellules de la couche de sortie calculent leur acti- vation par la smultiplication Zh Vétape conduisant a la réponse est maintenant terminée. L’appren- tissage commence. Tout d’abord, le signal d’erreur est calculé par le «superviseur» en comparant la réponse donnée o avec ta réponse attendue t: —0.4564 [-s30| . (V1.18) 0.0016. e=t Pour calculer le signal d’erreur d,ortie il faut dans un premier temps évaluer la dérivée du signal de sortie: 0.2468; (VL.19) f'@) =0@(1-0)= [aaa 0.2106 Les cellules de sortie peuvent évaluer leur signal d’erreur: Sortie = f'(a) @e = 0 @ (1-0) SK - 0) —0.1126 = | -sa7n . (VI.20) 0.0003 RETRO-PROPAGATION DE L'ERREUR 147 3&9 Sg 7@ ae ek ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fic. VL7. — Les cellules de la couche de sortie transforment teur activation en réponse en utilisant la fonction logistique, et la transmettent au superviseur. Elles transmettent leur signal d’erreur en retour vers les cellules de la couche cachée en utilisant en sens inverse les axones qui les relient a Ja couche cachée. Pour ce faire, elles utilisent une étape intermédiaire, elles calculent ainsi la matrice R (pour retour), dont chaque terme rj ¢ est obtenu en multipliant le signal d’erreur de la cellule de sortie j par Yintensité de la connexion reliant Ja cellule j a la cellule ¢ de la couche cachée. Avec une formule: {avec 69°"© dénotant la j-éme composante du vecteur 8,ortie) OU, EN notation matricielle, R=ZO(1? boric) = ZO (Brorribsortie] 1.2] (-0.1126 -0.1126 = [3 ‘] @ [-oom -arn| 5 6 0.0003 0.0003 ~0.0231 -0.0308 (V1.21) 0.0002 0.0002. [-eeas sd 148 LES RESEAUX DE NEURONES g 1@ ain ENTREE COUCHE CACHEE, SORTIE SUPERVISEUR Fic. V1.8. — Le superviscur compare la réponse donnée a la réponse théorique (ow attendue ou désirée). Ii calcule 'erreur t — 0. Les cellules de la couche de sortie calculent f’(a). (17 est un vecteur ligne rempli de valeurs 1, Cf. annexe 1). Une fois lerreur propagée vers la couche cachée, les cellules de la couche de sortie peuvent corriger leur synapses. Elles calculent donc AZ et corrigent Z qui devient Zj;41 (avec 7 = 1 pour simplifer): Zi = Z+ AZ =Z+ pByortieh™ —0.1126 = [-carn| [0.8022 0.7311] 0.0003 eee —0.0904 + -0.0823 7 [3 4] + [-ssstr 0153 | 5 6 0.0003 0.0002. [sass 034 | 0.2383 0.3437 0.5003 0.6002 (V1.22) Une autre quantité intermédiaire correspond 4 I'estimation de I’er- teur par les cellules de la couche cachée. On la note f. Chaque cellule RETRO-PROPAGATION DE L'ERREUR 149 ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fic. V1.9. — Les cellules de la couche de sortie calculent leur signal erreur Sortie = f(a) @e Yobtient en faisant la somme des signaux d’erreur propagés en retour (et filtrés par les connexions). Autrement dit, la somme de chaque cofonne de R donne maintenant la valeur de f qui dénote Yerreur estimée pour chaque cellule de la couche cachée, elle peut se calculer de deux fagons équivalentes (voir annexe 1). = RT = 276... = | ~0.0342 FS RUD = 2 boone = | Le signal d’erreur pour les cellules de la couche cachée se calcule de maniére analogue a la couche de sortie. On remplace simplement Yerreur donnée par le superviseur par l’erreur estimée par les cellules de la couche cachée: Beacnce = {"(b) ©£ =h@ (Oh) © (Zone) = [ meal 0.0104 Les cellules de la couche cachée peuvent maintenant corriger W en Wit: Witt] =W + AW = W + 1Bcacnéex” 150 LES RESEAUX DE NEURONES 80-11 go i 2 : 13x=1 3 o) mr \? 3 80x.08 |! 73 x 08 3 + & 80x 0, 3 3x0 ENTREE COUCHE CACHEE SORTIE —SUPERVIS Fig. VI.10. — Les cellules de la couche de sortie calculent la cor- rection AZ mais ne l'appliquent pas maintenant (elles doivent transmettre le signal d’erreur d’abord), 1) , ([ 0.0084 1] 7 ((lsearee| Wh 31) _[s “13 -[5 3 1], [0.0054 -o.0108 -0.0163 “13 1 —0.0104 -—0.0209 -0.0313 -[ to 2892 fl Re Vw ~ [.2896 .1791 .0687 (VI.23) Et l'ensemble de la procédure est terminée (pour cette étape). Les différentes étapes du calcul sont également détaillées dans la série de figures V1.4 a VI.15. Cette série de figures montre aussi com- ment un réseau de neurones implémente les opérations matricielles correspondant aux différentes opérations matricielles élémentaires. Lie ENTREE (COUCHE CACHEE SORTIE SUPERVISEUR Fig. VI.il. ~- Les cellules de la couche de sortie ¢ransmettent le signal d’erreur aux cellules de la couche cachée. Le signal d’erreur est multiplié par l'intensité de la synapse qui relie la cellule de la couche cachée & la couche de sortie puis il est envoyé a la cellule cachée. Cela revient & calculer la matrice R décrite dans le texte. ee Ris ENTREE COUCHE CACHEE, SORTIE SUPERVISEUR Fig. VI.12. — Chagque cellule de la couche cachée fait 1a smme des signaux d’erreur qui lui parviennent, cela revient & calculer le vecteur f décrit dans le texte. RETRO-PROPAGATION DE L'ERREUR 153 AS =.03 x .16=-.05 XK o75) is) 12 3 G9 sO 7.05 x .20=-.01 ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fic. VI.13. — Les cellules de la couche de sortie corrigent Z en Zy = Z+ AZ (y = 1 pour simplifer), Les cellules de la couche cachée calculent leur signal d'erreur: Scachée = f(Wx) @f = f'(Wx) @Z7 sortie. 154 RETRO-PROPAGATION DE L'ERREUR ow cy 24 34 x ENTREE COUCHE CACHEE. SORTIE SUPERVIS! Fig. VI.14. — _ Les cellules de la couche cachée calculent AW, la correction & apporter & W. Cela est équivalent & calculer MicachéeX” ‘ 455 RETRO-PROPAGATION DE L'ERREUR 01 x S 3 x ld 24 34 BR 2 SX 18 “x Xo 30 0 ENTREE COUCHE CACHEE SORTIE SUPERVISEUR Fic. VI15. — Les cellules de la couche cachée implémentent la correction d’erreur pour les synapses les reliant & la couche d’entrée. Cela revient & calculer Wj = W + AW. La procédure est torminée. Un autre cycle d’apprentissage peut commencer.

You might also like