Exercices
Download
1 / 25

Exercices - PowerPoint PPT Presentation


  • 72 Views
  • Uploaded on

Exercices. Perceptron multicouche. Points de départ: La dérivée d’une exponentielle est une exponentielle Dérivée d’un quotient. 1. Dérivée de la sigmoïde. 1.1 Sigmoïde unipolaire. 1.2 Sigmoïde unipolaire à pente ajustable. 1.3 Sigmoïde bipolaire. 1.4 Sigmoïde bipolaire à pente ajustable.

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' Exercices' - solomon-chapman


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
Exercices

Exercices

Perceptron multicouche


1 d riv e de la sigmo de

Points de départ:

La dérivée d’une exponentielle est une exponentielle

Dérivée d’un quotient

1. Dérivée de la sigmoïde








3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) (ref. Fausett, prob. 6.1)

1. Net de la couche cachée

Propagation avant

h_in1 = 0.4 + (0.0) (0.7) + (1.0) (-0.2) = 0.2

h_in2 = 0.6 + (0.0) (-0.4) + (1.0) (0.3) = 0.9

Y

-0.3

0.5

0.1

1

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Propagation avant

Y

2. Out de la couche cachée

-0.3

h1 = 1 / (1+ exp (- h_in1)) = 0.550

0.5

0.1

1

h2 = 1 / (1+ exp (- h_in2)) = 0.711

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Propagation avant

Y

-0.3

0.5

0.1

1

h2

h1

3. Net de la couche de sortie

0.4

0.6

y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = 0.046

0.7

0.3

-0.2

-0.4

1

1

X1

X2


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

1. Net de la couche cachée

Propagation avant

h_in1 = 0.4 + (0.0) (0.7) + (1.0) (-0.2) = 0.2

h_in2 = 0.6 + (0.0) (-0.4) + (1.0) (0.3) = 0.9

Y

-0.3

2. Out de la couche cachée

0.5

0.1

1

h1 = 1 / (1+ exp (- h_in1)) = 0.550

h2

h1

h2 = 1 / (1+ exp (- h_in2)) = 0.711

0.4

0.6

3. Net de la couche de sortie

0.7

0.3

y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = 0.046

-0.2

-0.4

1

1

4. Out de la couche de sortie

X1

X2

y = 1 / (1+ exp (- y_in)) = 0.511


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Rétro-propagation

d k

d

5. Erreur

b

D

a

Y

d - y = 1 – 0.511 = 0.489

6. dk

-0.3

1

dk = (d – y) (y) (1 - y) = 0.122

0.5

0.1

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Rétro-propagation

dk

Y

-0.2695

Dans le cas général :

0.5168

d j1

d j2

(-0.3)

0.1217

1

(0.5)

(0.1)

h2

h1

Dérivée de f (h_inj)

0.4

0.6

0.7

0.3

8. d j1

-0.2

-0.4

1

1

d j1 = (d k) (w1) (h1) (1 - h1)= 0.015

X1

X2

9. d j2

d j2 = (d k) (w2) (h2) (1 - h2)= 0.0025


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Rétro-propagation

dk

Y

D wjk

-0.2695

7. D wkj

0.5168

1

0.1217

D w10 = () (dk) = 0.0305

h2

h1

D w11 = () (dk) (h1) = 0.0168

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

D w12 = () (dk) (h2) = 0.0217

X1

X2


3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1)

Rétro-propagation

Y

d j1

d j2

0.0305

(-0.3)

0.0168

0.0217

D vn1

D vn2

1

10. D vjn

h2

h1

D v10 = () (d j1) = 0.038

D v11 = () (d j1) (x1) = 0.0

0.438

0.6006

D v12 = () (d j1) (x2) = 0.038

0.7

0.3006

D v20 = () (d j2) = 0.0006

1

1

-0.1962

-0.4

D v21 = () (d j2) (x1) = 0.0

X1

X2

D v22 = () (d j2) (x2) = 0.0006


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) et on utilise une sigmoïde bipolaire comme fonction d’activation (ref. Fausett, prob. 6.2)

Seuls changent la dérivée de la fonction d’activation bipolaire et la mise à jour des poids entre l’entrée et la couche cachée.

Y

-0.3

0.5

0.1

1

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

1. Net de la couche cachée

Propagation avant

h_in1 = 0.4 + (-1.0) (0.7) + (1.0) (-0.2) = -0.5

h_in2 = 0.6 + (-1.0) (-0.4) + (1.0) (0.3) = 1.3

Y

-0.3

0.5

0.1

1

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Propagation avant

Y

2. Out de la couche cachée

-0.3

h1 = -1 + 2 / (1+ exp (- h_in1)) = -0.245

0.5

0.1

1

h2 = -1 + 2 / (1+ exp (- h_in2)) = 0.572

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Propagation avant

Y

-0.3

0.5

0.1

1

h2

h1

3. Net de la couche de sortie

0.4

0.6

y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = -0.365

0.7

0.3

-0.2

-0.4

1

1

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

1. Net de la couche cachée

Propagation avant

h_in1 = 0.4 + (-1.0) (0.7) + (1.0) (-0.2) = -0.5

h_in2 = 0.6 + (-1.0) (-0.4) + (1.0) (0.3) = 1.3

Y

-0.3

2. Out de la couche cachée

0.5

0.1

1

h1 = -1 + 2 / (1+ exp (- h_in1)) = -0.245

h2

h1

h2 = -1 + 2 / (1+ exp (- h_in2)) = 0.572

0.4

0.6

3. Net de la couche de sortie

0.7

0.3

y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = -0.365

-0.2

-0.4

1

1

4. Out de la couche de sortie

X1

X2

y = -1 + 2 / (1+ exp (- y_in)) = -0.181


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Rétro-propagation

d k

d

5. Erreur

b

D

a

Y

d - y = 1 – (-0.181) = 1.181

6. dk

-0.3

1

dk = (d – y) (0.5) (1 + y) (1 - y) = 0.571

0.5

0.1

h2

h1

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Rétro-propagation

dk

Y

-0.2695

Dans le cas général :

0.5168

d j1

d j2

(-0.3)

0.1217

1

(0.5)

(0.1)

h2

h1

Dérivée de f (h_inj)

0.4

0.6

0.7

0.3

8. d j1

-0.2

-0.4

1

1

d j1 = (d k) (w1) (0.5) (1 + h1) (1 - h1)= 0.134

X1

X2

9. d j2

d j2 = (d k) (w2) (0.5) (1 + h2) (1 - h2)= 0.019


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Rétro-propagation

dk

Y

D wjk

-0.2695

7. D wkj

0.5168

1

0.1217

D w10 = () (dk) = 0.143

h2

h1

D w11 = () (dk) (h1) = -0.035

0.4

0.6

0.7

0.3

-0.2

-0.4

1

1

D w12 = () (dk) (h2) = 0.082

X1

X2


4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1)

Rétro-propagation

Y

d j1

d j2

0.0305

(-0.3)

0.0168

0.0217

D vn1

D vn2

1

10. D vjn

h2

h1

D v10 = () (d j1) = 0.0335

D v11 = () (d j1) (x1) = -0.0335

0.438

0.6006

D v12 = () (d j1) (x2) = 0.0335

0.7

0.3006

D v20 = () (d j2) = 0.0048

1

1

-0.1962

-0.4

D v21 = () (d j2) (x1) = -0.0048

X1

X2

D v22 = () (d j2) (x2) = 0.0048


ad