1 / 96

Conférences de méthodes

Conférences de méthodes. Sébastien Rouillon 2009. 1. Systèmes linéaires. Cette conf. a pour but de vous apprendre à résoudre des systèmes d’équations linéaires de la forme : a 11 x 1 + a 12 x 2 + … + a 1n x n = b 1 (1) a 21 x 1 + a 22 x 2 + … + a 2n x n = b 2 (2) …

millie
Download Presentation

Conférences de méthodes

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Conférences de méthodes Sébastien Rouillon 2009

  2. 1. Systèmes linéaires Cette conf. a pour but de vous apprendre à résoudre des systèmes d’équations linéaires de la forme : a11 x1 + a12 x2 + … + a1n xn = b1 (1) a21 x1 + a22 x2 + … + a2n xn = b2 (2) … an1 x1 + an2 x2 + … + ann xn = bn (n)

  3. 1. Systèmes linéaires Remarques : • On se contentera de donner la méthode de résolution dans le cas simple où la solution du système existe et est unique ; • Autrement dit, le système comporte autant d’équations que d’inconnues et les équations sont linéairement indépendantes.

  4. 1. Systèmes linéaires Terminologie : • Les "xi" sont des nombres à déterminer, appelés les inconnues. • Les "aij" et les "bi" sont des nombres donnés, appelés les paramètres.

  5. 1. Systèmes linéaires La méthode consiste à utiliser quelques règles simples, de façon systématique, pour transformer le système initial sous une forme triangulaire supérieure : a11 x1 + a12 x2 + … + a1n xn = b1 (1) a22 x2 + … + a2n xn = b2 (2) … ann xn = bn (n)

  6. 1. Systèmes linéaires Remarque : • Si le système de départ a une solution unique, il est toujours possible, en utilisant de façon systématique les règles proposées, de parvenir à cette forme triangulaire supérieure.

  7. 1. Systèmes linéaires Une fois qu’on parvient à cette forme triangulaire supérieure, on trouve la solution en remontant le système comme suit : (n) La n-ième ligne permet de trouver xn ; (n-1) En remplaçant xn par la valeur obtenue dans la (n-1)-ième ligne, on trouve xn-1 ; (…) Et ainsi de suite jusqu’à la 1-ière ligne…

  8. 1. Systèmes linéaires Les règles suivantes permettent d’obtenir le système triangulaire : Règle 1. On ne change pas la solution d’un système linéaire en modifiant l’ordre des lignes. Règle 2. On ne change pas la solution d’un système linéaire en modifiant l’ordre des inconnues.

  9. 1. Systèmes linéaires Règle 3. On ne change pas la solution d’un système linéaire en multipliant les membres de gauche et de droite d’une ligne par un nombre non nul quelconque. Règle 4. On ne change pas la solution d’un système linéaire en ajoutant ou en soustrayant deux lignes.

  10. 1. Systèmes linéaires Les règles 1 et 2 permettent de permuter l’ordre des lignes et des inconnues du système comme cela nous arrange (en particulier, pour faciliter les calculs à venir). Les règles 3 et 4 permettent d’écrire, en n-1 étapes, le système sous forme triangulaire supérieure.

  11. 1. Systèmes linéaires 1-ière étape (où l’on utilise la 1-ière inconnue et la 1-ière ligne) : • On multiplie chaque ligne (2) à (n) par un nombre choisi de manière à ce que la 1-ière inconnue soit affectée du même coefficient que dans la 1-ière ligne ; • On remplace ensuite chaque ligne (2) à (n) par sa différence avec la 1-ière ligne. Au final, la 1-ière inconnue n’apparaît plus dans les lignes (2) à (n) .

  12. 1. Systèmes linéaires 2-ième étape (où l’on utilise la 2-ième inconnue et la 2-ième ligne) : • On multiplie chaque ligne (3) à (n) par un nombre choisi de manière à ce que la 2-ième inconnue soit affectée du même coefficient que dans la 2-ième ligne ; • On remplace ensuite chaque ligne (3) à (n) par sa différence avec la 2-ième ligne. Au final, la 2-ième inconnue n’apparaît plus dans les lignes (3) à (n).

  13. 1. Systèmes linéaires Et ainsi de suite… Au terme des n–1 étapes, où l’on a utilisé à tour de rôle les lignes (1), (2), …, (n-1), le système obtenu a une forme triangulaire supérieure.

  14. 2. Optimisation Cette conf. a pour but de vous apprendre à résoudre des problèmes d’optimisation de la forme : Choisir x pour maximiser f(x) sous g(x) = 0.

  15. 2. Optimisation Terminologie : • La variable x est appelée variable de décision ; • La fonction f(x) est appelée fonction objectif ; • La fonction g(x) est appelée contrainte.

  16. 2.1 Dérivation Soit f(x) une fonction quelconque. On suppose que cette fonction est dérivable et on note f’(x) sa dérivée. Par définition : f(x + e) – f(x) f’(x) = lime -> 0 ---------------- e

  17. 2.1 Dérivation Formulaire (dérivées utiles en économie de l’environnement) : f(x) -> f’(x) a -> 0 x -> 1 x² -> 2x 1/x -> -1/x2 ln(x) -> 1/x ex -> ex

  18. 2.1 Dérivation Soient : f(x), g(x) = deux f° dérivables ; a = un nombre. Les f° suivantes sont dérivables : a f(x), f(x) + g(x), f(x) g(x), f(x)/g(x). Pour les dériver, on utilise 4 règles.

  19. 2.1 Dérivation Règle 1. La dérivée du produit d’une fonction par un nombre est le produit de sa dérivée par le même nombre : a f(x) -> a f’(x) Règle 2. La dérivée d’une somme de deux fonctions est la somme des dérivées des deux fonctions : f(x) + g(x) -> f’(x) + g’(x)

  20. 2.1 Dérivation Règle 3. La dérivée du produit de deux fonctions est donnée par : f(x) g(x) -> f’(x) g(x) + f(x) g’(x) Règle 4. La dérivée du quotient de deux fonction est donnée par : f(x)/g(x) -> [f’(x) g(x) - f(x) g’(x)]/[g(x)]2

  21. 2.2 Optimisation libre Commençons par étudier le cas simple où il n’y a pas de contrainte sur la variable de décisions. Le problème devient alors simplement : Choisir x pour maximiser f(x).

  22. 2.1 Optimisation libre On sait que le signe de la dérivée f’(x) donne le sens de variation de la fonction en x. f’(x) > 0 -> f est croissante en x ; f’(x) = 0 -> f est constante en x ; f’(x) < 0 -> f est décroissante en x.

  23. 2.2 Optimisation libre f’(x°) = 0 Si f est maximum en x°, sa courbe repré-sentant est hori-zontale en ce point. Alors, sa dérivée, qui mesure la croissance de f en x, est nulle. y f(x) x° x

  24. 2.2 Optimisation libre Proposition : Si la fonction f(x) atteint un maximum en x°, alors f’(x°) = 0. Preuve : Si f’(x°) > 0, f est croissante en x°. Donc, si e > 0, f(x° + e) > f(x°) ! Si f’(x°) < 0, f est décroissante en x°. Donc, si e < 0, f(x° - e) > f(x°) !

  25. 2.2 Optimisation libre Remarques : La condition donnée est (s)uffisante, pas (n)écessaire : (s) Si f(x) est maximum en x°, alors f’(x°) = 0. (n) Si f’(x°) = 0, f(x) peut ne pas être maximum en x° (Cf. Fig. préc.).

  26. 2.3 Optimisation sous contrainte Revenons maintenant aux problèmes d’optimisation de la forme : Choisir x pour maximiser f(x) sous g(x) = 0.

  27. 2.3 Optimisation sous contrainte La différence est qu’on ne peut plus choisir x librement, mais que l’on doit choisir x dans l’ensemble des valeurs telles que g(x) = 0. Selon les cas, cela peut changer ou non le résultat du problème.

  28. 2.3 Optimisation sous contrainte f’(x°) = 0 Un exemple où la contrainte g(x) = 0 ne change pas la solution du problème. La solution du problème vérifiera alors f’(x°) = 0. y g(x) f(x) . . x° x g(x) = 0

  29. 2.3 Optimisation sous contrainte Un exemple où la contrainte g(x) = 0 change la solution du problème. La solution du problème vérifiera alors f’(x°) <> 0. (Ici, f’(x°) < 0). y f’(x°) <> 0 g(x) f(x) . . x° x g(x) = 0

  30. 2.3 Optimisation sous contrainte Pour trouver la solution d’un problème d’optimisation sous contrainte, on construit la fonction : L(x) = f(x) – a g(x), en soustrayant à la fonction objectif f(x), la fonction contrainte g(x), multipliée par un coefficient a.

  31. 2.3 Optimisation sous contrainte Terminologie : • La fonction L est appelée lagrangien; • Le paramètre a est appelée multiplicateur (de Lagrange). Remarque : Le paramètre a est une inconnue.

  32. 2.3 Optimisation sous contrainte On a le théorème suivant. Théorème : Une solution x° du problème d’optimisation vérifie les conditions : L’(x°) = f’(x°) – a g’(x°) = 0, g(x°) = 0.

  33. 3. Théorie de Jeux Cette conf. a pour but de vous présenter quelques notions de base en théorie des jeux. Pour faciliter la compréhension, on prendra des exemples classiques.

  34. 3.1 Jeux sous forme stratégique Définition : On définit un jeu sous forme stratégique, en donnant un ensemble de joueurs N = {1, …, n}, un ensemble de stratégies siЄ Si, pour chaque joueur i, et une fonction d’utilité ui(s1, …, sn), définie pour tout profil de stratégies (s1, …, sn), pour chaque joueur i.

  35. 3.1 Exemples : Le dilemme du prisonnier On pose : N = {1, 2} = les deux voleurs présumés ; siЄ Si = {(D)énoncer, (T)aire} ; (s1, s2) (D, D) (T, D) (D, T) (T, T) u1(s1, s2) -2 -3 1 0 u2(s1, s2) -2 1 -3 0

  36. 3.1 Exemples : Le duopole de Cournot On pose : N = {1, 2} = les deux firmes ; si ≥ 0 = la quantité offerte ; ui(s1, s2) = P(s1 + s2) si – Ci(si), où : P(q) = la fonction de demande inverse ; Ci(qi) = le coût de production de i.

  37. 3.2 Concepts de solution d’un jeu Définition : Un profil stratégique (s1*, …, sn*) est une solution d’un jeu si on a de bonnes raisons de penser que des joueurs rationnels, guidés par leur intérêt personnel, le choisiraient.

  38. 3.2.1 Stratégie dominante Définition : On dit qu’une stratégie si* d’un joueur est une stratégie dominante si, quel que soit le profil des stratégies (s1, …, si-1, si+1, … sn) des autres joueurs, le gain du joueur est maximum lorsqu’il joue cette stratégie.

  39. 3.2.1 Stratégie dominante Définition : On dit qu’un jeu possède un équilibre en stratégies dominantes s’il admet un profil stratégique (s1*, …, sn*), composée uniquement de stratégies dominantes des joueurs.

  40. 3.2.1 Stratégie dominante Ex. 1. Dilemme du prisonnier. N = {1, 2}. Si = {(D)énoncer, (T)aire}. (s1*, s2*) = (D, D) est un éq. en strat. dom. Joueur 2 (D) (T) (D) (-2, -2) (1, -3) Joueur 1 (T) (-3, 1) (0, 0)

  41. 3.2.1 Stratégie dominante Il y a de fortes présomptions pour croire que, si un joueur a une stratégie dominante, il la jouera. Donc, si un jeu admet un équilibre en stratégies dominantes, on le considérera comme une solution du jeu. Mais, rares sont les jeux qui admettent des équilibres en stratégies dominantes.

  42. 3.2.1 Stratégie dominante Ex. 2. Guerre des prix. N = {1, 2}. Si = {p ; P}. Joueur 2 (p) (P) (p) (1, 1) (3, 0) Joueur 1 (P) (0, 3) (2, 2)

  43. 3.2.1 Stratégie dominante Ex. 3. Guerre des sexes. N = {♂, ♀}. Si = {(F)oot ; (S)olde}. Joueur ♀ (F) (S) (F) (2, 1) (0, 0) Joueur ♂ (S) (0, 0) (1, 2)

  44. 3.2.2 Eq. de Nash Définition : On dit qu’une stratégie si* d’un joueur i est une meilleure réponse de ce joueur au profil stratégique (s1, …, si-1, si+1, … sn) des autres joueurs, si elle maximise le gain du joueur i, lorsque les autres jouent les stratégies en question.

  45. 3.2.2 Eq. De Nash Définition : On dit qu’un jeu possède un équilibre de Nash s’il admet un profil stratégique (s1*, …, sn*), tel que chaque stratégie individuelle de ce profil est une meilleure réponse aux stratégies des autres joueurs.

  46. 3.2.1 Stratégie dominante Ex. 1. Guerre des prix. N = {1, 2}. Si = {p ; P}. (s1*, s2*) = (p, p) est un équilibre de Nash. Joueur ♀ (p) (P) (p) (1, 1) (3, 0) Joueur ♂ (P) (0, 3) (2, 2)

  47. 3.2.2 Eq. de Nash Ex. 2. Guerre des sexes. N = {♂, ♀}. Si = {(F)oot ; (S)olde}. (s1*, s2*) = (F, F) et (S, S) sont 2 éq de Nash. Joueur ♀ (F) (S) (F) (2, 1) (0, 0) Joueur ♂ (S) (0, 0) (1, 2)

  48. 3.2.2 Eq. de Nash Ex. 3. Duopole de Cournot. La demande sur le marché est : P(q) = 2 – q. La fonction de coût des deux firmes est : C1(q) = C2(q) = q.

  49. 3.2.2 Eq. de Nash Etant donné s2, la firme 1 choisit son offre s1 pour maximiser son profit : u1(s1, s2) = (1 – s1 – s2) s1. La solution de ce problème vérifie (Cf. 2. Optimisation) : ∂u1/∂s1 = 1 – 2 s1 – s2 = 0. Il s’ensuit la f° de meilleure réponse de 1 : s1 = (1 – s2)/2.

  50. 3.2.2 Eq. de Nash Etant donné s1, la firme 2 choisit son offre s2 pour maximiser son profit : u2(s1, s2) = (1 – s1 – s2) s2. La solution de ce problème vérifie (Cf. 2. Optimisation) : ∂u2/∂s2 = 1 – s1 – 2 s2 = 0. Il s’ensuit la f° de meilleure réponse de 2 : s2 = (1 – s1)/2.

More Related