1 / 55

Expérimentation et optimisation

Expérimentation et optimisation. Expérimentation et optimisation. La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui connaît très bien la nature même du problème

ellard
Download Presentation

Expérimentation et optimisation

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Expérimentation et optimisation

  2. Expérimentation et optimisation La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui connaît très bien la nature même du problème d'analyser et d'expérimenter des configurations différentes d'un même système grâce à un modèle de simulation. Toutefois, cette expérimentation et optimisation ne peut se faire sans la contribution d'un analyste en simulation. L'analyse statistique ne peut se faire automatiquement. But du chapitre: Puisque la simulation est une opération descriptive, la valeur de la configuration choisie dépend surtout de l'habileté de l'équipe de modélisation. La simulation ne permet pas d'obtenir des solutions optimales. Nous examinerons différentes techniques permettant d'évaluer plusieurs configurations alternatives du système. Expérimentation et optimisation

  3. Expérimentation et optimisation Techniques permettant d'évaluer différentes configu- rations alternatives du système lesquelles sont obte- nues en faisant varier une variable de décision En procédant ainsi, on accepte le fait que l'ensemble des configurations alternatives ne contient pas nécessairement la solution optimale. Expérimentation et optimisation

  4. A) L’évaluation de deux configurations alternatives • L'évaluation de 2 configurations alternatives peut être l'objet de plusieurs applications: • 2 aménagements différents touchant la gestion du personnel d'une banque. • 2 politiques définissant dans quel ordre les clients seront servis. • 2 politiques de réapprovisionnement. • etc. • Dans chaque cas, nous cherchons à déterminer la configuration dont la performance • est plus élevée selon une mesure donnée. • Puisque les résultats d'une simulation sont stochastiques par nature, cette comparaison • n'est pas immédiate et nous devons recourir à des tests statistiques. Expérimentation et optimisation

  5. A) L’évaluation de deux configurations alternatives Pour que ces tests statistiques soient valides, certaines conditions doivent être satisfaites. La plus importante est l'indépendance des 2 échantillons (l'ensemble des résultats pour chaque simulation). Nous pouvons donc distinguer 3 cas possibles: - 2 échantillons indépendants issus de 2 populations dont la variance est égale. - 2 échantillons indépendants issus de 2 populations dont la variance diffère. - 2 échantillons corrélés. Les 2 premiers cas exigent que les 2 suites de nombres aléatoires générés soient indépendantes; dans le troisième cas, la même suite est utilisée. Expérimentation et optimisation

  6. Cas 1 & 2: échantillons indépendants Les résultats de la simulation nous fournissent 2 échantillons indép.: Yij, i = 1, 2, ..., n; j = 1, 2 où Yij désigne l'élément i de l'échantillon (configuration) j. Note: On suppose que les 2 échantillons ont même taille. Il s'agit de tester l'hypothèse qu'il y a une différence significative entre les 2 échantillons: H0: m1 - m2 = 0 H1: m1 - m2 0 où m1 et m2 sont les moyennes des 2 populations. Expérimentation et optimisation

  7. Cas 1 & 2: échantillons indépendants Nous construisons un intervalle de confiance au niveau µ de la différence des moyennes des populations (m1 - m2): Y.1 - Y.2± tµ/2,g déviation standard de Y.1 - Y.2 où Y.j = 1/n i=1,2, ..., n Yij j = 1, 2; g est le nombre de degrés de liberté de la distribution t. Pour calculer la déviation standard de Y.1 - Y.2, nous avons: Var(Y.1 - Y.2) = Var(Y.1) + Var(Y.2) = s12/n + s22/n puisque les 2 échantillons sont indépendants. Nous pouvons estimer sj2 à l'aide de sj2 = i=1,2, ..., n (Yij - Y.j)2/(n-1), j=1,2. Expérimentation et optimisation

  8. Cas 1: variances égales Sil'on peut assumer raisonnablement que s1 = s2 ou encore, qu'un test de Fisher confirme cette hypothèse, nous pouvons calculer un estimé avec 2n - 2 degrés de liberté de s2 = s12 = s22 en combinant les données des 2 échantillons: s2 = (n-1) (s12 + s22) / (2n-2). Nous avons aussi: Var(Y.1 - Y.2) = 2s2 / n Expérimentation et optimisation

  9. Cas 2: variances différentes Var(Y.1 - Y.2) = (s12 + s22) / n où g -2 + [(s12 + s22) / n]2 / [({s12/n}2 + {s22/n}2) / (n + 1)]. Expérimentation et optimisation

  10. Ex. I : Politiques de service des clients dans une épicerie Configuration A: 3 caisses qui servent tous les clients sans distinction. Les clients choisissent la caisse dont la file est la plus courte. Configuration B: 1 caisse expresse (6 items ou moins) et les 2 autres caisses pour tous les autres clients. Lorsqu'un client avec 6 items ou moins arrive aux caisses, 2 cas peuvent se produire: a) si une caisse est disponible, il la prend. b) autrement, il va à la ligne expresse. Lorsqu'un client régulier arrive aux caisses, 2 cas peuvent se produire: a) si une caisse régulière est disponible, il la prend. b) autrement, il va à la ligne la plus courte. Expérimentation et optimisation

  11. Ex. I : Politiques de service des clients dans une épicerie Les clients avec 6 items ou moins arrivent aux caisses selon une distribution exponentielle de moyenne 0.8 minute entre les arrivées. Les clients réguliers arrivent aux caisses selon une distribution exponentielle de moyenne 3.1 minutes entre les arrivées. Le temps de traitement des items est de 0.17 minutes par item de sorte que le temps total de traitement dépend du nombre d'items achetés. La mesure de performance choisie est le temps total (temps d'attente et temps de service) moyen passé au magasin par client. 10 répétitions indépendantes de la simulation ont été effectuées. Expérimentation et optimisation

  12. Tableau des résultats # de la répétition Temps total moyen passé dans le système(min.) aucune ligne expresse 1 ligne expresse 1 7.27 5.75 2 20.09 12.79 3 18.60 11.44 4 19.80 9.73 5 7.14 4.16 6 29.17 14.95 7 12.87 10.34 8 11.40 7.64 9 13.40 9.55 10 8.81 5.29 moyenne échantillonnale 14.86 9.16 variance échantillonnale 49.14 11.97 Expérimentation et optimisation

  13. Résultats obtenus Une évidence des résultats obtenus: les variances diffèrent. On obtient: Y.1 - Y.2 = 14.86 - 9.16 = 5.7 déviation standard = [(49.14 + 11.97)/10] = 2.47 L'intervalle de confiance est: 5.7 ± t.025,14 2.47 = 5.7 ± 5.30 [0.40, 11.00]. Puisque l'intervalle ne contient pas 0, l'hypothèse est rejetée. De plus, la configuration avec 1 ligne expresse est plus avantageuse. -------------------------------------------------- Expérimentation et optimisation

  14. Cas 3: échantillons corrélés Le seul intérêt d’utiliser des échantillons corrélés est de tenter de réduire la variance de Y.1 - Y.2, ce qui aurait pour effet de réduire l’intervalle de confiance. Examinons ceci de plus près: Var(Y.1 - Y.2) = Var(Y.1) + Var(Y.2) - 2 cov(Y.1, Y.2) = s12 /n + s22 /n - 2 r12s1s2/n où r12 = cov(Yi1, Yi2) / s1s2 est le coefficient de corrélation entre les 2 populations, cov(Y.1, Y.2) = cov(Yi1, Yi2) / n. S’il existe une corrélation positive entreles 2 échantillons (r12 > 0), la corrélation entre les échantillons permet de réduire la variance. Expérimentation et optimisation

  15. Cas 3: calcul de l’intervalle de confiance Nous définissons une nouvelle variable aléatoire Di = Yi1 - Yi2 où - les Di sont indépendants - Yi1 et Yi2 sont corrélés positivement. D = 1/n i=1,2, ..., n Di = Y.1 - Y.2 Var(Di) = i=1,2, ..., n (Di - D)2 /(n - 1) Var(D) = Var(Di) / n Pour tester l’hypothèse H0: m1 - m2 = 0 H1: m1 - m2 0 l’intervalle de confiance à un niveau  est : D t/2, n-1 déviation standard de D. Une stratégie pour tenter d'obtenir une corrélation positive entre les échantillons est d'utiliser la même suite de nombres aléatoires générés. Expérimentation et optimisation

  16. Tableau des résultats (échantillons corrélés) # de la répétition Temps total moyen passé dans le système(min.) aucune ligne expresse 1 ligne expresse 1 9.49 5.81 2 22.40 11.10 3 9.24 6.16 4 15.25 12.45 5 26.58 11.14 6 30.97 17.72 7 6.67 5.13 8 11.04 7.58 9 16.28 10.62 10 13.70 11.03 moyenne échantillonnale 16.16 9.87 variance échantillonnale 64.71 14.59 Expérimentation et optimisation

  17. Tableau des résultats On obtient: D = 6.29, µ = 5%, l'intervalle de confiance est 6.29 ± 3.62 ou encore, [2.67,9.91]. Les mêmes conclusions s'imposent mais, cette fois-ci, la longueur de l'intervalle de confiance est plus petite. Expérimentation et optimisation

  18. B) L'évaluation de plusieurs configurations alternatives Au lieu de considérer 2 configurations possibles, nous pouvons considérer un nombre plus ou moins grand de valeurs prises par la variable de décision. Cela a plusieurs conséquences: - Auparavant, nous avions 1 seule paire à examiner. Maintenant, N configurations entraînent N(N-1)/2 paires à examiner. - Un plus grand nombre de simulations doivent être effectuées. - Cela cause des difficultés quant à la précision des estimateurs. - La fiabilité des tests  lorsque le # de comparaisons c'est-à-dire, l'erreur de première espèce  lorsque le # de comparaisons . Pour réduire le # de comparaisons, une stratégie consiste à comparer N configurations alternatives à une configuration standard i.e., effectuer N comparaisons. Expérimentation et optimisation

  19. B) L'évaluation de plusieurs configurations alternatives Chaque comparaison se traduit par un test d'hypothèse de la forme: H0: mi - mj = 0 H1: mi - mj 0 où mi et mj sont les moyennes respectives de la mesure de performance des populations reliées aux configurations i et j. Soit µi l'erreur de première espèce associée au i ième test, alors Erreur de première espèce globale pour N tests d'hypothèses simultanés = µE = Prob (au moins 1 des N interv. de confiance ne renferme pas la valeur théorique) ≤ µ1 + µ2 + ... + µN. Expérimentation et optimisation

  20. Cas particuliers et exemple N = 2 µE = µ1 + µ2 - µ1µ2 lorsque les populations sont indépendantes  µ1 + µ2 autrement. Exemple 3: 3 politiques de service des clients dans une épicerie (échantillons corrélés) Nous reprenons l'exemple précédent en considérant une 3ième configura-tion où 2 lignes expresses sont disponibles. La configuration i possède i-1 lignes expresses, i=1, 2, 3. Nous avons utilisé la même suite de nombres aléatoires générés pour chaque configuration: les échantillons sont corrélés. Expérimentation et optimisation

  21. Tableau des résultats # Temps total moyen passé dans le système(min.) 0 ligne expresse 1 ligne expresse 2 lignes expresses 1 9.49 5.81 18.23 2 22.40 11.10 20.48 3 9.24 6.16 24.47 4 15.25 12.45 22.88 5 26.58 11.14 20.60 6 30.97 17.72 29.30 7 6.67 5.13 24.27 8 11.04 7.58 21.29 9 16.28 10.62 23.93 10 13.70 11.03 22.07 moy. échantillonnale 16.16 9.87 22.75 var. échantillonnale 64.71 14.59 10.18 Expérimentation et optimisation

  22. Tableau des résultats Nous testons chaque paire de configurations suivante: (1,2), (1,3) et (2,3) et nous testons chaque hypothèse à un niveau 0.02. µE <=0.06 L'intervalle de confiance pour la paire (1,2): [2.67, 9.91] L'intervalle de confiance pour la paire (1,3): [-13.73, 0.55] L'intervalle de confiance pour la paire (2,3): [-16.1, -9.66]. Nous pouvons en conclure: Il est préférable d'utiliser une ligne expresse plutôt qu'aucune. Il est préférable d'utiliser une ligne expresse plutôt que deux. 0 ligne expresse ou 2 sont 2 configurations presque identiques. Expérimentation et optimisation

  23. Techniques permettant d'évaluer plusieurs configurations alternatives du système • Jusqu'à maintenant, nous avons considéré un petit nombre de configurations • lesquelles sont obtenues en faisant varier une seule variable de décision. • Nous allons maintenant relaxer l'une et/ou l'autre de ces restrictions. • Toutefois, nous considérons toujours une seule mesure de performance et • nous savons que l'ensemble des configurations alternatives n'inclut pas • nécessairement la configuration optimale. Expérimentation et optimisation

  24. Plan à classification simple • Nous considérons d'abord une seule variable de décision pouvant prendre k valeurs. • Pour une valeur de la variable de décision, nous répétons l'expérience n fois. • Le modèle statistique a la forme suivante: • Yij = m + tj + eij, i= 1,2, ..., n j=1,2, ..., k • où Yij est la i ième valeur observée de la mesure de performance lorsque la variable de décision prend la j ième valeur, • m est la tendance générale de la mesure de performance • (moyenne de la population), • tj est l'effet dû à la j ième configuration, • eij est l'erreur aléatoire sur l'observation • ( les eij sont assumées indépendantes et normalement distribuées). Expérimentation et optimisation

  25. Plan à classification simple Les n répétitions d'une simulation de la jième configuration du système sont indépen- dantes. Les i ième répétitions d'une simulation pour chaque configuration du système sont indépendantes. On doit toujours s'assurer de l'à-propos de telles hypothèses dans la pratique. Expérimentation et optimisation

  26. Exemple d’un plan à classification simple • Supposons que l'on veuille étudier l'effet de différents traitements possibles d'une maladie sur l'être humain. • On pourrait essayer de réunir un ensemble d'individus atteints de cette maladie et les diviser en k groupes de façon à ce que les k groupes soient le plus semblables entre eux. • On applique alors à chaque groupe un traitement donné et on cherche alors à répondre à des questions de la forme suivante: • a) Les traitements sont-ils tous aussi efficaces? • b) Sinon, peut-on les classer par ordre d'efficacité? • c) Y a-t-il des traitements équivalents, si oui, lesquels? Expérimentation et optimisation

  27. Test d’hypothèse d’un plan à classification simple • - H0: tj = 0 pour tout j = 1, 2, ..., n • H1: tj 0 pour au moins un j. • Le test est effectué à un niveau µ donné (0.05 par exemple). - Si nous ne pouvons rejeter H0, nous pouvons conclure que les changements dans la variable de décision n'entraînent pas de différences significatives quant à la mesure de performance. - Si nous rejetons l'hypothèse nulle, statistiquement, il existe des différences significatives entre les configurations du système. - Pour effectuer ces tests, nous référons à un tableau partiel d'analyse de variances: Expérimentation et optimisation

  28. Tableau partiel d’analyse de variances • Expression # d. l. CM F • de la somme • des carrés • SSRm k-1 CMTr = CMTr • SSRm / (k-1) CME • SSE k(n-1) CME • kn -1 Origine de la somme des carrés Somme des carrés dus au traitement corrigé pour la moyenne Somme des carrés dus à l’erreur Total Expérimentation et optimisation

  29. Tableau partiel d’analyse de variances • où # d. l. = # de degrés de liberté de la somme des carrés • CM = Carré moyen dû à l'origine de la somme des carrés • F = le rapport entre CMTr et CME qui suit une loi F • Y.j = moyenne du groupe j ou de la configuration j • = i=1,2, ..., n Yij / n • Y.. = moyenne générale • = j=1,2, ..., ki=1,2, ..., n Yij / kn • SSE = j=1,2, ..., ki=1,2, ..., n (Yij - Y.j)2 • avec SSE / s2 suit une loi c2k(n-1) Expérimentation et optimisation

  30. Tableau partiel d’analyse de variances • SSRm = j=1,2, ..., k n (Y.j - Y..)2 • avec SSRm / s2 suit une loi c2k-1 non centrée. • TOTAL = j=1,2, ..., ki=1,2, ..., n (Yij - Y..)2 • Par le théorème de Cochran, les sommes dues au traitement et à l'erreur sont statistique- • ment indépendantes. • On rejette l'hypothèse nulle si et seulement si • FTr = CMTr / CME > Fk-1,k(n-1);1-µ Expérimentation et optimisation

  31. Contrastes et intervalles de Scheffé Déf.: On appelle contraste, une fonction paramétrique i ßiai telle que i ßi = 0. Théorème: Dans le plan à classification simple, les contrastes de la forme ti - tj, i  j sont tous estimables. Dans le plan à classification simple, il y a (k-1) contrastes estimables linéairement indépendants de la forme t1 - tj, j = 2, 3, ..., k. Tout autre contraste ti - tj, i  j, i  1 peut facilement être généré à partir d'une combinai- son linéaire de ces k-1 contrastes puisque ti - tj = (t1 - tj)- (t1 - ti). Expérimentation et optimisation

  32. Intervalles de Scheffé (Y.1-Y.j) - [2(k-1) Fk-1,k(n-1);1-µ CME /n]1/2  t1 - tj (Y.1-Y.j) + [2(k-1) Fk-1,k(n-1);1-µ CME /n]1/2 j = 2, 3, ..., k. Remarques : Il arrive souvent que la construction des intervalles de Scheffé nous permette d'ordonner les effets. Ainsi, par exemple, on pourrait obtenir t1 > t4, t2 > t3, t3 > t6, t4 > t5, t5 > t2, t6 > t7, on a alors : t1 > t4 > t5 > t2 > t3 > t6 > t7. On a alors ordonné les tj à un niveau donné. Expérimentation et optimisation

  33. Intervalles de Scheffé Lorsque l'hypothèse nulle est rejetée, quelle est la configuration qui doit être retenue? Une approche (Duncan) consiste à former des groupes de configurations à l'intérieur duquel les configurations sont homogènes (sans différence significative); des configurations de groupes différents sont hétérogènes. • Hicks, C., Fundamental Concepts in the Design of Experiments, New York: • Holt, Rinehart and Winston, 1964. Expérimentation et optimisation

  34. Plan d’expérience à 2 facteurs emboîtés • Exemple: étudier l'effet de la concentration en azote • d'un engrais chimique sur la croissance de plants de maïs. • On dispose d'une série de terrains possédant des caractéristiques géologiques différentes: • certains sont sablonneux, d'autres comportent une épaisse couche de terre arable sur un • fond de roc, certains sont plutôt rocailleux, etc. • Il est évident qu'une concentration donnée d'azote dans notre engrais ne pourra avoir les • mêmes effets d'un type de terrain à l'autre. • Chacun de ces terrains peut donc être subdivisé en terrains plus petits que nous • considérons identiques. On soumettra alors ceux-ci à des engrais de concentrations • différentes. • Schématiquement, on a: Expérimentation et optimisation

  35. Plan d’expérience à 2 facteurs emboîtésEXEMPLE Expérimentation et optimisation

  36. Plan d’expérience à 2 facteurs emboîtésEXEMPLE • - Notre expérience comporte 2 facteurs: • un facteur A, associé au type de terrain (I types de terrain) • un facteur B, associé à la concentration en azote de l'engrais utilisé, • comportant J niveaux. • - Désignons par Yijk, la k ième observation du terrain de type i soumis à la • concentration d'azote j. • - Nous nous intéressons donc à un modèle de la forme • Yijk = u + ai + bj(i) + eijk i= 1, 2, ..., I • j= 1, 2, ..., J • k= 1, 2, ..., R Expérimentation et optimisation

  37. Plan d’expérience à 2 facteurs emboîtésEXEMPLE • où u = effet de moyenne générale • ai = effet du terrain de type i • bj(i) = effet de la concentration j sur un terrain de type i • eijk = erreur aléatoire inhérente à l'observation Yijk • et i.i.d. selon une loi N(0, s2). • - Le facteur B est emboîté dans le facteur A car, chaque niveau i de A • possède sa propre série d'effets de concentration bj(i), j= 1, 2, ..., J. • - H0: ai = 0 pour tout i = 1, 2, ..., I • bj(i) = 0 pour tout i = 1, 2, ..., I • pour tout j = 1, 2, ..., J • Le test est effectué à un niveau µ donné (0.05 par exemple). Expérimentation et optimisation

  38. Plan d’expérience à 2 facteurs emboîtésEXEMPLE • Si nous ne pouvons rejeter H0, nous pouvons conclure que les différentes • configurations n'entraînent pas de différences significatives quant à la mesure • de performance. • Si nous rejetons l'hypothèse nulle, statistiquement, il existe des différences • significatives entre les configurations du système. • Pour effectuer ces tests, nous référons à un tableau partiel d'analyse de • variances: Expérimentation et optimisation

  39. Tableau partiel d’analyse de variances • Expression # d. l. CM F • de la somme • des carrés • SSRm IJ-1 CMRm = CMRm • SSRm / (IJ-1) CME • SSE IJR-IJ CME • IJR-1 Origine de la somme des carrés Somme des carrés dus au traitement corrigé pour la moyenne Somme des carrés dus à l’erreur Total Expérimentation et optimisation

  40. Tableau partiel d’analyse de variances • où # d. l. = # de degrés de liberté de la somme des carrés • CM = Carré moyen dû à l'origine de la somme des carrés • F = le rapport entre CMRm et CME qui suit une loi F • Yij. = k=1,2, ..., R Yij / R • Y... = moyenne générale • = k=1,2, ..., Rj=1,2, ..., Ji=1,2, ..., I Yijk / IJR • SSE = k=1,2, ..., Rj=1,2, ..., Ji=1,2, ..., I (Yijk - Yij.)2 • avec SSE / s2 suit une loi c2IJR-IJ Expérimentation et optimisation

  41. Tableau partiel d’analyse de variances • SSRm = i=1,2, ..., Ij=1,2, ...,J R (Yij. - Y...)2 • avec SSRm / s2 suit une loi c2IJ-1 non centrée. • TOTAL = j=1,2, ..., ki=1,2, ..., n (Yij - Y..)2 • Par le théorème de Cochran, les sommes dues au traitement et à l'erreur sont statistique- • ment indépendantes. • On rejette l'hypothèse nulle si et seulement si • FTr = CMRm / CME > FIJ-1,IJR-IJ;1-µ Expérimentation et optimisation

  42. Contrastes et intervalles de Scheffé Sujet plus difficile. Une étude plus complète dépasse le cadre de ce cours. Expérimentation et optimisation

  43. Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance Lorsqu'il s'agit de simuler des systèmes complexes, nous ne savons pas à priori quelles sont les variables de décision qui auront un impact majeur sur la mesure de performance. Nous devons nous doter d'un moyen efficace pour sélectionner les "bonnes" variables de décision. Expérimentation et optimisation

  44. Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance A) Une approche consiste à initialiser chaque variable de décision à 2 valeurs extrêmes: la plus basse et la plus élevée. Des tests d'hypothèses nous permettent de déterminer quelles variables de décision ont une influence significative sur la mesure de performance selon les valeurs qu'elles prennent. Soit n le nombre de variables de décision, 2 valeurs pour chaque variable de décision, il s'agit de considérer un plan d'expérience à n facteurs exigeant 2n simulations (pas de répétitions).  TEMPS DE CALCULS TRÈS ÉLEVÉS Expérimentation et optimisation

  45. Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance B)D'autres approches intermédiaires sont proposées visant à réduire le # de simulations nécessaires. Exemple: Temps d'attente des clients dans une épicerie. Nous devons sélectionner les variables de décision pertinentes: 1. # lignes acceptant seulement les clients avec plus de m items. 2. # lignes expresses. 3. # lignes acceptant n'importe quel client. 4. longueur exigée de la plus longue file d'attente pour ajouter une nouvelle ligne de type 1. 5. m 6. nombre d'emballeurs par ligne. 7. mode de traitement des articles par le caissier. Pour éviter d'effectuer 128 simulations au minimum, on peut par exemple considérer seulement les intéractions entre 2 facteurs à la fois et laisser tomber les intéractions d'ordre plus élevé (3 facteurs et plus) i.e. les considérer comme non significatives. Expérimentation et optimisation

  46. Recherche d’une configuration optimale Lorsque dans les configurations considérées se retrouve une configuration optimale ou presque, la configuration choisie peut être optimale. Mais nous n'avons aucune assurance à ce sujet. En faite, il n'existe pas d'algorithmes en simulation permettant de trouver à coup sûr une configuration optimale. Toutefois, il existe des heuristiques efficaces que l'on peut combiner avec des techniques statistiques. Ce sont des méthodes itératives qui permettent à chaque étape de passer d'une configuration à une meilleure; la configuration obtenue peut être un optimum local ou même un optimum global. La recherche d'un optimum se fait toujours par rapport à une seule mesure de performance. Expérimentation et optimisation

  47. Recherche d’une configuration optimale Nous définissons la fonction f comme suit: R = f(X1, X2, ..., Xn) où Xi représentent les valeurs possibles que peut prendre la i ième variable de décision, n désigne le nombre de variables de décision et R la valeur de la mesure de performance pour des valeurs précises des variables de décision. Le problème consiste à maximiser ou minimiser f parmi les configurations possibles du système. Il n'est pas question d'énumérer toutes les configurations possibles. Nous proposons différentes stratégies. Expérimentation et optimisation

  48. (A) Recherche d’un optimum local 1) Pour tout i = 1, 2, ..., n - Fixer la valeur de toutes les variables de décision sauf Xi. - Recherche d'un optimum local Xi*par rapport à Xi. - Xi* est la nouvelle valeur de Xi. 2) Répéter l'étape 1 tant et aussi longtemps que des changements interviennent. On obtient comme solution: f(X1*, X2*, ..., Xn*) ≥≤ f(X1*, X2*, ..., Xi,..., Xn*) "i Le succès de cette approche dépend de la configuration de départ. Note: On doit mentionner que f est une fonction probabiliste et par conséquent, cet algorithme est par nature probabiliste. Expérimentation et optimisation

  49. (B) Méthodes de direction de descente On détermine une fonction f continue par interpolation à partir des points (X1, X2, ..., Xn, R(X1, X2, ..., Xn)). A l'itération i, soit (X1, X2, ..., Xn) la configuration courante, - déterminer une direction de descente (D1, D2, ..., Dn): en se déplaçant dans cette direction, nous pouvons obtenir une "meilleure" configuration. - emprunter cette direction de descente et choisir la "meilleure" configuration (X1, X2, ..., Xn) dans cette direction. - la configuration (X1, X2, ..., Xn) sera la configuration courante à l'itération i+1. Expérimentation et optimisation

  50. (B) Méthodes de direction de descente Critère d'arrêt: à une itération donnée, il n'existe pas de direction de descente i.e. la configuration courante ne peut pas être améliorée. Note: - Les méthodes diffèrent selon la méthode d'interpolation utilisée ou encore, selon la façon de calculer une direction de descente. - L'intégration des techniques d'optimisation et des outils statistiques dans un logiciel de simulation n'est pas chose faite. Pourtant, cela devient nécessaire, le nombre de simulations étant très élevées. Expérimentation et optimisation

More Related