1 / 149

Optimización de Procesos

Optimización de Procesos. Tier I: Métodos Matemáticos de Optimización. Sección 2: Programación Lineal. Programación Lineal (Linear Programming, LP). La programación lineal (optimización lineal) es el área de problemas de optimización con funciones objetivo y restricciones lineales

trevet
Download Presentation

Optimización de Procesos

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Optimización de Procesos

  2. Tier I: Métodos Matemáticos de Optimización Sección 2: Programación Lineal

  3. Programación Lineal (Linear Programming, LP) • La programación lineal (optimización lineal) es el área de problemas de optimización con funciones objetivo y restricciones lineales Ejemplo: minimizar: f(x) = 6x1 + 5x2 + 2x3 + 7x4sujeta a: 2x1 + 8x3 + x4≥ 20 x1 – 5x2 – 2x3 + 3x4 = -5

  4. Programación Lineal continuación • Ninguna de las variables está multiplicada por otra variable, elevada a una potencia o usada en una función no linear • Puesto que la función objetivo y las restricciones son lineales, son convexas. Entonces, si la solución óptima de un problema de LP es encontrada, ésta es el óptimo global.

  5. Forma estándar de LP • Forma estándar de LP: minimizar: f = cx sujeta a: Ax = b xi≥ 0; i = 1, …, n donde c es llamada el vector costo (1 por n), x es el vector de variables (n por 1), A es la matriz de coeficientes (m por n), y b es un vector de constantes dadas m por 1.

  6. Bases de la Forma Estándar • Para un problema de maximización, podemos transformar usando: max(f(x))  min(-f(x)) • Para restricciones de desigualdad, se usan variables "flojas":2x1 + 3x2≤ 5  2x1 + 3x2 + s1 = 5 donde s1≥ 0

  7. Usando Variables flojas Cuando transformamos la ecuación 2x1 + 3x2≤ 5 to 2x1 + 3x2 + s1 = 5 Si el lado izquierdo (left-hand side, LHS) (2x1 + 3x2) es menor que el lado derecho (right-hand side, RHS) (5), entonces s1 tomará un valor positivo para hacer la igualdad verdadera. Mientras el valor del LHS sea más cercano al RHS, más pequeño será el valor de s1. Si el LHS es igual al RHS, s1 = 0. s1 no puede ser negativo porque el LHS no puede ser mayor que el RHS.

  8. Ejemplo de Forma Estándar Ejemplo: Escrito en Forma Estándar: maximizar: f = x1 + x2 sujeta a: 2x1 + 3x2≤ 6 x1 + 7x2≥ 4 x1 + x2 = 3 x1≥ 0, x2≥ 0 Definir las variables flojas x3≥ 0 & x4≥ 0

  9. Ejemplo de Problema Reescrito El problema ahora puede escribirse: minimizar: g = –x1 – x2 sujeta a: 2x1 + 3x2 + x3 = 6 x1 + 7x2 – x4 = 4 x1 + x2 = 3 x1≥ 0, x2 ≥ 0, x3 ≥ 0, x4 ≥ 0

  10. Repaso de Álgebra Lineal • La siguientes diapositivas revisan varios conceptos de álgebra lineal que son la base de los métodos usados para resolver problemas de optimización lineal

  11. Vectores e Independencia Lineal • Vectores • Un vector k es una columna o fila o un arreglo de columnas de k números. Tiene una dimensión de k. • Independencia Lineal (Linear Independence, LI) • Una recopilación de vectores a1, a2, …, ak, cada uno de dimensión n, es llamado linealmente independiente si la significa que para j=1, 2, …, k

  12. Independencia LinealContinuación • En otras palabras, un grupo de vectores es linealmente independiente si un vector no puede escribirse como una combinación de cualquiera de los otros vectores. • El número máximo de vectores LI en un espacio n-dimensional es n.

  13. Independencia LinealContinuación Por ejemplo, en un espacio de 2 dimensiones: Los vectores y no son Linealmente independientes porque x2 = 5x1. son LI porque no hay Una constante que puedas multiplicar para obtener la otra. y

  14. Grupos de Cobertura • Se dice que un grupo de vectores a1, a2, …, ak en un espacio n-dimensional abarca el espacio si cualquier otro vector en el espacio puede escribirse como una combinación lineal de vectores • En otras palabras, para cada vector b, deben existir escalares l1, l2, …, lk tales que

  15. Bases • Se dice que un grupo de vectores es una base para un espacio n-dimensional si: • Los vectores abarcan el espacio • Si cualquiera de los vectores es removido, el grupo ya no abarcará el espacio • Una base para un espacio n-dimensional debe tener exactamente n vectores • Pueden existir muchas bases diferentes para un espacio dado

  16. Bases continuación • Un ejemplo de una base es el eje coordenado de una gráfica. Para una gráfica en 2-D, no puedes remover uno de los ejes y aún formar una línea cualquiera con solo los ejes restantes. • O, no puedes tener tres ejes en una gráfica 2-D porque siempre puedes representar el tercero usando los otros dos.

  17. Sistemas de Ecuaciones(SOE) • El Álgebra Lineal puede ser usada para resolver un sistema de ecuaciones Ejemplo: 2x1 + 4x2 = 8 & 3x1 – 2x2 = 11 Esto puede ser escrito como una matriz aumentada:

  18. Sistemas de EcuacionesContinuación • Las operaciones de fila pueden ser realizadas en la matriz sin cambiar el resultado • Operaciones de fila válidas incluyen lo siguiente: • Multiplicar una fila por una constante • Intercambiar dos filas • Sumar una fila a otra

  19. Resolviendo SOE’s • En el ejemplo previo, queremos cambiar la matriz A para ser triangular superior multiplica la fila superior por ½ suma 3 veces la fila superior a la fila inferior

  20. Resolviendo SOE’s continuación multiplica la fila inferior por -1/8 • De la matriz triangular superior aumentada, podemos fácilmente ver que x2 = 1/8y usar este para obtener x1 x1 = 4 – 2 . 1/8 = 15/4

  21. Matriz Invertida • El inverso de una matriz puede ser encontrado usando operaciones de filas Ejemplo: Forma la matriz aumentada (A, I) Transformala a (I, A-1) Usando operaciones de filas

  22. Ecuaciones de Optimización • Hemos visto que las restricciones pueden ser escritas en la forma . • Debemos tener más variables que ecuaciones así que tenemos algunos grados de libertad para optimizar. • Si el número de ecuaciones es mayor o igual que el número de variables, los valores de las variables ya están especificados.

  23. Solución General a los SOE’s • Dado un sistema de ecuaciones en la forma • Asume m (número de ecuaciones) < n (número de variables)  sistema underspecified system • Podemos separar el sistema en variables independientes (n-m) y variables dependientes (m). Los valores de las variables dependientes dependerán de los valores que elijamos para las variables independientes.

  24. Solución General continuación • Llamamos a las variables dependientes variables básicas porque su matriz de coeficientes A forma una base. Las variables independientes serán llamadas variables no básicas. • Al cambiar las variables en la base, podemos cambiar las bases. Se mostrará que esto permite examinar diferentes puntos óptimos posibles.

  25. Solución General continuación Separa la matriz A en la siguiente manera: O,

  26. Solución General continuación Define las matrices B y N como sigue: donde B es una matriz m por m matriz, N es una matriz m por (n-m), y aj es la columna jth de la matriz A • B es llamada “matriz básica” y N es llamada “matriz no básica”

  27. Solución General continuación • La matriz B contiene las columnas de la matriz A que corresponden a las variables x que están en la base. Se debe mantener el orden. • Así, si x4 es la segunda variable de la base, a4 debe ser la segunda columna de la matriz B • La matriz N es solo las columnas de la matriz A que quedan fuera.

  28. Solución General continuación Similarmente, define y Más adelante veremos como determinar que variables poner en la base. Este es un paso importante para examinar todas las soluciones óptimas posibles.

  29. Solución General continuación Ahora tenemos Multiplica ambos lados por B-1: Así,

  30. Solución Básica • Podemos elegir cuales quiera valores para las variables (n-m) (aquellas en xN)y entonces resolver para las variables m restantes en xB • Si elegimos xN = 0, entoncesA esto se le llama "solución básica" del sistema Solución Básica:

  31. Soluciones Básicas Factibles Ahora tenemos una solución para Ax = b. Pero esa era solo uno de dos grupos de restricciones para el problema de optimización. El otro era: xi≥ 0, i = 1, …, n (no-negativa) • Una solución básica factible (basic feasible solution, BFS) es una solución básica donde cada x es no-negativa Una BFS satisface todas las restricciones del problema de optimización

  32. Puntos Extremos • Un punto es llamado punto extremo (extreme point, EP) si no puede ser representado como una combinación convexa estricta (0 < l < 1) de otros dos puntos factibles. • Recuerda: una combinación convexa de dos puntos es una línea entre ellos. • Entonces, un EP no puede estar en una línea de otros dos puntos factibles.

  33. Puntos Extremos (Gráficos) • Dada una región factible, un punto extremo no puede hallarse en una línea entre dos otros puntos factibles (debe estar en un vértice) • En un espacio n-dimensional, un punto extremo está localizado en la intersección de n restricciones Not Extreme Points FeasibleRegion Punto Extremo

  34. Puntos Extremos y óptimos • Tenemos un problema de maximización, así que queremos ir tan lejos como sea posible en la dirección del vector c (función objetivo) • ¿Podemos determinar algo sobre la ubicación del punto óptimo? c Punto de Inicio

  35. Puntos Extremos y óptimos • Si iniciamos en una línea, podemos movernos a lo largo de la línea en la dirección de la función objetivo hasta llegar a un vértice • De hecho, para cualquier vector c, el punto óptimo siempre será en un vértice c

  36. Soluciones Básicas Factibles (Basic Feasible Solutions, BFS) • En un espacio n-dimensional, una BFS es formada por la intersección de n ecuaciones. • En 2-D: Solución Básica Factible Restricción 1 Restricción 2 • Pero, solo vimos que un punto extremo es también el punto en un vértice. Entonces, una BFS corresponde a un EP.

  37. Enlazándolos • Acabamos de ver que una solución básica factible corresponde a un punto extremo. • Esto es muy importante porque para los problemas de LP , el punto óptimo es siempre un punto extremo. • Entonces, si podemos resolver para todos las BFS's (EP's), podemos comprarlos para encontrar el óptimo. Desafortunadamente, esto toma mucho tiempo.

  38. Introducción al Método Simplex • El método simplex es el método más común para resolver problemas de LP. • Trabaja encontrando una BFS; determinando si ésta es óptima; y si no lo es, se mueve a una "mejor" BFS hasta que la óptima es alcanzada. • De esta manera, no tenemos que calcular cada solución.

  39. Álgebra del Método Simplex Recuerda: Suma global de las variables no básicas Función Objetivo: sustituir en la ecuación de arriba:

  40. Álgebra del Método Simplex Multiplica y colecta términos xj: donde

  41. Ecuaciones del Método Simplex Minimiza Si (cj – zj)≥ 0 para todo j  N, entonces la BSF actual es optima para un problema de minimización. Porque, si fuera < 0 para cualquier j, esa variable no básica, xj, podría entrar la base y reducir la función objetivo. Sujeta a:

  42. Variables Entrantes • Una variable no básica puede entrar en la base y reemplazar una de las variables básicas • Puesto que xN = 0, y no tenemos restricciones no negativas, la variable entrante debe incrementar su valor. • El valor de la variable entrante se incrementará, reduciendo la función objetivo, hasta que una restricción sea cumplida.

  43. Ecuación de Variable Entrante • La ecuación para determinar cual variable entra es: . Calculada para todos los índices no básicos j • Para un problema de minimización, elige el índice j para el que cj - zj es el más negativo • Si cj - zj≥ 0 para todoj, la solución es óptima • Para un problema de maximización, elige el índice j para el que cj - zj es el más positivo • Si cj - zj≤ 0 para todoj, la solución es óptima

  44. Variables salientes (Leaving Variables) • Mientras el valor de la variable entrante se incrementa, usualmente el valor de al menos una variable básica decrecerá • Si no, el problema es llamado "no ligado" y el valor de la función mínima objetivo es - • La variable cuyo valor alcanza el cero primero será la variable que deja la base

  45. Variable Entrantes y Salientes • Ejemplo: x1 está entrando en la base mientras que x2, x3y x4 son las variables básicas actuales Cuando x2llegue a cero, debemos parar dsebido a las restricciones no negativas. Pero, ahora x2 = 0, así que es una variable no básica y x1 > 0, así que es una variable básica. Entonces, x2 deja la base y x1 entra en la base. x4 x3 x2 x1

  46. Ecuación de Variable Saliente • Consideremos a j como el índice de la variable que está entrando a la base y a i* como el índice de la variable que está dejando la base Esto significa que, para cada índice i que esté en la base y que tenga , se calcula . El índice del valor que es el mínimo es el índice de la variable saliente.

  47. Ecuación de Variable Saliente La expresión previa es obtenida de la ecuación: que aplica cuando una restricción es cumplida

  48. x4 x3 x2 x1 El Ejemplo Revisado • x2, x3, y x4 inician en (B-1b)i ; (i=2, 3, 4) y tienen pendientes de (–B-1aj)i ; (i=2, 3, 4) donde j=1 porque 1 es el índice de la variable entrante (x1) • Entonces, la distancia a la que podemos ir antes de que la variable básica alcance el valor de cero es para B-1a1 > 0. Pero, si (B-1a1)i < 0 (como x3), nunca alcanzará el cero.

  49. El Ejemplo Revisado • Podemos también ver como, si ninguna de las variables decrece, podemos mantener x1 incrementándose y mejorar la función objetivo sin siquiera cumplir una restricción –Esto da una solución desligada x4 x3 x2 x1

  50. Problema de Ejemplo Minimizar f = -x1 – x2 Sujeta a: x1 + x2≤ 5 2x1 – x2 ≤ 4 x1 ≤ 3 ; x1, x2 ≥ 0 Dados: La base inicial es x1, x2, y x3. Insertar variables flojas x3, x4, y x5.

More Related