En optimización matemática, el método de los multiplicadores de Lagrange es una estrategia para encontrar los máximos y mínimos locales de una función sujeta a restricciones de igualdad (es decir, sujeta a la condición de que una o más ecuaciones deben cumplirse exactamente por los valores elegidos de las variables). Lleva el nombre del matemático Joseph-Louis Lagrange. La idea básica es convertir un problema restringido en una forma tal que aún se pueda aplicar la prueba derivada de un problema no restringido. La relación entre el gradiente de la función y los gradientes de las restricciones conduce de manera bastante natural a una reformulación del problema original, conocida como función lagrangiana.
El método puede resumirse como sigue: Para encontrar el máximo o mínimo de una función f()x){displaystyle f(x) } sujetos a la limitación de la igualdad g()x)=0,{displaystyle g(x)=0} forma la función Lagrangian,
L()x,λ λ )↑ ↑ f()x)+λ λ ⋅ ⋅ g()x),{displaystyle {mathcal {L}(x,lambda)equiv f(x)+lambda cdot g(x)}y encontrar los puntos estacionarios de L{displaystyle {fnMitcal {fn}}} considerada como una función x{displaystyle x } y el multiplicador Lagrange λ λ .{displaystyle lambda ~.} Esto significa que todos los derivados parciales deben ser cero, incluyendo el derivado parcial con respecto a λ λ .{displaystyle lambda ~.}
∂ ∂ L∂ ∂ x=0{displaystyle {frac {\fnMitcal {f}\\fn}}=0qquad} y ∂ ∂ L∂ ∂ λ λ =0;{displaystyle qquad {frac {partial {mátcal {L}\s}{partial lambda }=0;o equivalente
∂ ∂ f()x)∂ ∂ x+λ λ ⋅ ⋅ ∂ ∂ g()x)∂ ∂ x=0{displaystyle {frac {\fnMicrosoft Sans Serif}{partial x}}+lambda cdot {frac {\\\\partial g(x) } {partial x}=0qquad } y g()x)=0.{displaystyle qquad g(x)=0~.}La solución correspondiente a la optimización restringida original es siempre un punto silla de la función Lagrangiana, que se puede identificar entre los puntos estacionarios a partir de la definición de la matriz hessiana bordeada.
La gran ventaja de este método es que permite que la optimización se resuelva sin parametrización explícita en términos de las limitaciones. Como resultado, el método de multiplicadores Lagrange es ampliamente utilizado para resolver problemas de optimización limitados desafiantes. Además, el método de multiplicadores Lagrange se generaliza por las condiciones Karush-Kuhn-Tucker, que también pueden tener en cuenta las limitaciones de desigualdad de la forma h()x)≤ ≤ c{displaystyle h(mathbf {x})leq c } para una constante dada c.{displaystyle c~}
DeclaraciónLo siguiente se conoce como el teorema del multiplicador de Lagrange.
Vamos f:: Rn→ → R{displaystyle fcolon mathbb {R} {R} {R} {R} {R} {R}} {R}} {R} {R}} {R} {R}}} {R}}} ser la función objetiva, g:: Rn→ → Rc{displaystyle gcolon mathbb {R} {fn}fn}m} {fn} {fn} {fn} {fn} {fn} {fn}fn}fn}fn} {fn}}\fn}\\fn}\fn}\fn}\\fn}}\\\\\fn}}\\\\\\\\\\\\\\\\\\\c}\\c}\\c}}}}}}}}\\\\\c}}}\\\\\\\c}c}c}c}c}c}c}c}c}}c}c}c}c}}c}c}c}c}c}c} ser la función de limitaciones, ambas pertenecientes a C1{displaystyle C^{1} (es decir, teniendo los primeros derivados continuos). Vamos x⋆ ⋆ {displaystyle x_{star } ser una solución óptima para el siguiente problema de optimización tal que