赛派号

五百一下的相机推荐 Multiplicador de Lagrange

Multiplicador de Lagrangeformat_list_bulleted Contenido keyboard_arrow_downImprimirCitarMétodo para resolver problemas de optimización limitados

En optimización matemática, el método de los multiplicadores de Lagrange es una estrategia para encontrar los máximos y mínimos locales de una función sujeta a restricciones de igualdad (es decir, sujeta a la condición de que una o más ecuaciones deben cumplirse exactamente por los valores elegidos de las variables). Lleva el nombre del matemático Joseph-Louis Lagrange. La idea básica es convertir un problema restringido en una forma tal que aún se pueda aplicar la prueba derivada de un problema no restringido. La relación entre el gradiente de la función y los gradientes de las restricciones conduce de manera bastante natural a una reformulación del problema original, conocida como función lagrangiana.

El método puede resumirse como sigue: Para encontrar el máximo o mínimo de una función f()x){displaystyle f(x) } sujetos a la limitación de la igualdad g()x)=0,{displaystyle g(x)=0} forma la función Lagrangian,

L()x,λ λ )↑ ↑ f()x)+λ λ ⋅ ⋅ g()x),{displaystyle {mathcal {L}(x,lambda)equiv f(x)+lambda cdot g(x)}

y encontrar los puntos estacionarios de L{displaystyle {fnMitcal {fn}}} considerada como una función x{displaystyle x } y el multiplicador Lagrange λ λ .{displaystyle lambda ~.} Esto significa que todos los derivados parciales deben ser cero, incluyendo el derivado parcial con respecto a λ λ .{displaystyle lambda ~.}

∂ ∂ L∂ ∂ x=0{displaystyle {frac {\fnMitcal {f}\\fn}}=0qquad} y ∂ ∂ L∂ ∂ λ λ =0;{displaystyle qquad {frac {partial {mátcal {L}\s}{partial lambda }=0;

o equivalente

∂ ∂ f()x)∂ ∂ x+λ λ ⋅ ⋅ ∂ ∂ g()x)∂ ∂ x=0{displaystyle {frac {\fnMicrosoft Sans Serif}{partial x}}+lambda cdot {frac {\\\\partial g(x) } {partial x}=0qquad } y g()x)=0.{displaystyle qquad g(x)=0~.}

La solución correspondiente a la optimización restringida original es siempre un punto silla de la función Lagrangiana, que se puede identificar entre los puntos estacionarios a partir de la definición de la matriz hessiana bordeada.

La gran ventaja de este método es que permite que la optimización se resuelva sin parametrización explícita en términos de las limitaciones. Como resultado, el método de multiplicadores Lagrange es ampliamente utilizado para resolver problemas de optimización limitados desafiantes. Además, el método de multiplicadores Lagrange se generaliza por las condiciones Karush-Kuhn-Tucker, que también pueden tener en cuenta las limitaciones de desigualdad de la forma h()x)≤ ≤ c{displaystyle h(mathbf {x})leq c } para una constante dada c.{displaystyle c~}

Declaración

Lo siguiente se conoce como el teorema del multiplicador de Lagrange.

Vamos f:: Rn→ → R{displaystyle fcolon mathbb {R} {R} {R} {R} {R} {R}} {R}} {R} {R}} {R} {R}}} {R}}} ser la función objetiva, g:: Rn→ → Rc{displaystyle gcolon mathbb {R} {fn}fn}m} {fn} {fn} {fn} {fn} {fn} {fn}fn}fn}fn} {fn}}\fn}\\fn}\fn}\fn}\\fn}}\\\\\fn}}\\\\\\\\\\\\\\\\\\\c}\\c}\\c}}}}}}}}\\\\\c}}}\\\\\\\c}c}c}c}c}c}c}c}c}}c}c}c}c}}c}c}c}c}c}c} ser la función de limitaciones, ambas pertenecientes a C1{displaystyle C^{1} (es decir, teniendo los primeros derivados continuos). Vamos x⋆ ⋆ {displaystyle x_{star } ser una solución óptima para el siguiente problema de optimización tal que

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至lsinopec@gmail.com举报,一经查实,本站将立刻删除。

上一篇 没有了

下一篇没有了