Teoria del control òptim
La teoria del control òptim és una branca de l'optimització matemàtica que s'ocupa de trobar un control per a un sistema dinàmic durant un període tal que s'optimitzi una funció objectiu.[1] Té nombroses aplicacions en ciència, enginyeria i investigació operativa. Per exemple, el sistema dinàmic podria ser una nau espacial amb controls corresponents als propulsors de coets, i l'objectiu podria ser arribar a la Lluna amb una despesa mínima de combustible.[2] O el sistema dinàmic podria ser l'economia d'una nació, amb l'objectiu de minimitzar l'atur; els controls en aquest cas podrien ser de política fiscal i monetària.[3] També es pot introduir un sistema dinàmic per incrustar problemes d'investigació operativa en el marc de la teoria del control òptim.[4][5]
El control òptim és una extensió del càlcul de variacions, i és un mètode d'optimització matemàtica per derivar polítiques de control.[6] El mètode es deu en gran part al treball de Lev Pontryagin i Richard Bellman a la dècada de 1950, després de les contribucions al càlcul de variacions d'Edward J. McShane.[7] El control òptim es pot veure com una estratègia de control en la teoria del control.[8]
El control òptim tracta el problema de trobar una llei de control per a un sistema determinat de manera que s'assoleixi un determinat criteri d'optimitat. Un problema de control inclou una funció de cost que és una funció de les variables d'estat i de control. Un control òptim és un conjunt d'equacions diferencials que descriuen els camins de les variables de control que minimitzen la funció de cost. El control òptim es pot derivar utilitzant el principi màxim de Pontryagin (una condició necessària també coneguda com a principi mínim de Pontryagin o simplement principi de Pontryagin),[9] o resolent l'equació de Hamilton–Jacobi–Bellman (una condició suficient).
Referències
[modifica]- ↑ Ross, Isaac. A primer on Pontryagin's principle in optimal control (en anglès). San Francisco: Collegiate Publishers, 2015. ISBN 978-0-9843571-0-9. OCLC 625106088.
- ↑ Luenberger, David G. «Optimal Control». A: Introduction to Dynamic Systems (en anglès). Nova York: John Wiley & Sons, 1979, p. 393–435. ISBN 0-471-02594-1.
- ↑ Kamien, Morton I.. Dynamic Optimization: the Calculus of Variations and Optimal Control in Economics and Management (en anglès). Dover Publications, 2013. ISBN 978-1-306-39299-0. OCLC 869522905.
- ↑ .
- ↑ Ross, Isaac M.; Karpenko, Mark; Proulx, Ronald J. (en anglès) IFAC-PapersOnLine, 49, 18, 01-01-2016, pàg. 462–467. DOI: 10.1016/j.ifacol.2016.10.208. ISSN: 2405-8963 [Consulta: free].
- ↑ Sargent, R. W. H. Journal of Computational and Applied Mathematics, 124, 1–2, 2000, pàg. 361–371. Bibcode: 2000JCoAM.124..361S. DOI: 10.1016/S0377-0427(00)00418-0 [Consulta: free].
- ↑ Bryson, A. E. IEEE Control Systems Magazine, 16, 3, 1996, pàg. 26–33. DOI: 10.1109/37.506395.
- ↑ Ross, Isaac. A primer on Pontryagin's principle in optimal control. San Francisco: Collegiate Publishers, 2015. ISBN 978-0-9843571-0-9. OCLC 625106088.
- ↑ Ross, I. M.. A Primer on Pontryagin's Principle in Optimal Control. Collegiate Publishers, 2009. ISBN 978-0-9843571-0-9.