Farsi, Milad,
Model-based reinforcement learning : from data to actions with Python-based toolbox /
Milad Farsi, Jun Liu.
- 1 online resource.
Table of Contents Preface xv Acronyms xix Introduction xxiii I.1 Background and Motivation I.2 Literature Review 1 Nonlinear Systems Analysis 1 1.1 Notation 1.2 Nonlinear Dynamical Systems 1.2.1 Remarks on Existence, Uniqueness, and Continua- tion of Solutions 1.3 Lyapunov Analysis of Stability 1.4 Stability Analysis of Discrete-Time Dynamical Systems 1.5 Summary 2 Optimal Control 17 2.1 Problem Formulation 2.2 Dynamic Programming 2.2.1 Principle of Optimality 2.2.2 Hamilton{Jacobi{Bellman Equation 2.2.3 A Sucient Condition for Optimality vii 2.2.4 Innite-Horizon Problems 2.3 Linear Quadratic Regulator 2.3.1 Dierential Riccati Equation 2.3.2 Algebraic Riccati Equation 2.3.3 Convergence of Solutions to the Dierential Riccati Equation 2.3.4 Forward Propagation of the Dierential Riccati Equa- tion for Linear Quadratic Regulator 2.4 Summary 3 Reinforcement Learning 3.1 Control-Ane Systems with Quadratic Costs 3.2 Exact Policy Iteration 3.2.1 Linear Quadratic Regulator 3.3 Policy Iteration with Unknown Dynamics and Function Approx- imations 3.3.1 Linear Quadratic Regulator with Unknown Dynamics 3.4 Summary 4 Learning of Dynamic Models 4.1 Introduction 4.2 Model Selection 4.2.1 Grey-Box vs. Black-Box 4.2.2 Parametric vs. Non-Parametric 4.3 Parametric Model viii 4.3.1 Model in Terms of Bases 4.3.2 Data Collection 4.3.3 Learning of Control Systems 4.4 Parametric Learning Algorithms 4.4.1 Least Squares 4.4.2 Recursive Least Squares 4.4.3 Gradient Descent 4.4.4 Sparse Regression 4.5 Persistence of Excitation 4.6 Python Toolbox 4.6.1 Congurations 4.6.2 Model Upadte 4.6.3 Model Validation 4.7 Comparison Results 4.7.1 Convergence of Parameters 4.7.2 Error Analysis 4.7.3 Runtime Results 4.8 Summary 5 Structured Online Learning-Based Control of Continuous-Time Nonlinear Systems 5.1 Introduction 5.2 A Structured Approximate Optimal Control Framework 5.3 Local Stability and Optimality Analysis ix 5.3.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 118 5.3.2 SOL Control : : : : : : : : : : : : : : : : : : : : : : : 120 5.4 SOL Algorithm : : : : : : : : : : : : : : : : : : : : : : : : : : : : 121 5.4.1 ODE Solver and Control Update : : : : : : : : : : : 122 5.4.2 Identied Model Update : : : : : : : : : : : : : : : : 123 5.4.3 Database Update : : : : : : : : : : : : : : : : : : : : 124 5.4.4 Limitations and Implementation Considerations : : : 126 5.4.5 Asymptotic Convergence with Approximate Dynamics 127 5.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 128 5.5.1 Systems Identiable in Terms of a Given Set of Bases 129 5.5.2 Systems to Be Approximated by a Given Set of Bases 131 5.5.3 Comparison Results : : : : : : : : : : : : : : : : : : : 138 5.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142 6 A Structured Online Learning Approach to Nonlinear Track- ing with Unknown Dynamics 147 6.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 147 6.2 A Structured Online Learning for Tracking Control : : : : : : : 148 6.2.1 Stability and Optimality in the Linear Case : : : : : 155 6.3 Learning-based Tracking Control Using SOL : : : : : : : : : : : 160 6.4 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 162 6.4.1 Tracking Control of the Pendulum : : : : : : : : : : 163 6.4.2 Synchronization of Chaotic Lorenz System : : : : : : 164 6.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 167 x 7 Piecewise Learning and Control with Stability Guarantees 171 7.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 171 7.2 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 173 7.3 The Piecewise Learning and Control Framework : : : : : : : : : 173 7.3.1 System Identication : : : : : : : : : : : : : : : : : : 174 7.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 176 7.3.3 Feedback Control : : : : : : : : : : : : : : : : : : : : 177 7.4 Analysis of Uncertainty Bounds : : : : : : : : : : : : : : : : : : : 178 7.4.1 Quadratic Programs for Bounding Errors : : : : : : : 180 7.5 Stability Verication for Piecewise-Ane Learning and Control 185 7.5.1 Piecewise Ane Models : : : : : : : : : : : : : : : : 185 7.5.2 MIQP-based Stability Verication of PWA Systems 185 7.5.3 Convergence of ACCPM : : : : : : : : : : : : : : : : 191 7.6 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 193 7.6.1 Pendulum System : : : : : : : : : : : : : : : : : : : : 193 7.6.2 Dynamic Vehicle System with Skidding : : : : : : : : 197 7.6.3 Comparison of Runtime Results : : : : : : : : : : : : 201 7.7 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 201 8 An Application to Solar Photovoltaic Systems 203 8.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203 8.2 Problem Statement : : : : : : : : : : : : : : : : : : : : : : : : : : 208 8.2.1 PV Array Model : : : : : : : : : : : : : : : : : : : : : 209 8.2.2 DC-DC Boost Converter : : : : : : : : : : : : : : : : 211 xi 8.3 Optimal Control of PV Array : : : : : : : : : : : : : : : : : : : : 214 8.3.1 Maximum Power Point Tracking Control : : : : : : : 217 8.3.2 Reference Voltage Tracking Control : : : : : : : : : 226 8.3.3 Piecewise Learning Control : : : : : : : : : : : : : : : 228 8.4 Application Considerations : : : : : : : : : : : : : : : : : : : : : 229 8.4.1 Partial Derivative Approximation Procedure : : : : : 230 8.4.2 Partial Shading Eect : : : : : : : : : : : : : : : : : : 235 8.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 236 8.5.1 Model and Control Verication : : : : : : : : : : : : 239 8.5.2 Comparative Results : : : : : : : : : : : : : : : : : : : 239 8.5.3 Model-Free Approach Results : : : : : : : : : : : : : 242 8.5.4 Piecewise Learning Results : : : : : : : : : : : : : : : 243 8.5.5 Partial Shading Results : : : : : : : : : : : : : : : : : 245 8.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 246 9 An Application to Low-Level Control of Quadrotors 255 9.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 255 9.2 Quadrotor Model : : : : : : : : : : : : : : : : : : : : : : : : : : : 259 9.3 Structured Online Learning with RLS Identier on Quadrotor : 261 9.3.1 Learning Procedure : : : : : : : : : : : : : : : : : : : 261 9.3.2 Asymptotic Convergence with Uncertain Dynamics : 269 9.3.3 Computational Properties : : : : : : : : : : : : : : : 272 9.4 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 272 9.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 275 xii 10 Python Toolbox 277 10.1 Overview : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 277 10.2 User Inputs : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 278 10.2.1 Process : : : : : : : : : : : : : : : : : : : : : : : : : : 278 10.2.2 Objective : : : : : : : : : : : : : : : : : : : : : : : : : 280 10.3 SOL : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 281 10.3.1 Model Update : : : : : : : : : : : : : : : : : : : : : : 281 10.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 282 10.3.3 Library : : : : : : : : : : : : : : : : : : : : : : : : : : : 283 10.3.4 Control : : : : : : : : : : : : : : : : : : : : : : : : : : 284 10.4 Display and Outputs : : : : : : : : : : : : : : : : : : : : : : : : : 286 10.4.1 Graphs and Printouts : : : : : : : : : : : : : : : : : : 286 10.4.2 3D Simulation : : : : : : : : : : : : : : : : : : : : : : 288 10.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 289 11 Appendix 291 11.1 Supplementary Analysis of Remark 5.4 : : : : : : : : : : : : : : : 291 11.2 Supplementary Analysis of Remark 5.5 : : : : : : : : : : : : : : : 302 Bibliography 303 xiii Preface xv Acronyms xix Introduction xxiii I.1 Background and Motivation : : : : : : : : : : : : : : : : : : : : : xxiii I.2 Literature Review : : : : : : : : : : : : : : : : : : : : : : : : : : : xxix 1 Nonlinear Systems Analysis 1 1.1 Notation : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 1 1.2 Nonlinear Dynamical Systems : : : : : : : : : : : : : : : : : : : : 3 1.2.1 Remarks on Existence, Uniqueness, and Continua- tion of Solutions : : : : : : : : : : : : : : : : : : : : : 3 1.3 Lyapunov Analysis of Stability : : : : : : : : : : : : : : : : : : : : 5 1.4 Stability Analysis of Discrete-Time Dynamical Systems : : : : : 11 1.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15 2 Optimal Control 17 2.1 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 17 2.2 Dynamic Programming : : : : : : : : : : : : : : : : : : : : : : : : 19 2.2.1 Principle of Optimality : : : : : : : : : : : : : : : : : 19 2.2.2 Hamilton{Jacobi{Bellman Equation : : : : : : : : : : 22 2.2.3 A Sucient Condition for Optimality : : : : : : : : : 23 vii 2.2.4 Innite-Horizon Problems : : : : : : : : : : : : : : : : 25 2.3 Linear Quadratic Regulator : : : : : : : : : : : : : : : : : : : : : 28 2.3.1 Dierential Riccati Equation : : : : : : : : : : : : : : 28 2.3.2 Algebraic Riccati Equation : : : : : : : : : : : : : : : 36 2.3.3 Convergence of Solutions to the Dierential Riccati Equation : : : : : : : : : : : : : : : : : : : : : : : : : 40 2.3.4 Forward Propagation of the Dierential Riccati Equa- tion for Linear Quadratic Regulator : : : : : : : : : : 43 2.4 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47 3 Reinforcement Learning 49 3.1 Control-Ane Systems with Quadratic Costs : : : : : : : : : : : 50 3.2 Exact Policy Iteration : : : : : : : : : : : : : : : : : : : : : : : : 53 3.2.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 59 3.3 Policy Iteration with Unknown Dynamics and Function Approx- imations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 62 3.3.1 Linear Quadratic Regulator with Unknown Dynamics 70 3.4 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 72 4 Learning of Dynamic Models 75 4.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 75 4.2 Model Selection 4.2.1 Grey-Box vs. Black-Box 4.2.2 Parametric vs. Non-Parametric 4.3 Parametric Model viii 4.3.1 Model in Terms of Bases 4.3.2 Data Collection 4.3.3 Learning of Control Systems 4.4 Parametric Learning Algorithms82 4.4.1 Least Squares 4.4.2 Recursive Least Squares 4.4.3 Gradient Descent 4.4.4 Sparse Regression 4.5 Persistence of Excitation 4.6 Python Toolbox 4.6.1 Congurations 4.6.2 Model Upadte 4.6.3 Model Validation 4.7 Comparison Results 4.7.1 Convergence of Parameters 4.7.2 Error Analysis 4.7.3 Runtime Results 4.8 Summary 5 Structured Online Learning-Based Control of Continuous-Time Nonlinear Systems 5.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111 5.2 A Structured Approximate Optimal Control Framework : : : : : 112 5.3 Local Stability and Optimality Analysis : : : : : : : : : : : : : : 117 ix 5.3.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 118 5.3.2 SOL Control : : : : : : : : : : : : : : : : : : : : : : : 120 5.4 SOL Algorithm : : : : : : : : : : : : : : : : : : : : : : : : : : : : 121 5.4.1 ODE Solver and Control Update : : : : : : : : : : : 122 5.4.2 Identied Model Update : : : : : : : : : : : : : : : : 123 5.4.3 Database Update : : : : : : : : : : : : : : : : : : : : 124 5.4.4 Limitations and Implementation Considerations : : : 126 5.4.5 Asymptotic Convergence with Approximate Dynamics 127 5.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 128 5.5.1 Systems Identiable in Terms of a Given Set of Bases 129 5.5.2 Systems to Be Approximated by a Given Set of Bases 131 5.5.3 Comparison Results : : : : : : : : : : : : : : : : : : : 138 5.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142 6 A Structured Online Learning Approach to Nonlinear Track- ing with Unknown Dynamics 147 6.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 147 6.2 A Structured Online Learning for Tracking Control : : : : : : : 148 6.2.1 Stability and Optimality in the Linear Case : : : : : 155 6.3 Learning-based Tracking Control Using SOL : : : : : : : : : : : 160 6.4 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 162 6.4.1 Tracking Control of the Pendulum : : : : : : : : : : 163 6.4.2 Synchronization of Chaotic Lorenz System : : : : : : 164 6.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 167 x 7 Piecewise Learning and Control with Stability Guarantees 171 7.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 171 7.2 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 173 7.3 The Piecewise Learning and Control Framework : : : : : : : : : 173 7.3.1 System Identication : : : : : : : : : : : : : : : : : : 174 7.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 176 7.3.3 Feedback Control : : : : : : : : : : : : : : : : : : : : 177 7.4 Analysis of Uncertainty Bounds : : : : : : : : : : : : : : : : : : : 178 7.4.1 Quadratic Programs for Bounding Errors : : : : : : : 180 7.5 Stability Verication for Piecewise-Ane Learning and Control 185 7.5.1 Piecewise Ane Models : : : : : : : : : : : : : : : : 185 7.5.2 MIQP-based Stability Verication of PWA Systems 185 7.5.3 Convergence of ACCPM : : : : : : : : : : : : : : : : 191 7.6 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 193 7.6.1 Pendulum System : : : : : : : : : : : : : : : : : : : : 193 7.6.2 Dynamic Vehicle System with Skidding : : : : : : : : 197 7.6.3 Comparison of Runtime Results : : : : : : : : : : : : 201 7.7 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 201 8 An Application to Solar Photovoltaic Systems 203 8.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203 8.2 Problem Statement : : : : : : : : : : : : : : : : : : : : : : : : : : 208 8.2.1 PV Array Model : : : : : : : : : : : : : : : : : : : : : 209 8.2.2 DC-DC Boost Converter : : : : : : : : : : : : : : : : 211 xi 8.3 Optimal Control of PV Array : : : : : : : : : : : : : : : : : : : : 214 8.3.1 Maximum Power Point Tracking Control : : : : : : : 217 8.3.2 Reference Voltage Tracking Control : : : : : : : : : 226 8.3.3 Piecewise Learning Control : : : : : : : : : : : : : : : 228 8.4 Application Considerations : : : : : : : : : : : : : : : : : : : : : 229 8.4.1 Partial Derivative Approximation Procedure : : : : : 230 8.4.2 Partial Shading Eect : : : : : : : : : : : : : : : : : : 235 8.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 236 8.5.1 Model and Control Verication : : : : : : : : : : : : 239 8.5.2 Comparative Results : : : : : : : : : : : : : : : : : : : 239 8.5.3 Model-Free Approach Results 8.5.4 Piecewise Learning Results 8.5.5 Partial Shading Results 8.6 Summary 9 An Application to Low-Level Control of Quadrotors 9.1 Introduction 9.2 Quadrotor Model 9.3 Structured Online Learning with RLS Identier on Quadrotor 9.3.1 Learning Procedure 9.3.2 Asymptotic Convergence with Uncertain Dynamics 9.3.3 Computational Properties 9.4 Numerical Results 9.5 Summary xii 10 Python Toolbox 10.1 Overview 10.2 User Inputs 10.2.1 Process 10.2.2 Objective 10.3 SOL 10.3.1 Model Update 10.3.2 Database 10.3.3 Library 10.3.4 Control 10.4 Display and Outputs 10.4.1 Graphs and Printouts 10.4.2 3D Simulation 10.5 Summary 11 Appendix 291 11.1 Supplementary Analysis of Remark 5.4 11.2 Supplementary Analysis of Remark 5.5 Bibliography
Model-Based Reinforcement Learning Explore a comprehensive and practical approach to reinforcement learning Reinforcement learning is an essential paradigm of machine learning, wherein an intelligent agent performs actions that ensure optimal behavior from devices. While this paradigm of machine learning has gained tremendous success and popularity in recent years, previous scholarship has focused either on theory-optimal control and dynamic programming - or on algorithms-most of which are simulation-based. Model-Based Reinforcement Learning provides a model-based framework to bridge these two aspects, thereby creating a holistic treatment of the topic of model-based online learning control. In doing so, the authors seek to develop a model-based framework for data-driven control that bridges the topics of systems identification from data, model-based reinforcement learning, and optimal control, as well as the applications of each. This new technique for assessing classical results will allow for a more efficient reinforcement learning system. At its heart, this book is focused on providing an end-to-end framework-from design to application-of a more tractable model-based reinforcement learning technique. Model-Based Reinforcement Learning readers will also find: A useful textbook to use in graduate courses on data-driven and learning-based control that emphasizes modeling and control of dynamical systems from data Detailed comparisons of the impact of different techniques, such as basic linear quadratic controller, learning-based model predictive control, model-free reinforcement learning, and structured online learning Applications and case studies on ground vehicles with nonholonomic dynamics and another on quadrator helicopters An online, Python-based toolbox that accompanies the contents covered in the book, as well as the necessary code and data Model-Based Reinforcement Learning is a useful reference for senior undergraduate students, graduate students, research assistants, professors, process control engineers, and roboticists.
About the Author Milad Farsi received the B.S. degree in Electrical Engineering (Electronics) from the University of Tabriz in 2010. He obtained his M.S. degree also in Electrical Engineering (Control Systems) from the Sahand University of Technology in 2013. Moreover, he gained industrial experience as a Control System Engineer between 2012 and 2016. Later, he acquired the Ph.D. degree in Applied Mathematics from the University of Waterloo, Canada, in 2022, and he is currently a Postdoctoral Fellow at the same institution. His research interests include control systems, reinforcement learning, and their applications in robotics and power electronics. Jun Liu received the Ph.D. degree in Applied Mathematics from the University of Waterloo, Canada, in 2010. He is currently an Associate Professor of Applied Mathematics and a Canada Research Chair in Hybrid Systems and Control at the University of Waterloo, Canada, where he directs the Hybrid Systems Laboratory. From 2012 to 2015, he was a Lecturer in Control and Systems Engineering at the University of Sheffield. During 2011 and 2012, he was a Postdoctoral Scholar in Control and Dynamical Systems at the California Institute of Technology. His main research interests are in the theory and applications of hybrid systems and control, including rigorous computational methods for control design with applications in cyber-physical systems and robotics.
ISBN: 9781119808572 9781119808589 1119808588 9781119808596 1119808596 9781119808602 111980860X
Standard No.: 10.1002/9781119808602 doi
Source: 9979000 IEEE
Subjects--Topical Terms: Reinforcement learning. Python (Computer program language)
Index Terms--Genre/Form: Electronic books.
LC Class. No.: Q325.6
Dewey Class. No.: 006.3/1