Model-based reinforcement learning : from data to actions with Python-based toolbox / Milad Farsi, Jun Liu.
By: Farsi, Milad [author.]
Contributor(s): Liu, Jun (Professor of applied mathematics) [author.]
Language: English Publisher: United States: Wiley-Blackwell, 2023Description: 1 online resourceContent type: text Media type: computer Carrier type: online resourceISBN: 9781119808572 ; 9781119808589; 1119808588; 9781119808596; 1119808596; 9781119808602; 111980860XSubject(s): Reinforcement learning | Python (Computer program language)Genre/Form: Electronic books.DDC classification: 006.3/1 LOC classification: Q325.6Online resources: Full text is available at Wiley Online Library Click here to view.
Table of Contents
Preface xv
Acronyms xix
Introduction xxiii
I.1 Background and Motivation
I.2 Literature Review
1 Nonlinear Systems Analysis 1
1.1 Notation
1.2 Nonlinear Dynamical Systems
1.2.1 Remarks on Existence, Uniqueness, and Continua-
tion of Solutions
1.3 Lyapunov Analysis of Stability
1.4 Stability Analysis of Discrete-Time Dynamical Systems
1.5 Summary
2 Optimal Control 17
2.1 Problem Formulation
2.2 Dynamic Programming
2.2.1 Principle of Optimality
2.2.2 Hamilton{Jacobi{Bellman Equation
2.2.3 A Sucient Condition for Optimality
vii
2.2.4 Innite-Horizon Problems
2.3 Linear Quadratic Regulator
2.3.1 Dierential Riccati Equation
2.3.2 Algebraic Riccati Equation
2.3.3 Convergence of Solutions to the Dierential Riccati
Equation
2.3.4 Forward Propagation of the Dierential Riccati Equa-
tion for Linear Quadratic Regulator
2.4 Summary
3 Reinforcement Learning
3.1 Control-Ane Systems with Quadratic Costs
3.2 Exact Policy Iteration
3.2.1 Linear Quadratic Regulator
3.3 Policy Iteration with Unknown Dynamics and Function Approx-
imations
3.3.1 Linear Quadratic Regulator with Unknown Dynamics
3.4 Summary
4 Learning of Dynamic Models
4.1 Introduction
4.2 Model Selection
4.2.1 Grey-Box vs. Black-Box
4.2.2 Parametric vs. Non-Parametric
4.3 Parametric Model
viii
4.3.1 Model in Terms of Bases
4.3.2 Data Collection
4.3.3 Learning of Control Systems
4.4 Parametric Learning Algorithms
4.4.1 Least Squares
4.4.2 Recursive Least Squares
4.4.3 Gradient Descent
4.4.4 Sparse Regression
4.5 Persistence of Excitation
4.6 Python Toolbox
4.6.1 Congurations
4.6.2 Model Upadte
4.6.3 Model Validation
4.7 Comparison Results
4.7.1 Convergence of Parameters
4.7.2 Error Analysis
4.7.3 Runtime Results
4.8 Summary
5 Structured Online Learning-Based Control of Continuous-Time
Nonlinear Systems
5.1 Introduction
5.2 A Structured Approximate Optimal Control Framework
5.3 Local Stability and Optimality Analysis
ix
5.3.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 118
5.3.2 SOL Control : : : : : : : : : : : : : : : : : : : : : : : 120
5.4 SOL Algorithm : : : : : : : : : : : : : : : : : : : : : : : : : : : : 121
5.4.1 ODE Solver and Control Update : : : : : : : : : : : 122
5.4.2 Identied Model Update : : : : : : : : : : : : : : : : 123
5.4.3 Database Update : : : : : : : : : : : : : : : : : : : : 124
5.4.4 Limitations and Implementation Considerations : : : 126
5.4.5 Asymptotic Convergence with Approximate Dynamics 127
5.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 128
5.5.1 Systems Identiable in Terms of a Given Set of Bases 129
5.5.2 Systems to Be Approximated by a Given Set of Bases 131
5.5.3 Comparison Results : : : : : : : : : : : : : : : : : : : 138
5.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
6 A Structured Online Learning Approach to Nonlinear Track-
ing with Unknown Dynamics 147
6.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 147
6.2 A Structured Online Learning for Tracking Control : : : : : : : 148
6.2.1 Stability and Optimality in the Linear Case : : : : : 155
6.3 Learning-based Tracking Control Using SOL : : : : : : : : : : : 160
6.4 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 162
6.4.1 Tracking Control of the Pendulum : : : : : : : : : : 163
6.4.2 Synchronization of Chaotic Lorenz System : : : : : : 164
6.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 167
x
7 Piecewise Learning and Control with Stability Guarantees 171
7.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 171
7.2 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 173
7.3 The Piecewise Learning and Control Framework : : : : : : : : : 173
7.3.1 System Identication : : : : : : : : : : : : : : : : : : 174
7.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 176
7.3.3 Feedback Control : : : : : : : : : : : : : : : : : : : : 177
7.4 Analysis of Uncertainty Bounds : : : : : : : : : : : : : : : : : : : 178
7.4.1 Quadratic Programs for Bounding Errors : : : : : : : 180
7.5 Stability Verication for Piecewise-Ane Learning and Control 185
7.5.1 Piecewise Ane Models : : : : : : : : : : : : : : : : 185
7.5.2 MIQP-based Stability Verication of PWA Systems 185
7.5.3 Convergence of ACCPM : : : : : : : : : : : : : : : : 191
7.6 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 193
7.6.1 Pendulum System : : : : : : : : : : : : : : : : : : : : 193
7.6.2 Dynamic Vehicle System with Skidding : : : : : : : : 197
7.6.3 Comparison of Runtime Results : : : : : : : : : : : : 201
7.7 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 201
8 An Application to Solar Photovoltaic Systems 203
8.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
8.2 Problem Statement : : : : : : : : : : : : : : : : : : : : : : : : : : 208
8.2.1 PV Array Model : : : : : : : : : : : : : : : : : : : : : 209
8.2.2 DC-DC Boost Converter : : : : : : : : : : : : : : : : 211
xi
8.3 Optimal Control of PV Array : : : : : : : : : : : : : : : : : : : : 214
8.3.1 Maximum Power Point Tracking Control : : : : : : : 217
8.3.2 Reference Voltage Tracking Control : : : : : : : : : 226
8.3.3 Piecewise Learning Control : : : : : : : : : : : : : : : 228
8.4 Application Considerations : : : : : : : : : : : : : : : : : : : : : 229
8.4.1 Partial Derivative Approximation Procedure : : : : : 230
8.4.2 Partial Shading Eect : : : : : : : : : : : : : : : : : : 235
8.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 236
8.5.1 Model and Control Verication : : : : : : : : : : : : 239
8.5.2 Comparative Results : : : : : : : : : : : : : : : : : : : 239
8.5.3 Model-Free Approach Results : : : : : : : : : : : : : 242
8.5.4 Piecewise Learning Results : : : : : : : : : : : : : : : 243
8.5.5 Partial Shading Results : : : : : : : : : : : : : : : : : 245
8.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 246
9 An Application to Low-Level Control of Quadrotors 255
9.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 255
9.2 Quadrotor Model : : : : : : : : : : : : : : : : : : : : : : : : : : : 259
9.3 Structured Online Learning with RLS Identier on Quadrotor : 261
9.3.1 Learning Procedure : : : : : : : : : : : : : : : : : : : 261
9.3.2 Asymptotic Convergence with Uncertain Dynamics : 269
9.3.3 Computational Properties : : : : : : : : : : : : : : : 272
9.4 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 272
9.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 275
xii
10 Python Toolbox 277
10.1 Overview : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 277
10.2 User Inputs : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 278
10.2.1 Process : : : : : : : : : : : : : : : : : : : : : : : : : : 278
10.2.2 Objective : : : : : : : : : : : : : : : : : : : : : : : : : 280
10.3 SOL : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 281
10.3.1 Model Update : : : : : : : : : : : : : : : : : : : : : : 281
10.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 282
10.3.3 Library : : : : : : : : : : : : : : : : : : : : : : : : : : : 283
10.3.4 Control : : : : : : : : : : : : : : : : : : : : : : : : : : 284
10.4 Display and Outputs : : : : : : : : : : : : : : : : : : : : : : : : : 286
10.4.1 Graphs and Printouts : : : : : : : : : : : : : : : : : : 286
10.4.2 3D Simulation : : : : : : : : : : : : : : : : : : : : : : 288
10.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 289
11 Appendix 291
11.1 Supplementary Analysis of Remark 5.4 : : : : : : : : : : : : : : : 291
11.2 Supplementary Analysis of Remark 5.5 : : : : : : : : : : : : : : : 302
Bibliography 303
xiii
Preface xv
Acronyms xix
Introduction xxiii
I.1 Background and Motivation : : : : : : : : : : : : : : : : : : : : : xxiii
I.2 Literature Review : : : : : : : : : : : : : : : : : : : : : : : : : : : xxix
1 Nonlinear Systems Analysis 1
1.1 Notation : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 1
1.2 Nonlinear Dynamical Systems : : : : : : : : : : : : : : : : : : : : 3
1.2.1 Remarks on Existence, Uniqueness, and Continua-
tion of Solutions : : : : : : : : : : : : : : : : : : : : : 3
1.3 Lyapunov Analysis of Stability : : : : : : : : : : : : : : : : : : : : 5
1.4 Stability Analysis of Discrete-Time Dynamical Systems : : : : : 11
1.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15
2 Optimal Control 17
2.1 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 17
2.2 Dynamic Programming : : : : : : : : : : : : : : : : : : : : : : : : 19
2.2.1 Principle of Optimality : : : : : : : : : : : : : : : : : 19
2.2.2 Hamilton{Jacobi{Bellman Equation : : : : : : : : : : 22
2.2.3 A Sucient Condition for Optimality : : : : : : : : : 23
vii
2.2.4 Innite-Horizon Problems : : : : : : : : : : : : : : : : 25
2.3 Linear Quadratic Regulator : : : : : : : : : : : : : : : : : : : : : 28
2.3.1 Dierential Riccati Equation : : : : : : : : : : : : : : 28
2.3.2 Algebraic Riccati Equation : : : : : : : : : : : : : : : 36
2.3.3 Convergence of Solutions to the Dierential Riccati
Equation : : : : : : : : : : : : : : : : : : : : : : : : : 40
2.3.4 Forward Propagation of the Dierential Riccati Equa-
tion for Linear Quadratic Regulator : : : : : : : : : : 43
2.4 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47
3 Reinforcement Learning 49
3.1 Control-Ane Systems with Quadratic Costs : : : : : : : : : : : 50
3.2 Exact Policy Iteration : : : : : : : : : : : : : : : : : : : : : : : : 53
3.2.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 59
3.3 Policy Iteration with Unknown Dynamics and Function Approx-
imations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 62
3.3.1 Linear Quadratic Regulator with Unknown Dynamics 70
3.4 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 72
4 Learning of Dynamic Models 75
4.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 75
4.2 Model Selection
4.2.1 Grey-Box vs. Black-Box
4.2.2 Parametric vs. Non-Parametric
4.3 Parametric Model
viii
4.3.1 Model in Terms of Bases
4.3.2 Data Collection
4.3.3 Learning of Control Systems
4.4 Parametric Learning Algorithms82
4.4.1 Least Squares
4.4.2 Recursive Least Squares
4.4.3 Gradient Descent
4.4.4 Sparse Regression
4.5 Persistence of Excitation
4.6 Python Toolbox
4.6.1 Congurations
4.6.2 Model Upadte
4.6.3 Model Validation
4.7 Comparison Results
4.7.1 Convergence of Parameters
4.7.2 Error Analysis
4.7.3 Runtime Results
4.8 Summary
5 Structured Online Learning-Based Control of Continuous-Time
Nonlinear Systems
5.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111
5.2 A Structured Approximate Optimal Control Framework : : : : : 112
5.3 Local Stability and Optimality Analysis : : : : : : : : : : : : : : 117
ix
5.3.1 Linear Quadratic Regulator : : : : : : : : : : : : : : : 118
5.3.2 SOL Control : : : : : : : : : : : : : : : : : : : : : : : 120
5.4 SOL Algorithm : : : : : : : : : : : : : : : : : : : : : : : : : : : : 121
5.4.1 ODE Solver and Control Update : : : : : : : : : : : 122
5.4.2 Identied Model Update : : : : : : : : : : : : : : : : 123
5.4.3 Database Update : : : : : : : : : : : : : : : : : : : : 124
5.4.4 Limitations and Implementation Considerations : : : 126
5.4.5 Asymptotic Convergence with Approximate Dynamics 127
5.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 128
5.5.1 Systems Identiable in Terms of a Given Set of Bases 129
5.5.2 Systems to Be Approximated by a Given Set of Bases 131
5.5.3 Comparison Results : : : : : : : : : : : : : : : : : : : 138
5.6 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
6 A Structured Online Learning Approach to Nonlinear Track-
ing with Unknown Dynamics 147
6.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 147
6.2 A Structured Online Learning for Tracking Control : : : : : : : 148
6.2.1 Stability and Optimality in the Linear Case : : : : : 155
6.3 Learning-based Tracking Control Using SOL : : : : : : : : : : : 160
6.4 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 162
6.4.1 Tracking Control of the Pendulum : : : : : : : : : : 163
6.4.2 Synchronization of Chaotic Lorenz System : : : : : : 164
6.5 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 167
x
7 Piecewise Learning and Control with Stability Guarantees 171
7.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 171
7.2 Problem Formulation : : : : : : : : : : : : : : : : : : : : : : : : : 173
7.3 The Piecewise Learning and Control Framework : : : : : : : : : 173
7.3.1 System Identication : : : : : : : : : : : : : : : : : : 174
7.3.2 Database : : : : : : : : : : : : : : : : : : : : : : : : : 176
7.3.3 Feedback Control : : : : : : : : : : : : : : : : : : : : 177
7.4 Analysis of Uncertainty Bounds : : : : : : : : : : : : : : : : : : : 178
7.4.1 Quadratic Programs for Bounding Errors : : : : : : : 180
7.5 Stability Verication for Piecewise-Ane Learning and Control 185
7.5.1 Piecewise Ane Models : : : : : : : : : : : : : : : : 185
7.5.2 MIQP-based Stability Verication of PWA Systems 185
7.5.3 Convergence of ACCPM : : : : : : : : : : : : : : : : 191
7.6 Numerical Results : : : : : : : : : : : : : : : : : : : : : : : : : : : 193
7.6.1 Pendulum System : : : : : : : : : : : : : : : : : : : : 193
7.6.2 Dynamic Vehicle System with Skidding : : : : : : : : 197
7.6.3 Comparison of Runtime Results : : : : : : : : : : : : 201
7.7 Summary : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 201
8 An Application to Solar Photovoltaic Systems 203
8.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
8.2 Problem Statement : : : : : : : : : : : : : : : : : : : : : : : : : : 208
8.2.1 PV Array Model : : : : : : : : : : : : : : : : : : : : : 209
8.2.2 DC-DC Boost Converter : : : : : : : : : : : : : : : : 211
xi
8.3 Optimal Control of PV Array : : : : : : : : : : : : : : : : : : : : 214
8.3.1 Maximum Power Point Tracking Control : : : : : : : 217
8.3.2 Reference Voltage Tracking Control : : : : : : : : : 226
8.3.3 Piecewise Learning Control : : : : : : : : : : : : : : : 228
8.4 Application Considerations : : : : : : : : : : : : : : : : : : : : : 229
8.4.1 Partial Derivative Approximation Procedure : : : : : 230
8.4.2 Partial Shading Eect : : : : : : : : : : : : : : : : : : 235
8.5 Simulation Results : : : : : : : : : : : : : : : : : : : : : : : : : : 236
8.5.1 Model and Control Verication : : : : : : : : : : : : 239
8.5.2 Comparative Results : : : : : : : : : : : : : : : : : : : 239
8.5.3 Model-Free Approach Results
8.5.4 Piecewise Learning Results
8.5.5 Partial Shading Results
8.6 Summary
9 An Application to Low-Level Control of Quadrotors
9.1 Introduction
9.2 Quadrotor Model
9.3 Structured Online Learning with RLS Identier on Quadrotor
9.3.1 Learning Procedure
9.3.2 Asymptotic Convergence with Uncertain Dynamics
9.3.3 Computational Properties
9.4 Numerical Results
9.5 Summary
xii
10 Python Toolbox
10.1 Overview
10.2 User Inputs
10.2.1 Process
10.2.2 Objective
10.3 SOL
10.3.1 Model Update
10.3.2 Database
10.3.3 Library
10.3.4 Control
10.4 Display and Outputs
10.4.1 Graphs and Printouts
10.4.2 3D Simulation
10.5 Summary
11 Appendix 291
11.1 Supplementary Analysis of Remark 5.4
11.2 Supplementary Analysis of Remark 5.5
Bibliography
Model-Based Reinforcement Learning Explore a comprehensive and practical approach to reinforcement learning Reinforcement learning is an essential paradigm of machine learning, wherein an intelligent agent performs actions that ensure optimal behavior from devices. While this paradigm of machine learning has gained tremendous success and popularity in recent years, previous scholarship has focused either on theory-optimal control and dynamic programming - or on algorithms-most of which are simulation-based. Model-Based Reinforcement Learning provides a model-based framework to bridge these two aspects, thereby creating a holistic treatment of the topic of model-based online learning control. In doing so, the authors seek to develop a model-based framework for data-driven control that bridges the topics of systems identification from data, model-based reinforcement learning, and optimal control, as well as the applications of each. This new technique for assessing classical results will allow for a more efficient reinforcement learning system. At its heart, this book is focused on providing an end-to-end framework-from design to application-of a more tractable model-based reinforcement learning technique. Model-Based Reinforcement Learning readers will also find: A useful textbook to use in graduate courses on data-driven and learning-based control that emphasizes modeling and control of dynamical systems from data Detailed comparisons of the impact of different techniques, such as basic linear quadratic controller, learning-based model predictive control, model-free reinforcement learning, and structured online learning Applications and case studies on ground vehicles with nonholonomic dynamics and another on quadrator helicopters An online, Python-based toolbox that accompanies the contents covered in the book, as well as the necessary code and data Model-Based Reinforcement Learning is a useful reference for senior undergraduate students, graduate students, research assistants, professors, process control engineers, and roboticists.
About the Author
Milad Farsi received the B.S. degree in Electrical Engineering (Electronics) from the University of Tabriz in 2010. He obtained his M.S. degree also in Electrical Engineering (Control Systems) from the Sahand University of Technology in 2013. Moreover, he gained industrial experience as a Control System Engineer between 2012 and 2016. Later, he acquired the Ph.D. degree in Applied Mathematics from the University of Waterloo, Canada, in 2022, and he is currently a Postdoctoral Fellow at the same institution. His research interests include control systems, reinforcement learning, and their applications in robotics and power electronics.
Jun Liu received the Ph.D. degree in Applied Mathematics from the University of Waterloo, Canada, in 2010. He is currently an Associate Professor of Applied Mathematics and a Canada Research Chair in Hybrid Systems and Control at the University of Waterloo, Canada, where he directs the Hybrid Systems Laboratory. From 2012 to 2015, he was a Lecturer in Control and Systems Engineering at the University of Sheffield. During 2011 and 2012, he was a Postdoctoral Scholar in Control and Dynamical Systems at the California Institute of Technology. His main research interests are in the theory and applications of hybrid systems and control, including rigorous computational methods for control design with applications in cyber-physical systems and robotics.
There are no comments for this item.