LQR控制器——数学推导
AI summary
LQR控制器通过选择反馈增益k来优化可镇定线性系统的表现,利用cost function最小化状态和输入的惩罚。通过选择参数矩阵Q和R,求解Riccati方程得到矩阵P,从而计算控制量u以实现不同的系统表现。
Last edited time
Sep 16, 2024 11:00 AM
Last edited by
AI keywords
LQR Controller
Control Theory
Feedback Control
Optimization Techniques
内容简述:
对于可镇定的线性系统:
写成闭环形式,也就是
我们的做法是通过选择反馈增益k来改变闭环矩阵的特征值,从而控制系统的表现。
那么,什么样的反馈增益k才是最好的呢?
在优化理论中,引入cost function的概念,来帮助选择反馈增益k。
找到一个k,使得在满足镇定系统的同时,最小化cost function。
这里,矩阵Q和R都是对角正定矩阵,他们的每一个对角元素的值都代表着对每一个对应的状态和输入的惩罚。
- 矩阵对角元素的值越大,表示对该状态或输入的惩罚越厉害。那么体现在最终系统的表现上就是,该状态或输入的值越小。
第一次选择Q=[100 0; 0 1]; R=.01,在MATLAB中用
k=lqr(A,B,Q,R)
命令得到该cost function下的最有反馈增益k。其内部主要是通过求解Riccati方程得到k。
LQR的思路:
- 选择参数矩阵Q, R
- 求解Riccati方程得到矩阵P(这里矩阵P是假设的)
- 根据P计算
- 计算控制量
LQR目的:
通过选择不同的Q和R得到不同的系统表现。
参考如下链接:
- LQR控制器简单实现与仿真
- LQR控制器详解和推导过程
- LQR控制器详解
Loading...