最优控制理论
字数 1237 2025-11-21 00:16:32
最优控制理论
我将从基础概念开始,循序渐进地讲解最优控制理论的核心内容。
第一步:最优控制理论的基本概念
最优控制理论是研究如何找到控制策略,使得动态系统在满足约束的同时达到最优性能指标的数学分支。它包含三个核心要素:
- 系统动态:用状态方程描述,通常是微分方程形式 dx/dt = f(x,u,t),其中x是状态变量,u是控制变量,t是时间
- 约束条件:包括控制约束u(t)∈U、状态约束x(t)∈X以及边界条件
- 性能指标:也称为目标函数,通常是泛函形式 J = φ(x(t_f),t_f) + ∫₀^{t_f} L(x,u,t)dt
第二步:问题分类与数学表述
最优控制问题可按不同标准分类:
- 按终端时间:固定终端时间vs自由终端时间
- 按终端状态:固定终端状态vs自由终端状态
- 按系统特性:线性vs非线性,确定性vs随机性
典型的最优控制问题可表述为:在满足系统动态和约束条件下,寻找控制函数u*(t),使性能指标J达到极小值。
第三步:庞特里亚金极小值原理
这是最优控制理论的核心成果,提供了必要条件:
对于系统 dx/dt = f(x,u,t),定义哈密顿函数 H(x,u,λ,t) = L(x,u,t) + λᵀf(x,u,t)
最优控制u*(t)和最优轨线x*(t)满足:
- 协态方程:dλ/dt = -∂H/∂x
- 状态方程:dx/dt = ∂H/∂λ
- 极小值条件:H(x*,u*,λ*,t) ≤ H(x*,u,λ*,t) 对所有u∈U成立
- 横截条件:λ(t_f) = ∂φ/∂x(t_f)
第四步:动态规划方法
贝尔曼最优性原理是另一重要工具:
定义值函数 V(x,t) = min_{u} J(x,u,t)
满足哈密顿-雅可比-贝尔曼方程:
-∂V/∂t = min_{u∈U} [L(x,u,t) + (∂V/∂x)ᵀf(x,u,t)]
这是一个偏微分方程,给出了求解最优控制问题的充分条件。
第五步:线性二次型问题
这是最重要的一类特殊问题:
系统动态:dx/dt = A(t)x + B(t)u
性能指标:J = ½xᵀ(t_f)Sx(t_f) + ½∫₀^{t_f}[xᵀQx + uᵀRu]dt
最优解具有解析形式:u*(t) = -R⁻¹BᵀP(t)x(t)
其中P(t)满足黎卡提微分方程,这类问题在工程中广泛应用。
第六步:数值求解方法
当解析解不可得时,常用数值方法包括:
- 直接法:将连续问题离散化,转化为参数优化问题
- 间接法:基于极小值原理,求解两点边值问题
- 梯度法:沿性能指标梯度下降方向迭代改进控制
- 伪谱法:在配点离散化基础上使用正交多项式逼近
第七步:应用领域与扩展
最优控制理论已广泛应用于:
- 航空航天:轨迹优化、姿态控制
- 机器人学:路径规划、运动控制
- 经济学:最优经济增长、资源分配
- 生物医学:药物剂量控制、疾病治疗策略
现代扩展包括随机最优控制、鲁棒最优控制、分布参数系统最优控制等。