最优控制理论
-
基本概念
最优控制理论是研究如何为动态系统寻找控制策略,使得特定性能指标达到最优的数学分支。它处理的是随时间变化的系统,其核心目标是在满足系统动力学约束(通常由微分或差分方程描述)和可能的状态/控制约束条件下,最小化或最大化一个目标函数(称为性能指标或成本函数)。 -
核心要素
一个最优控制问题通常包含以下几个基本要素:
- 状态变量 (State Variables):描述系统在任意时刻状况的一组变量,记为向量 \(\mathbf{x}(t)\)。例如,卫星的位置和速度。
- 控制变量 (Control Variables):由决策者选择,用以影响系统状态变化的一组变量,记为向量 \(\mathbf{u}(t)\)。例如,火箭发动机的推力大小和方向。
- 系统动力学 (System Dynamics):描述状态变量如何随时间演变,通常由一组微分方程(连续时间)或差分方程(离散时间)表示:\(\dot{\mathbf{x}}(t) = f(\mathbf{x}(t), \mathbf{u}(t), t)\)。
- 性能指标 (Performance Index):一个衡量控制策略好坏的标量函数,通常表示为 \(J = \phi(\mathbf{x}(t_f), t_f) + \int_{t_0}^{t_f} L(\mathbf{x}(t), \mathbf{u}(t), t) \, dt\)。其中,第一项是终端成本(如最终误差),第二项是运行成本(如能耗)的积分。
- 约束条件 (Constraints):包括对状态变量的约束(如路径约束 \(g(\mathbf{x}(t), t) \leq 0\))、对控制变量的约束(如 \(\mathbf{u}(t) \in \Omega\)),以及边界条件(初始状态 \(\mathbf{x}(t_0)\) 和终端状态 \(\mathbf{x}(t_f)\) 可能被指定)。
- 解决方法:变分法与极大值原理
求解最优控制问题主要有两类方法,它们都源于变分法。
- 变分法 (Calculus of Variations):这是处理泛函极值问题的经典工具。对于无约束或仅有简单边界约束的问题,通过引入拉格朗日乘子,可以推导出欧拉-拉格朗日方程 (Euler-Lagrange Equations)。该方程给出了状态轨迹和控制函数为最优时必须满足的一组必要条件。
- 庞特里亚金极大值原理 (Pontryagin‘s Maximum Principle):这是最优控制理论的核心成果。当控制变量存在约束时(例如,推力不能超过发动机上限),经典变分法可能不再直接适用。极大值原理提供了更普遍的必要条件。它引入了一组称为协态变量 (Costate Variables) 的辅助变量 \(\mathbf{p}(t)\),并定义一个标量函数——哈密顿函数 (Hamiltonian):\(H(\mathbf{x}, \mathbf{u}, \mathbf{p}, t) = L(\mathbf{x}, \mathbf{u}, t) + \mathbf{p}^T f(\mathbf{x}, \mathbf{u}, t)\)。极大值原理指出,最优控制 \(\mathbf{u}^*(t)\) 必须在任意时刻最大化(或最小化,取决于性能指标定义)哈密顿函数,即 \(H(\mathbf{x}^*(t), \mathbf{u}^*(t), \mathbf{p}^*(t), t) = \max_{\mathbf{u} \in \Omega} H(\mathbf{x}^*(t), \mathbf{u}, \mathbf{p}^*(t), t)\)。同时,协态变量满足微分方程 \(\dot{\mathbf{p}} = -\frac{\partial H}{\partial \mathbf{x}}\),状态变量满足 \(\dot{\mathbf{x}} = \frac{\partial H}{\partial \mathbf{p}}\),并配有相应的横截条件。
- 动态规划与哈密顿-雅可比-贝尔曼方程
另一种重要的方法是动态规划 (Dynamic Programming),由贝尔曼提出。其核心是最优性原理 (Principle of Optimality),即最优策略的子策略对于其子问题也是最优的。通过定义值函数 (Value Function) \(V(\mathbf{x}, t)\)(从状态 \(\mathbf{x}\) 和时间 \(t\) 出发,所能达到的最佳性能指标值),可以推导出一个偏微分方程——哈密顿-雅可比-贝尔曼方程 (Hamilton-Jacobi-Bellman Equation):
\[ -\frac{\partial V(\mathbf{x}, t)}{\partial t} = \min_{\mathbf{u} \in \Omega} \left[ L(\mathbf{x}, \mathbf{u}, t) + \left( \frac{\partial V}{\partial \mathbf{x}} \right)^T f(\mathbf{x}, \mathbf{u}, t) \right] \]
求解这个方程理论上可以得到最优控制的反馈形式 \(\mathbf{u}^*(\mathbf{x}, t)\),即控制量直接由当前状态决定,这对于实现闭环控制至关重要。虽然HJB方程通常难以解析求解,但它为数值方法和理解最优控制的本质提供了理论基础。
-
线性二次型调节器
一个非常重要且具有解析解的特例是线性二次型调节器 (Linear Quadratic Regulator, LQR) 问题。其系统动力学是线性的:\(\dot{\mathbf{x}} = A\mathbf{x} + B\mathbf{u}\),性能指标是状态和控制的二次型:\(J = \frac{1}{2} \mathbf{x}^T(t_f) S_f \mathbf{x}(t_f) + \frac{1}{2} \int_{t_0}^{t_f} (\mathbf{x}^T Q \mathbf{x} + \mathbf{u}^T R \mathbf{u}) \, dt\)。其中,\(Q, R, S_f\) 是权重矩阵。对于这类问题,最优控制具有简单的线性状态反馈形式:\(\mathbf{u}^*(t) = -K(t) \mathbf{x}(t)\)。反馈增益矩阵 \(K(t)\) 可以通过求解一个称为黎卡提微分方程 (Riccati Differential Equation) 的矩阵微分方程得到。当问题时间区间无限时(无限时间LQR),黎卡提方程退化为代数方程,增益矩阵 \(K\) 变为常数。LQR在工程中应用极其广泛。 -
应用领域
最优控制理论的应用遍及各个工程技术领域:
- 航空航天:航天器轨道转移、飞行器姿态控制、导弹制导。
- 机器人学:机械臂轨迹规划、移动机器人路径规划。
- 经济学与管理科学:最优投资消费、资源最优开采、库存控制。
- 工业过程控制:化工过程优化、能源管理系统。