本章介绍马尔可夫决策过程 (Markov Decision Process, MDP),它是强化学习中用于建模完全可观测环境下的序贯决策问题的标准框架。我们将从基础的马尔可夫性质开始,逐步构建马尔可夫过程 (MP)、马尔可夫奖励过程 (MRP),最终引出 MDP 及其核心概念,如策略、价值函数和贝尔曼方程。
马尔可夫性质与过程 (Markov Property and Processes)#
马尔可夫性质 (Markov Property)#
- 定义: 当前状态 St 包含了预测未来所需的所有历史信息。即下一状态 St+1 的概率分布仅依赖于当前状态 St。
P[St+1∣St]=P[St+1∣S1,…,St]
- 意义: 当前状态是未来的“充分统计量”,历史信息可被丢弃。环境状态 Se 通常假定满足此性质。
马尔可夫过程 (Markov Process, MP) / 马尔可夫链 (Markov Chain)#
- 定义: 一个满足马尔可夫性质的随机状态序列,是描述无外部控制(动作)和奖励的系统动态的模型。由元组 (S,P) 定义:
- S: (有限)状态集合。
- P: 状态转移概率矩阵,Pss′=P[St+1=s′∣St=s]。
马尔可夫奖励过程 (Markov Reward Process, MRP)#
- 定义: 在 MP 基础上增加了奖励和折扣因子。由元组 (S,P,R,γ) 定义:
- S,P: 同 MP。
- R: 奖励函数,Rs=E[Rt+1∣St=s] (离开状态 s 的期望立即奖励)。
- γ: 折扣因子 (γ∈[0,1])。
- 回报 (Return) Gt: 从 t 时刻开始的折扣累积奖励。
Gt=∑k=0∞γkRt+k+1=Rt+1+γGt+1
- 状态价值函数 (State-Value Function) v(s): 在 MRP 中,从状态 s 开始的期望回报。
v(s)≐E[Gt∣St=s]
- MRP 的贝尔曼方程 (Bellman Equation for MRP): 描述了状态价值与其后继状态价值的关系。
v(s)=Rs+γ∑s′∈SPss′v(s′)
矩阵形式: v=R+γPv,可直接求解 v=(I−γP)−1R (对于小型 MRP)。
马尔可夫决策过程 (Markov Decision Process, MDP)#
MDP 在 MRP 基础上引入了动作和策略,用于形式化完全可观测的 RL 问题。
-
定义: 由元组 (S,A,P,R,γ) 定义:
- S: 有限状态集。
- A: 有限动作集 (可能依赖于状态 A(s))。
- P: 状态转移概率函数,Pss′a=P[St+1=s′∣St=s,At=a]。
- R: 奖励函数,Rsa=E[Rt+1∣St=s,At=a]。
- γ: 折扣因子。
-
核心假设: 环境完全可观测 (Ot=Ste) 且状态满足马尔可夫性质。
-
与相关模型的关系:
- MAB: 可视为单状态 MDP。
- POMDP (部分可观测 MDP): 当 Ot=Ste 时使用。需要维护信念状态 (Belief State) 并在此空间上求解。
策略与价值函数 (Policy and Value Functions in MDPs)#
在 MDP 中,智能体的行为由策略决定,价值函数用于评估策略的好坏。
-
策略 (Policy) π:
- 定义: 智能体在状态 s 选择动作 a 的规则,通常是概率分布 π(a∣s)=P[At=a∣St=s]。
- 特性: 通常假定是稳态的 (stationary) 和马尔可夫的 (Markovian)。
-
固定策略下的 MDP:
- 给定策略 π,MDP 退化为一个 MRP (S,Pπ,Rπ,γ),其中:
- Pss′π=∑aπ(a∣s)Pss′a (策略下的状态转移概率)
- Rsπ=∑aπ(a∣s)Rsa (策略下的期望奖励)
-
MDP 的价值函数 (依赖于策略 π):
- 状态价值函数 vπ(s): 从状态 s 开始,遵循策略 π 的期望回报。
vπ(s)≐Eπ[Gt∣St=s]
- 动作价值函数 qπ(s,a): 从状态 s 开始,执行动作 a,然后遵循策略 π 的期望回报。
qπ(s,a)≐Eπ[Gt∣St=s,At=a]
-
贝尔曼期望方程 (Bellman Expectation Equation):
- 描述了给定策略 π 下 vπ 和 qπ 满足的一致性条件 (线性方程)。
- vπ(s) 的方程:
vπ(s)=∑a∈Aπ(a∣s)qπ(s,a)=∑a∈Aπ(a∣s)(Rsa+γ∑s′∈SPss′avπ(s′))
- qπ(s,a) 的方程:
qπ(s,a)=Rsa+γ∑s′∈SPss′avπ(s′)=Rsa+γ∑s′∈SPss′a∑a′∈Aπ(a′∣s′)qπ(s′,a′)
最优性 (Optimality in MDPs)#
RL 的目标是找到使期望回报最大化的最优策略。
-
最优价值函数:
- 最优状态价值函数 v∗(s): 所有策略中可能达到的最大期望回报。
v∗(s)=maxπvπ(s)
- 最优动作价值函数 q∗(s,a): 执行动作 a 后遵循最优策略能达到的最大期望回报。
q∗(s,a)=maxπqπ(s,a)
-
最优策略 π∗:
- 定义: 能够达到最优价值函数的策略,即 vπ∗(s)=v∗(s) 对所有 s 成立。
- 存在性: 至少存在一个最优策略,且总能找到确定性的最优策略。
- 从 q∗ 导出 π∗: 通过贪心选择:
π∗(a∣s)=1⟺a=argmaxa′∈Aq∗(s,a′)
- 从 v∗ 导出 π∗ (需要模型): 通过一步前看来选择:
π∗(a∣s)=1⟺a=argmaxa′∈A(Rsa′+γ∑s′Pss′a′v∗(s′))
-
贝尔曼最优方程 (Bellman Optimality Equation):
- 描述了最优价值函数 v∗ 和 q∗ 必须满足的一致性条件 (非线性方程)。
- v∗(s) 的方程:
v∗(s)=maxa∈Aq∗(s,a)=maxa∈A{Rsa+γ∑s′∈SPss′av∗(s′)}
- q∗(s,a) 的方程:
q∗(s,a)=Rsa+γ∑s′∈SPss′av∗(s′)=Rsa+γ∑s′∈SPss′amaxa′∈Aq∗(s′,a′)
- 特性: 由于 max 算子,方程是非线性的,通常无法直接求解。
- 求解方法: 需使用迭代算法,如价值迭代、策略迭代 (动态规划,需要模型) 或 Q学习、Sarsa (强化学习,无需模型)。