翻译自英文原版 maths-cs-ai-compendium,共 20 章全部完成。 第01章 向量 | 第02章 矩阵 | 第03章 微积分 第04章 统计学 | 第05章 概率论 | 第06章 机器学习 第07章 计算语言学 | 第08章 计算机视觉 | 第09章 音频与语音 第10章 多模态学习 | 第11章 自主系统 | 第12章 图神经网络 第13章 计算与操作系统 | 第14章 数据结构与算法 第15章 生产级软件工程 | 第16章 SIMD与GPU编程 第17章 AI推理 | 第18章 ML系统设计 第19章 应用人工智能 | 第20章 前沿人工智能 翻译说明: - 所有数学公式 $...$ / $$...$$、代码块、图片引用完整保留 - mkdocs.yml 配置中文导航 + language: zh - README.md 已翻译为中文(兼 docs/index.md) - docs/ 目录包含指向各章文件的 symlink - 约 29,000 行中文内容,排除 .cache/ 构建缓存
14 KiB
贝叶斯方法与序列模型
贝叶斯方法将先验信念与观测数据相结合,生成模型参数的后验分布。本文涵盖最大似然估计、最大后验估计、共轭先验、贝叶斯推断、隐马尔可夫模型和EM算法——这些技术是垃圾邮件过滤器、语言模型和不确定性感知机器学习的基础。
-
到目前为止,我们介绍了各种分布以及如何计算概率。现在我们来处理机器学习的核心问题:给定观测数据,如何找到模型的最佳参数?
-
最大似然估计 (MLE) 直接回答了这个问题:选择使观测数据概率最大的参数值。
-
形式上,给定数据
D = \{x_1, x_2, \ldots, x_n\}和带有参数\theta的模型,似然函数为:
L(\theta | D) = P(D | \theta) = \prod_{i=1}^{n} P(x_i | \theta)
- 乘积假设数据点独立同分布(i.i.d.)。MLE估计量为:
\hat{\theta}_{\text{MLE}} = \arg\max_\theta L(\theta | D)
- 实践中我们最大化对数似然,因为对数将乘积转化为求和,并防止数值下溢:
\ell(\theta) = \log L(\theta | D) = \sum_{i=1}^{n} \log P(x_i | \theta)
-
由于
\log是单调递增函数,使得\ell(\theta)最大的\theta也同样使得L(\theta)最大。 -
抛硬币示例:你抛一枚硬币10次,得到7次正面。硬币偏置 $p$(正面概率)的MLE估计是多少?
-
每次抛掷服从 Bernoulli(
p),因此10次抛掷中出现7次正面的似然为:
L(p) = \binom{10}{7} p^7 (1-p)^3
-
取对数并求导:$\frac{d\ell}{dp} = \frac{7}{p} - \frac{3}{1-p} = 0$,解得 $\hat{p}_{\text{MLE}} = 7/10 = 0.7$。
-
MLE直观且简单。如果10次抛掷中得到7次正面,最可能的偏置是0.7。但注意一个问题:如果10次抛掷中得到10次正面,MLE会得出 $\hat{p} = 1$,意味着硬币将永远正面朝上。仅凭10次观测就得出这样的结论似乎过于自信。
-
最大后验估计 (MAP) 通过加入先验信念来修复这个问题。MAP不是仅最大化似然,而是最大化后验:
\hat{\theta}_{\text{MAP}} = \arg\max_\theta P(\theta | D) = \arg\max_\theta P(D | \theta) \cdot P(\theta)
-
我们省略了分母 $P(D)$,因为它不依赖于 $\theta$,不影响argmax的结果。
-
先验
P(\theta)编码了我们在看到数据之前对\theta的信念。如果我们使用 Beta(2, 2) 先验来表示硬币偏置(表达"硬币大致是公平的"这一温和信念),MAP估计就不再仅仅是正面的比例,而是被拉向0.5。
- 使用 Beta(
\alpha,\beta) 先验,观测到h次正面和t次反面后,后验为 Beta(\alpha + h,\beta + t),MAP估计为:
\hat{p}_{\text{MAP}} = \frac{\alpha + h - 1}{\alpha + \beta + h + t - 2}
-
对于我们的示例,Beta(2,2)先验,7次正面,3次反面:$\hat{p}_{\text{MAP}} = \frac{2 + 7 - 1}{2 + 2 + 10 - 2} = \frac{8}{12} = 0.667$。
-
注意MAP估计(0.667)相比MLE(0.7)如何被拉向0.5。先验起到了正则化的作用。在机器学习中,L2正则化(权重衰减)完全等价于在权重上使用高斯先验的MAP估计。
-
完整的贝叶斯推断比MAP更进一步。它不是寻找单一的最佳 $\theta$,而是维护整个后验分布 $P(\theta | D)$。这不仅给你一个点估计,还给出了不确定性的度量。
-
对于具有Beta(2,2)先验和7次正面、3次反面的偏置硬币,完整的后验是 Beta(9, 5)。该分布的均值为 $9/14 \approx 0.643$,其弥散程度告诉我们置信度的高低。数据越多,后验越窄。
-
三种方法形成了一个谱系:
- MLE:无先验,仅依赖数据。速度快,但数据少时可能过拟合。
- MAP:带先验正则化的点估计。增加鲁棒性。
- 完整贝叶斯:完整的后验分布。信息量最大,但通常计算成本高。
-
马尔可夫链对序列进行建模,其中下一状态仅依赖于当前状态,而不依赖于历史。这种"无记忆性"称为马尔可夫性:
P(X_{t+1} | X_t, X_{t-1}, \ldots, X_1) = P(X_{t+1} | X_t)
-
以天气为例。明天的天气取决于今天的天气,但不取决于上周的天气(这是一个简化,但出奇地有用)。
-
马尔可夫链具有有限个状态和一个转移矩阵 $T$,其中元素
T_{ij}表示从状态i转移到状态j的概率。每一行之和为1。
- 对于上图的天气示例,转移矩阵为:
T = \begin{pmatrix} 0.3 & 0.4 & 0.3 \\ 0.2 & 0.5 & 0.3 \\ 0.4 & 0.3 & 0.3 \end{pmatrix}
-
如果今天是雨天(状态向量 $\mathbf{s}_0 = [1, 0, 0]$),明天天气的概率分布为 $\mathbf{s}_1 = \mathbf{s}_0 T = [0.3, 0.4, 0.3]$。两天后:$\mathbf{s}_2 = \mathbf{s}_0 T^2$。这使用了第一章中的矩阵乘法。
-
许多马尔可夫链会收敛到一个平稳分布 $\pi$,满足 $\pi T = \pi$。无论从哪里出发,经过足够多的步数后,链会收敛到 $\pi$。这一性质是MCMC(马尔可夫链蒙特卡罗)的基础,MCMC是贝叶斯机器学习中广泛使用的采样技术。
-
隐马尔可夫模型 (HMM) 通过增加一层间接性来扩展马尔可夫链。真实状态是隐藏的(不可观测的),每个时间步隐藏状态会发出一个可观测的信号。
-
HMM 有三个组成部分:
- 转移概率 $P(z_t | z_{t-1})$:隐藏状态如何演化(马尔可夫链)
- 发射概率 $P(x_t | z_t)$:每个隐藏状态产生什么可观测输出
- 初始分布 $P(z_1)$:起始隐藏状态的概率
-
雨伞示例:假设你不能直接看到天气,但可以观察到你的朋友是否带伞。隐藏状态为 {雨天, 晴天},观测为 {带伞, 不带伞}。
-
转移概率:$P(\text{雨天}|\text{雨天}) = 0.7$,$P(\text{晴天}|\text{雨天}) = 0.3$,$P(\text{雨天}|\text{晴天}) = 0.4$,$P(\text{晴天}|\text{晴天}) = 0.6$。
-
发射概率:$P(\text{带伞}|\text{雨天}) = 0.9$,$P(\text{不带伞}|\text{雨天}) = 0.1$,$P(\text{带伞}|\text{晴天}) = 0.2$,$P(\text{不带伞}|\text{晴天}) = 0.8$。
-
HMM 的关键问题有:
- 解码:给定观测,最可能的隐藏状态序列是什么?由维特比算法求解。
- 评估:观测序列的概率是多少?由前向算法求解。
- 学习:给定观测,最佳模型参数是什么?由Baum-Welch算法求解(期望最大化算法的一个实例)。
-
维特比演算:假设你观测到 [带伞, 带伞, 不带伞],想找到最可能的天气序列。
-
从初始概率开始。假设 $P(R) = 0.5$,$P(S) = 0.5$。
-
第1天(观测到带伞):
V_1(R) = P(R) \cdot P(U|R) = 0.5 \times 0.9 = 0.45V_1(S) = P(S) \cdot P(U|S) = 0.5 \times 0.2 = 0.10
-
第2天(观测到带伞):
V_2(R) = \max(V_1(R) \cdot P(R|R), V_1(S) \cdot P(R|S)) \cdot P(U|R)= \max(0.45 \times 0.7, 0.10 \times 0.4) \times 0.9 = \max(0.315, 0.04) \times 0.9 = 0.2835V_2(S) = \max(V_1(R) \cdot P(S|R), V_1(S) \cdot P(S|S)) \cdot P(U|S)= \max(0.45 \times 0.3, 0.10 \times 0.6) \times 0.2 = \max(0.135, 0.06) \times 0.2 = 0.027
-
第3天(观测到不带伞):
V_3(R) = \max(0.2835 \times 0.7, 0.027 \times 0.4) \times 0.1 = 0.1985 \times 0.1 = 0.01985V_3(S) = \max(0.2835 \times 0.3, 0.027 \times 0.6) \times 0.8 = 0.08505 \times 0.8 = 0.06804
-
第3天的最大值在晴天。回溯:第3天 = 晴天(来自R),第2天 = 雨天(来自R),第1天 = 雨天。最可能的序列:雨天, 雨天, 晴天。
-
前向-后向算法计算在给定整个观测序列条件下,每个时间步处于每个隐藏状态的概率。前向过程计算 $P(z_t, x_{1:t})$,后向过程计算 $P(x_{t+1:T} | z_t)$。两者相乘得到平滑后的状态概率。
-
Baum-Welch算法在隐藏状态不可观测时从数据中学习HMM参数。它是一种期望最大化(EM)算法:E步使用前向-后向算法估计哪些隐藏状态生成了观测,M步更新转移概率和发射概率。
-
HMM在历史上主导了语音识别(隐藏的音素状态发出声学信号)和生物信息学(隐藏的基因状态发出DNA碱基对)。虽然深度学习在很大程度上已取代了这些领域中的HMM,但隐藏状态、发射和序列推断的思想仍然是序列模型的核心。
-
条件随机场 (CRF) 通过去除发射独立假设来改进HMM。在HMM中,时间
t的观测仅依赖于时间t的隐藏状态。CRF允许位置t的标签依赖于整个输入序列。 -
线性链CRF对给定输入序列
\mathbf{x}条件下标签序列\mathbf{y}的条件概率建模:
P(\mathbf{y} | \mathbf{x}) = \frac{1}{Z(\mathbf{x})} \exp\!\left(\sum_t \left[\sum_k \lambda_k f_k(y_t, y_{t-1}, \mathbf{x}, t)\right]\right)
-
其中
f_k是特征函数(可以查看输入的任意部分),\lambda_k是学习到的权重,Z(\mathbf{x})是归一化常数。 -
CRF是判别式模型(直接建模 $P(\mathbf{y}|\mathbf{x})$),而HMM是生成式模型(建模 $P(\mathbf{x}, \mathbf{y})$)。这一区别与逻辑回归(判别式)和朴素贝叶斯(生成式)之间的区别相同。
-
在现代NLP中,CRF层通常被加在神经网络之上(BiLSTM-CRF、BERT-CRF),用于命名实体识别和词性标注等需要捕捉标签依赖关系的任务。
编程练习(使用 CoLab 或 notebook)
- 实现抛硬币实验的MLE和MAP。观察MAP估计如何随不同的先验和不同的数据量而变化。
import jax.numpy as jnp
import matplotlib.pyplot as plt
# 数据:观测到的硬币抛掷结果
heads, tails = 7, 3
# MLE
p_mle = heads / (heads + tails)
print(f"MLE: {p_mle:.4f}")
# 使用 Beta 先验的 MAP
for alpha, beta in [(1,1), (2,2), (5,5), (10,10)]:
p_map = (alpha + heads - 1) / (alpha + beta + heads + tails - 2)
print(f"MAP (Beta({alpha},{beta})): {p_map:.4f}")
# 可视化 Beta(2,2) 先验下的后验
theta = jnp.linspace(0.01, 0.99, 200)
# 后验为 Beta(alpha+heads, beta+tails)
a_post, b_post = 2 + heads, 2 + tails
posterior = theta**(a_post-1) * (1-theta)**(b_post-1)
posterior = posterior / jnp.trapezoid(posterior, theta)
plt.figure(figsize=(8, 4))
plt.plot(theta, posterior, color="#e74c3c", linewidth=2, label=f"后验 Beta({a_post},{b_post})")
plt.axvline(p_mle, color="#3498db", linestyle="--", label=f"MLE = {p_mle:.2f}")
plt.axvline((a_post-1)/(a_post+b_post-2), color="#e74c3c", linestyle="--", label=f"MAP = {(a_post-1)/(a_post+b_post-2):.3f}")
plt.xlabel("θ (硬币偏置)")
plt.ylabel("密度")
plt.title("7次正面、3次反面后 Beta(2,2) 先验下的后验分布")
plt.legend()
plt.grid(alpha=0.3)
plt.show()
- 为天气模型构建一个马尔可夫链并进行模拟。分别通过模拟和求解
\pi T = \pi计算平稳分布。
import jax
import jax.numpy as jnp
# 转移矩阵:R(雨天), S(晴天), C(多云)
T = jnp.array([
[0.3, 0.4, 0.3],
[0.2, 0.5, 0.3],
[0.4, 0.3, 0.3]
])
states = ["雨天", "晴天", "多云"]
# 模拟 100,000 步
key = jax.random.PRNGKey(42)
n_steps = 100_000
state = 0 # 从雨天开始
counts = jnp.zeros(3)
for i in range(n_steps):
key, subkey = jax.random.split(key)
state = jax.random.choice(subkey, 3, p=T[state])
counts = counts.at[state].add(1)
sim_stationary = counts / n_steps
print("模拟得到的平稳分布:")
for s, p in zip(states, sim_stationary):
print(f" {s}: {p:.4f}")
# 解析法:找到特征值为1的左特征向量
eigenvalues, eigenvectors = jnp.linalg.eig(T.T)
idx = jnp.argmin(jnp.abs(eigenvalues - 1.0))
pi = jnp.real(eigenvectors[:, idx])
pi = pi / pi.sum()
print("\n解析得到的平稳分布:")
for s, p in zip(states, pi):
print(f" {s}: {p:.4f}")
- 为雨伞HMM实现维特比算法,并解码一个观测序列。
import jax.numpy as jnp
# HMM 参数
states = ["雨天", "晴天"]
obs_names = ["带伞", "不带伞"]
trans = jnp.array([[0.7, 0.3], # R->R, R->S
[0.4, 0.6]]) # S->R, S->S
emit = jnp.array([[0.9, 0.1], # R->带伞, R->不带伞
[0.2, 0.8]]) # S->带伞, S->不带伞
init = jnp.array([0.5, 0.5])
# 观测:带伞=0,不带伞=1
observations = [0, 0, 1] # 带伞, 带伞, 不带伞
def viterbi(obs, init, trans, emit):
n_states = len(init)
T = len(obs)
V = jnp.zeros((T, n_states))
path = jnp.zeros((T, n_states), dtype=int)
# 初始化
V = V.at[0].set(init * emit[:, obs[0]])
# 递推
for t in range(1, T):
for j in range(n_states):
probs = V[t-1] * trans[:, j]
V = V.at[t, j].set(jnp.max(probs) * emit[j, obs[t]])
path = path.at[t, j].set(jnp.argmax(probs))
# 回溯
best = [int(jnp.argmax(V[-1]))]
for t in range(T-1, 0, -1):
best.insert(0, int(path[t, best[0]]))
return best, V
decoded, scores = viterbi(observations, init, trans, emit)
print("观测序列:", [obs_names[o] for o in observations])
print("解码结果:", [states[s] for s in decoded])
- 可视化随着观测更多抛硬币结果,后验如何演化。从 Beta(1,1) 先验(均匀分布)开始,每次抛掷后更新后验。
import jax
import jax.numpy as jnp
import matplotlib.pyplot as plt
theta = jnp.linspace(0.01, 0.99, 300)
key = jax.random.PRNGKey(7)
# 真实偏置 = 0.65
flips = jax.random.bernoulli(key, p=0.65, shape=(50,))
plt.figure(figsize=(10, 5))
a, b = 1, 1 # Beta(1,1) = 均匀分布
for n_obs in [0, 1, 5, 10, 25, 50]:
h = int(flips[:n_obs].sum())
t = n_obs - h
a_post = a + h
b_post = b + t
y = theta**(a_post-1) * (1-theta)**(b_post-1)
y = y / jnp.trapezoid(y, theta)
plt.plot(theta, y, linewidth=2, label=f"n={n_obs} (h={h})")
plt.axvline(0.65, color="black", linestyle=":", alpha=0.5, label="真实 p=0.65")
plt.xlabel("θ")
plt.ylabel("密度")
plt.title("贝叶斯更新:数据越多后验越窄")
plt.legend()
plt.grid(alpha=0.3)
plt.show()