再生核希尔伯特空间
我们先从基本概念开始。再生核希尔伯特空间是一种带有特殊结构的希尔伯特空间,这种结构使其在函数逼近、机器学习等领域非常强大。
第一步:核心思想与定义
想象一个由函数构成的希尔伯特空间 H,其中的每个元素 f 都是一个函数(例如,定义在某个集合 X 上的实值或复值函数)。H 是一个内积空间,并且是完备的(即柯西序列都收敛)。
再生核希尔伯特空间的特殊之处在于“求值泛函”。对于空间中的每一个点 x ∈ X,我们考虑一个操作:给定一个函数 f ∈ H,我们把它在 x 点的函数值 f(x) 拿出来。这个操作本身就是一个泛函,记作 δ_x : H → ℂ(或 ℝ),定义为 δ_x(f) = f(x)。
如果对于每一个 x ∈ X,这个求值泛函 δ_x 都是连续(即有界)的,那么我们称 H 是一个再生核希尔伯特空间。
第二步:再生核的存在性
根据里斯表示定理(你已学过),在希尔伯特空间上,每一个连续线性泛函都可以由与一个唯一的元素做内积来表示。
现在,我们将里斯表示定理应用于求值泛函 δ_x。因为 δ_x 是连续的,所以存在一个唯一的元素 k_x ∈ H,使得对于任意的 f ∈ H,都有:
f(x) = δ_x(f) = 〈f, k_x〉
这个等式是再生产的精髓:函数 f 在 x 点的值,可以通过 f 与另一个函数 k_x 做内积来“再生”出来。
现在,我们固定 x,但让 y 在 X 中变化。那么 k_x 本身也是 H 中的一个函数,我们可以考虑它在另一个点 y 的函数值。我们定义一个新的二元函数 K: X × X → ℂ(或 ℝ):
K(x, y) = k_x(y)
这个函数 K 就被称为希尔伯特空间 H 的再生核。
第三步:再生核的关键性质
再生核 K 具有两个极其重要的性质:
-
再生性: 结合之前的等式,我们有:
f(x) = 〈f, K(·, x)〉
这里 K(·, x) 就是指函数 k_x。这个性质是名字的直接来源。 -
正定性: 对于任意有限的点集 {x₁, x₂, ..., x_n} ⊆ X 和任意的一组标量 {c₁, c₂, ..., c_n} ⊆ ℂ(或 ℝ),都有:
Σᵢ Σⱼ cᵢ * c̅ⱼ * K(xᵢ, xⱼ) ≥ 0
这个性质等价于说,由 [K(xᵢ, xⱼ)] 构成的 Gram 矩阵是半正定的。这是核函数最核心的特征。
第四步:摩尔-阿伦兹定理:从核到空间
前面我们是从一个函数空间 H 出发,导出了它的再生核 K。一个更深刻的结果是摩尔-阿伦兹定理,它说明了反过来的过程也成立:
任意一个定义在集合 X × X 上的函数 K,只要它满足正定性(即上述性质2),就唯一地确定了一个再生核希尔伯特空间 H_K,使得 K 恰好是 H_K 的再生核。
这个定理是再生核希尔伯特空间理论的基石。它意味着,我们不需要先费力地构造一个复杂的函数空间,我们只需要选择一个合适的、满足正定性的核函数 K(x, y),就自动地、唯一地定义了一个与之关联的希尔伯特空间。这个空间里的函数可以看作是核函数的线性组合的“完成”。
第五步:一个经典的例子——多项式核
让我们看一个简单的例子来巩固理解。考虑核函数 K(x, y) = (1 + x y)²,其中 x, y ∈ ℝ。
- 验证正定性: 我们可以证明对于任意有限的点集和标量,和式 ΣᵢΣⱼ cᵢ c̅ⱼ (1 + xᵢ xⱼ)² 总是大于等于零。
- 对应的空间: 这个核函数对应的再生核希尔伯特空间是什么?我们将核函数展开:
K(x, y) = 1 + 2 x y + x² y² = [1, √2 x, x²] · [1, √2 y, y²]^T (这里用了点积形式)。
实际上,这个核对应的空间就是由 {1, x, x²} 张成的二次多项式函数空间,其内积被定义为使得基向量 [1, √2 x, x²] 成为一组标准正交基的内积。在这个空间里,函数 f(x) = a + b x + c x²,而再生性 〈f, K(·, y)〉 确实等于 f(y)。
第六步:意义与应用
再生核希尔伯特空间之所以重要,是因为它允许我们在非常复杂的、甚至是无限维的函数空间中,使用核函数 K(x, y) 来进行计算,而无需显式地处理这个空间中的向量(函数)。这种方法被称为核技巧。
- 支持向量机: 在机器学习中,我们可以将低维空间中线性不可分的数据,通过一个核函数映射到高维的再生核希尔伯特空间中,使其变得线性可分,从而用简单的线性分类器实现复杂的非线性分类。整个过程只需要计算核函数,而不需要知道高维映射的具体形式。
- 函数插值与逼近: 在数值分析中,再生核希尔伯特空间为散乱数据的函数插值提供了坚实的理论基础。