https 存量客户 windows pyqt angularjs版本 sql数据库教学视频 git登陆命令 chrome发送post请求 android入门实例 java二维数组赋值 python编程教程 python下载安装教程 python中for循环的用法 python输出中文 java的环境配置 java基本数据结构 java获取现在时间 java得到当前时间 java网页 atq 小米5c拆机 音乐狂app 微信猜拳 ps蒙版抠图详细教程 变声器电脑版 绘图软件下载 kmplayer绿色版 文件分割 videoview 非凡资源搜索器 凯立德下载 python去重 winrar无广告版 ps平面设计基础教程 如何去掉抖音水印 护魂者的命运 寒冰之王 上网监控系统 java计算器 XDM
当前位置: 首页 > 学习教程  > 编程语言

机器学习的数学基础(持续更新)

2020/9/19 15:34:00 文章标签:

文章目录

  • 1 线性代数与矩阵论
    • 1.1 向量与向量空间
      • 1.1.1 向量
      • 1.1.2 向量空间
      • 1.1.3 向量范数
      • 1.1.4 常见的向量
    • 1.2 矩阵
      • 1.2.1 线性映射
      • 1.2.2 矩阵操作
      • 1.2.3 矩阵类型
      • 1.2.4 特征值与特征矢量
      • 1.2.5 矩阵分解
  • 2 微积分
    • 2.1 导数
      • 2.1.1 导数法则
      • 2.1.1.1 导数法则 加(减)法则
      • 2.1.1.2 乘法法则
      • 2.1.1.3 链式法则
    • 2.2 机器学习常见函数的导数
      • 2.2.1 向量函数及其导数
      • 2.2.2 按位计算的向量函数及其导数
      • 2.2.3 Logistic函数
      • 2.2.4 softmax函数
  • 3 数学优化
    • 3.1 数学优化的类型
      • 3.1.1 离散优化和连续优化
      • 3.1.2 无约束优化和约束优化
      • 3.1.3 线性优化和非线性优化
    • 3.2 优化算法
      • 3.2.1 全局最优和局部最优
      • 3.2.2 梯度下降法
      • 3.2.3 拉格朗日乘数法与KKT条件
  • 4 概率伦与随机过程
    • 4.1 样本空间
    • 4.2 事件和概率
      • 4.2.1 随机变量
        • 连续随机变量
        • 累积分布函数
      • 4.2.2 随机向量
        • 离散随机向量
        • 连续随机向量
      • 4.2.3 边际分布
      • 4.2.4 条件概率分布
      • 4.2.5 独立与条件独立
      • 4.2.6 期望和方差
    • 4.3 随机过程
      • 4.3.1 马尔可夫过程
      • 4.3.2 高斯过程
  • 5 信息论
    • 5.1 熵
      • 5.1.1 自信息和熵
    • 5.2 联合熵和条件熵
    • 5.2 互信息
    • 5.3 交叉熵和散度
      • 5.3.1 交叉熵
      • 5.3.2 KL散度
      • 5.3.3 JS散度
      • 5.3.4 Wasserstein距离

1 线性代数与矩阵论

线性代数主要包含向量、向量空间(或称线性空间)以及向量的线性变换和有 限维的线性方程组。

1.1 向量与向量空间

1.1.1 向量

标量(Scalar)是一个实数,只有大小,没有方向。而向量(Vector)是由 一组实数组成的有序数组,同时具有大小和方向。一个 n n n维向量 a a a是由 n n n个有序 实数组成,表示为
在这里插入图片描述
其中 a i a_i ai称为向量 a a a的第 i i i个分量,或第i维。向量符号一般用黑体小写字母 a , b , c a,b,c a,b,c, 或小写希腊字母 α , β , γ α,β,γ α,β,γ 等来表示

1.1.2 向量空间

向量空间(Vector Space),也称线性空间(Linear Space),是指由向量 组成的集合,并满足以下两个条件:

  1. 向量加法 + + +:向量空间 V V V中的两个向量 a a a b b b,它们的和 a + b a+b a+b也属于空 间 V V V
  2. 标量乘法·:向量空间V中的任一向量 a a a和任一标量 c c c,它们的乘积 c ⋅ a c·a ca也 属于空间 V V V

欧氏空间 一个常用的线性空间是欧氏空间(Euclidean Space)。一个欧氏空间 表示通常为 R n R^n Rn,其中 n n n为空间维度(Dimension)。欧氏空间中向量的加法和 标量乘法定义为:
在这里插入图片描述
线性子空间 向量空间 V V V的线性子空间 U U U V V V的一个子集,并且满足向量空间的条件(向量加法和标量乘法)。
线性无关 线性空间V中的一组向量 v 1 , v 2 , ⋅ ⋅ ⋅ , v n {v1,v2,··· ,vn} v1,v2,,vn,如果对任意的一组标量 λ 1 , λ 2 , ⋅ ⋅ ⋅ , λ n λ1,λ2,··· ,λn λ1,λ2,,λn,满足 λ 1 v 1 + λ 2 v 2 + ⋅ ⋅ ⋅ + λ n v n = 0 λ1v1 + λ2v2 +···+ λnvn = 0 λ1v1+λ2v2++λnvn=0,则必然 λ 1 = λ 2 = ⋅ ⋅ ⋅ = λ n = 0 λ1 = λ2 = ··· = λn =0 λ1=λ2==λn=0,那么 v 1 , v 2 , ⋅ ⋅ ⋅ , v n {v1,v2,··· ,vn} v1,v2,,vn是线性无关的,也称为线性独立的。
基向量 向量空间 V V V的基(Base) B = e 1 , e 2 , ⋅ ⋅ ⋅ , e n B={e1,e2,··· ,en} B=e1,e2,,en V V V的有限子集,其元素之间线性无关。向量空间 V V V所有的向量都可以按唯一的方式表达为 B B B中向量的 线性组合。对任意 v ∈ V v ∈V vV,存在一组标量 ( λ 1 , λ 2 , ⋅ ⋅ ⋅ , λ n ) (λ1,λ2,··· ,λn) (λ1,λ2,,λn)使得
在这里插入图片描述
其中基B中的向量称为基向量(Base Vector)。如果基向量是有序的,则标量 ( λ 1 , λ 2 , ⋅ ⋅ ⋅ , λ n ) (λ1,λ2,··· ,λn) (λ1,λ2,,λn)称为向量 v v v关于基 B B B的坐标(Coordinates)。
n n n维空间V的一组标准基(Standard Basis)为
在这里插入图片描述
V V V中的任一向量 v = [ v 1 , v 2 , ⋅ ⋅ ⋅ , v n ] v=[v1,v2,··· ,vn] v=[v1,v2,,vn]可以唯一的表示为
在这里插入图片描述
v 1 , v 2 , ⋅ ⋅ ⋅ , v n v1,v2,··· ,vn v1,v2,,vn也称为向量v的笛卡尔坐标(Cartesian Coordinate)。
向量空间中的每个向量可以看作是一个线性空间中的笛卡儿坐标。
内积 一个 n n n维线性空间中的两个向量 a a a b b b,其内积为
在这里插入图片描述
正交 如果向量空间中两个向量的内积为 0 0 0,则它们正交(Orthogonal)。如果 向量空间中一个向量 v v v与子空间 U U U中的每个向量都正交,那么向量 v v v和子空间 U U U正交。

1.1.3 向量范数

范数(Norm)是一个表示向量“长度”的函数,为向量空间内的所有向量赋予非零的正长度或大小。对于一个 n n n维向量 v v v,一个常见的范数函数为 l p lp lp 范数
在这里插入图片描述
l 1 l1 l1 范数 l 1 l1 l1 范数为向量的各个元素的绝对值之和。
在这里插入图片描述
l 2 l2 l2 范数 l 2 l2 l2范数为:
在这里插入图片描述
ℓ 2 ℓ2 2 范数又称为 E u c l i d e a n Euclidean Euclidean范数或者 F r o b e n i u s Frobenius Frobenius范数。从几何角度,向量也可以表示为从原点出发的一个带箭头的有向线段,其 l 2 l2 l2范数为线段的长度,也常称为向量的模。
l ∞ l∞ l范数 l ∞ l∞ l范数为向量的各个元素的最大绝对值,
在这里插入图片描述
在这里插入图片描述
图A.1给出了常见范数的示例,为二维向量[x,y]的范数。

1.1.4 常见的向量

全0向量指所有元素都为0的向量,用0表示。全0向量为笛卡尔坐标系中 的原点。
全1向量指所有值为1的向量,用1表示。
one-hot向量为有且只有一个元素为1,其余元素都为0的向量。one-hot向 量是在数字电路中的一种状态编码,指对任意给定的状态,状态寄存器中只有 l位为1,其余位都为0。

1.2 矩阵

1.2.1 线性映射

线性映射(Linear Mapping)是指从线性空间 V V V到线性空间 W W W的一个映射函数 f : V → W f :V →W f:VW,并满足:对于 V V V中任何两个向量 u u u v v v以及任何标量 c c c,有
在这里插入图片描述
两个有限维欧氏空间的映射函数 f : R n → R m f : R^n →R^m f:RnRm 可以表示为
在这里插入图片描述
其中 A A A定义为 m × n m×n m×n的矩阵(Matrix),是一个由 m m m n n n列元素排列成的矩形阵 列。一个矩阵 A A A从左上角数起的第 i i i行第 j j j 列上的元素称为第 I , j I,j I,j 项,通常记为 [ A ] i j [A]ij [A]ij a i j aij aij。矩阵 A A A定义了一个从 R n R^n Rn R m R^m Rm 的线性映射;向量 x ∈ R n x∈R^n xRn y ∈ R m y∈R^m yRm 分别为两个空间中的列向量,即大小为 n × 1 n×1 n×1的矩阵。
在这里插入图片描述

1.2.2 矩阵操作

如果 A A A B B B都为 m × n m×n m×n的矩阵,则 A A A B B B的加也是 m × n m×n m×n的矩阵,其每个元素是 A A A B B B相应元素相加。
在这里插入图片描述
乘积 假设有两个 A A A B B B 分别表示两个线性映射 g : R m → R k g : R^m → R^k g:RmRk f : R n → R m f : R^n → R^m f:RnRm, 则其复合线性映射
在这里插入图片描述
其中 A B AB AB表示矩阵 A A A B B B的乘积,定义为
在这里插入图片描述
两个矩阵的乘积仅当第一个矩阵的列数和第二个矩阵的行数相等时才能定义。 如 A A A k × m k×m k×m矩阵和 B B B m × n m×n m×n矩阵,则乘积 A B AB AB是一个 k × n k×n k×n的矩阵。
矩阵的乘法满足结合律和分配律:
在这里插入图片描述
Hadamard积 A和B 的Hadamard积,也称为逐点乘积,为A和B 中对应的 元素相乘。
在这里插入图片描述
一个标量 c c c与矩阵 A A A乘积为 A A A的每个元素是 A A A的相应元素与 c c c的乘积
在这里插入图片描述
转置 m × n m×n m×n矩阵 A A A的转置(Transposition)是一个 n × m n×m n×m的矩阵,记为 A T , A T A^T,A^T ATAT 的第 i i i行第 j j j列的元素是原矩阵 A A A的第 j j j行第 i i i列的元素,
在这里插入图片描述
向量化 矩阵的向量化是将矩阵表示为一个列向量。这里, v e c vec vec是向量化算子。 设 A = [ a i j ] m × n A =[a_{ij}]_{m×n} A=[aij]m×n,则
在这里插入图片描述
方块矩阵 A A A的对角线元素之和称为它的迹(Trace),记为 t r ( A ) tr(A) tr(A)。尽管矩阵 的乘法不满足交换律,但它们的迹相同,即 t r ( A B ) = t r ( B A ) tr(AB)= tr(BA) tr(AB)=tr(BA)
行列式 方块矩阵A的行列式是一个将其映射到标量的函数,记作 d e t ( A ) det(A) det(A) ∣ A ∣ |A| A。 行列式可以看做是有向面积(二阶行列式)或体积(三阶行列式)的概念在欧氏空间中的推广。在 n n n维欧氏空间中,行列式描述的是一个线性变换对“体积”所造成的影响。
一个 n × n n×n n×n的方块矩阵 A A A的行列式定义为:
在这里插入图片描述
其中 S n S_n Sn 1 , 2 , . . . , n {1,2,...,n} 1,2,...,n的所有排列的集合, σ ( i ) σ(i) σ(i) 是其中一个排列, σ ( i ) σ(i) σ(i)是元素i在 排列σ中的位置,sgn(σ)表示排列σ的符号差,定义为
在这里插入图片描述
如: σ ( 2431 ) = 1 + 2 + 1 ( 2 比 1 大 , 4 比 3 和 1 大 , 3 比 1 大 ) \sigma(2431)=1+2+1(2比1大,4比3和1大,3比1大) σ(2431)=1+2+1(2143131)
其中逆序对的定义为:在排列σ中,如果有序数对 ( i , j ) (i,j) (i,j)满足 1 ≤ i < j ≤ n 1 ≤ i < j ≤ n 1i<jn σ ( i ) > σ ( j ) σ(i) > σ(j) σ(i)>σ(j),则其为 σ σ σ的一个逆序对。
一个矩阵 A A A的列秩是 A A A的线性无关的列向量数量,行秩是 A A A的线性无关的 行向量数量。一个矩阵的列秩和行秩总是相等的,简称为秩(Rank)。
一个 m × n m×n m×n的矩阵的秩最大为 m i n ( m , n ) min(m,n) min(m,n)。两个矩阵的乘积 A B AB AB的秩 r a n k ( A B ) ≤ m i n ( r a n k ( A ) , r a n k ( B ) ) rank(AB)≤ min(rank(A),rank(B)) rank(AB)min(rank(A),rank(B))
矩阵范数 矩阵的范数有很多种形式,
在这里插入图片描述
在这里插入图片描述

1.2.3 矩阵类型

对称矩阵 对称矩阵(Symmetric Matrix)指其转置等于自己的矩阵,即满足 A = A T A = A^T A=AT
对角矩阵 对角矩阵(Diagonal Matrix)是一个主对角线之外的元素皆为0的矩 阵。对角线上的元素可以为0或其他值。一个 n × n n×n n×n的对角矩阵 A A A满足:
在这里插入图片描述
对角矩阵A也可以记为 d i a g ( a ) diag(a) diag(a) a a a为一个 n n n维向量,并满足
在这里插入图片描述
n × n n×n n×n的对角矩阵 A = d i a g ( a ) A =diag(a) A=diag(a) n n n维向量 b b b的乘积为一个 n n n维向量
在这里插入图片描述
单位矩阵 单位矩阵(Identity Matrix)是一种特殊的的对角矩阵,其主对角线 元素为1,其余元素为0。 n n n阶单位矩阵 I n I_n In,是一个 n × n n×n n×n的方块矩阵。可以记 为 I n = d i a g ( 1 , 1 , . . . , 1 ) I_n=diag(1,1,...,1) In=diag(1,1,...,1)
一个 m × n m×n m×n的矩阵A和单位矩阵的乘积等于其本身。
在这里插入图片描述
逆矩阵 对于一个 n × n n×n n×n的方块矩阵 A A A,如果存在另一个方块矩阵 B B B使得
在这里插入图片描述
为单位阵,则称 A A A是可逆的。矩阵 B B B称为矩阵 A A A的逆矩阵(Inverse Matrix), 记为 A − 1 A^{−1} A1
一个方阵的行列式等于0当且仅当该方阵不可逆。
正定矩阵 对于一个 n × n n × n n×n 的对称矩阵 A A A,如果对于所有的非零向量 x ∈ R n x ∈ R^n xRn 都满足
在这里插入图片描述
A A A为正定矩阵(Positive-Definite Matrix)。如果 x T A x ≥ 0 x^TAx ≥0 xTAx0,则 A A A是半正定矩阵(Positive-Semidefinite Matrix)。
正交矩阵 正交矩阵(Orthogonal Matrix )A为一个方块矩阵,其逆矩阵等于 其转置矩阵。
在这里插入图片描述
Gram矩阵 向量空间中一组向量 v 1 , v 2 ⋅ ⋅ ⋅ , v n v1,v2··· ,vn v1,v2,vn G r a m Gram Gram矩阵(Gram Matrix) G G G是内积的对称矩阵,其元素 G i j Gij Gij v i T v j v^T_iv_j viTvj

1.2.4 特征值与特征矢量

如果一个标量 λ λ λ和一个非零向量 v v v满足
在这里插入图片描述
λ λ λ v v v分别称为矩阵 A A A的特征值(Eigenvalue)和特征向量(Eigenvector)。

1.2.5 矩阵分解

一个矩阵通常可以用一些比较“简单”的矩阵来表示,称为矩阵分解(Matrix Decomposition, Matrix Factorization)。
奇异值分解 一个 m × n m×n m×n的矩阵 A A A的奇异值分解(Singular Value Decomposition, SVD)定义为
在这里插入图片描述
其中 U U U V V V分别为 m × m m×m m×m n × n n×n n×n的正交矩阵, Σ Σ Σ m × n m×n m×n的对角矩阵,其对 角线上的元素称为奇异值(Singular Value)。
特征分解 一个 n × n n×n n×n的方块矩阵 A A A的特征分解(Eigendecomposition)定义为
在这里插入图片描述
其中 Q Q Q n × n n×n n×n的方块矩阵,其每一列都为 A A A的特征向量,为对角阵,其每一 个对角元素为 A A A的特征值。
如果A为对称矩阵,则A可以被分解为
在这里插入图片描述

在这里插入图片描述

2 微积分

2.1 导数

导数(Derivative)是微积分学中重要的基础概念。
对于定义域和值域都是实数域的函数 f : R → R f : R→R f:RR,若 f ( x ) f(x) f(x)在点 x 0 x_0 x0 的某个邻 域 ∆ x ∆x x内,极限
在这里插入图片描述
在几何上,导数可以看做函数曲线上的切线斜率。图B.1给出了一个函数导数的可视化示例,其中函数 g ( x ) g(x) g(x)的斜率为函数 f ( x ) f(x) f(x)在点 x x x的导数, ∆ y = f ( x + ∆ x ) − f ( x ) ∆y = f(x+ ∆x)−f(x) y=f(x+x)f(x)
在这里插入图片描述
给定一个连续函数,计算其导数的过程称为微分(Differentiation)。微分的逆过程为积分(Integration)。函数 f ( x ) f(x) f(x)的积分可以写为
在这里插入图片描述
其中 F ( x ) F(x) F(x)称为 f ( x ) f(x) f(x)的原函数。
若函数 f ( x ) f(x) f(x)在其定义域包含的某区间内每一个点都可导,那么也可以说函 数f(x)在这个区间内可导。如果一个函数 f ( x ) f(x) f(x)在定义域中的所有点都存在导 数,则 f ( x ) f(x) f(x)为可微函数(Differentiable Function)。可微函数一定连续,但连 续函数不一定可微。例如函数 ∣ x ∣ |x| x为连续函数,但在点 x = 0 x =0 x=0处不可导。
表B.1给出了几个常见函数的导数
在这里插入图片描述
高阶导数 对一个函数的导数继续求导,可以得到高阶导数。函数 f ( x ) f(x) f(x)的导数 f ′ ( x ) f′(x) f(x)称为一阶导数, f ′ ( x ) f′(x) f(x)的导数称为二阶导数,记为 f ′ ′ ( x ) f′′(x) f(x) d 2 f ( x ) d x 2 \frac{d^2f(x)}{dx^2} dx2d2f(x)

偏导数 对于一个多变量函数 f : R d → R f : R^d →R f:RdR,它的偏导数(Partial Derivative )是 关于其中一个变量 x i x_i xi 的导数,而保持其他变量固定,可以记为 f ′ x i ( x ) f′ _{x_i}(x) fxi(x) ∇ x i f ( x ) ∇_{x_i}f(x) xif(x) ∂ f ( x ) ∂ x i \frac{∂f (x)}{∂x_i} xif(x) ∂ ∂ x i f ( x ) \frac{∂}{∂x_i} f(x) xif(x)

对于一个 d d d维向量 x ∈ R d x∈R^d xRd,函数 f ( x ) = f ( x 1 , ⋅ ⋅ ⋅ , x d ) ∈ R f(x)= f(x1,··· ,xd)∈R f(x)=f(x1,,xd)R,则 f ( x ) f(x) f(x)关于 x x x 的偏导数为
在这里插入图片描述
若函数 f ( x ) ∈ R k f(x)∈R^k f(x)Rk 的值也为一个向量,则 f ( x ) f(x) f(x)关于 x x x的偏导数为
在这里插入图片描述

2.1.1 导数法则

一个复杂函数的导数的计算可以通过以下法则来简化。

2.1.1.1 导数法则 加(减)法则

y = f ( x ) , z = g ( x ) y=f(x),z=g(x) y=f(x),z=g(x),则
在这里插入图片描述

2.1.1.2 乘法法则

在这里插入图片描述

2.1.1.3 链式法则

链式法则(Chain Rule),是求复合函数导数的一个法则,是在微积分中计算导数的一种常用方法。
在这里插入图片描述

2.2 机器学习常见函数的导数

2.2.1 向量函数及其导数

在这里插入图片描述

2.2.2 按位计算的向量函数及其导数

假设一个函数f(x)的输入是标量 x x x。对于一组 K K K 个标量 x 1 , ⋅ ⋅ ⋅ , x K x_1,··· ,x_K x1,,xK,我们 可以通过 f ( x ) f(x) f(x)得到另外一组 K K K个标量 z 1 , ⋅ ⋅ ⋅ , z K z_1,··· ,z_K z1,,zK
在这里插入图片描述
为了简便起见,我们定义 x = [ x 1 , ⋅ ⋅ ⋅ , x K ] T , z = [ z 1 , ⋅ ⋅ ⋅ , z K ] T x=[x_1,··· ,x_K]^T,z=[z_1,··· ,z_K]^T x=[x1,,xK]Tz=[z1,,zK]T
在这里插入图片描述
x x x为标量时, f ( x ) f(x) f(x)的导数记为 f ′ ( x ) f′(x) f(x)。当输入为 K K K维向量 x = [ x 1 , ⋅ ⋅ ⋅ , x K ] T x=[x_1,··· ,x_K]^T x=[x1,,xK]T 时,其导数为一个对角矩阵。
在这里插入图片描述

2.2.3 Logistic函数

Logistic函数是一种常用的S形函数,是比利时数学家 Pierre François Verhulst在1844-1845年研究种群数量的增长模型时提出命名的,最初作为一种生态学模型。
Logistic函数定义为:
在这里插入图片描述
这里 e x p ( ⋅ ) exp(·) exp()函数表示自然对数, x 0 x_0 x0 是中心点, L L L是最大值, k k k是曲线的倾斜度。 图B.2给出了几种不同参数的logistic函数曲线。当 x x x趋向于 − ∞ −∞ 时, l o g i s t i c ( x ) logistic(x) logistic(x) 接近于0;当 x x x趋向于 + ∞ +∞ +时, l o g i s t i c ( x ) logistic(x) logistic(x)接近于 L L L
在这里插入图片描述

当参数为 ( k = 1 , x 0 = 0 , L = 1 ) (k =1,x0 =0,L =1) (k=1,x0=0,L=1)时,logistic函数称为标准logistic函数,记 为 σ ( x ) σ(x) σ(x)
在这里插入图片描述
标准logistic函数在机器学习中使用得非常广泛,经常用来将一个实数空间 的数映射到 ( 0 , 1 ) (0,1) (0,1)区间。
标准logistic函数的导数为
在这里插入图片描述
当输入为 K K K 维向量 x = [ x 1 , ⋅ ⋅ ⋅ , x K ] T x=[x_1,··· ,x_K]^T x=[x1,,xK]T 时,其导数为
在这里插入图片描述

2.2.4 softmax函数

softmax函数是将多个标量映射为一个概率分布。
对于 K K K个标量 x 1 , ⋅ ⋅ ⋅ , x K x_1,··· ,x_K x1,,xK,softmax函数定义为
在这里插入图片描述
这样,我们可以将 K K K 个变量 x 1 , ⋅ ⋅ ⋅ , x K x_1,··· ,x_K x1,,xK转换为一个分布: z 1 , ⋅ ⋅ ⋅ , z K z_1,··· ,z_K z1,,zK,满足
在这里插入图片描述
当softmax函数的输入为 K K K 维向量 x x x时,
在这里插入图片描述
其导数为
在这里插入图片描述
其中
在这里插入图片描述

3 数学优化

数学优化(Mathematical Optimization)问题,也叫最优化问题,是指在一定 约束条件下,求解一个目标函数的最大值(或最小值)问题。
数学优化问题的定义为:给定一个目标函数(也叫代价函数) f : A → R f : A→ R f:AR, 寻找一个变量(也叫参数) x ∗ ∈ D x^∗ ∈D xD,使得对于所有 D D D中的 x x x f ( x ∗ ) ≤ f ( x ) f(x^∗)≤ f(x) f(x)f(x)(最 小化);或者 f ( x ∗ ) ≥ f ( x ) f(x^∗)≥ f(x) f(x)f(x)(最大化),其中 D D D为变量 x x x的约束集,也叫可行域; D D D中的变量被称为是可行解。

3.1 数学优化的类型

3.1.1 离散优化和连续优化

根据输入变量x的值域是否为实数域,数学优化问题可以分为离散优化问 题和连续优化问题。
离散优化问题
离散优化(Discrete Optimization)问题是目标函数的输入变量为离散变量,比如为整数或有限集合中的元素。离散优化问题主要有两个分支:

  1. 组合优化(Combinatorial Optimization):其目标是从一个有限集合中找出使得目标函数最优的元素。在一般的组合优化问题中,集合中的元素之间存在一定的关联,可以表示为图结构。典型的组合优化问题有旅行商问题、最小生成树问题、图着色问题等。很多机器学习问题都是组 合优化问题,比如特征选择、聚类问题、超参数优化问题以及结构化学习 (Structured Learning)中标签预测问题等。
  2. 整数规划(Integer Programming):输入变量 x ∈ Z d x∈Z^d xZd为整数。一般常见的整数规划问题为整数线性规划(Integer Linear Programming,ILP)。 整数线性规划的一种最直接的求解方法是:
    (1)去掉输入必须为整数的限制,将原问题转换为一般的线性规划问题,这个线性规划问题为原问题的 松弛问题;
    (2)求得相应松弛问题的解;
    (3)把松弛问题的解四舍五入到 最接近的整数。但是这种方法得到的解一般都不是最优的,因此原问题的 最优解不一定在松弛问题最优解的附近。另外,这种方法得到的解也不一 定满足约束条件。

离散优化问题的求解一般都比较困难,优化算法的复杂度都比较高。
连续优化问题
连续优化(Continuous Optimization)问题是目标函数的输入变量为连续 变量 x ∈ R d x∈R^d xRd,即目标函数为实函数。本节后面的内容主要以连续优化为主。

3.1.2 无约束优化和约束优化

在连续优化问题中,根据是否有变量的约束条件,可以将优化问题分为无 约束优化问题和约束优化问题。
无约束优化问题(Unconstrained Optimization)的可行域为整个实数域 D = R d D= R^d D=Rd,可以写
在这里插入图片描述
约束优化问题(Constrained Optimization)中变量 x x x需要满足一些等式或不等式的约束。约束优化问题通常使用拉格朗日乘数法来进行求解。
最优化问题一般可以表示 为求最小值问题。求 f ( x ) f(x) f(x)最 大值等价于求 − f ( x ) −f(x) f(x)的最小 值。

3.1.3 线性优化和非线性优化

如果在公式(C.1)中,目标函数和所有的约束函数都为线性函数,则该问题为线性规划问题(Linear Programming)。相反,如果目标函数或任何一个约 束函数为非线性函数,则该问题为非线性规划问题(Nonlinear Programming) 。
在非线性优化问题中,有一类比较特殊的问题是凸优化问题(Convex Programming)。在凸优化问题中,变量 x x x的可行域为凸集,即对于集合中任意两点,它们的连线全部位于在集合内部。目标函数 f f f也必须为凸函数,即满足
在这里插入图片描述
在这里插入图片描述

图片来源:https://www.cnblogs.com/always-fight/p/9377554.html

凸优化问题是一种特殊的约束优化问题,需满足目标函数为凸函数,并且等式约束函数为线性函数,不等式约束函数为凹函数。
在数据科学的模型求解中,如果优化的目标函数是凸函数,则局部极小值就是全局最小值。这也意味着我们求得的模型是全局最优的,不会陷入到局部最优值。

3.2 优化算法

优化问题一般都是通过迭代的方式来求解:通过猜测一个初始的估计 x 0 x_0 x0, 然后不断迭代产生新的估计 x 1 , x 2 , ⋅ ⋅ ⋅ x t x_1,x_2,···x_t x1,x2,xt,希望 x t x_t xt最终收敛到期望的最优解 x ∗ x^∗ x。 一个好的优化算法应该是在一定的时间或空间复杂度下能够快速准确地找到最优解。同时,好的优化算法受初始猜测点的影响较小,通过迭代能稳定地找到 最优解 x ∗ x^∗ x的邻域,然后迅速收敛于 x ∗ x^∗ x
优化算法中常用的迭代方法有线性搜索和置信域方法等。线性搜索的策略 是寻找方向和步长,具体算法有梯度下降法、牛顿法、共轭梯度法等。

3.2.1 全局最优和局部最优

对于很多非线性优化问题,会存在若干个局部的极小值。局部最小值,或 局部最优解 x ∗ x^∗ x定义为:存在一个 δ > 0 δ > 0 δ>0,对于所有的满足 ∥ x − x ∗ ∥ ≤ δ ∥x−x∗∥≤ δ xxδ x x x,公 式 f ( x ∗ ) ≤ f ( x ) f(x∗)≤ f(x) f(x)f(x)成立。也就是说,在 x ∗ x^∗ x的附近区域内,所有的函数值都大于或 者等于 f ( x ∗ ) f(x^∗) f(x)
对于所有的 x ∈ A x∈ A xA,都有 f ( x ∗ ) ≤ f ( x ) f(x^∗)≤ f(x) f(x)f(x)成立,则 x ∗ x^∗ x为全局最小值,或全局最优解。
一般的,求局部最优解是容易的,但很难保证其为全局最优解。对于线性规划或凸优化问题,局部最优解就是全局最优解。
要确认一个点 x ∗ x^∗ x是否为局部最优解,通过比较它的邻域内有没有更小的函 数值是不现实的。如果函数 f ( x ) f(x) f(x)是二次连续可微的,我们可以通过检查目标函数在点 x ∗ x^∗ x的梯度 ∇ f ( x ∗ ) ∇f(x^∗) f(x)和Hessian矩阵 ∇ 2 f ( x ∗ ) ∇^2f(x^∗) 2f(x)来判断。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2.2 梯度下降法

梯度下降法(Gradient Descent Method),也叫最速下降法(Steepest Descend Method),经常用来求解无约束优化的极小值问题。
对于函数 f ( x ) f(x) f(x),如果 f ( x ) f(x) f(x)在点 x t x_t xt 附近是连续可微的,那么 f ( x ) f(x) f(x)下降最快 的方向是 f ( x ) f(x) f(x) x t x_t xt点的梯度方法的反方向。
根据泰勒一阶展开公式,
在这里插入图片描述
要使得 f ( x t + 1 ) < f ( x t ) f(x_{t+1}) < f(x_t) f(xt+1)<f(xt),就得使 △ x T ∇ f ( x t ) < 0 △x^T∇f(x_t) < 0 xTf(xt)<0。我们取 △ x = − α ∇ f ( x t ) △x=−α∇f(x_t) x=αf(xt)。 如果 α > 0 α > 0 α>0为一个够小数值时,那么 f ( x t + 1 ) < f ( x t ) f(x_{t+1}) < f(x_t) f(xt+1)<f(xt)成立。
这样我们就可以从一个初始值 x 0 x_0 x0 出发,通过迭代公式
在这里插入图片描述

如果顺利的话,序列 ( x n ) (x_n) (xn)收敛到局部最优解 x ∗ x^∗ x。注意每次迭代步长 α α α可以改变,但其取值必须合适,如果过大就不会收敛,如果过小则收敛速度太慢。
梯度下降法的过程如图C.1所示。曲线是等高线(水平集),即函数 f f f为不同 常数的集合构成的曲线。红色的箭头指向该点梯度的反方向(梯度方向与通过该点的等高线垂直)。沿着梯度下降方向,将最终到达函数 f f f值的局部最优解。
在这里插入图片描述

梯度下降法为一阶收敛算法,当靠近极小值时梯度变小,收敛速度会变慢, 并且可能以“之字形”的方式下降。如果目标函数为二阶连续可微,我们可以采用牛顿法。牛顿法为二阶收敛算法,收敛速度更快,但是每次迭代需要计算 Hessian矩阵的逆矩阵,复杂较高。
相反,如果我们要求解一个最大值问题,就需要向梯度正方向迭代进行搜 索,逐渐接近函数的局部极大值点,这个过程则被称为梯度上升法(Gradient Ascent)。

3.2.3 拉格朗日乘数法与KKT条件

拉格朗日乘数法(Lagrange Multiplier)是约束优化问题的一种有效求解 方法。约束优化问题可以表示为
在这里插入图片描述
等式约束优化问题
如果公式(C.10)中只有等式约束,我们可以构造一个拉格朗日函数 Λ ( x , λ ) Λ(x,λ) Λ(x,λ)
在这里插入图片描述
其中 λ λ λ为拉格朗日乘数,可以是正数或负数。如果 f ( x ∗ ) f(x^∗) f(x)是原始约束优化问题 的局部最优值,那么存在一个KaTeX parse error: Expected group after '^' at position 3: λ∗^̲使得 ( x ∗ , λ ∗ ) (x^∗,λ^∗) (x,λ)为拉格朗日函数 Λ ( x , λ ) Λ(x,λ) Λ(x,λ)的平稳点 (stationary point)(平稳点是指一阶偏导数为 0 的点。平稳点不一定为极值点)。因此,只需要令 ∂ Λ ( x , λ ) ∂ x = 0 和 ∂ Λ ( x , λ ) ∂ λ = 0 \frac{\partial Λ(x,λ)}{\partial x}=0和\frac{\partial Λ(x,λ)}{\partial\lambda}=0 xΛ(x,λ)=0λΛ(x,λ)=0,得到:
在这里插入图片描述
上面方程组的解即为原始问题的可能解。在实际应用中,需根据问题来验证是 否为极值点。
拉格朗日乘数法是将一个有 d d d个变量和 m m m个等式约束条件的最优化问题转 换为一个有 d + m d+m d+m个变量的函数求平稳点的问题。拉格朗日乘数法所得的平稳 点会包含原问题的所有极值点,但并不保证每个平稳点都是原问题的极值点
不等式约束优化问题
对于公式(C.10)中定义的一般约束优化问题,其拉格朗日函数为
在这里插入图片描述
其中 a = [ a 1 , ⋅ ⋅ ⋅ , a m ] T a =[a_1,··· ,a_m]^T a=[a1,,am]T为等式约束的拉格朗日乘数, b = [ b 1 , ⋅ ⋅ ⋅ , b n ] T b=[b_1,··· ,b_n]^T b=[b1,,bn]T 为不等式 约束的拉格朗日乘数。
当约束条件不满足时,有 m a x a , b Λ ( x , a , b ) = ∞ max_{a,b}Λ(x,a,b) = ∞ maxa,bΛ(x,a,b)=;当约束条件满足时并且 b ≥ 0 b≥0 b0时, m a x a , b Λ ( x , a , b ) = f ( x ) max_{a,b}Λ(x,a,b)= f(x) maxa,bΛ(x,a,b)=f(x)。因此原始约束优化问题等价于
在这里插入图片描述
对偶问题 主问题的优化一般比较困难,我们可以通过交换 m i n − m a x min-max minmax的顺序来简化。定义拉格朗日对偶函数为
在这里插入图片描述
Γ ( a , b ) Γ(a,b) Γ(a,b)是一个凹函数,即使 f ( x ) f(x) f(x)是非凸的。

在这里插入图片描述
优化拉格朗日对偶函数 Γ ( a , b ) Γ(a,b) Γ(a,b)并得到原问题的最优下界,称为拉格朗日对 偶问题(Lagrange Dual Problem)。
在这里插入图片描述

拉格朗日对偶函数为凹函数,因此拉格朗日对偶问题为凸优化问题。
d ∗ d^∗ d是拉格朗日对偶问题的最优值,则有 d ∗ ≤ p ∗ d^∗ ≤ p^∗ dp,这个性质称为弱对偶 性(Weak Duality)。如果 d ∗ = p ∗ d^∗ = p^∗ d=p,这个性质称为强对偶性(Strong Duality)
当强对偶性成立时,令 x ∗ x^∗ x a ∗ , b ∗ a^∗,b^∗ a,b分别是原问题问题和对偶问题的最优解, 那么它们满足以下条件:
在这里插入图片描述
称为不等式约束优化问题的KKT条件(Karush-Kuhn-TuckerConditions)。KKT 条件是拉格朗日乘数法在不等式约束优化问题上的泛化。当原问题是凸优化问 题时,满足KKT条件的解也是原问题和对偶问题的最优解。

KKT条件中需要关注的是公式(C.26),称为互补松弛条件(Complementary Slackness)。如果最优解 x ∗ x^∗ x出现在不等式约束的边界上 g j ( x ) = 0 g_j(x) = 0 gj(x)=0,则 b j ∗ > 0 b^∗_ j > 0 bj>0; 如果x∗出现在不等式约束的内部 g j ( x ) < 0 g_j(x) < 0 gj(x)<0,则 b j ∗ = 0 b^∗_ j =0 bj=0。互补松弛条件说明当最 优解出现在不等式约束的内部,则约束失效。

4 概率伦与随机过程

概率论主要研究大量随机现象中的数量规律,其应用十分广泛,几乎遍及各个领域。

4.1 样本空间

样本空间是一个随机试验所有可能结果的集合。例如,如果抛掷一枚硬币, 那么样本空间就是集合{正面,反面}。如果投掷一个骰子,那么样本空间就是 {1,2,3,4,5,6}。随机试验中的每个可能结果称为样本点。
有些试验有两个或多个可能的样本空间。例如,从52张扑克牌中随机抽出 一张,样本空间可以是数字(A到K),也可以是花色(黑桃,红桃,梅花,方 块)。如果要完整地描述一张牌,就需要同时给出数字和花色,这时样本空间可以通过构建上述两个样本空间的笛卡儿乘积来得到。
在这里插入图片描述

4.2 事件和概率

随机事件(或简称事件)指的是一个被赋予概率的事物集合,也就是样本空间中的一个子集。概率(Probability)表示一个随机事件发生的可能性大小, 为0到1之间的一个非负实数。比如,一个0.5的概率表示一个事件有50%的可能性发生。
对于一个机会均等的抛硬币动作来说,其样本空间为“正面”或“反面”。 我们可以定义各个随机事件,并计算其概率。比如,
在这里插入图片描述

4.2.1 随机变量

在随机试验中,试验的结果可以用一个数X 来表示,这个数X 是随着试 验结果的不同而变化的,是样本点的一个函数。我们把这种数称为随机变量 (Random Variable)。例如,随机掷一个骰子,得到的点数就可以看成一个随机变量 X X X X X X的取值为{1,2,3,4,5,6}。
如果随机掷两个骰子,整个事件空间 Ω Ω 可以由36个元素组成:
在这里插入图片描述
一个随机事件也可以定义多个随机变量。比如在掷两个骰子的随机事件中, 可以定义随机变量X 为获得的两个骰子的点数和,也可以定义随机变量Y 为获 得的两个骰子的点数差。随机变量X 可以有11个整数值,而随机变量Y 只有6 个。
在这里插入图片描述#### 离散随机变量
如果随机变量X 所可能取的值为有限可列举的,有 n n n个有限取值
在这里插入图片描述
则称 X X X为离散随机变量。
要了解 X X X 的统计规律,就必须知道它取每种可能值 x i x_i xi 的概率,即
在这里插入图片描述
p ( x ) 1 ) , ⋅ ⋅ ⋅ , p ( x n ) p(x)1),··· ,p(x_n) p(x)1),,p(xn)称为离散型随机变量 X X X的概率分布(Probability Distribution) 或分布,并且满足
在这里插入图片描述
在这里插入图片描述

注:一般用大写的字母表示一个随机变量,用小字字母表示 该变量的某一个具体的取值。

常见的离散随机变量的概率分布有:
伯努利分布 在一次试验中,事件 A A A出现的概率为 µ µ µ,不出现的概率为 1 − µ 1−µ 1µ。若 用变量 X X X 表示事件 A A A出现的次数,则 X X X 的取值为0和1,其相应的分布为
在这里插入图片描述

这个分布称为伯努利分布(Bernoulli Distribution) ,又名两点分布或者0-1分布。
二项分布 n n n次伯努利分布中,若以变量 X X X 表示事件 A A A出现的次数,则 X X X 的 取值为 0 , ⋅ ⋅ ⋅ , n {0,··· ,n} 0,,n,其相应的分布为二项分布(Binomial Distribution)。
在这里插入图片描述
在这里插入图片描述

连续随机变量

与离散随机变量不同,一些随机变量X 的取值是不可列举的,由全部实数 或者由一部分区间组成,比如
在这里插入图片描述
对于连续随机变量 X X X,它取一个具体值 x i x_i xi 的概率为0,这与离散随机变量 截然不同。因此用列举连续随机变量取某个值的概率来描述这种随机变量不但 做不到,也毫无意义。

连续随机变量 X X X的概率分布一般用概率密度函数(Probability Density Function,PDF) p ( x ) p(x) p(x)来描述。 p ( x ) p(x) p(x)为可积函数,并满足
在这里插入图片描述
给定概率密度函数 p ( x ) p(x) p(x),便可以计算出随机变量落入某一个区间的概率,而 p ( x ) p(x) p(x)本身反映了随机变量取落入 x x x的非常小的邻近区间中的概率大小。
常见的连续随机变量的概率分布有:
均匀分布 a , b a,b a,b为有限数, [ a , b ] [a,b] [a,b]上的均匀分布(Uniform Distribution)的概率密度函数定义为
在这里插入图片描述
正态分布 正态分布(Normal Distribution),又名高斯分布(Gaussian Distribution),是自然界最常见的一种分布,并且具有很多良好的性质,在很多领域 都有非常重要的影响力,其概率密度函数为
在这里插入图片描述
图D.1a和D.1b分别显示了均匀分布和正态分布的概率密度函数。
在这里插入图片描述

累积分布函数

对于一个随机变量 X X X,其累积分布函数(Cumulative Distribution Function, CDF)是随机变量 X X X 的取值小于等于 x x x的概率。
在这里插入图片描述
以连续随机变量 X X X 为例,累积分布函数定义为
在这里插入图片描述
其中 p ( x ) p(x) p(x)为概率密度函数。图D.2给出了标准正态分布的累计分布函数。
在这里插入图片描述

4.2.2 随机向量

随机向量是指一组随机变量构成的向量。如果 X 1 , X 2 , ⋅ ⋅ ⋅ , X n X_1,X_2,··· ,X_n X1,X2,,Xn n n n个随机 变量, 那么称 [ X 1 , X 2 , ⋅ ⋅ ⋅ , X n ] [X_1,X_2,··· ,X_n] [X1,X2,,Xn]为一个 n n n维随机向量。一维随机向量称为随机变量。
随机向量也分为离散随机向量和连续随机向量。

离散随机向量

离散随机向量的联合概率分布(Joint Probability Distribution)为
在这里插入图片描述
和离散随机变量类似,离散随机向量的概率分布满足
在这里插入图片描述
多项分布 一个常见的离散向量概率分布为多项分布(Multinomial Distribution)。多项分布是二项分布在随机向量的推广。假设一个袋子中装了很多球, 总共有 K K K 个不同的颜色。我们从袋子中取出 n n n个球。每次取出一个球时,就在袋子中放入一个同样颜色的球。这样保证同一颜色的球在不同试验中被取出的 概率是相等的。令 X X X为一个 K K K 维随机向量,每个元素 X k ( k = 1 , ⋅ ⋅ ⋅ , K ) X_k(k =1,··· ,K) Xk(k=1,,K)为取出的 n n n个球中颜色为k的球的数量,则 X X X服从多项分布,其概率分布为
在这里插入图片描述
多项分布的概率分布也可以用gamma函数表示:
在这里插入图片描述

连续随机向量

连续随机向量的其联合概率密度函数(Joint Probability Density Function) 满足
在这里插入图片描述
多元正态分布 一个常见的连续随机向量分布为多元正态分布(Multivariate Normal Distribution),也称为多元高斯分布(Multivariate Gaussian Distribution) 。若 n n n维随机向量 X = [ X 1 , . . . , X n ] T X=[X_1,...,X_n]^T X=[X1,...,Xn]T服从 n n n元正态分布,其密度函数为
在这里插入图片描述
各项同性高斯分布 如果一个多元高斯分布的协方差矩阵简化为 Σ = σ 2 I Σ= σ^2I Σ=σ2I,即每 一个维随机变量都独立并且方差相同,那么这个多元高斯分布称为各项同性高 斯分布(Isotropic Gaussian Distribution)。
Dirichlet分布 一个 n n n维随机向量 X X X的Dirichlet分布为
在这里插入图片描述

4.2.3 边际分布

对于二维离散随机向量 ( X , Y ) (X,Y) (X,Y),假设X 取值空间为 Ω x , Y Ω_x,Y xY取值空间为 Ω y Ω_y y。 其联合概率分布满足
在这里插入图片描述
对于联合概率分布 p ( x , y ) p(x,y) p(x,y),我们可以分别对 x x x y y y进行求和。
(1)对于固定的 x x x
在这里插入图片描述
(2)对于固定的y,
在这里插入图片描述
由离散随机向量 ( X , Y ) (X,Y) (X,Y)的联合概率分布,对 Y Y Y 的所有取值进行求和得到 X X X 的概率分布;而对 X X X 的所有取值进行求和得到 Y Y Y 的概率分布。这里 p ( x ) p(x) p(x) p ( y ) p(y) p(y) 就称为 p ( x , y ) p(x,y) p(x,y)的边际分布(Marginal Distribution)。
对于二维连续随机向量 ( X , Y ) (X,Y) (X,Y),其边际分布为:
在这里插入图片描述
一个二元正态分布的边际分布仍为正态分布。

不失一般性,以上对二维随 机向量进行讨论,这些结论 在多维时依然成立。

4.2.4 条件概率分布

对于离散随机向量 ( X , Y ) (X,Y) (X,Y),已知 X = x X = x X=x的条件下,随机变量 Y = y Y = y Y=y的条件 概率(Conditional Probability)为:
在这里插入图片描述
对于二维连续随机向量 ( X , Y ) (X,Y) (X,Y),已知 X = x X = x X=x的条件下,随机变量 Y = y Y = y Y=y的 条件概率密度函数(Conditional Probability Density Function)为
在这里插入图片描述
通过公式(D.30)和(D.31),我们可以得到两个条件概率 p ( y ∣ x ) p(y|x) p(yx) p ( x ∣ y ) p(x|y) p(xy)之 间的关系。
在这里插入图片描述

4.2.5 独立与条件独立

对于两个离散(或连续)随机变量 X X X Y Y Y ,如果其联合概率(或联合概率 密度函数) p ( x , y ) p(x,y) p(x,y)满足
在这里插入图片描述
对于三个离散(或连续)随机变量 X X X Y Y Y Z Z Z,如果条件概率(或联合概 率密度函数) p ( x , y ∣ z ) p(x,y|z) p(x,yz)满足
在这里插入图片描述

4.2.6 期望和方差

期望 对于离散变量 X X X,其概率分布为 p ( x 1 ) , ⋅ ⋅ ⋅ , p ( x n ) p(x_1),··· ,p(x_n) p(x1),,p(xn) X X X的期望(Expectation) 或均值定义为
在这里插入图片描述
对于连续随机变量 X X X,概率密度函数为 p ( x ) p(x) p(x),其期望定义为
在这里插入图片描述
方差 随机变量X的方差(Variance)用来定义它的概率分布的离散程度,定义为
在这里插入图片描述
随机变量 X X X 的方差也称为它的二阶矩。 v a r ( X ) \sqrt{var(X)} var(X) 则称为 X X X 的根方差或标准差 。
协方差 两个连续随机变量 X X X Y Y Y 的协方差(Covariance)用来衡量两个随机变 量的分布之间的总体变化性,定义为
在这里插入图片描述
协方差经常也用来衡量两个随机变量之间的线性相关性(这里的线性相关和线性代数 中的线性相关含义不同)。如果两个随机变 量的协方差为0,那么称这两个随机变量是线性不相关。两个随机变量之间没有线性相关性,并非表示它们之间独立的,可能存在某种非线性的函数关系。反 之,如果 X X X Y Y Y 是统计独立的,那么它们之间的协方差一定为0。
协方差矩阵 两个 m m m n n n维的连续随机向量 X X X Y Y Y,它们的协方差(Covariance) 为 m × n m×n m×n的矩阵,定义为
在这里插入图片描述
协方差矩阵 c o v ( X , Y ) cov(X,Y) cov(X,Y)的第 ( i , j ) (i,j) (i,j)个元素等于随机变量 X i X_i Xi Y j Y_j Yj 的协方差。两 个向量变量的协方差 c o v ( X , Y ) cov(X,Y) cov(X,Y)与cov(Y,X)互为转置关系。
如果两个随机向量的协方差矩阵为对角阵,那么称这两个随机向量是无 关的。
单个随机向量X的协方差矩阵定义为
在这里插入图片描述
Jensen不等式
如果 X X X 是随机变量, g g g是凸函数,则
在这里插入图片描述
大数定律
大数定律(Law Of Large Numbers)是指 n n n个样本 X 1 , ⋅ ⋅ ⋅ , X n X_1,··· ,X_n X1,,Xn 是独立同分布的,即 E [ X 1 ] = ⋅ ⋅ ⋅ = E [ X n ] = µ E[X_1]=···= E[X_n]= µ E[X1]==E[Xn]=µ,那么其均值
在这里插入图片描述

4.3 随机过程

随机过程(Stochastic Process)是一组随机变量 X t X_t Xt 的集合,其中t属于一 个索引(index)集合 T T T。索引集合 T T T 可以定义在时间域或者空间域,但一般为 时间域,以实数或正数表示。当 t t t为实数时,随机过程为连续随机过程;当 t t t为 整数时,为离散随机过程。日常生活中的很多例子包括股票的波动、语音信号、 身高的变化等都可以看作是随机过程。常见的和时间相关的随机过程模型包括 贝努力过程、随机游走、马尔可夫过程等。和空间相关的随机过程通常称为随 机场(Random Field)。比如一张二维的图片,每个像素点(变量)通过空间 的位置进行索引,这些像素就组成了一个随机过程。

4.3.1 马尔可夫过程

马尔可夫性质 在随机过程中,马尔可夫性质(MarkovProperty)是指一个随机 过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依 赖于当前状态。以离散随机过程为例,假设随机变量 X 0 , X 1 , ⋅ ⋅ ⋅ , X T X_0,X_1,··· ,X_T X0,X1,,XT 构成一个 随机过程。这些随机变量的所有可能取值的集合被称为状态空间(State Space) 。如果 X t + 1 X_{t+1} Xt+1 对于过去状态的条件概率分布仅是 X t X_t Xt 的一个函数,则
在这里插入图片描述
马尔可夫性质也可以描述为给定当前状态时,将来的状态与过去状态是条 件独立的。
马尔可夫链
离散时间的马尔可夫过程也称为马尔可夫链(Markov Chain)。如果一个 马尔可夫链的条件概率
在这里插入图片描述
在不同时间都是不变的,即和时间 t t t无关,则称为时间同质的马尔可夫链(TimeHomogeneous Markov Chains)。如果状态空间是有限的, T ( s i , s j ) T(s_i,s_j) T(si,sj)也可以用一 个矩阵 T T T 表示,称为状态转移矩阵(Transition Matrix),其中元素 t i j t_{ij} tij 表示状 态 s i s_i si 转移到状态 s j s_j sj 的概率。

平稳分布 假设状态空间大小为 M M M,向量 π = [ π 1 , ⋅ ⋅ ⋅ , π M ] T π = [π_1,··· ,π_M]^T π=[π1,,πM]T 为状态空间中的一 个分布,满足 0 ≤ π i ≤ 1 0≤ π_i ≤1 0πi1 ∑ i = 1 M π i = 1 \sum^M_{i=1}\pi_i=1 i=1Mπi=1
对于状态转移矩阵为 T T T的时间同质的马尔可夫链,如果存在一个分布 π π π满足
在这里插入图片描述
即分布π就称为该马尔可夫链的平稳分布(Stationary Distribution)。根据特 征向量的定义可知, π π π为矩阵 T T T的(归一化)的对应特征值为1的特征向量。
如果一个马尔可夫链的状态转移矩阵 T T T满足所有状态可遍历性以及非周期性,那么对于任意一个初始状态分布 π ( 0 ) π(0) π(0),将经过一定时间的状态转移之后,都 会收敛到平稳分布,即
在这里插入图片描述
在这里插入图片描述

4.3.2 高斯过程

高斯过程(Gaussian Process)也是一种应用广泛的随机过程模型。假设有 一组连续随机变量 X 0 , X 1 , ⋅ ⋅ ⋅ , X T X_0,X_1,··· ,X_T X0,X1,,XT,如果由这组随机变量构成的任一有限集合
在这里插入图片描述
都服从一个多元正态分布,那么这组随机变量为一个随机过程。高斯过程也可 以定义为:如果 X t 1 , ⋅ ⋅ ⋅ , t n X_{t_1,···,t_n} Xt1,,tn 的任一线性组合都服从一元正态分布,那么这组随机 变量为一个随机过程。
高斯过程回归 高斯过程回归(Gaussian Process Regression)是利用高斯过程 来对一个函数分布进行建模。和机器学习中参数化建模(比如贝叶斯线性回归) 相比,高斯过程是一种非参数模型,可以拟合一个黑盒函数,并给出拟合结果的置信度
假设一个未知函数 f ( x ) f(x) f(x)服从高斯过程,且为平滑函数。如果两个样本 x 1 , x 2 x_1,x_2 x1,x2 比较接近,那么对应的 f ( x 1 ) , f ( x 2 ) f(x_1),f(x_2) f(x1),f(x2)也比较接近。假设从函数f(x)中采样有限 个样本 X = [ x 1 , x 2 , ⋅ ⋅ ⋅ , x N ] X =[x_1,x_2,··· ,x_N] X=[x1,x2,,xN],这 N N N个点服从一个多元正态分布,
在这里插入图片描述
其中 µ ( X ) = [ µ ( x 1 ) , µ ( x 2 ) , ⋅ ⋅ ⋅ , µ ( x N ) ] T µ(X)=[µ(x_1),µ(x_2),··· ,µ(x_N)]^T µ(X)=[µ(x1),µ(x2),,µ(xN)]T是均值向量, K ( X , X ) = [ k ( x i , x j ) ] N × N K(X,X)=[k(x_i,x_j)]_{N×N} K(X,X)=[k(xi,xj)]N×N 是协方差矩阵, k ( x i , x j ) k(x_i,x_j) k(xi,xj)为核函数,可以衡量两个样本的相似度。
在高斯过程回归,一个常用的核函数是平方指数(Squared Exponential)函数(在支持向量机中,平方指数核函数也叫高斯核函数或径 向基函数。这里为了避免混 淆,我们称为平方指数核函数。)
在这里插入图片描述
其中 l l l为超参数。当 x i x_i xi x j x_j xj 越接近,其核函数的值越大,表明 f ( x i ) f(x_i) f(xi) f ( x j ) f(x_j) f(xj)越 相关。
假设 f ( x ) f(x) f(x)的一组带噪声的观测值为 ( x n , y n ) n = 1 N {(xn,yn)}^N_{n=1} (xn,yn)n=1N,其中 y n ∼ N ( f ( x n ) , σ 2 ) y_n ∼N(f(x_n),σ^2) ynN(f(xn),σ2) 为正态分布, σ σ σ为噪声方差。
对于一个新的样本点 x ∗ x^∗ x,我们希望预测函数 y ∗ = f ( x ∗ ) y^∗ = f(x^∗) y=f(x)。令 y = [ y 1 , y 2 , ⋅ ⋅ ⋅ , y n ] y=[y_1,y_2,··· ,y_n] y=[y1,y2,,yn] 为已有的观测值,根据高斯过程的假设, [ y ; y ∗ ] [y;y^∗] [y;y]满足
在这里插入图片描述
根据上面的联合分布, y ∗ y^∗ y的后验分布为
在这里插入图片描述
其中均值 µ ^ \hat{µ} µ^和方差 σ ^ \hat{σ} σ^
在这里插入图片描述
公式(D.53)可以看出,均值函数 µ ( x ) µ(x) µ(x)可以近似地互相抵消。在实际应用 中,一般假设 µ ( x ) = 0 µ(x)=0 µ(x)=0,均值 μ ^ \hat{\mu} μ^可以简化为:
在这里插入图片描述
高斯过程回归可以认为是一种有效的贝叶斯优化方法,广泛地应用于机器 学习中。

5 信息论

信息论(Information Theory)是数学、物理、统计、计算机科学等多个学科的 交叉领域。信息论是由 Claude Shannon最早提出的,主要研究信息的量化、存 储和通信等方法。这里,“信息”是指一组消息的集合。假设在一个噪声通道上发送消息,我们需要考虑如何对每一个信息进行编码、传输以及解码,使得接 收者可以尽可能准确地重构出消息。
在机器学习相关领域,信息论也有着大量的应用。比如特征抽取、统计推断、自然语言处理等。

5.1 熵

5.1.1 自信息和熵

熵(Entropy)最早是物理学的概念,用于表示一个热力学系统的无序程度。 在信息论中,熵用来衡量一个随机事件的不确定性。假设对一个随机变量 X X X(取值集合为 X X X,概率分布为 p ( x ) , x ∈ X p(x),x ∈X p(x),xX进行编码,自信息 I ( x ) I(x) I(x)是变量 X = x X = x X=x时 的信息量或编码长度,定义为
在这里插入图片描述

那么随机变量 X X X 的平均编码长度,即熵定义为
在这里插入图片描述
其中当 p ( x i ) = 0 p(x_i)=0 p(xi)=0时,我们定义 0 l o g 0 = 0 0log0=0 0log0=0,这与极限一致, l i m p → 0 + p l o g p = 0 lim_{p→0}+ plogp =0 limp0+plogp=0

注:在熵的定义中,对数的底可 以使用2、自然常数e,或是 10。
熵是一个随机变量的平均编码长度,即自信息的数学期望。熵越高,则随机变量的信息越多;熵越低,则信息越少。如果变量 X X X当且仅当在 x x x p ( x ) = 1 p(x)=1 p(x)=1, 则熵为0。也就是说,对于一个确定的信息,其熵为0,信息量也为0。如果其概率 分布为一个均匀分布,则熵最大。假设一个随机变量 X X X 有三种可能值 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3, 不同概率分布对应的熵如下:
在这里插入图片描述

5.2 联合熵和条件熵

在这里插入图片描述

5.2 互信息

互信息(Mutual Information)是衡量已知一个变量时,另一个变量不确定 性的减少程度。两个离散随机变量 X X X Y Y Y 的互信息定义为
在这里插入图片描述
互信息的一个性质为
在这里插入图片描述
如果 X X X Y Y Y 相互独立,即 X X X 不对 Y Y Y提供任何信息,反之亦然,因此它们的互信息为零。

5.3 交叉熵和散度

5.3.1 交叉熵

对应分布为 p ( x ) p(x) p(x)的随机变量,熵 H ( p ) H(p) H(p)表示其最优编码长度。交叉熵(Cross Entropy)是按照概率分布 q q q的最优编码对真实分布为 p p p的信息进行编码的长度, 定义为
在这里插入图片描述
在给定p的情况下,如果 q q q p p p越接近,交叉熵越小;如果 q q q p p p越远,交叉熵就越大。
在这里插入图片描述

5.3.2 KL散度

KL散度(Kullback-Leibler Divergence),也叫KL距离或相对熵(Relative Entropy),是用概率分布q来近似p时所造成的信息损失量。KL散度是按照概 率分布 q q q的最优编码对真实分布为 p p p的信息进行编码,其平均编码长度 H ( p , q ) H(p,q) H(p,q) p p p的最优平均编码长度 H ( p ) H(p) H(p)之间的差异。对于离散概率分布 p p p q q q,从 q q q p p p 的KL散度定义为
在这里插入图片描述
KL散度可以是衡量两个概率分布之间的距离。KL散度总是非负的, D K L ( p ∥ q ) ≥ 0 D_{KL}(p∥q)≥ 0 DKL(pq)0。只有当 p = q p = q p=q时, D K L ( p ∥ q ) = 0 D_{KL}(p∥q)=0 DKL(pq)=0。如果两个分布越接近,KL散度越小;如果 两个分布越远,KL散度就越大。但KL散度并不是一个真正的度量或距离,一 是KL散度不满足距离的对称性,二是KL散度不满足距离的三角不等式性质。

5.3.3 JS散度

JS散度(Jensen–Shannon Divergence)是一种对称的衡量两个分布相似度 的度量方式,定义为
在这里插入图片描述
JS散度是KL散度一种改进。但两种散度有存在一个问题,即如果两个分布 p , q p,q p,q个分布没有重叠或者重叠非常少时,KL散度和JS散度都很难衡量两个分布的距离。

5.3.4 Wasserstein距离

Wasserstein距离(Wasserstein Distance)也是用于衡量两个分布之间的距离。对于两个分布 q 1 , q 2 q_1,q_2 q1,q2 p t h − W a s s e r s t e i n p^{th}-Wasserstein pthWasserstein距离定义为
在这里插入图片描述
其中 Γ ( q 1 , q 2 ) Γ(q1,q2) Γ(q1,q2)是边际分布为 q 1 q_1 q1 q 2 q_2 q2的所有可能的联合分布集合, d ( x , y ) d(x,y) d(x,y) x x x y y y的距离,比如 l p l_p lp 距离等。
如果将两个分布看作是两个土堆,联合分布 γ ( x , y ) γ(x,y) γ(x,y)看作是从土堆 q 1 q_1 q1的位置 x到土堆 q 2 q_2 q2 的位置 y y y的搬运土的数量,并有
在这里插入图片描述
E ( x , y ) ∼ γ ( x , y ) [ d ( x , y ) p ] E_{(x,y)∼γ(x,y)}[d(x,y)^p] E(x,y)γ(x,y)[d(x,y)p]可以理解为在联合分布 γ ( x , y ) γ(x,y) γ(x,y)下把形状为 q 1 q_1 q1 的土堆搬运到形状为 q 2 q_2 q2 的土堆所需的工作量,
在这里插入图片描述
其中从土堆 q 1 q_1 q1 中的点 x x x到土堆 q 2 q_2 q2 中的点 y y y的移动土的数量和距离分别为 γ ( x , y ) γ(x,y) γ(x,y) d ( x , y ) p d(x,y)^p d(x,y)p。因此,Wasserstein距离可以理解为搬运土堆的最小工作量,也称为推土机距离(Earth-Mover’s Distance,EMD)。图E.1给出了两个离散变量分布的Wasserstein距离示例。图E.1c中同颜色方块表示在分布 q 1 q_1 q1 中为相同位置。
在这里插入图片描述
Wasserstein距离相比KL散度和JS散度的优势在于:即使两个分布没有重 叠或者重叠非常少,Wasserstein距离仍然能反映两个分布的远近。
对于 R n R^n Rn 空间中的两个高斯分布 p = N ( µ 1 , Σ 1 ) p = N(µ_1,Σ_1) p=N(µ1,Σ1) q = N ( µ 2 , Σ 2 ) q = N(µ_2,Σ_2) q=N(µ2,Σ2),它们的 2 n d − W a s s e r s t e i n 2^{nd}-Wasserstein 2ndWasserstein距离为
在这里插入图片描述
当两个分布的的方差为0时, 2 n d − W a s s e r s t e i n 2^{nd}-Wasserstein 2ndWasserstein距离等价与欧氏距离。

本文的大部分内容来自邱锡鹏教授的《神经网络与深度学习》一书
在未来深入学习机器学习的过程中,本人会对其进行更新补充,更新信息将发布在微信公众号(二进制人工智能)上。

在这里插入图片描述


本文链接: http://www.dtmao.cc/news_show_200276.shtml

附件下载

相关教程

    暂无相关的数据...

共有条评论 网友评论

验证码: 看不清楚?