Haoran Liao | 廖浩然

Back

数学常识#

概率论#

条件概率#

条件概率是指在已知某一事件发生的条件下,另一个事件发生的概率。形式化定义为:

P(AB)=P(AB)P(B),P(B)>0P(A | B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) > 0

全概率公式#

全概率公式用于计算一个事件的概率,该事件可以通过多个互斥事件的并集来表示。形式化定义为:

P(A)=iP(ABi)P(Bi)P(A) = \sum_{i} P(A | B_{i}) P(B_{i})

其中,BiB_i 是一组互斥且完备的事件。

贝叶斯公式#

贝叶斯公式用于更新事件的概率,基于新的信息。形式化定义为:

P(AB)=P(BA)P(A)P(B),P(B)>0P(A | B) = \frac{P(B | A) P(A)}{P(B)}, \quad P(B) > 0

概率分布和概率密度#

离散随机变量#

离散随机变量的概率分布函数(Probability Mass Function, PMF)定义为:

P(X=x)=pX(x)P(X = x) = p_X(x)

连续随机变量#

连续随机变量的概率密度函数(Probability Density Function, PDF)定义为:

fX(x)=ddxP(Xx)f_X(x) = \frac{d}{dx} P(X \leq x)

这个定义是需要熟悉的,有些时候往往会通过算一个极限来求出 PDF。

fX(x)=limΔx0P(xX<x+Δx)Δxf_X(x) = \lim_{\Delta x \to 0} \frac{P(x \leq X < x + \Delta x)}{\Delta x}

这在实际计算中经常用到。

累积分布函数#

累积分布函数(Cumulative Distribution Function, CDF)定义为:

FX(x)=P(Xx)F_X(x) = P(X \leq x)

联合分布#

对于多个随机变量的联合分布,定义为:

P(X1=x1,X2=x2,,Xn=xn)=pX1,X2,,Xn(x1,x2,,xn)P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = p_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n)

对于连续随机变量的联合分布,定义为:

P(X1x1,X2x2,,Xnxn)=FX1,X2,,Xn(x1,x2,,xn)P(X_1 \leq x_1, X_2 \leq x_2, \ldots, X_n \leq x_n) = F_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n)

概率密度函数为:

fX1,X2,,Xn(x1,x2,,xn)=nx1x2xnFX1,X2,,Xn(x1,x2,,xn)f_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n) = \frac{\partial^n}{\partial x_1 \partial x_2 \cdots \partial x_n} F_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n)

如果 X1,X2,,XnX_1, X_2, \ldots, X_n 是独立的,则有:

P(X1=x1,X2=x2,,Xn=xn)=P(X1=x1)P(X2=x2)P(Xn=xn)P(X_1 = x_1, X_2 = x_2, \ldots, X_n = x_n) = P(X_1 = x_1) P(X_2 = x_2) \cdots P(X_n = x_n)

概率密度上也有

fX1,X2,,Xn(x1,x2,,xn)=fX1(x1)fX2(x2)fXn(xn)f_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n) = f_{X_1}(x_1) f_{X_2}(x_2) \cdots f_{X_n}(x_n)

当然联合分布也有

FX1,X2,,Xn(x1,x2,,xn)=FX1(x1)FX2(x2)FXn(xn)F_{X_1, X_2, \ldots, X_n}(x_1, x_2, \ldots, x_n) = F_{X_1}(x_1) F_{X_2}(x_2) \cdots F_{X_n}(x_n)

随机变量函数的分布#

对于随机变量 XX 和函数 Y=g(X)Y=g(X),其分布可以通过以下方式计算:

比如 Z=X+YZ=X+Y,我们用 ZZXX 来表示 YY,则有:

Y=ZXY = Z - X

然后我们可以通过联合分布来计算:

fX+Y(x,y)=+f(x,zx)=+fX(x)fY(zx)dxf_{X+Y}(x, y) = \int_{-\infty}^{+\infty} f(x, z-x) =\int_{-\infty}^{+\infty} f_X(x) f_Y(z - x) \, dx

数字特征#

期望#

期望(Expectation)是随机变量的加权平均值,定义为:

对于离散随机变量:

E[X]=xxP(X=x)\mathbb{E}[X] = \sum_{x} x P(X = x)

对于连续随机变量:

E[X]=+xfX(x)dx\mathbb{E}[X] = \int_{-\infty}^{+\infty} x f_X(x) \, dx

对于高纬度随机变量,可以使用多重积分:

E[X]=++x1x2fX(x1,x2,)dx1dx2\mathbb{E}[X] = \int_{-\infty}^{+\infty} \cdots\int_{-\infty}^{+\infty} x_1 x_2 \cdots f_X(x_1, x_2, \ldots) \, dx_1 \, dx_2 \cdots
性质#
  1. 线性性质:对于常数 aabb,有 E[aX+b]=aE[X]+b\mathbb{E}[aX + b] = a\mathbb{E}[X] + b。(对任意随机变量 XX 和常数 a,ba, b 成立)
  2. 独立性:如果 XXYY 独立,则 E[XY]=E[X]E[Y]\mathbb{E}[XY] = \mathbb{E}[X]\mathbb{E}[Y]
全期望公式#

对于随机变量 XX 和条件 YY,全期望公式为:

E[X]=E[E[XY]]\mathbb{E}[X] = \mathbb{E}[\mathbb{E}[X | Y]]

内层的 E[XY]\mathbb{E}[X | Y] 是在条件 YY 下对 XX 的期望,而外层的 E\mathbb{E} 是对 YY 的期望。相当于对 YY 的所有可能值进行枚举,然后加权平均。

方差#

方差(Variance)是随机变量与其期望之间的偏离程度,定义为:

Var(X)=E[(XE[X])2]=E[X2](E[X])2\mathrm{Var}(X) = \mathbb{E}[(X - \mathbb{E}[X])^2] = \mathbb{E}[X^2] - (\mathbb{E}[X])^2

协方差#

协方差(Covariance)是两个随机变量之间的线性关系,定义为:

COV(X,Y)=E[(XE[X])(YE[Y])]=E[XY]E[X]E[Y]COV(X, Y) = \mathbb{E}[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y]

其实方差是协方差的特例,即 COV(X,X)=Var(X)COV(X, X) = \mathrm{Var}(X)

他们与期望有着密切的关系:

记忆:协方差=乘积的期望 - 期望的乘积

协方差矩阵#

对于多维随机变量 X=(X1,X2,,Xn)\mathbf{X} = (X_1, X_2, \ldots, X_n),协方差矩阵定义为:

Σ=(Var(X1)COV(X1,X2)COV(X1,Xn)COV(X2,X1)Var(X2)COV(X2,Xn)COV(Xn,X1)COV(Xn,X2)Var(Xn))\Sigma = \begin{pmatrix} \mathrm{Var}(X_1) & COV(X_1, X_2) & \cdots & COV(X_1, X_n) \\ COV(X_2, X_1) & \mathrm{Var}(X_2) & \cdots & COV(X_2, X_n) \\ \vdots & \vdots & \ddots & \vdots \\ COV(X_n, X_1) & COV(X_n, X_2) & \cdots & \mathrm{Var}(X_n) \end{pmatrix}

这在高维高斯过程中非常重要。

自相关函数#

随机过程的自相关函数定义为

RX(t1,t2)=E[X(t1)X(t2)]R_X(t_1, t_2) = \mathbb{E}[X(t_1) X(t_2)]

协方差函数#

随机过程的协方差函数定义为

CX(t1,t2)=E[(X(t1)E[X(t1)])(X(t2)E[X(t2)])]C_X(t_1, t_2) = \mathbb{E}[(X(t_1) - \mathbb{E}[X(t_1)])(X(t_2) - \mathbb{E}[X(t_2)])]

平稳性#

宽平稳#

定义:

X(t)X (t) 对于任意的 t1,t2t_1, t_2,都有

E[X(t1)]=E[X(t2)]\mathbb{E}[X(t_1)] = \mathbb{E}[X(t_2)]

RX(t1,t2)=RX(t1+τ,t2+τ)R_X(t_1, t_2) = R_X(t_1 + \tau, t_2 + \tau)

即自相关函数只与时间差 τ=t2t1\tau = t_2 - t_1 有关。即

RX(t1,t2)=RX(τ)=RX(t2t1))R_X(t_1, t_2) = R_X(\tau) = R_X(t_2 - t_1))

也就是说,要证明是宽平稳的,只需要证明自相关函数只与时间差 τ\tau 有关。

严平稳#

定义:

X(t)X(t) 对于任意的 t1,t2t_1, t_2,都有

FX(t1),X(t2)(x1,x2)=FX(t1+τ),X(t2+τ)(x1,x2)F_{X(t_1), X(t_2)}(x_1, x_2) = F_{X(t_1 + \tau), X(t_2 + \tau)}(x_1, x_2)

即联合分布函数不随时间平移而改变。

母函数#

定义:#

XX 是取值为非负整数的随机变量,已知 P(X=k)=pkP(X = k) = p_k 是对应的概率,则称一个 XX 型如

GX(s)=E[sX]=k=0pkskG_X(s) = \mathbb{E}[s^X] = \sum_{k=0}^{\infty} p_k s^k

的函数为概率母函数(Probability Generating Function)

也有别名加生成函数和形式级数。

性质#

已知随机变量 XX 的概率母函数为:

GX(s)=E[sX]=k=0pkskG_X(s) = \mathbb{E}[s^X] = \sum_{k=0}^{\infty} p_k s^k

则有以下性质:

  1. 归一性
GX(1)=1 G_X(1) = 1
  1. 期望公式
E[X]=GX(1) \mathbb{E}[X] = G_X'(1)
  1. 方差公式
Var(X)=GX(1)+GX(1)(1GX(1)) \mathrm{Var}(X) = G_X''(1) + G_X'(1)\left(1 - G_X'(1)\right)

概率母函数的性质:计算两个离散随机变量和的分布

概率母函数除了描述单个随机变量的分布外,还有一个非常有用的性质 —— 可用于计算两个独立离散随机变量之和的分布

定理:

X1X_1X2X_2 是两个相互独立的、取非负整数值的随机变量,分别具有概率母函数:

GX1(t)=E[tX1],GX2(t)=E[tX2]G_{X_1}(t) = \mathbb{E}[t^{X_1}], \quad G_{X_2}(t) = \mathbb{E}[t^{X_2}]

则它们之和 X=X1+X2X = X_1 + X_2 的概率母函数为:

GX(t)=GX1+X2(t)=GX1(t)GX2(t)G_X(t) = G_{X_1 + X_2}(t) = G_{X_1}(t) \cdot G_{X_2}(t)

也就是说:独立随机变量的和的概率母函数,等于各自概率母函数的乘积。

特征函数#

定义#

特征函数(Characteristic Function)是随机变量分布的一个重要工具,定义为:

ϕX(ω)=E[ejωX]=ejωxfX(x)dx\phi_X(\omega) = \mathbb{E}[e^{j\omega X}] = \int_{-\infty}^{\infty} e^{j\omega x} f_X(x) \, dx

其中,jj 是虚数单位,ω\omega 是频率变量。

其实就是对随机变量 XX 的概率密度函数 fX(x)f_X(x) 进行傅里叶逆变换。

性质#

  1. 特征函数与概率分布一一对应
  2. X1,X2...XnX_1, X_2 ... X_n 相互独立,则它们的特征函数满足
ϕX1+X2+...+Xn(ω)=ϕX1(ω)ϕX2(ω)ϕXn(ω) \phi_{X_1 + X_2 + ... + X_n}(\omega) = \phi_{X_1}(\omega) \cdot \phi_{X_2}(\omega) \cdots \phi_{X_n}(\omega)

高数#

Gamma 积分公式#

📌 定义(欧拉积分形式)#

对于复数 ( z ),实部大于 0:

Γ(z)=0tz1etdtRe(z)>0\Gamma(z) = \int_0^{\infty} t^{z-1} e^{-t} \, dt \quad \text{Re}(z) > 0

注意,很多时候去凑形式的时候,往往忘记了 tz1t^{z-1} 中的 tt 也要凑。

🎯 特殊值#

  • z=nN+z = n \in \mathbb{N}^+ 时:
Γ(n)=(n1)!\Gamma(n) = (n - 1)!
  • 例子:
Γ(1)=0!=1,Γ(2)=1!=1,Γ(3)=2!=2\Gamma(1) = 0! = 1, \quad \Gamma(2) = 1! = 1, \quad \Gamma(3) = 2! = 2
  • 特别地:
Γ(12)=π\Gamma\left(\frac{1}{2}\right) = \sqrt{\pi}

🔁 变形与代换形式#

  • 代换 t=x2t = x^2,可以得到:
Γ(12)=0x1/2exdx=π\Gamma\left(\frac{1}{2}\right) = \int_0^{\infty} x^{-1/2} e^{-x} \, dx = \sqrt{\pi}
🔗 与 Beta 函数关系#

Beta 函数定义为:

B(x,y)=01tx1(1t)y1dtB(x, y) = \int_0^1 t^{x-1}(1 - t)^{y - 1} \, dt

与 Gamma 函数的关系:

B(x,y)=Γ(x)Γ(y)Γ(x+y)B(x, y) = \frac{\Gamma(x)\Gamma(y)}{\Gamma(x + y)}
📉 斯特林近似(当 ( z \to \infty ) 时)#
Γ(z)2πzz12ez\Gamma(z) \approx \sqrt{2\pi} \, z^{z - \frac{1}{2}} e^{-z}

高斯积分#

高斯积分(Gaussian Integral)#

1. 基本高斯积分#

最基础的高斯积分形式为:

+ex2dx=π\int_{-\infty}^{+\infty} e^{-x^2} \, dx = \sqrt{\pi}
2. 带参数的高斯积分#

对于带参数的高斯积分:

+eax2dx=πa,a>0\int_{-\infty}^{+\infty} e^{-a x^2} \, dx = \sqrt{\frac{\pi}{a}}, \quad a > 0
3. 奇函数高斯积分#

对于奇函数乘以高斯函数的积分:

kk 为奇数时:

+xkex2dx=0\int_{-\infty}^{+\infty} x^k e^{-x^2} \, dx = 0
4. 偶函数高斯积分#

对于偶函数乘以高斯函数的积分:

+x2nex2dx=(2n1)!!2nπ,nN\int_{-\infty}^{+\infty} x^{2n} e^{-x^2} \, dx = \frac{(2n-1)!!}{2^n} \sqrt{\pi}, \quad n \in \mathbb{N}

平方展开式#

对于任意 a1,a2,,ana_1, a_2, \dots, a_n,平方和的展开公式为:

(k=1nak)2=k=1nak2+21k<lnakal.\left(\sum_{k=1}^n a_k\right)^2 = \sum_{k=1}^n a_k^2 + 2 \sum_{1 \leq k < l \leq n} a_k a_l.

线性代数#

特征值和特征向量#

AA 是一个 n×nn \times n 的矩阵,λ\lambda 是一个标量,vv 是一个非零向量。如果满足以下方程:

Av=λvA v = \lambda v

则称 λ\lambda 是矩阵 AA 的特征值,vv 是对应的特征向量。

具体如何计算呢#

特征值和特征向量的计算可以通过求解以下特征方程来完成:

det(λIA)=0\text{det}(\lambda I - A) = 0

其中 II 是单位矩阵,det\text{det} 表示行列式。特征值 λ\lambda 的求解就是求解这个方程的根。

解关于 λ\lambda 的多项式方程后,可以得到特征值 λ1,λ2,,λn\lambda_1, \lambda_2, \ldots, \lambda_n

对应的特征向量可以通过将特征值代入以下方程求解:

(AλiI)v=0(A - \lambda_i I)v = 0

这个方程一定是线性相关的,求到最后用某一个 xx 来表示其他的 xx,然后就可以得到特征向量。

对角化#

一个矩阵 AA 可以被对角化,如果存在一个可逆矩阵 PP 和一个对角矩阵 DD,使得:

A=PDP1A = P D P^{-1}

其中 DD 的对角线元素是 AA 的特征值。

对角化的过程通常包括以下步骤:

  1. 计算特征值:求解特征方程 det(λIA)=0\text{det}(\lambda I - A) = 0
  2. 计算特征向量:对于每个特征值 λi\lambda_i,求解方程 (AλiI)v=0(A - \lambda_i I)v = 0
  3. 构造矩阵 PPDD:将特征向量按列排列形成矩阵 PP,将特征值按对角线排列形成对角矩阵 DD

对角化的好处在于可以简化矩阵的运算,特别是在计算矩阵的幂或指数时。

对称#

一个矩阵 AA 是对称的,如果它等于它的转置,即:

A=ATA = A^T

对称矩阵具有以下性质:

  1. 实特征值:所有特征值都是实数。
  2. 正交特征向量:对应不同特征值的特征向量是正交的。
  3. 可对角化:对称矩阵总是可以被对角化,且可以通过正交矩阵对角化。

正交对角化#

对于对称矩阵 AA,一定可以找到一个正交矩阵 QQ 和一个对角矩阵 DD,使得:

A=QDQTA = Q D Q^T

其中 DD 的对角线元素是 AA 的特征值,QQ 的列向量是 AA 的正交特征向量。

与一般的对角化不同,我们这里多一步,对特征向量做正交归一化

随机过程#

定义#

你现在知道 随机变量(random variable) 是啥了,它表示一个“值不确定”的量,比如投一次骰子,结果是个离散随机变量;温度计测一次温度,是个连续随机变量。

但这些都是一次性的不确定

随机过程(stochastic process) = 多次 + 时变 + 不确定

换句话说,随机过程就是一组随时间变化的随机变量序列。你把时间引入随机变量,就是随机过程。

离散时间马尔科夫链#

定义#

设有可数样本空间的 S\mathcal{S},如果随机过程 {Xn}n=0\{X_n\}_{n=0}^{\infty} 满足:

P(Xn+1=in+1Xn=in,Xn1=in1,,X0=i0)=P(Xn+1=in+1Xn=in)P(X_{n+1} = i_{n+1} | X_n = i_n, X_{n-1} = i_{n-1}, \ldots, X_0 = i_0) = P(X_{n+1} = i_{n+1} | X_n = i_n)

对任意的 n0n \geq 0,则称 {Xn}n=0\{X_n\}_{n=0}^{\infty} 是一个离散时间马尔科夫链(DTMC)。

定义告诉我们,马尔科夫链的未来状态只与当前状态有关,而与过去的状态无关。这种性质称为无后效性(Markov property)。

状态转移概率#

对于马尔科夫链 XnX_nnn 步转移概率定义为:

P(Xk+n=jXk=i)=Pij(n)P(X_{k+n} = j | X_k = i) = P_{ij}^{(n)}

得到一个矩阵 P(n)P^{(n)}

在我们的课程中,认为转移概率不依赖于 kk ,因此是齐次的

特别地当 n=1n=1 时,称为一步转移概率

Pij=P(Xk+1=jXk=i)P_{ij} = P(X_{k+1} = j | X_k = i)

C-K 方程#

C-K 方程(Chapman-Kolmogorov 方程)是描述马尔科夫链状态转移的基本方程。它表明从状态 ii 到状态 jjnn 步转移概率可以通过中间状态的转移概率来计算:

Pij(n+m)=kPik(n)Pkj(m)P_{ij}^{(n + m)} = \sum_{k} P_{ik}^{(n)} P_{kj}^{(m)}

矩阵形式为

P(n+m)=P(n)P(m)P^{(n + m)} = P^{(n)} P^{(m)}

这意味着,nn 步转移矩阵可以通过一步转移矩阵的乘积来计算。

P(n)=PnP^{(n)} = P^n

有括号表示 nn 步转移概率矩阵,没有括号表示 nn 次矩阵乘积。

这里通常会用到矩阵的幂运算,即将转移矩阵 PP 自身乘以 nn 次。为了简化计算,我们可以使用矩阵的特征分解或对角化方法。

表示方法#

转移矩阵法#

对于马尔科夫链 {Xn}n=0\{X_n\}_{n=0}^{\infty},可以用转移矩阵 PP 来表示状态转移概率:

P=(p00p01p0np10p11p1npn0pn1pnn)P = \begin{pmatrix} p_{00} & p_{01} & \cdots & p_{0n} \\ p_{10} & p_{11} & \cdots & p_{1n} \\ \vdots & \vdots & \ddots & \vdots \\ p_{n0} & p_{n1} & \cdots & p_{nn} \end{pmatrix}

其中 PijP_{ij} 表示从状态 ii 到状态 jj 的一步转移概率。

状态转移图#

状态转移图是马尔科夫链的图形表示方法,其中每个状态用节点表示,转移概率用有向边表示。边上的权重表示从一个状态到另一个状态的转移概率。

递推函数#

Xn+1=f(Xn,Zn+1)X_{n+1} = f(X_n, Z_{n+1})

其中 ZkZ_k 是一个随机变量序列,只需要满足下列条件之一:

  1. ZkZ_k 独立同分布,且与 X0X_0 独立
  2. ZkZ_k 同分布,且给定 XnX_n 的条件下,ZkZ_k 独立于 X0X_0

这是我们==最常用到的证明方法==,特别是当状态空间有限时。

状态分类#

可达性#

状态 jj 从状态 ii 可达,当且仅当存在一个正整数 nn,使得 Pij(n)>0P_{ij}^{(n)} > 0。这意味着从状态 ii 可以通过若干步转移到达状态 jj

传递性#

状态 ii 是传递的,若 ij,jki \rightarrow j, j\rightarrow k,则 iki \rightarrow k。即如果从状态 ii 可以到达状态 jj,并且从状态 jj 可以到达状态 kk,则从状态 ii 也可以到达状态 kk

相通性#

状态 ii 和状态 jj 是相通的,当且仅当 iji \rightarrow jjij \rightarrow i。这意味着从状态 ii 可以到达状态 jj,并且从状态 jj 也可以到达状态 ii

相同是一种等价关系!因此,==等价类具有相同的类性质==。这是很有用的,意味着当我们==确定了一个状态的性质后,可以直接推广到整个等价类==。

闭集#

状态集合 CC 是闭集,当且仅当对于任意的状态 iCi \in CjCj \notin C,都有 Pij=0P_{ij} = 0。这意味着从闭集中的状态无法转移到闭集外的状态,是一种”进得去,出不来”的吸收态。

不可约性#

如果闭集 CC 没有闭的真子集,则称 CC 是不可约的。(CC 中任意两状态都相通)

一个马尔科夫链是 不可约的,如果从任意状态 i 出发,经过有限步转移后能以 正概率 到达任意其他状态 j 如果链是 可约的(Reducible),则存在某些状态子集,一旦进入就无法离开

可以想象成韦恩图

周期性#

状态 ii 的周期 did_i 定义为:

di=gcd{n:Pii(n)>0}d_i = \gcd\{n : P_{ii}^{(n)} > 0\}

讲人话,即状态 ii 回到自身的步数的最大公约数。 如果 di=1d_i = 1,则称状态 ii非周期的(aperiodic);如果 di>1d_i > 1,则称状态 ii周期的(periodic)。

判断周期性,画图即可

如果两个状态 iijj 相通,则它们的周期相同,即 di=djd_i = d_j

其实先前提到过,如果两个状态是相通的,那么他们属于同一个类,共享类性质,周期当然相同。

长时间特性#

人们往往关注马尔科夫链长时间后的统计特性,比如哪些状态会被频繁访问,哪些状态会被忽略。为了描述这种长期行为,我们引入了常返性(recurrence)和瞬时性(transience)的概念。

首达概率#

状态 jj 从状态 ii 经过 nn 步的首达概率定义为:

fij(n)=P(Xn=j,Xn1j,,X1jX0=i)f_{ij}^{(n)} = P(X_n = j, X_{n-1} \neq j, \ldots, X_1 \neq j | X_0 = i)

通常这个概率可以通过状态转移图,然后一个个去计算。然后得到规律,即得到 nn 的一般表达式。

常返性与瞬时性#

如果

fii=n=1fij(n)=1f_{ii}=\sum_{n=1}^{\infty} f_{ij}^{(n)} = 1

那么状态 ii常返的(recurrent),否则是瞬时的(transient)。

另外的判断定理

n=0+pii(n)=11fii\sum_{n=0}^{+\infty} p_{ii}^{(n)}=\frac{1}{1-f_{ii}}

如果

n=1pii(n)=\sum_{n=1}^{\infty} p_{ii}^{(n)} = \infty

则状态 ii 是常返的;如果

n=1pii(n)<\sum_{n=1}^{\infty} p_{ii}^{(n)} < \infty

则状态 ii 是瞬时的。

直观理解

  • 常返状态:像一个“黑洞”,一旦进入,就会无限次返回(如随机游走在一维整数格点上的原点)。

  • 非常返状态:像一个“临时站点”,最终可能会被抛弃(如随机游走在三维空间中的点,几乎不会返回原点)。

首达时间#

对于常返状态,我们可以定义他的首达时间。

常返态 ii 的首达时间定义为:

Ti=min{n1:Xn=iX0=i}T_i = \min\{n \geq 1 : X_n = i | X_0 = i\}

根据首达时间,可以定义平均首达时间:

μi=E[Ti]=n=1nfii(n)\mu_i = E[T_i] = \sum_{n=1}^{\infty} n f_{ii}^{(n)}

如果 μi<\mu_i < \infty,则称状态 ii正常返的(positive recurrent),否则是零返的(null recurrent)。

如何理解呢?

  • 正常返状态:平均返回时间是有限的,意味着状态会被频繁访问 (会回来,而且回来得比较勤快)
    • 典型例子:有限状态不可约马尔科夫链的所有状态(如天气预报模型中的“晴天”“雨天”)
  • 零返状态:平均返回时间是无限的,意味着状态会被稀疏访问 (会回来,但可能要等很久很久)
    • 典型例子:一维对称随机游走(醉汉左右晃悠,最终会回家,但平均等待时间无限)
推论:常返性对转移概率极限的影响#

对于瞬时态和零常返态,有

limnpii(n)=0\lim_{n \to \infty} p_{ii}^{(n)} = 0

对于非周期正返态,有

limnpii(n)=fiiμi\lim_{n \to \infty} p_{ii}^{(n)} = \frac{f_{ii}}{\mu_i}

其中 μi\mu_i 是状态 ii 的平均返回时间。

常返态存在定理#

  1. 对于有限状态马尔科夫链,一定存在正常返态。
  2. 对于不可约的马尔科夫链,所有状态都是正常返的。

这个定理告诉我们,各状态的常返性可以一眼看出! 只需要判断是否有限状态或不可约即可。对找到的不可约状态,直接认为是正常返的。 别 tm 再去死算计算首达概率了!

极限行为与平稳分布#

这里考虑的问题是,当马尔科夫链运行足够长时间后,状态分布是否会趋向于某个稳定的分布,极限是否存在,如果存在,如何求解。

极限分布#

如果存在一个概率分布 π\pi,使得对于任意状态 ii,都有:

limnP(Xn=i)=pi\lim_{n \to \infty} P(X_n = i) = p_i

则称 π\pi 是马尔科夫链的极限分布(stationary distribution)。

P(Xn=j))=ipij(n)P(X0=i)P(X_n=j)) = \sum_{i} p_{ij}^{(n)} P(X_0=i)

可以知道:

极限分布依赖于初始分布 P(X0=i)P(X_0=i) 和转移概率 pij(n)p_{ij}^{(n)}

由[[

##推论:常返性对转移概率极限的影响]]可知,当是非常返态或者零常返态的,极限分布概率为 0,所以马尔科夫链最终形态由正常返态决定。

可约->有正常返的->极限随初值 周期->极限可能不存在

平稳分布#

如果存在一个概率分布 π=(p1,p2,,pn)\pi=(p_1, p_2, \ldots, p_n),满足平衡方程

π=πP\pi = \pi P

则称 π\pi 是马尔科夫链的平稳分布(stationary distribution)。

平稳分布是马尔科夫链长期行为的一个重要特征,它描述了在长时间运行后,状态分布的稳定性。

通常列出平衡方程之后,还需要加上 πi=1\sum \pi_i=1 来确保 π\pi 是一个概率分布。

注意:

  1. 有时候极限尽管不存在,但仍然可以找到平稳分布。
  2. 平稳分布和极限存在没有必然联系
  3. 平稳分布不一定是唯一的,可能存在多个平稳分布。

平稳分布存在定理#

存在的充要条件是链中存在正常返态

存在且唯一的充要条件是链中存在唯一的不可约正常返子集

泊松过程#

定义#

随机过程 N(t)N(t) 表示时间段 [0,t][0, t] 内发生事件数目的总和,则称其为计数过程。

把满足下面的条件的计数过程称为标准泊松过程:

  1. N(0)=0N(0) = 0,即在时间 00 时刻没有发生事件。
  2. 平稳增量性,对于任意的 0s<t0 \leq s < t,事件发生的次数 N(t)N(s)N(t) - N(s) 只与时间间隔 tst - s 有关
  3. 独立增量性,对于任意的 0s<t0 \leq s < t,事件发生的次数 N(t)N(s)N(t) - N(s)N(s)N(s) 独立。
  4. 微元时间内发生多于一个事件的概率是刚好发生一次的概率的无穷小量。

对于某类题,要你证明是泊松过程,严格按照定义,证明每一个条件

概率分布#

P(N(t)=k)=(λt)keλtk!,k=0,1,2,P(N(t)=k) = \frac{(\lambda t)^k e^{-\lambda t}}{k!}, \quad k = 0, 1, 2, \dots

λ\lambda 的含义#

λ\lambda 是单位时间内事件发生的平均次数,称为到达率(arrival rate)。它描述了事件发生的频率。

λ=limt0N(t)t\lambda = \lim_{t \to 0} \frac{N(t)}{t}

期望和方差#

其期望和方差分别为:

E[N(t)]=Var[N(t)]=λtE[N(t)] = Var[N(t)] = \lambda t

母函数#

泊松过程的母函数(生成函数)为:

M(t)=E[etN(t)]=eλt(et1)M(t) = E[e^{tN(t)}] = e^{\lambda t(e^t - 1)}

性质#

联合分布#

为了求解泊松过程的联合分布,我们可以利用泊松过程的平稳增量性和独立增量性

N(t)N(t) 是强度为 λ\lambda 的泊松过程,则对于任意的 0t1<t2<<tn0 \leq t_1 < t_2 < \cdots < t_n0k1,k2,,kn0 \leq k_1, k_2, \ldots, k_n,有:

P(N(t1)=k1,N(t2)=k2,,N(tn)=kn)=i=1nP(N(ti)N(ti1)=kiki1)P(N(t_1) = k_1, N(t_2) = k_2, \ldots, N(t_n) = k_n) = \prod_{i=1}^n P(N(t_i) - N(t_{i-1}) = k_i - k_{i-1})

条件分布#

N(t)N(t) 是强度为 λ\lambda 的泊松过程,0s<t0 \leq s < t,则有:

P(N(t)=mN(s)=k)=λmk(ts)mkeλ(ts)(mk)!P(N(t) = m | N(s) = k) = \frac{\lambda^{m-k} (t-s)^{m-k} e^{-\lambda(t-s)}}{(m-k)!}

这说明在已知 N(s)=mN(s) = m 的条件下,N(t)N(s)N(t) - N(s) 仍然服从泊松分布,实际上就是 N(ts)N(t-s)

到达时刻#

概率密度#

对于强度为 λ\lambda 的泊松过程,设 SnS_n 是第 nn 次到达的时刻服从于 Gamma 分布,概率密度为:

fSn(t)=λeλt(λt)n1(n1)!,t0f_{S_n}(t) = \lambda e^{-\lambda t} \frac{(\lambda t)^{n-1}}{(n-1)!}, \quad t \geq 0

证明:用微元法,第 nn 次到达时刻 SnS_n 可以看作是前 n1n-1 次到达时刻 Sn1S_{n-1} 加上一个独立的指数分布随机变量 XnX_n,即:

fSn=limΔt0P(tSnt+Δt)Δt=limΔt0P(N(t)=n1)P(N(t+Δt)N(t)=1)Δt=eλt(λt)n1(n1)!λf_{S_n}=\lim_{\Delta t \to 0} \frac{P(t \le S_n \le t + \Delta t)}{\Delta t}= \lim_{\Delta t \to 0}\frac{P(N(t)=n - 1)P(N(t+\Delta t) - N(t) = 1)}{\Delta t} = e^{-\lambda t} \frac{(\lambda t)^{n-1}}{(n-1)!}\lambda

联合密度#

任意 nn 次事件的到达时刻的联合概率密度为

fS1Sn(t1,t2,,tn)=λneλtnf_{S_1 \ldots S_n}(t_1, t_2, \ldots, t_n) = \lambda^ne^{-\lambda t_n}

证明思路同上面微元法,这里不给了

条件密度#

已知 [0,t][0, t] 内发生了 nn 次事件,设 S1,S2,,SnS_1, S_2, \ldots, S_n 是这些事件的到达时刻,则它们的条件密度为

fS1,S2,,SnN(t)=n(t1,t2,,tn)=n!tn,0t1<t2<<tntf_{S_1, S_2, \ldots, S_n | N(t) = n}(t_1, t_2, \ldots, t_n) = \frac{n!}{t^n}, \quad 0 \leq t_1 < t_2 < \cdots < t_n \leq t

事件间隔#

对于强度为 λ\lambda 的泊松过程,事件间隔 SnS_n 服从指数分布,概率密度为:

fSn(t)=λeλt,t0f_{S_n}(t) = \lambda e^{-\lambda t}, \quad t \geq 0

指数分布具有无记忆性。这意味着泊松过程的事件间隔(注意不是到达时刻)是独立的,并且每个间隔的分布不受前一个间隔的影响。从任意一个时间点开始重新观察,得到的新过程在概率意义上与原过程相同。

可加性#

两个泊松过程 N1(t)N_1(t)N2(t)N_2(t) 的事件间隔之和仍然服从泊松分布,且参数为 λ1+λ2\lambda_1 + \lambda_2。即:

P(N1(t)+N2(t)=k)=(λ1t+λ2t)ke(λ1+λ2)tk!,k=0,1,2,P(N_1(t) + N_2(t) = k) = \frac{(\lambda_1 t + \lambda_2 t)^k e^{-(\lambda_1 + \lambda_2)t}}{k!}, \quad k = 0, 1, 2, \ldots

但是!做差不成立!

顺序统计量#

注意,以下定义是独立于泊松过程的概率论的知识

定义#

X1,X2,,XnX_1, X_2, \ldots, X_n 是从同一分布中独立抽取的随机变量,则它们的顺序统计量定义为:

ii 个顺序统计量 X(i)X_{(i)} 是这 nn 个随机变量中第 ii 小的值。记作 X(i)X_{(i)}

概率密度#

对于第 kk 个顺序统计量 X(k)X_{(k)},其期望为:

E[X(k)]=kn+1E[X_{(k)}] = \frac{k}{n+1}

联合分布#

对于 nn 个独立同分布的随机变量 X1,X2,,XnX_1, X_2, \ldots, X_n,它们的顺序统计量 X(1),X(2),,X(n)X_{(1)}, X_{(2)}, \ldots, X_{(n)} 的联合分布为:

fX(1),X(2),,X(n)(x1,x2,,xn)=n!fX(x1)fX(x2)fX(xn)f_{X_{(1)}, X_{(2)}, \ldots, X_{(n)}}(x_1, x_2, \ldots, x_n) = n! f_X(x_1) f_X(x_2) \cdots f_X(x_n)

其中 fX(x)f_X(x) 是单个随机变量的概率密度函数。

n!n! 是因为每个顺序统计量的排列方式有 n!n! 种可能。

与泊松过程的关系#

对于泊松过程的事件到达时刻 S1,S2,,SnS_1, S_2, \ldots, S_n,它们与 nn 个独立的 (0,t)(0,t) 上的均匀分布随机变量 U1,U2,,UnU_1, U_2, \ldots, U_n 的顺序统计量有相同的分布。

(S1,S2,,Sn)=d(U(1),U(2),,U(n))(S_1, S_2, \ldots, S_n) \overset{d}{=} (U_{(1)}, U_{(2)}, \ldots, U_{(n)})

因此有

推论#

如果 S1,S2,,SnS_1, S_2, \ldots, S_n 是泊松过程的事件到达时刻,对任意函数 g(x)g(x)

E[k=1ng(Sk)N(t)=n]=nEg(U)E[\sum_{k=1}^n g(S_k)|N(t)=n] = nEg(U)

其中 UU 是均匀分布在 (0,t)(0,t) 上的随机变量。

这一推论是很有用的,用一道例题来说明:

等待时间总和#

设乘客按照参数为 λ\lambda 的泊松过程到达机场,飞机起飞时间为 tt。求在飞机起飞前到达的乘客的等待时间总和的期望。

设在飞机起飞前到达的乘客数为 N(t)N(t),则他们的到达时刻为 S1,S2,,SN(t)S_1, S_2, \ldots, S_{N(t)}。每个乘客的等待时间为 tSit - S_i,因此到达乘客的等待时间总和为:

i=1N(t)(tSi)\sum_{i=1}^{N(t)} (t - S_i)

注意这里 N(t)N(t) 是随机变量,我们需要将他固定下来,因此要使用条件期望:

E(i=1N(t)(tSi))=EN(t)(E(i=1N(t)(tSi)N(t))) E(\sum_{i=1}^{N(t)} (t - S_i))= E_{N(t)}(E(\sum_{i=1}^{N(t)} (t - S_i)|N(t)))

利用[[

##推论]],有

E(i=1N(t)(tSi)N(t)=n)=nEU(tU)=n(tt2)=nt2E(\sum_{i=1}^{N(t)} (t - S_i)|N(t)=n) = n E_U(t - U)= n(t - \frac{t}{2}) = \frac{nt}{2}

因此带回有

E(i=1N(t)(tSi))=EN(t)(N(t)t2)=t2E(N(t))=t2λλt=λt22E(\sum_{i=1}^{N(t)} (t - S_i)) = E_{N(t)}(\frac{N(t)t}{2}) = \frac{t}{2} E(N(t)) = \frac{t}{2} \lambda \lambda t = \frac{\lambda t^2}{2}

泊松过程的拓广#

泊松过程的托管本质上就是在放松它的各种限制条件

非齐次泊松过程#

定义#

非齐次泊松过程是指到达率 λ(t)\lambda(t) 随时间变化的泊松过程。其定义与齐次泊松过程类似,但增量的分布依赖于时间。

λ(t)=limΔt0N(t+Δt)N(t)Δt\lambda(t) = \lim_{\Delta t \to 0} \frac{N(t + \Delta t) - N(t)}{\Delta t}

需要格外注意的是,这里的 λ(t)\lambda(t) 是一个确定性的函数,而不是随机变量。这一点将与后面的条件泊松过程区分开来。

概率分布#

对于非齐次泊松过程,事件在时间 [0,t][0, t] 内发生的次数 N(t)N(t) 的概率分布为:

P(N(t)=k)=[0tλ(s)ds]kk!e0tλ(s)ds,k=0,1,2,P(N(t) = k) = \frac{[\int_0^t \lambda(s) ds]^k }{k!}e^{-\int_0^t \lambda(s) ds}, \quad k = 0, 1, 2, \ldots

可以看到,只是原来的 λt\lambda t 换成了 0tλ(s)ds\int_0^t \lambda (s) ds,即在时间 [0,t][0, t] 内的总到达率。若 λ(t)\lambda(t) 是常数 λ\lambda,则退化为齐次泊松过程。

例如,在 [t1,t2][t_1, t_2] 上出现 kk 个事件的概率为:

P(N(t2)N(t1)=k)=[t1t2λ(s)ds]kk!et1t2λ(s)dsP(N(t_2)-N(t_1)=k)=\frac{[\int_{t_1}^{t_2} \lambda(s) ds]^k }{k!}e^{-\int_{t_1}^{t_2} \lambda(s) ds}

期望和方差都为

t1t2λ(t)dt\int_{t_1}^{t_2}\lambda(t)dt

其实

只需要把标准泊松过程的 λt\lambda t 换成 0tλ(s)ds\int_0^t \lambda(s) ds 即可。剩余的一样,仅仅失去平稳增量性。

复合泊松过程#

定义#

复合泊松过程是指在泊松过程的基础上,放宽了每次到达事件的数量限制。即在每个时间间隔内,可能发生多个事件,每个事件的数量服从某种分布。

所以复合的意思就是,标准泊松,每次事件数不是 1,而是另一个分布

N(t)N(t) 是泊松过程,YiY_i 是每次到达事件的数量,则复合泊松过程 Y(t)Y{(t)} 定义为:

Y(t)=i=1N(t)YiY(t) = \sum_{i=1}^{N(t)} Y_i

特征函数定理#

ϕY(t)=exp(λt[ϕY1(u)1])\phi_Y(t) = exp\left(\lambda t [\phi_{Y_1}(u) - 1] \right)

这意味着,复合泊松过程的分布由泊松过程的参数 λ\lambda 和每次到达事件数量的分布决定。

条件泊松(随机参数泊松)#

放宽独立增量性,允许到达率 λ(t)\lambda(t) 是一个随机变量,这样的泊松过程称为条件泊松过程(或随机参数泊松过程)。

定义#

条件泊松过程是指在给定某些条件下,泊松过程的到达率 λ(t)\lambda(t) 是一个随机变量。即在某些条件下,泊松过程的到达率是随机的。

概率分布#

条件泊松过程的参数 Λ\Lambda 为连续随机变量时(概率密度函数为 fΛ(λ)f_\Lambda(\lambda)),则条件泊松过程的概率分布为:

P(N(t)=k)=0P(N(t)=kΛ=λ)fΛ(λ)dλ=0[λt]keλtk!fΛ(λ)dλP(N(t) = k)=\int_0^\infty P(N(t) = k | \Lambda = \lambda) f_\Lambda(\lambda) d\lambda =\int_0^\infty \frac{[\lambda t]^k e^{-\lambda t}}{k!} f_\Lambda(\lambda) d\lambda

这其实就是个全概率公式,利用了条件泊松过程的定义。

更新过程#

定义#

与标准泊松对比,更新过程的事件间隔是独立同分布的随机变量。

概率分布#

设更新过程的事件间隔的分布为 FT(t)F_T(t),概率密度为 fT(t)f_T(t)Sn=i=1nTiS_n=\sum_{i=1}^n T_i 是第 nn 次事件发生的时间,则更新过程的概率分布为:

P(N(t)=n)=FSn(t)FSn+1(t)P(N(t) = n) = F_{S_n}(t)-F_{S_{n+1}}(t)

其中 FSn(t)F_{S_n}(t) 是第 nn 次事件发生的时间的分布函数。

这里 FSn(t)F_{S_n}(t) 可以通过卷积得到,设 Fk(t)=FSk(t)F_{k}(t) = F_{S_k}(t),则有

Fn(t)=0tfT(s)Fn1(ts)dsF_n(t) = \int_0^t f_T(s) \cdot F_{n-1}(t-s) \, ds

也就是 fT(s)f_T(s)nn 重卷积。

为了理解这个公式,我们需要==将次数转化到时间轴==上,tt 时刻发生了 nn 个事件,那么等价于 SnS_n 这个事件发生在 tt 时刻前,而 Sn+1S_{n+1} 这个事件发生在 tt 时刻后,因此 FSn(t)FSn+1(t)F_{S_n}(t)-F_{S_{n+1}}(t) 就是在 tt 时刻发生了 nn 个事件的概率。

nn 重卷积难做?那就用拉普拉斯变换转为频域上的乘法运算吧

L{FSn(t)}=L{fT(t)}n\mathcal{L}\{F_{S_n}(t)\} = \mathcal{L}\{f_T(t)\}^n

连续时间马尔科夫链#

定义#

设可数状态空间的连续时间随机过程 X(t)X(t), 对所有kNk\in \mathbb{N}, s,s1,,sk,ss, s_1, \ldots, s_k, sssks10s \ge s_k \ge \ldots \ge s_1 \ge 0 , 有

P(X(t+s)=jX(t)=i,X(t+s1)=i1,,X(t+sk)=ik)=P(X(t+s)=jX(t)=i)P(X(t+s) = j | X(t) = i, X(t+s_1) = i_1, \ldots, X(t+s_k) = i_k) = P(X(t+s) = j | X(t) = i)

则称 X(t)X(t) 为连续时间马尔科夫链。

我们所讨论的马尔科夫链都为齐次的,满足

P(X(t+s)=jX(s)=i)=P(X(t)=jX(0)=i)P(X(t+s) = j | X(s) = i) = P(X(t) = j | X(0) = i)

与离散时间马尔科夫链的区别#

区别#

  1. 离马的状态转移发生在离散的时间点上,而连马的状态转移可以发生在任意时刻。
  2. 离马的转移概率矩阵是一个固定的矩阵,而连马的转移概率矩阵是一个函数,依赖于时间。

状态转移概率#

状态转移概率矩阵 P(t)P(t) 定义为:

Pij(t)=P(X(t)=jX(0)=i)P_{ij}(t) = P(X(t) = j | X(0) = i)

矩阵形式为:

P(t)=(P00(t)P01(t)P02(t)P10(t)P11(t)P12(t)P20(t)P21(t)P22(t))P(t) = \begin{pmatrix} P_{00}(t) & P_{01}(t) & P_{02}(t) & \cdots \\ P_{10}(t) & P_{11}(t) & P_{12}(t) & \cdots \\ P_{20}(t) & P_{21}(t) & P_{22}(t) & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{pmatrix}

一定满足行和为一:

jPij(t)=1,i\sum_{j} P_{ij}(t) = 1, \quad \forall i

和离散的一样,也满足C-K方程:

P(t+s)=P(t)P(s)P(t+s) = P(t)P(s)

Q矩阵#

标准连续时间马尔科夫链#

标准连续时间马尔科夫链的转移概率矩阵 P(t)P(t) 满足

其中 II 是单位矩阵。

这意味着当时间趋近于零时,转移概率矩阵趋近于单位矩阵,即在极短的时间内,状态不会发生变化。

Q矩阵#

如果满足标准条件,那么可以定义极限

Q=limt0P(t)ItQ = \lim_{t \to 0} \frac{P(t) - I}{t}

其中 QQ 称为转移率矩阵速率矩阵QQ 的元素 qijq_{ij} 表示从状态 ii 到状态 jj 的瞬时转移率,即在极短时间内从状态 ii 转移到状态 jj 的速率。

补充#

后面我们经常会计算qijq_{ij}。需要注意:

  1. 如果 i=ji = j,则 qii=limt0Pii(t)1tq_{ii} = \lim_{t \to 0} \frac{P_{ii}(t) - 1}{t}
  2. 如果 iji \neq j,则 qij=limt0Pij(t)tq_{ij} = \lim_{t \to 0} \frac{P_{ij}(t)}{t}

保守性#

对于标准有限状态连续时间马尔科夫链,QQ 矩阵的每一行的和为零,即

jqij=0,i\sum_{j} q_{ij} = 0, \quad \forall i

这表示在任意时刻,系统必须处于某个状态。

停留时间定理#

设连续时间马尔科夫链满足标准性和保守性条件,τ=inf{t0:X(t)X(0)}\tau = \inf\{t \ge 0: X(t) \neq X(0)\} 表示从状态 X(0)X(0) 开始到达其他状态的时间。则有

  1. τ\tau 的分布是参数为 qiiq_{ii} 的指数分布, 即 P(τ>t)=eqiitP(\tau > t) = e^{-q_{ii} t}
  2. 条件分布 P(X(τ)=jX(0)=i)P(X(\tau) = j | X(0) = i) = qijqii\frac{q_{ij}}{q_{ii}},即在状态 ii 停留时间结束后,转移到状态 jj 的概率与速率矩阵的元素有关。
  3. τ\tauX(t)X(t) 在给定 X(0)X(0) 的条件下是独立的。

嵌入链#

从连马中只抽出跳转了跳去哪了的信息,形成一个离散时间马尔科夫链,称为嵌入链 它的转移概率为

pij={qijqii,ij0,i=jp_{ij} = \begin{cases} \frac{q_{ij}}{-q_{ii}}, & i \neq j \\ 0, & i = j \end{cases}

Kolmogorov方程#

Kolmogorov方程描述了连续时间马尔科夫链的状态转移概率矩阵 P(t)P(t) 的演化。它有两种形式:前向和后向。

前向Kolmogorov方程#

dP(t)dt=P(t)Q\frac{dP(t)}{dt} = P(t)Q

后向Kolmogorov方程#

dP(t)dt=QP(t)\frac{dP(t)}{dt} = QP(t)

转移概率的收敛级数形式#

如果 QQ 是一个有限矩阵,则可以将转移概率矩阵 P(t)P(t) 表示为

P(t)=I+tQ+t22!Q2+t33!Q3+P(t) = I + tQ + \frac{t^2}{2!}Q^2 + \frac{t^3}{3!}Q^3 + \cdots

这个级数形式可以用于计算转移概率矩阵,尤其在 tt 较小的情况下。

极限行为#

平稳分布#

平稳分布是指当时间趋近于无穷大时,马尔科夫链的状态分布趋于一个固定的分布。设 π\pi 是平稳分布,则满足

π=πP(t)\pi = \pi P(t)

这表示在平稳分布下,状态的分布不随时间变化。

同样也可以用速率矩阵 QQ 来描述平稳分布:

πQ=0\pi Q = 0

这表示在平稳分布下,状态的转移率矩阵 QQ 的每一行和为零。

定理#

对于不可约的连续时间马尔科夫链

如果πQ=0\pi Q = 0有解,则存在唯一的平稳分布 π\pi,且满足

limtPij(t)=πj\lim_{t \to \infty} P_{ij}(t) = \pi_j

如果无解,则不存在平稳分布。

limtPij(t)=0\lim_{t \to \infty} P_{ij}(t) = 0

应用#

纯生过程#

纯生过程是一种特殊的连续时间马尔科夫链,其中状态空间为非负整数,且状态只能增加或保持不变。其在[t,Δt][t, \Delta t]内的转移概率为

Pij(Δt)={λiΔt+o(Δt),j=i+1o(Δt),j=i0,othersP_{ij}(\Delta t) = \begin{cases} \lambda_i \Delta t + o(\Delta t), & j = i+1 \\ o(\Delta t), & j = i \\ 0, & \text{others} \end{cases}

根据定义可以算出QQ矩阵为

Qij={λi,j=i+1λi,j=i0,otherwiseQ_{ij} = \begin{cases} \lambda_i, & j = i+1 \\ -\lambda_i, & j = i \\ 0, & \text{otherwise} \end{cases} Q=(λ0λ0000λ1λ1000λ2λ2)Q = \begin{pmatrix} -\lambda_0 & \lambda_0 & 0 & 0 & \cdots \\ 0 & -\lambda_1 & \lambda_1 & 0 & \cdots \\ 0 & 0 & -\lambda_2 & \lambda_2 & \cdots \\ \vdots & \vdots & \vdots & \ddots & \ddots \end{pmatrix}

可验证

πQ=0\pi Q = 0

只有平凡解,即 π=0\pi = 0。 因此纯生过程没有平稳分布。

生灭过程#

生灭过程是一种连续时间马尔科夫链,其状态空间为非负整数 {0,1,2,}\{0, 1, 2, \ldots\},且从状态 ii 只能转移到相邻状态 i1i-1(死亡)或 i+1i+1(出生)。

设生灭过程的出生率为 λi\lambda_i(从状态 ii 到状态 i+1i+1 的速率),死亡率为 μi\mu_i(从状态 ii 到状态 i1i-1 的速率)。

其在 [t,t+Δt][t, t+\Delta t] 内的转移概率为:

Pij(Δt)={λiΔt+o(Δt),j=i+1μiΔt+o(Δt),j=i11(λi+μi)Δt+o(Δt),j=io(Δt),othersP_{ij}(\Delta t) = \begin{cases} \lambda_i \Delta t + o(\Delta t), & j = i+1 \\ \mu_i \Delta t + o(\Delta t), & j = i-1 \\ 1 - (\lambda_i + \mu_i) \Delta t + o(\Delta t), & j = i \\ o(\Delta t), & \text{others} \end{cases}

其中 μ0=0\mu_0 = 0(状态 0 不能再减少)。

根据定义,QQ 矩阵为:

Qij={λi,j=i+1μi,j=i1(λi+μi),j=i0,othersQ_{ij} = \begin{cases} \lambda_i, & j = i+1 \\ \mu_i, & j = i-1 \\ -(\lambda_i + \mu_i), & j = i \\ 0, & \text{others} \end{cases}

矩阵形式为:

Q=(λ0λ000μ1(λ1+μ1)λ100μ2(λ2+μ2)λ2)Q = \begin{pmatrix} -\lambda_0 & \lambda_0 & 0 & 0 & \cdots \\ \mu_1 & -(\lambda_1 + \mu_1) & \lambda_1 & 0 & \cdots \\ 0 & \mu_2 & -(\lambda_2 + \mu_2) & \lambda_2 & \cdots \\ \vdots & \vdots & \vdots & \ddots & \ddots \end{pmatrix}

平稳分布#

设平稳分布为 π=(π0,π1,π2,)\pi = (\pi_0, \pi_1, \pi_2, \ldots),则需满足 πQ=0\pi Q = 0,即:

对于 i=0i = 0λ0π0+μ1π1=0-\lambda_0 \pi_0 + \mu_1 \pi_1 = 0

对于 i1i \geq 1λi1πi1(λi+μi)πi+μi+1πi+1=0\lambda_{i-1} \pi_{i-1} - (\lambda_i + \mu_i) \pi_i + \mu_{i+1} \pi_{i+1} = 0

这可以简化为细致平衡条件

λiπi=μi+1πi+1,i0\lambda_i \pi_i = \mu_{i+1} \pi_{i+1}, \quad i \geq 0

递推可得:

πn=π0k=0n1λkμk+1,n1\pi_n = \pi_0 \prod_{k=0}^{n-1} \frac{\lambda_k}{\mu_{k+1}}, \quad n \geq 1

由归一化条件 n=0πn=1\sum_{n=0}^{\infty} \pi_n = 1,得到:

π0=11+n=1k=0n1λkμk+1\pi_0 = \frac{1}{1 + \sum_{n=1}^{\infty} \prod_{k=0}^{n-1} \frac{\lambda_k}{\mu_{k+1}}}

当且仅当级数 n=1k=0n1λkμk+1\sum_{n=1}^{\infty} \prod_{k=0}^{n-1} \frac{\lambda_k}{\mu_{k+1}} 收敛时,存在平稳分布。

高斯过程#

定义#

设随机过程X(t)X(t),如果n,t1,t2,,tn[0,T]\forall n, \forall t_1, t_2, \ldots, t_n \in [0, T],都有

(X(t1),X(t2),,X(tn))(X(t_1), X(t_2), \ldots, X(t_n))

服从nn元高斯分布,则称X(t)X(t)高斯过程

单元高斯分布#

设随机变量 XX 服从单元高斯分布,记作

XN(μ,σ)X \sim \mathcal{N}(\mu, \sigma)

其中 μ\mu 是均值,σ\sigma 是标准差。则其概率密度函数为:

fX(x)=12πσexp((xμ)22σ2)f_X(x) = \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right)

多元高斯分布#

设随机变量X=(X1,X2,,Xn)X = (X_1, X_2, \ldots, X_n)服从多元高斯分布,记作

XN(μ,Σ)X \sim \mathcal{N}(\mu, \Sigma)

其中 μ\mu 是均值向量,Σ\Sigma 是协方差矩阵。则其概率密度函数为:

fX(x)=1(2π)n/2Σ1/2exp(12(xμ)TΣ1(xμ))f_X(x) = \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp\left(-\frac{1}{2}(x - \mu)^T \Sigma^{-1} (x - \mu)\right)

特征函数#

多元高斯过程的特征函数为:

ϕX(ω)=exp(jωTμ12ωTΣω)\phi_X(\omega) = \exp\left(j \omega^T \mu - \frac{1}{2} \omega^T \Sigma \omega\right)

当结论记下来就好

性质#

线性性#

XN(μ,Σ)X \sim \mathcal{N}(\mu, \Sigma)AA 是常数矩阵,则 AX+bN(Aμ+b,AΣAT)AX + b \sim \mathcal{N}(A\mu + b, A\Sigma A^T)

这意味着对一个多元高斯分布它的线性组合以及它的任何一个子向量均服从高斯分布

独立性#

XN(μ,Σ)X \sim \mathcal{N}(\mu, \Sigma)YN(ν,Λ)Y \sim \mathcal{N}(\nu, \Lambda)

Σ11=Cov(X1,X1)=E((X1μ1)(X1μ1)T)\Sigma_{11} = \text{Cov}(X_1, X_1) = E((X_1-\mu_1)(X_1-\mu_1)^T) Σ22=Cov(X2,X2)=E((X2μ2)(X2μ2)T)\Sigma_{22} = \text{Cov}(X_2, X_2) = E((X_2-\mu_2)(X_2-\mu_2)^T) Σ12=Cov(X1,X2)=E((X1μ1)(X2μ2)T)=Σ21T\Sigma_{12} = \text{Cov}(X_1, X_2) = E((X_1-\mu_1)(X_2-\mu_2)^T) = \Sigma_{21}^T

如果 Σ12=0\Sigma_{12} = 0,则 X1X_1X2X_2 独立。

例子#

X=(X1,X2)TX = (X_1, X_2)^T,求一个常系数矩阵 AA 使得 Y=AXY=AX 的各组分.

A=(IA0I)A = \begin{pmatrix} I & A' \\ 0 & I \end{pmatrix}

其中 II 是单位矩阵,AA' 是任意矩阵。 则

Y=AX=(X1+AX2X2)Y = AX = \begin{pmatrix} X_1 + A'X_2 \\ X_2 \end{pmatrix}

要使得YY 的各组分独立,则需要满足

Cov(X1+AX2,X2)=Cov(X1,X2)+ACov(X2,X2)=0\text{Cov}(X_1 + A'X_2, X_2) = Cov(X_1, X_2) + A' \text{Cov}(X_2, X_2) = 0

这意味着

AΣ22+Σ12=0A' \Sigma_{22} + \Sigma_{12} = 0

因此

A=Σ12Σ221A' = -\Sigma_{12} \Sigma_{22}^{-1}

布朗运动#

定义#

标准布朗运动(Brownian motion)是一个特殊的高斯过程,满足以下条件

  1. B(0)=0B(0) = 0,即初始位置为零。
  2. 平稳增量,即 B(t)B(s)B(ts)B(t) - B(s) \sim B(t-s)
  3. 对任意ttB(t)B(t) 服从正态分布

性质#

  1. 期望
E[B(t)]=0E[B(t)] = 0
  1. 方差
Var(B(t))=t\text{Var}(B(t)) = t
  1. 协方差
Cov(B(t),B(s))=min(t,s)\text{Cov}(B(t), B(s)) = \min(t, s)

这里尤其需要注意协方差的计算,有一个常用的技巧

Cov(B(t),B(s))=E[B(t)B(s)]E[B(t)]E[B(s)]=E[B(t)B(s)]\text{Cov}(B(t), B(s)) = E[B(t)B(s)] - E[B(t)]E[B(s)] = E[B(t)B(s)]

因为 E[B(t)]=E[B(s)]=0E[B(t)] = E[B(s)] = 0

然后我们可以利用技巧得到

E[B(t)B(s)]=E(B(t)[B(s)B(t)+B(t)])=E[B(t)[B(s)B(t)]]+E[B(t)2]E[B(t)B(s)] = E(B(t)[B(s)-B(t)+B(t)]) = E[B(t)[B(s)-B(t)]] + E[B(t)^2]

这就让我们可以用独立增量的性质来计算协方差。

Cov=E(B(t))E(B(st))+E(B(t)2)=0+t=t\text{Cov} = E(B(t))E(B(s-t)) + E(B(t)^2) = 0 + t = t
  1. 布朗运动几乎处处连续,但是几乎处处不可微。
随机过程
https://iaohr9.github.io/blog/%E9%9A%8F%E6%9C%BA%E8%BF%87%E7%A8%8B
Author Haoran Liao | 廖浩然
Published at November 30, 2024
Comment seems to stuck. Try to refresh?✨