维特比算法

✍ dations ◷ 2024-12-22 16:54:34 #最优化算法,动态规划,错误检测与校正,马尔可夫模型

维特比算法(英语:Viterbi algorithm)是一种动态规划算法。它用于寻找最有可能产生观测事件序列的维特比路径——隐含状态序列,特别是在马尔可夫信息源上下文和隐马尔可夫模型中。

术语“维特比路径”和“维特比算法”也被用于寻找观察结果最有可能解释相关的动态规划算法。例如在统计句法分析中动态规划算法可以被用于发现最可能的上下文无关的派生(解析)的字符串,有时被称为“维特比分析”。

维特比算法由安德鲁·维特比(Andrew Viterbi)于1967年提出,用于在数字通信链路中解卷积以消除噪音。 此算法被广泛应用于CDMA和GSM数字蜂窝网络、拨号调制解调器、卫星、深空通信和802.11无线网络中解卷积码。现今也被常常用于语音识别、关键字识别、计算语言学和生物信息学中。例如在语音(语音识别)中,声音信号做为观察到的事件序列,而文本字符串,被看作是隐含的产生声音信号的原因,因此可对声音信号应用维特比算法寻找最有可能的文本字符串。

假设给定隐式马尔可夫模型(HMM)状态空间 S {\displaystyle S} ,共有k个状态,初始状态 i {\displaystyle i} 的概率为 π i {\displaystyle \pi _{i}} ,从状态 i {\displaystyle i} 到状态 j {\displaystyle j} 的转移概率为 a i , j {\displaystyle a_{i,j}} 。 令观察到的输出为 y 1 , , y T {\displaystyle y_{1},\dots ,y_{T}} 。 产生观察结果的最有可能的状态序列 x 1 , , x T {\displaystyle x_{1},\dots ,x_{T}} 由递推关系给出:

此处 V t , k {\displaystyle V_{t,k}} 是前 t {\displaystyle t} 个最终状态为 k {\displaystyle k} 的观测结果最有可能对应的状态序列的概率。 通过保存向后指针记住在第二个等式中用到的状态 x {\displaystyle x} 可以获得维特比路径。声明一个函数 P t r ( k , t ) {\displaystyle \mathrm {Ptr} (k,t)} ,它返回若 t > 1 {\displaystyle t>1} 时计算 V t , k {\displaystyle V_{t,k}} 用到的 x {\displaystyle x} 值 或若 t = 1 {\displaystyle t=1} 时的 k {\displaystyle k} . 这样:

这里我们使用了arg max(英语:arg max)的标准定义算法复杂度为 O ( T × | S | 2 ) {\displaystyle O(T\times \left|{S}\right|^{2})}

想象一个乡村诊所。村民有着非常理想化的特性,要么健康要么发烧。他们只有问诊所的医生的才能知道是否发烧。 聪明的医生通过询问病人的感觉诊断他们是否发烧。村民只回答他们感觉正常、头晕或冷。

假设一个病人每天来到诊所并告诉医生他的感觉。医生相信病人的健康状况如同一个离散马尔可夫链。病人的状态有两种“健康”和“发烧”,但医生不能直接观察到,这意味着状态对他是“隐含”的。每天病人会告诉医生自己有以下几种由他的健康状态决定的感觉的一种:正常、冷或头晕。这些是观察结果。 整个系统为一个隐马尔可夫模型(HMM)。

医生知道村民的总体健康状况,还知道发烧和没发烧的病人通常会抱怨什么症状。 换句话说,医生知道隐马尔可夫模型的参数。 这可以用Python语言表示如下:

states = ('Healthy', 'Fever') observations = ('normal', 'cold', 'dizzy') start_probability = {'Healthy': 0.6, 'Fever': 0.4} transition_probability = {   'Healthy' : {'Healthy': 0.7, 'Fever': 0.3},   'Fever' : {'Healthy': 0.4, 'Fever': 0.6},   } emission_probability = {   'Healthy' : {'normal': 0.5, 'cold': 0.4, 'dizzy': 0.1},   'Fever' : {'normal': 0.1, 'cold': 0.3, 'dizzy': 0.6},   }

在这段代码中, 起始概率start_probability 表示病人第一次到访时医生认为其所处的HMM状态,他唯一知道的是病人倾向于是健康的。这里用到的特定概率分布不是均衡的,如转移概率大约是{'Healthy': 0.57, 'Fever': 0.43}。 转移概率transition_probability表示潜在的马尔可夫链中健康状态的变化。在这个例子中,当天健康的病人仅有30%的机会第二天会发烧。放射概率emission_probability表示每天病人感觉的可能性。假如他是健康的,50%会感觉正常。如果他发烧了,有60%的可能感觉到头晕。

病人连续三天看医生,医生发现第一天他感觉正常,第二天感觉冷,第三天感觉头晕。 于是医生产生了一个问题:怎样的健康状态序列最能够解释这些观察结果。维特比算法解答了这个问题。

# Helps visualize the steps of Viterbi.def print_dptable(V):    print("    ")    for i in range(len(V)):         print("%7d" % i)    print    for y in V.keys():        print("%.5s: " % y)        for t in range(len(V)):            print("%.7s" % ("%f" % V))        printdef viterbi(obs, states, start_p, trans_p, emit_p):    V =     path = {}    # Initialize base cases (t == 0)    for y in states:        V = start_p * emit_p]        path =     # Run Viterbi for t > 0    for t in range(1,len(obs)):        V.append({})        newpath = {}        for y in states:            (prob, state) = max( * trans_p * emit_p], y0) for y0 in states])            V = prob            newpath = path +         # Don't need to remember the old paths        path = newpath    print_dptable(V)    (prob, state) = max(, y) for y in states])    return (prob, path)

函数viterbi 具有以下参数: obs 为观察结果序列, 例如 states 为一组隐含状态; start_p 为起始状态概率; trans_p 为转移概率; 而 emit_p 为放射概率。 为了简化代码,我们假设观察序列 obs 非空且 trans_pemit_p 对所有状态 i,j 有定义。

在运行的例子中正向/维特比算法使用如下:

def example():    return viterbi(observations,                   states,                   start_probability,                   transition_probability,                   emission_probability)print(example())

维特比算法揭示了观察结果 最有可能由状态序列 产生。 换句话说,对于观察到的活动, 病人第一天感到正常,第二天感到冷时都是健康的,而第三天发烧了。

维特比算法的计算过程可以直观地由格图表示。 维特比路径本质上是穿过格式结构的最长路径。 诊所例子的格式结构如下, 黑色加粗的是维特比路径:

在实现维特比算法时需注意许多编程语言使用浮点数计算,当 p 很小时可能会导致结果下溢。 避免这一问题的常用技巧是在整个计算过程中使用对数概率,在对数系统中也使用了同样的技巧。 当算法结束时,可以通过适当的幂运算获得精确结果。

首先是一些问题必要的设置。 设观察值空间为 O = { o 1 , o 2 , , o N } {\displaystyle O=\{o_{1},o_{2},\dots ,o_{N}\}} 、 状态空间为 S = { s 1 , s 2 , , s K } {\displaystyle S=\{s_{1},s_{2},\dots ,s_{K}\}} 、 观察值序列为 Y = { y 1 , y 2 , , y T } {\displaystyle Y=\{y_{1},y_{2},\ldots ,y_{T}\}} , A {\displaystyle A} K × K {\displaystyle K\times K} 转移矩阵,其中 A i j {\displaystyle A_{ij}} 为从状态 s i {\displaystyle s_{i}} 转移到 s j {\displaystyle s_{j}} 的转移概率、 B {\displaystyle B} K × N {\displaystyle K\times N} 放射矩阵(emission matrix),其中 B i j {\displaystyle B_{ij}} 为在状态 s i {\displaystyle s_{i}} 观察到 o j {\displaystyle o_{j}} 的概率、 大小为 K {\displaystyle K} 的初始概率数组 π {\displaystyle \pi } π i {\displaystyle \pi _{i}} x 1 == s i {\displaystyle x_{1}==s_{i}} 的概率。 我们称路径 X = { x 1 , x 2 , , x T } {\displaystyle X=\{x_{1},x_{2},\ldots ,x_{T}\}} 为生成观察值 Y = { y 1 , y 2 , , y T } {\displaystyle Y=\{y_{1},y_{2},\ldots ,y_{T}\}} 的状态序列。

在这个动态规划问题中, 我们构造了两个大小为 K × T {\displaystyle K\times T} 的二维表 T 1 , T 2 {\displaystyle T_{1},T_{2}} T 1 {\displaystyle T_{1}} 的每个元素, T 1 {\displaystyle T_{1}} ,保存生成 Y = { y 1 , y 2 , , y j } {\displaystyle Y=\{y_{1},y_{2},\ldots ,y_{j}\}} 时最有可能的路径 X ^ = { x ^ 1 , x ^ 2 , , x ^ j } {\displaystyle {\hat {X}}=\{{\hat {x}}_{1},{\hat {x}}_{2},\ldots ,{\hat {x}}_{j}\}} x ^ j = s i {\displaystyle {\hat {x}}_{j}=s_{i}} 的概率。 T 2 {\displaystyle T_{2}} 的每个元素, T 2 {\displaystyle T_{2}} ,保存最有可能路径 X ^ = { x ^ 1 , x ^ 2 , , x ^ j 1 , x ^ j } {\displaystyle {\hat {X}}=\{{\hat {x}}_{1},{\hat {x}}_{2},\ldots ,{\hat {x}}_{j-1},{\hat {x}}_{j}\}} , j , 2 j T {\displaystyle \forall j,2\leq j\leq T} x ^ j 1 {\displaystyle {\hat {x}}_{j-1}}

我们按 K j + i {\displaystyle K\cdot j+i} 增序填充两个表 T 1 , T 2 {\displaystyle T_{1},T_{2}}

相关