-
Notifications
You must be signed in to change notification settings - Fork 290
/
Copy pathmcmc1.md
68 lines (34 loc) · 6.71 KB
/
mcmc1.md
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
# 蒙特卡罗方法
---
作为一种随机采样方法,马尔科夫链蒙特卡罗(Markov Chain Monte Carlo,以下简称MCMC)在机器学习,深度学习以及自然语言处理等领域都有广泛的应用,是很多复杂算法求解的基础。比如我们前面讲到的[分解机\(Factorization Machines\)推荐算法](/ml/recommand/fm.md),还有前面讲到的[受限玻尔兹曼机(RBM)原理总结](/dl/rbm/rbm.md),都用到了MCMC来做一些复杂运算的近似求解。下面我们就对MCMC的原理做一个总结。
# 1. MCMC概述
从名字我们可以看出,MCMC由两个MC组成,即蒙特卡罗方法(Monte Carlo Simulation,简称MC)和马尔科夫链(Markov Chain ,也简称MC)。要弄懂MCMC的原理我们首先得搞清楚蒙特卡罗方法和马尔科夫链的原理。我们将用三篇来完整学习MCMC。在本篇,我们关注于蒙特卡罗方法。
# 2. 蒙特卡罗方法引入
蒙特卡罗原来是一个赌场的名称,用它作为名字大概是因为蒙特卡罗方法是一种随机模拟的方法,这很像赌博场里面的扔骰子的过程。最早的蒙特卡罗方法都是为了求解一些不太好求解的求和或者积分问题。比如积分:$$\theta = \int_a^b f(x)dx$$
如果我们很难求解出f\(x\)的原函数,那么这个积分比较难求解。当然我们可以通过蒙特卡罗方法来模拟求解近似值。如何模拟呢?假设我们函数图像如下图:
![](http://images2015.cnblogs.com/blog/1042406/201703/1042406-20170327112128264-1892171788.png)
则一个简单的近似求解方法是在\[a,b\]之间随机的采样一个点。比如x\_0,然后用$$f(x_0)$$代表在\[a,b\]区间上所有的f\(x\)的值。那么上面的定积分的近似求解为:$$(b-a)f(x_0)$$
当然,用一个值代表\[a,b\]区间上所有的f\(x\)的值,这个假设太粗糙。那么我们可以采样\[a,b\]区间的n个值:$${x_0,x_1,...x_{n-1}}$$,用它们的均值来代表\[a,b\]区间上所有的f\(x\)的值。这样我们上面的定积分的近似求解为:$$\frac{b-a}{n}\sum\limits_{i=0}^{n-1}f(x_i)$$
虽然上面的方法可以一定程度上求解出近似的解,但是它隐含了一个假定,即x在\[a,b\]之间是均匀分布的,而绝大部分情况,x在\[a,b\]之间不是均匀分布的。如果我们用上面的方法,则模拟求出的结果很可能和真实值相差甚远。
怎么解决这个问题呢? 如果我们可以得到x在\[a,b\]的概率分布函数p\(x\),那么我们的定积分求和可以这样进行:$$\theta = \int_a^b f(x)dx = \int_a^b \frac{f(x)}{p(x)}p(x)dx \approx \frac{1}{n}\sum\limits_{i=0}^{n-1}\frac{f(x_i)}{p(x_i)}$$
上式最右边的这个形式就是蒙特卡罗方法的一般形式。当然这里是连续函数形式的蒙特卡罗方法,但是在离散时一样成立。
可以看出,最上面我们假设x在\[a,b\]之间是均匀分布的时候,$$p(x_i) = 1/(b-a)$$,带入我们有概率分布的蒙特卡罗积分的上式,可以得到:$$\frac{1}{n}\sum\limits_{i=0}^{n-1}\frac{f(x_i)}{1/(b-a)} = \frac{b-a}{n}\sum\limits_{i=0}^{n-1}f(x_i)$$
也就是说,我们最上面的均匀分布也可以作为一般概率分布函数p\(x\)在均匀分布时候的特例。那么我们现在的问题转到了如何求出x的分布p\(x\)的若干和样本上来。
# 3. 概率分布采样
上一节我们讲到蒙特卡罗方法的关键是得到x的概率分布。如果求出了x的概率分布,我们可以基于概率分布去采样基于这个概率分布的n个x的样本集,带入蒙特卡罗求和的式子即可求解。但是还有一个关键的问题需要解决,即如何基于概率分布去采样基于这个概率分布的n个x的样本集。
对于常见的均匀分布uniform\(0,1\)是非常容易采样样本的,一般通过线性同余发生器可以很方便的生成\(0,1\)之间的伪随机数样本。而其他常见的概率分布,无论是离散的分布还是连续的分布,它们的样本都可以通过uniform\(0,1\)的样本转换而得。比如二维正态分布的样本$$(Z_1,Z_2)$$可以通过通过独立采样得到的uniform\(0,1\)样本对$$(X_1,X_2)$$通过如下的式子转换而得:
$$Z_1 = \sqrt{-2 ln X_1}cos(2\pi X_2)$$
$$Z_2 = \sqrt{-2 ln X_1}sin(2\pi X_2)$$
其他一些常见的连续分布,比如t分布,F分布,Beta分布,Gamma分布等,都可以通过类似的方式从uniform\(0,1\)得到的采样样本转化得到。在python的numpy,scikit-learn等类库中,都有生成这些常用分布样本的函数可以使用。
不过很多时候,我们的x的概率分布不是常见的分布,这意味着我们没法方便的得到这些非常见的概率分布的样本集。那这个问题怎么解决呢?
# 4. 接受-拒绝采样
对于概率分布不是常见的分布,一个可行的办法是采用接受-拒绝采样来得到该分布的样本。既然p\(x\)太复杂在程序中没法直接采样,那么我设定一个程序可采样的分布q\(x\)比如高斯分布,然后按照一定的方法拒绝某些样本,以达到接近p\(x\)分布的目的,其中q\(x\)叫做 proposal distribution。
![](http://images2015.cnblogs.com/blog/1042406/201703/1042406-20170327143755811-993574578.png)
具体采用过程如下,设定一个方便采样的常用概率分布函数q\(x\),以及一个常量k,使得p\(x\)总在kq\(x\)的下方。如上图。
首先,采样得到q\(x\)的一个样本z\_0,采样方法如第三节。然后,从均匀分布$$(0, kq(z_0))$$中采样得到一个值u。如果u落在了上图中的灰色区域,则拒绝这次抽样,否则接受这个样本$$z_0$$。重复以上过程得到n个接受的样本$$z_0,z_1,...z_{n-1}$$,则最后的蒙特卡罗方法求解结果为:$$\frac{1}{n}\sum\limits_{i=0}^{n-1}\frac{f(z_i)}{p(z_i)}$$
整个过程中,我们通过一系列的接受拒绝决策来达到用q\(x\)模拟p\(x\)概率分布的目的。
# 5. 蒙特卡罗方法小结
使用接受-拒绝采样,我们可以解决一些概率分布不是常见的分布的时候,得到其采样集并用蒙特卡罗方法求和的目的。但是接受-拒绝采样也只能部分满足我们的需求,在很多时候我们还是很难得到我们的概率分布的样本集。比如:
1)对于一些二维分布p\(x,y\),有时候我们只能得到条件分布p\(x\|y\)和p\(y\|x\)和,却很难得到二维分布p\(x,y\)一般形式,这时我们无法用接受-拒绝采样得到其样本集。
2)对于一些高维的复杂非常见分布$$p(x_1,x_2,...,x_n)$$,我们要找到一个合适的q\(x\)和k非常困难。
从上面可以看出,要想将蒙特卡罗方法作为一个通用的采样模拟求和的方法,必须解决如何方便得到各种复杂概率分布的对应的采样样本集的问题。