Denosing AutoEncoder


AutoEncoder

From http://jacoxu.com/?p=1108

AutoEncoder是多层神经网络,其中输入层和输出层表示相同的含义,具有相同的节点数。AutoEncode学习的是一个输入输出相同的“恒等函数”。不过输入和输出相同,使得这个网络的输出没有任何意义。AutoEncoder的意义在于学习的(通常是节点数更少的)中间coder层(最中间的那一层),这一层是输入向量的良好表示。这个过程起到了“降维”的作用。当AutoEncoder只有一个隐含层的时候,其原理相当于主成分分析(PCA),当AutoEncoder有多个隐含层的时候,每两层之间可以用RBM来pre-training,最后由BP来调整最终权值。网络权重更新公式很容易用求偏导数的方法推导出来,算法是梯度下降法。(RBM:层内无连接,层间全连接,二分图)

Denoising AutoEncoder是AutoEncoder的一个变种,与AutoEncoder不同的是,Denoising AutoEncoder在输入的过程中加入了噪声信息,从而让AutoEncoder能够学习这种噪声。

Denoising AutoEncoder与RBM非常像:

  • 参数一样:隐含层偏置、显示层偏置、网络权重
  • 作用一样:都是输入的另一种(压缩)表示
  • 过程类似:都有reconstruct,并且都是reconstruct与input的差别,越小越好

Denoising AutoEncoder与RBM的区别:

背后原理就不说了(RBM是能量函数),区别在于训练准则。RBM是隐含层“产生”显示层的概率(通常用log表示),Denoising AutoEncoder是输入分布与reconstruct分布的KL距离。所用的训练方法,前者是CD-k,后者是梯度下降。RBM固定只有两层;AutoEncoder,可以有多层,并且这些多层网络可以由标准的bp算法来更新网络权重和偏置,与标准神经网络不同的是,AutoEncoder的输入层和最终的输出层是“同一层”,不仅仅是节点数目、输出相同,而是完完全全的“同一层”,这也会影响到这一层相关的权值更新方式。总之,输入与输出是同一层,在此基础上,再由输入与输出的差别构造准则函数,再求各个参数的偏导数,再用bp方式更新各个权重。

【AutoEncoder工程代码】:相关Matlab工程代码主页:http://www.cs.toronto.edu/~hinton/MatlabForSciencePaper.html

论文:Science – 2006 Science_Reducing the Dimensionality of Data with Neural Networks


From http://www.cnblogs.com/neopenx/p/4370350.html

起源

随着一些奇怪的高维数据出现,比如图像、语音,传统的统计学-机器学习方法遇到了前所未有的挑战。

数据维度过高,数据单调,噪声分布广,传统方法的“数值游戏”很难奏效。数据挖掘?已然挖不出有用的东西。

为了解决高维度的问题,出现的线性学习的PCA降维方法,PCA的数学理论确实无懈可击,但是却只对线性数据效果比较好。

于是,寻求简单的、自动的、智能的特征提取方法仍然是机器学习的研究重点。比如LeCun在1998年CNN总结性论文中就概括了今后机器学习模型的基本架构。

当然CNN另辟蹊径,利用卷积、降采样两大手段从信号数据的特点上很好的提取出了特征。对于一般非信号数据,该怎么办呢??

AutoEncoder

自动编码器基于这样一个事实:原始input(设为x)经过加权$$(W,b)$$、映射(Sigmoid)之后得到y,再对y反向加权映射回来成为z。

通过反复迭代训练两组$$(W,b)$$,使得误差函数最小,即尽可能保证z近似于x,即完美重构了x。

那么可以说正向第一组权$$(W,b)$$是成功的,很好的学习了input中的关键特征,不然也不会重构得如此完美。结构图如下:

从生物的大脑角度考虑,可以这么理解,学习和重构就好像编码和解码一样。

这个过程很有趣,首先,它没有使用数据标签来计算误差update参数,所以是无监督学习。

其次,利用类似神经网络的双隐层的方式,简单粗暴地提取了样本的特征。

这个双隐层是有争议的,最初的编码器确实使用了两组$$(W,b)$$,但是Vincent在2010年的论文中做了研究,发现只要单组W就可以了。

即$$W'=WT$$, $$W$$和$$W’$$称为Tied Weights。实验证明,$$W'$$真的只是在打酱油,完全没有必要去做训练。

逆向重构矩阵让人想起了逆矩阵,若$$W^{-1}=W^T$$的话,W就是个正交矩阵了,即W是可以训成近似正交阵的。

由于$$W'$$就是个酱油,训练完之后就没它事了。正向传播用$$W$$即可,相当于为input预先编个码,再导入到下一layer去。所以叫自动编码器,而不叫自动编码解码器。

Denoising Autoencoder

Vincent在2008年的论文中提出了AutoEncoder的改良版——dA。推荐首先去看这篇paper。

论文的标题叫 "Extracting and Composing Robust Features",译成中文就是"提取、编码出具有鲁棒性的特征"

怎么才能使特征很鲁棒呢?就是以一定概率分布(通常使用二项分布)去擦除原始input矩阵,即每个值都随机置0, 这样看起来部分数据的部分特征是丢失了。

以这丢失的数据x'去计算y,计算z,并将z与原始x做误差迭代,这样,网络就学习了这个破损(原文叫Corruputed)的数据。

这个破损的数据是很有用的,原因有二:

其之一,通过与非破损数据训练的对比,破损数据训练出来的Weight噪声比较小。降噪因此得名。

原因不难理解,因为擦除的时候不小心把输入噪声给×掉了。

其之二,破损数据一定程度上减轻了训练数据与测试数据的代沟。由于数据的部分被×掉了,因而这破损数据一定程度上比较接近测试数据。(训练、测试肯定有同有异,当然我们要求同舍异)。

这样训练出来的Weight的鲁棒性就提高了。图示如下:

关键是,这样胡乱擦除原始input真的很科学?真的没问题? Vincent又从大脑认知角度给了解释:

paper中这么说到:人类具有认知被阻挡的破损图像能力,此源于我们高等的联想记忆感受机能。

我们能以多种形式去记忆(比如图像、声音,甚至如上图的词根记忆法),所以即便是数据破损丢失,我们也能回想起来。

另外,就是从特征提取的流形学习(Manifold Learning)角度看: 破损的数据相当于一个简化的PCA,把特征做一个简单的降维预提取。

自动编码器的奇怪用法

自动编码器相当于创建了一个隐层,一个简单想法就是加在深度网络的开头,作为原始信号的初级filter,起到降维、提取特征的效果。

关于自动编码器取代PCA的基本用法,参考 http://www.360doc.com/content/15/0324/08/20625606_457576675.shtml

当然Bengio在2007年论文中仿照DBN较之于RBM做法:作为深度网络中各个layer的参数初始化值,而不是用随机小值。

即变成了Stacked AutoEncoder。

当然,这种做法就有一个问题,AutoEncoder可以看作是PCA的非线性补丁加强版,PCA的取得的效果是建立在降维基础上的。

仔细想想CNN这种结构,随着layer的推进,每层的神经元个数在递增,如果用了AutoEncoder去预训练,岂不是增维了?真的没问题?

paper中给出的实验结果认为AutoEncoder的增维效果还不赖,原因可能是非线性网络能力很强,尽管神经元个数增多,但是每个神经元的效果在衰减。

同时,随机梯度算法给了后续监督学习一个良好的开端。整体上,增维是利大于弊的。

代码与实现

体参考 http://deeplearning.net/tutorial/dA.html

有几个注意点说下:

①cost函数可以使用交错熵(Cross Entroy)设计,对于定义域在[0,1]这类的数据,交错熵可用来设计cost函数。

其中Logistic回归的似然函数求导结果可看作是交错熵的特例。参考 http://en.wikipedia.org/wiki/Cross_entropy

也可以使用最小二乘法设计。

②RandomStreams函数存在多个,因为要与非Tensor量相乘,必须用shared版本。

所以是 from theano.tensor.shared_randomstreams import RandomStreams

而不是 from theano.tensor import RandomStreams

results matching ""

    No results matching ""