重生学神有系统_第364章 径向基神经网络 首页

字体:      护眼 关灯

上一章 目录 下一页

   第364章 径向基神经网络 (第1/2页)

    时间匆匆流逝。

    江寒查询了许多文献,又经过了一番深入地思考,终于做好了准备,开始撰写新的论文。

    江寒正在研究的,是径向基神经网络,在原本的世界,这是第一种实用化的“人工神经网络”。

    这个世界在数学方面的进展,和前世基本一样。

    像“多变量插值的径向基函数方法”,早在1980年代就已经出现了。

    也幸好如此,否则的话,江寒在造汽车之前,还得先发明个轮子……

    所谓径向基函数,以本质上来说,就是一个实值函数,该函数的取值仅依赖于与原点或者中心点C的距离。

    标准的径向基函数,一般使用欧氏距离,所以也叫欧式径向基函数。

    当然,使用其他的距离函数也是没问题的,事实上,最常用的径向基函数,就是高斯核函数……

    在RBF神经网络中,除了输入层和输出层之外,有且仅有一层隐藏层。

    从输入空间到隐藏层空间,所做的变换是非线的;而从隐藏层到输出层,却是做的线变换。

    通过隐藏层把向量从低维映到高维,使得在低维中线不可分的问题,到了高维之后变得线可分。

    这其实就是核函数的思想。

    由于网络的输出和权重参数之间,存在着线的关系,所以就可以由线方程组,直接把权重参数求解出来。

    这样一来,一方面大大加快了训练速度,另一方面,也可以避免“局部极小”的问题。

    训练RBF神经网络的关键,在于求解3个参数。

    首先是基函数的中心点,然后是方差,最后是隐含层到输出层的权重。

    在训练时,同样需要输入训练数据,然后根据损失函数,采用梯度下降法,修正权重的误差。

    这一点,其实与BP神经网络的做法,基本上如出一辙。

    所以从本质上来说,网络的一个特例。

    当然,两者之间的区别也很明显。

    在RBF神经网络中,距离径向基函数的中心点越远,神经元的激活度就越低。

    在近目标函数时,神经元的权重取值,只依赖于查询点附近的数据。

    因此RBF所做的,只是一种局部近。

    而在BP网络中,所有数据都会起到同等的作用,是对非线映的全局近。

    第2个区别,是隐藏层的数目不同。

    BP神经网络可以有多个隐含层,但是RBF只有一个隐藏层。

    从表达能力上来看,RBF是不如BP的,但RBF也有不可取代的优势,那就是训练起来速度极快。

    一方面,由于隐藏层较少,计算压力就更小些;另一方面,局部近也可以有效地简化计算。

    在RBF神经网络中,对于一个输入,只有附近的神经元会有反应,其他的全都被忽略。

    这样一来,需要调整的权重参数,自然就大幅度地减少了,也就减轻了计算压力。

    此外,还可以从理论上证明,RBF网络是对连续函数的最佳近,而容易陷入局部极小的BP网络则不是……

    一般来说,使用了核函数技巧的机器学习方案,比如支持向量机等,都不怎么适应大数据的况。

    样本量一大,往往会出现极其严重的计算困难。

    而RBF刚好解决了这个问题……

    星期四那天,这篇论文终于写完了。

    当天晚上,江寒吃完饭之后,就开始在电脑上敲论文。

    夏雨菲则陪在他边,做着自己的高考复习题。

    时间快到9点的时候,估摸着夏如虹要回来了,他就转移战场,回自己房间继续工作。

    又过了将近半个小时,才将论文完全敲进了电脑里。

    随后,江寒稍微考虑了一下,就将其发给了《eLearning》。

    理由嘛,也很简单。

    在给自己发来约稿信的期刊中,属这一家的级别最高。

    而尽可能地多拿学术点,正是他一以贯之的原则……

    将论文提交到ML官网上之后,时间已经差不多9点半。

    江寒闭上眼睛,靠在椅
加入书签 我的书架

上一章 目录 下一页