登陆

极彩用户登录-真实的神经网络,勇于不学习权重

admin 2019-06-16 384人围观 ,发现0个评论

莫非神经网络不必学权重也能完结各种使命?莫非咱们以为 CNN 学习到的图画特征仅仅咱们以为?神经网络只不过是函数的排列组合,没有其它含义?从这篇论文来看,这些答案好像都是必定的。

昨日,谷歌大脑 David Ha 等人一篇名为《Weight Ag狗叫声大全nostic Neural Networks》的论文引爆了机器学习圈。其「颠覆性」的理论让人惊呼:「到头来咱们对神经网络一窍不通?」

Reddit 上有一些研讨者以为,《Weight Agnostic Neural Networks》这篇论文更风趣的含义在于,它也宣告了深度学习分层编码特征这一解说与世长辞。

通常状况下,权重被以为会被练习成 MNIST 中边角、圆弧这类直观特征,而假如论文中的算法能够处理 MNIST,那么它们就不是特征,而是函数序列/组合。关于 AI 可解说性来说,这或许是一个冲击。

很简略了解,神经网络架构并非「生而平等」,关于特定使命一些网络架构的功能明显优于其他模型。可是比较架构而言,神经网络权重参数的重要性到底有多少?

来自德国波恩-莱茵-锡格应用技能大学和谷歌大脑的一项新研讨提出了一种神经网络架构查找办法,这些网络能够在不进行显式权重练习的状况下履行各种使命。

为了评价这些网络,研讨者运用从一致随机散布中采样的单个同享权重参数来衔接网络层,并评价希望功能。效果显现,极彩用户登录-真实的神经网络,勇于不学习权重该办法能够找到少数神经网络架构,这些架构能够在没有权重练习的状况下履行多个强化学习使命,或 MNIST 等监督学习使命。

极彩用户登录-真实的神经网络,勇于不学习权重

如极彩用户登录-真实的神经网络,勇于不学习权重下是两个不必学习权重的神经网络示例,分别是二足行走智能体(上)和赛车(下):

为什么神经网络不必学习权重

在生物学中,早成性物种是指那些天然生成就有一些才干的幼生体。许多依据标明蜥蜴和蛇等动物天然生成就懂得躲避捕食者,鸭子在孵化后也能自己学会游水和进食。

比较之下,咱们在练习智能体履行使命时,会挑选一个典型的神经网络结构,并信任它有潜力为这个使命编码特定的战略。留意这儿仅仅「有潜力」,咱们还要学习权重参数,才干将这种潜力改动为才干。

遭到天然界早成行为及先天才干的启示,在这项作业中,研讨者构建了一个能「天然」履行给定使命的神经网络。也便是说,找到一个先天的神经网络架构,然后只需要随机初始化的权重就能履行使命。研讨者表明,这种不必学习参数的神经网络架构在强化学习与监督学习都有很好的体现。

其实在咱们的了解中,假如咱们幻想神经网络架构供给的便是一个圈,那么惯例学习权重便是找到一个最优「点」(或最优参数解)。可是关于不必学习权重的神经网络,它就相当于引入了一个十分强的概括偏置,以至于,整个架构偏置到能直接处理某个问题。

如上是咱们对两种网络的直观了解。一般神经网络在架构内随机初始化权重,再学习权重以找到最优解,这样的模型就能完结特定使命。一般只需架构满足「大」,那么它很或许包含最优解,梯度下降也就能大致找到它了。

可是关于不必学习权重的神经网络,它相当于不停地特化架构,或者说下降模型方差。这样,当架构越来越小而只包含最优解时,随机化的权重也就能处理实际问题了。当然,如研讨者那样从小架构到大架构查找也是可行的,只需架构能正好将最优解包围住就行了。

几十年的神经网络研讨为不同的使命供给了具有强概括偏置的结构块。比方卷积神经网络就特别合适处理图画。

Ulyanov 等人 [109] 展现了随机初始化的 CNN 可在规范逆问题(如去噪、超分辨率和图画修正)中作为手艺先验常识(handcrafted prior)运用,且功能优越。

Schmidhuber 等人 [96] 展现了运用习得线性输入层的随机初始化 LSTM 能够猜测时序,而传统 RNN 不可。近期在自留意力 [113] 和胶囊网络 [93] 方面的研讨拓宽了创立适用于多个使命的架构的结构块规模。

受随机初始化 CNN 和 LSTM 的启示,该研讨旨在查找权重无关的神经网络,即这些具有强概括偏置的网络能够运用随机权重履行不同使命。

中心思维

为了寻觅具有强概括偏置的神经网络架构,研讨者提出经过下降权重重要性的办法来查找架构。具体步骤为:1)为每一个网络衔接供给单一的同享权重参数;2)在较大的权重参数值规模内评价网络。

该研讨没有选用优化固定网络权重的办法,而是优化在大规模权重值上都有杰出功能的架构。研讨者证明,该办法可生成运用随机权重参数履行不同接连操控使命的网络。

图 1:权重无关神经网络示例:二足行走智能体(左)、赛车(右)。研讨者经过下降权重重要性的办法查找架构。网络运用单一的同享权重值。一切架构在大规模权重值上进行功能优化后,仍然能够在没有权重练习的状况下履行不同使命。

创立编码解的网络架构与神经架构查找(NAS)处理的问题有着实质上的差异。NAS 技能的方针是生成练习完结后能够逾越人类手艺规划的架构。历来没有人宣称该解是该网络架构所固有的。

为了生成本身能够编码解的架构,权重的重要性有必要最小化。在评价网络功能时,研讨者没有挑选运用最优权重值的网络,而从随机散布中抽取权重值。用权重采样替代权重练习能够保证功能只与网络拓扑结构有关。

但是,因为维度很高,除了最简略的网络外,权重空间的牢靠采样在一切网络上都是不可行的。尽管维度问题阻止了研讨者对高维权重空间进行高效采样,但经过在一切权重上履行权重同享,权重值的数量削减到 1。

体系采样单个权值十分简略、高效,能够让咱们进行几回实验就能近似网络功能。然后能够运用这一近似来查找更好的架构。

首要流程

查找权重无关的神经网络(WANN)的流程如下:

接下来,算法从 (2) 开端重复,生成复杂度递加的权重无关拓扑结构,其功能优于之前的几代。

图 2:与权重无关的神经网络查找图示。

经过每次 rollout 时采样单个同享权重,与权重无关的神经网络查找在防止权重练习的一起,探究神经网络拓扑结构的空间。研讨者依据屡次 rollout 评价网络,在每次 rollout 时,为单个同享权重指定相应的值,并记载实验期间的累积奖赏。

之后,依据网络的功能和复杂度对网络群组进行排序。然后,依据概率选出排名最高的网络以生成新的群组,排名最高的网络是会随机改动的。之后重复这一进程。

用于查找神经网络拓扑的算子遭到神经进化算法 NEAT 的启示。不过 NEAT 中的拓扑和权重值是一起进行优化的,而本研讨无视权重,仅运用拓扑查找算子。极彩用户登录-真实的神经网络,勇于不学习权重

开端的查找空间包含多个稀少衔接网络、没有躲藏节点的网络,以及输入和输出层之间仅有少数或许衔接的网络。运用 insert node、add connection、change activation 这三个算子中的其间一个修正已有网络,然后创立新网络。新节点的激活函数是随机分配的。

图 3:查找网络拓扑空间的算子。

鉴于网络的前馈实质,在之前不衔接的节点之间增加新衔接。当躲藏节点的激活函数被改动后,激活函数进入随机分配形式。激活函数包含常见函数(如线性激活函数、sigmoid、ReLU)和不那么常见的(如 Gaussian、sinusoid、step),它们编码输入和输出之间的多种联系。

实验效果

该研讨在三个接连操控使命上评价权重无关神经网络(WANN):CartPoleSwingUp、BipedalWalker-v2 和 CarRacing-v0。研讨者依据之前研讨常用的规范前馈网络战略创立权重无关网络架构,从中选取最好的 WANN 架构进行均匀功能比照(100 次实验)。

表 1:随机采样网络和运用权重练习的网络在接连操控使命上的功能。

传统的固定拓扑网络仅在很多调参后才干生成有用的行为,而 WANN 运用随机同享权重都能够履行使命。

因为 WANN 很小,很简略解说,因而咱们能够检查以下网络图示,了解其作业原理。

图 4:权重无关拓扑跟着时刻的改动。Generation 128:增加复杂度,以改善小车的平衡动作。

模型终究在 BipedalWalker-v2 使命上获得的最好作用。

模型终究在 CarRacing-v0 使命上获得的最好作用。

WANN 办法在强化学习使命上获得的效果让咱们开端考虑,它还能够应用到哪些问题?WANN 能够编码输入之间的联系,十分合适强化学习使命:低维输入加上内部状况和环境交互,使反响型和自适应操控器得以发现。

但是,分类问题没那么含糊,它边界清楚,对便是对,错便是错。作为概念证明,研讨者查询了 WANN 在 MNIST 数据集上的体现。

即使是在高维分类使命中,WANN 办法仍然体现十分好(如图 5 左所示)。尽管局限于单个权重值,WANN 办法能够分类 MNIST 数字,且功能堪比具有数千个权重的单层神经网络(权重经过梯度下降进行练习)。创立的架构仍然坚持权重练习所需的灵活性,然后进一步提高准确率。

图 5:MNIST 数据集上的分类准确率。

上图左:以多个权重值作为集成进行实例化的 WANN 比随机权重采样的网络功能好得多,且功能与具有数千个权重的线性分类器相同。上图右:在一切数字上具有更高准确率的单个权重值不存在。WANN 可被实例化为多个不同网络,它们具有创立集成的或许性。

MNIST 分类网络进化为能够运用随机权重。

作者简介

这篇论文的一作 ADAM GAIER 现在德国波恩-莱茵-锡格应用技能大学和法国国家信息与自动化研讨所(INRIA)进行博士研讨。2019 年 1 月进入谷歌大脑,极彩用户登录-真实的神经网络,勇于不学习权重担任 Research Intern。

ADAM GAIER

从经历来看,他与我国颇有根由。2010 年 1 月-2011 年 6 月,他曾担任清华附我国际部(Tsinghua International School)的计算机科学负责人。

David Ha

二作 David Ha 是谷歌大脑研讨科学家,现在首要从事机器智能方向的研讨。他作为一作或参加编撰的论文屡次在顶会上宣布。机器之心曾报导过他作为一作所写的一篇论文《World Models》(拜见:模仿国际的模型:谷歌大脑与 Jrgen Schmidhuber 提出「人工智能梦境」)。

参阅极彩用户登录-真实的神经网络,勇于不学习权重内容:https://arxiv.org/abs/1906.04358

https://www.reddit.com/r/MachineLearning/comments/bzka5r/r_weight_agnostic_neural_networks/

市北GMIS 2019全球数据智能峰会于7月19日-20日在上海市静安区举办。本次峰会以「数据智能」为主题,聚集最前沿研讨方向,一起愈加重视数据智能经济及其工业生态的开展状况,为技能从研讨走向落地供给学习。

本次峰会设置宗旨讲演、主题讲演、AI画展、「AI00」数据智能榜单发布、闭门晚宴等环节,已承认到会嘉宾如下:

大会早鸟票已开售,咱们也为广阔学生用户预备了最高优惠的学生票,点击阅览原文立刻报名。

声明:该文观念仅代表作者自己,搜狐号系信息发布渠道,搜狐仅供给信息存储空间服务。
请关注微信公众号
微信二维码
不容错过
Powered By Z-BlogPHP