更节俭计算资源!50%性能优化-谷歌更新Transformer架构
编号:24066 分类:最新资讯 阅读: 时间:2024-04-08

终于更新了架构。

发布的 <strong> Mixture-of-Depths (MoD),扭转了以往Transformer计算形式。

它经过 灵活调配 大模型中的计算资源,跳过一些不用要计算,清楚提高训练效率和推理速度。

结果显示,在等效计算量和训练时期上,MoD每次向前流传所需的计算量更小,而且后训练采样环节中步进速度 提高50%

这一方法刚刚发布,就马上引发关注。

MoE风头正盛,MoD曾经来后浪拍前浪了?

还有人开局算账:

所以MoD如何成功?

迫使大模型关注真正关键消息

这项钻研提出,如今的大模型训练和推理中,有很多计算是没必要的。

比如预测下一个句子很难,然而预测句子完结的标点符号很繁难。假设给它们调配雷同的计算资源,那么后者清楚糜费了。

在现实状况下,模型应该只给须要准确预测的token调配更多计算资源。

所以钻研人员提出了。

它在输入序列中的特定位置灵活调配FLOPs(运算次数或计算资源),优化不同档次的模型深度中的调配。

经过限度给定层的自留意力和MLP计算的token数量,迫使神经网络学会关键关注真正关键的消息。

由于token数量是事前定义好的,所以这个环节经常使用一个已知张量大小的静态计算图,可以在时期和模型深度上灵活裁减计算量。

下图右上图中的橙色局部,示意没有经常使用所有计算资源。

这种方法在节俭计算资源的同时,还能提高效率。

这些模型在等效的FLOPS和训练时期上与基线性能相婚配,但每次前向流传所需的FLOP更少,并且在训练后采样时提速50%。

对比来看,假设为每一个token生成一个概率散布,每个token依据概率被送去对应的专家,或许会造成负载不平衡。

假设反上来,这能保证负载平衡,然而或许造成某些token被适度处置或处置无余。

最起初看论文中经常使用的Expert-choiceMoD,router输入的权重被用于确定哪些token将经常使用transformer亏啊计算。权重较大的token将介入计算,权重较小的token将经过残差衔接绕过计算,从而处置每次向前流传的FLOPs。

最后,钻研团队展现了MoD在不同试验中的性能体现。

首先,他们经常使用相对较小的FLOP预算(6e18),以确定超参数性能。

经过这些试验,作者发现MoD方法能够拉低并向右推移isoFLOP基线曲线,这象征着的MoD方法在更低的损失水平上领有更多的参数。

经过isoFLOP剖析,比拟6e18、2e19和1e20FLOPs的总计算预算下的模型性能。

结果显示,在更多FLOP预算下,FLOP的MoD依然比基线模型有更多的参数。

存在一些MoD变体,在步骤速度上比isoFLOP基线模型更快,同时成功更低的损失。这标明在训练之外,MoD的计算节俭依然有效。

同时,钻研团队还讨论了MoD和MoE联合的或许性——MoDE。

结果标明而这联合能提供更好的性能和更快的推理速度。

网友:联想到了ResNet

MoD推出后马上引发了不小关注。

有人感叹,MoE还没有弄清楚呢,MoD都曾经来了!

谷歌

这么高效的方法,让人马上联想到了ResNet。

不过和ResNet不同,MoD跳过衔接是齐全绕过层的。

还有人示意,宿愿这种方法是齐全灵活的,而不是每个层固定百分比。

这项钻研由DeepMind和麦吉尔大学共同带来。

关键奉献者是DavidRaposo和AdamSantoro。

他们二人都是DeepMind的钻研迷信家。此前共同带来了神作《Relationalinductivebiases,deeplearning,andgraphnetworks》。

这篇论文目前被引次数超越3500次,论文外围定义了Inductivebias(演绎偏置)概念。

论文地址:

参考链接:

[1]

[2]

AiBase副业搞钱交换群

欢迎大家参与AiBase交换群,扫码进入,畅谈AI赚钱心得,共享最新行业灵活,发现潜在协作同伴,迎接未来的赚钱时机!。

(揭发)

AI正版系统源码介绍:小狐狸GPT-AI付费创作系统+开源可二开+私有常识库+聚合15家干流AI接口

网址推荐 网址推荐