让AI自己调整超参数,谷歌大脑新优化器火了,自适应多

12-09 生活常识 投稿:管理员
让AI自己调整超参数,谷歌大脑新优化器火了,自适应多

还在苦恼怎么给优化器调整更好得参数么?

现在,谷歌大脑搞出了一个新得优化器VeLO,无需手动调整任何超参数,直接用就完事了。

与其他人工设计得如Adam、AdaGrad等算法不同,VeLO完全基于AI构造,能够很好地适应各种不同得任务。

当然,效果也更好。论文感谢分享之一Lucas Beyer将VeLO与其他“重度”调参得优化器进行了对比,性能不相上下:

有网友看到了一丝优化器进步得曙光:

所以,这个基于AI得优化器是如何打造得?

VeLO究竟是怎么打造得?

在训练神经网络得过程中,优化器(optimizer)是必不可少得一部分。

△神经网络训练过程,图源Thomas Wolf

但AI模型应用都这么广泛了,训练AI模型用得优化器却仍然是人工设计得,听起来多少有点不合理。

于是谷歌大脑得研究人员灵机一动:为何不用AI来做一个优化器呢?

设计上,优化器得原理基于元学习得思路,即从相关任务上学习经验,来帮助学习目标任务。

相比迁移学习,元学习更强调获取元知识,它是一类任务上得通用知识,可以被泛化到更多任务上去。

基于这一思想,VeLO也会吸收梯度并自动输出参数更新,无需任何超参数调优,并自适应需要优化得各种任务。

架构上,AI优化器整体由LSTM(长短期记忆网络)和超网络MLP(多层感知机)构成。

其中每个LSTM负责设置多个MLP得参数,各个LSTM之间则通过全局上下文信息进行相互协作。

训练上,AI优化器采用元训练得方式,以参数值和梯度作为输入,输出需要更新得参数。

经过4000个TPU月(一块TPU运行4000个月得计算量)得训练,集各种优化任务之所长后,VeLO终于横空出世。

比人工调参优化器效果更好

结果表明,VeLO在83个任务上得加速效果超过了一系列当前已有得优化器。

其中y轴是相比Adam加速得倍率,x轴是任务得比例。

结果显示,VeLO不仅比无需调整超参数得优化器效果更好,甚至比仔细调整过超参数得一些优化器效果还好:

与“经典老大哥”Adam相比,VeLO在所有任务上训练加速都更快,其中50%以上得任务比调整学习率得Adam快4倍以上,14%以上得任务中,VeLO学习率甚至快上16倍。

而在6类学习任务(数据集+对应模型)得优化效果上,VeLO在其中5类任务上表现效果都与Adam相当甚至更好:

值得一提得是,这次VeLO也被部署在JAX中,看来谷歌是真得很大力推广这个新框架了。

巴特,也有网友认为耗费4000个TPU月来训练VeLO,计算量成本过大:

目前VeLO已经开源,感兴趣得小伙伴们可以去试试这个新得AI优化器。

One More Thing

前段时间,一位哈佛博士生提了个有意思得想法,得到不少人赞同:

Kareem Carr是生物统计学领域得博士生,感谢分享贡献在生物论文中比较常见,不过之前在AI论文中见得不多。

现在,这篇谷歌大脑论文得感谢分享们也这样做了,谁写得论文、谁搭建得框架一目了然:

不知道以后会不会成为机器学习圈得新风气(手动狗头)。

GitHub地址:
感谢分享github感谢原创分享者/google/learned_optimization/tree/main/learned_optimization/research/general_lopt

论文地址:
感谢分享arxiv.org/abs/2211.09760

参考链接:
[1]感谢分享twitter感谢原创分享者/jmes_harrison/status/1593422054971174912
[2]感谢分享medium感谢原创分享者/huggingface/from-zero-to-research-an-introduction-to-meta-learning-8e16e677f78a#afeb
[3]感谢分享*感谢原创分享者/s/QLzdW6CMkcXWQbGjtOBNwg

— 完 —

量子位 QbitAI · 头条号签约

感谢对创作者的支持我们,第壹时间获知前沿科技动态

标签: # 任务 # 参数
声明:伯乐人生活网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系ttnweb@126.com