1.全球掀复现「室温常压超导体」热潮,中国队已肝十几小时,韩国团队却内讧了
2.训练14分钟,超越Alpaca!华人团队发布「飞天羊驼」,基于LLM的数据过滤新范式
全球掀复现「室温常压超导体」热潮,中国队已肝十几小时,韩国团队却内讧了
文章来源:量子位
概述
全球科学界正在掀起复现「室温常压超导体」的热潮,中国和韩国的研究团队正在进行紧张的实验。这一研究的复现工作引发了广泛的关注,因为其实验步骤相对简单,甚至有业余爱好者也在尝试复现。
要点
- [🔬] 全球科学界正在掀起复现「室温常压超导体」的热潮,中国和韩国的研究团队正在进行紧张的实验。
- [🌍] 这一研究的复现工作引发了广泛的关注,因为其实验步骤相对简单,甚至有业余爱好者也在尝试复现。
- [📈] 网友们在社交媒体上分享了他们的实验步骤和进展,引发了大量的关注和讨论。
- [🔎] 有些科学家对这项研究表示怀疑,认为所观察到的可能是一种弱抗磁效应,而非真正的超导现象。
- [🎭] 这项研究的论文发布引发了一些争议,因为两篇论文的作者名单不同,引发了关于诺贝尔奖最多由三人分享的猜测。
训练14分钟,超越Alpaca!华人团队发布「飞天羊驼」,基于LLM的数据过滤新范式
文章来源:新智元
概述
马里兰大学、三星和南加大的研究人员提出了一种利用大语言模型(LLM)自动识别和删除低质量数据的数据选择策略——AlpaGasus。这种策略不仅在测试中优于原始的Alpaca,而且训练速度更快。
要点
- [🔬] 研究人员提出了一种有效的数据过滤策略,使用强大的LLM(例如,ChatGPT)自动识别和移除低质量数据,以改善指令微调(IFT)的效果。
- [📈] AlpaGasus在多个测试集上显著优于原始的Alpaca,其13B版本甚至在测试任务上的表现超过了90%的教师模型(即,Text-Davinci-003)。
- [⏱️] AlpaGasus在训练时间上也实现了5.7倍的提升,将7B版本的训练时间从80分钟缩短到了14分钟。
- [📊] 研究结果显示,数据的质量比数量更重要。使用9k高质量数据训练的模型会显著好于用39k质量一般数据训练的模型。
- [💰] AlpaGasus的训练成本明显低于Alpaca,这显示出作者的数据选择策略在模型规模扩大时,可以带来更显著的训练成本节约。
(AI大观日报会为您推送每日的AI热点新闻,其中所有的概述及要点都由AI自动总结生成。若想查看详细内容,可点击标题进入原文)
👍
假的
这个还在验证中