AI大观日报 | 23.06.09

 

(AI大观日报会为您推送每日的AI热点新闻,其中所有的概述及要点都由AI自动总结生成。若想查看详细内容,可点击标题进入原文)

智源「悟道3.0」大模型系列问世,这次不拼参数,开源开放成为主角

文章来源:  机器之心

概述

本文介绍了北京智源人工智能研究院(智源)发布的悟道 3.0 大模型系列,包括语言大模型、视觉大模型、评测体系和开源平台等。智源通过开源开放的方式,推动大模型的技术创新和产业落地,为通往通用人工智能(AGI)的道路探索新的可能性。

要点

  • 🚀 智源发布了「悟道・天鹰」(Aquila)语言大模型系列,包括基础模型、对话模型和代码生成模型,支持中英双语知识和商用许可协议。
  • 🎨 智源发布了「悟道・视界」视觉大模型系列,包括多模态大模型、通用视觉模型、分割一切模型和零样本视频编辑技术等,聚焦视觉和多模态上下文学习。
  • ⚖️ 智源与多个高校和科研院所合作构建 FlagEval(天秤)开源大模型评测体系及开放平台,提供多领域多维度的评测指标和数据集,帮助研发者全方位评估基础模型及训练算法的性能。
  • 🌐 智源通过 FlagOpen 飞智大模型技术开源体系,集成了全球各种主流大模型算法技术,并持续开源悟道 3.0 大模型系列,打造属于大模型时代的「新 Linux 生态」。

500万token巨兽,一次读完全套「哈利波特」!比ChatGPT长1000多倍

文章来源:  新智元

概述

本文介绍了一种名为LTM-1的语言模型,它可以输入500万个token,相当于一次读完全套「哈利波特」。该模型的主要应用场景是代码补全,可以生成更长、更复杂的代码建议,还可以跨越多个文件重用、合成信息。本文还介绍了一种名为∞-former的模型,它使用了长期记忆(LTM)机制,理论上可以让Transformer模型具有无限长的记忆力。

要点

  • 🚀 LTM-1是一种创新的语言模型,最长支持500万token,比Claude高50倍
  • 💻 LTM-1的主要应用场景是代码补全,可以帮助软件工程师编写、审查、调试和修改代码
  • 🧠 LTM-1使用了一种全新的方法the Long-term Memory Network (LTM Net),可能与∞-former有关
  • 🔬 ∞-former是一种使用了长期记忆机制的Transformer模型,可以将输入序列扩展到无限
  • 📊 ∞-former在排序、语言建模和基于文档对话生成等任务上表现出优势,能够对长语境进行建模

马斯克脑机接口公司估值356亿!人体试验申请注册开放,网友跃跃欲试:给我植入

文章来源:  量子位

概述

马斯克的脑机接口公司Neuralink估值飙升至50亿美元,已获得FDA批准进行人体临床研究。该公司致力于将人脑和计算机相连,通过植入芯片增强人类大脑的能力和治疗疾病。网友对此表示跃跃欲试,想成为第一个实验对象。

要点

  • 🚀 马斯克是Neuralink的创始人之一,也是Tesla、SpaceX和OpenAI的创始人或联合创始人
  • 🧠 Neuralink采用侵入式的脑机接口技术,通过机器人手术将微线植入人脑,实现与计算机的通信
  • 🐷 Neuralink曾在小猪和猕猴的大脑中植入芯片,成功演示了动物的神经元活动和意念控制
  • 🧑‍⚕️ Neuralink已经获得FDA的批准,可以启动首次人体临床研究,目标是治疗四肢瘫痪、视力或听力丧失、截瘫和失语等疾病
  • 🙋‍♂️ Neuralink官网已经开放患者注册表,感兴趣的患者可以登记,等待实验安排

给TA打赏
共{{data.count}}人
人已打赏
AI资讯

AI大观日报 | 23.06.08

2023-6-8 14:34:27

AI资讯

AI大观日报 | 23.06.10

2023-6-10 14:12:33

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索