AI大观日报 | 23.05.22

 

(AI大观日报会为您推送每日的AI热点新闻,其中所有的概述及要点都由AI自动总结生成。若想查看详细内容,可点击标题进入原文)

GPT-4推理提升1750%!普林斯顿清华姚班校友提出全新「思维树ToT」框架,让LLM反复思考

文章来源:  新智元

概述

本文介绍了一种新的语言模型推理框架——思维树(ToT),让GPT-4可以自己提案、评估和决策,推理能力最高可提升1750%。文章介绍了ToT的原理、实验和作者信息。

要点

  • 🌲 ToT将当前流行的「思维链」方法泛化到引导语言模型,并通过探索文本(思维)的连贯单元来解决问题的中间步骤。
  • 🧠 ToT可以让LLM自己给出多条不同的推理路径,分别进行评估后,决定下一步的行动方案,在必要时向前或向后追溯,以便实现进行全局的决策。
  • 🚀 ToT显著提高了LLM在三个新任务(24点游戏,创意写作,迷你填字游戏)中的问题解决能力。
  • 👥 论文一作Shunyu Yao是普林斯顿大学的四年级博士生,此前毕业于清华大学的姚班。其他作者包括Google DeepMind的研究科学家和软件工程师。

强过AutoGPT!微软重磅研究提出APO算法,「自动提示」淘汰提示工程师

文章来源:  新智元

概述

本文介绍了微软研究人员提出的自动提示优化(APO)算法,一种用于优化大型语言模型(LLM)提示的通用非参数方法。APO利用梯度下降和集束搜索在自然语言空间中自动改进提示,实现了多种自然语言处理任务的即时学习。

要点

  • 🚀 APO算法可以显著提高提示的性能,并具有可解释性
  • 🧠 APO算法使用梯度下降集束搜索在文本的苏格拉底对话中优化提示
  • 🏆 APO算法在四个NLP任务中超越了最先进的提示学习基线,比AutoGPT提高了15.2%

7nm制程,比GPU效率高,Meta发布第一代AI推理加速器

文章来源:  机械之心

概述

本文介绍了 Meta 发布的第一代 AI 推理加速器 MTIA,它是一种基于 7nm 工艺的 ASIC 芯片,能够高效地运行 PyTorch 上的深度学习推荐模型 (DLRMs) 等工作负载,提供了硬件、软件和性能方面的详细信息。

要点

  • 🚀 MTIA 加速器采用 TSMC 7nm 工艺制造,运行频率为 800 MHz,在 INT8 精度下提供 102.4 TOPS,在 FP16 精度下提供 51.2 TFLOPS。
  • 🧠 MTIA 加速器由 64 个处理元件 (PE) 组成,每个 PE 配备两个基于 RISC-V 的处理器内核和一些固定功能单元,支持线程和数据级并行性、指令级并行性和内存级并行性。
  • 💻 MTIA 加速器安装在小型双 M.2 板上,可以更轻松地集成到服务器中。每台服务器包含 12 个加速器,这些加速器连接到主机 CPU,并使用 PCIe 交换机层级相互连接。
  • 📚 MTIA 软件栈与 PyTorch 完全集成,给用户提供了一种熟悉的开发体验。它还包含了一个手动调整和高度优化的内核库,以及一些新功能,例如 TorchDynamo 和 TorchInductor。
  • 📊 MTIA 性能与 NNPI 和 GPU 相比,能够更高效地处理低复杂度和中等复杂度的 DLRMs 模型。Meta 尚未针对高复杂度的模型进行 MTIA 的优化。

云从大模型现场真机演示!考中考堪比ChatGPT,还秀了一波代码能力,创始人周曦:三种递进方式颠覆传统交互

文章来源:  量子位

概述

这篇文章介绍了云从大模型的发布会,展示了它的多种能力和应用场景,以及云从创始人周曦对AI发展的三浪理论和人机协同操作系统的愿景。

要点

  • 🚀 云从大模型取名从容,能够进行语言理解生成、中英文写作翻译、编程和跨模态阅读理解等任务,与ChatGPT、GPT-4等模型进行了对比。
  • 🌐 云从创始人周曦提出了AI发展三浪理论,认为现在已进入到大模型时代,即技术平台化和标准化的阶段,可以快速适应海量场景和实现海量应用。
  • 🤖 云从一直以来的定位和战略方向是构建人机协同操作系统,需要构建它的“灵魂”和“肉体”,大模型将在其中得到充分应用。

给TA打赏
共{{data.count}}人
人已打赏
AI资讯

AI大观日报 | 23.05.21

2023-5-21 17:31:00

AI资讯

AI大观日报 | 23.05.23

2023-5-23 17:27:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索