您好,欢迎访问一九零五行业门户网

DeepMind用AI重写排序算法;将33B大模型塞进单个消费级GPU

目录:
faster sorting algorithms discovered using deep reinforcement learningvideo-llama: an instruction-tuned audio-visual language model for video understandingpatch-based 3d natural scene generation from a single examplespatio-temporal diffusion point processesspqr: a sparse-quantized representation for near-lossless llm weight compressionunicontrol: a unified diffusion model for controllable visual generation in the wildfrugalgpt: how to use large language models while reducing cost and improving performance论文 1:faster sorting algorithms discovered using deep reinforcement learning
作者:daniel j. mankowitz 等论文地址:https://www.nature.com/articles/s41586-023-06004-9摘要:「通过交换和复制移动,alphadev 跳过了一个步骤,以一种看似错误,但实际上是捷径的方式连接项目。」这种前所未见、违反直觉的思想不禁让人回忆起 2016 年那个春天。
七年前,alphago 在围棋上击败人类世界冠军,如今 ai 又在编程上给我们上了一课。google deepmind ceo 哈萨比斯的两句话引爆计算机领域:「alphadev 发现了一种全新且更快的排序算法,我们已将其开源到主要 c++ 库中供开发人员使用。这只是 ai 提升代码效率进步的开始。」
推荐:ai 重写排序算法,速度快 70%:deepmind alphadev 革新计算基础,每天调用万亿次的库更新了
论文 2:video-llama: an instruction-tuned audio-visual language model for video understanding
作者:hang zhang 等论文地址:https://arxiv.org/abs/2306.02858摘要:近期,大语言模型展现出了令人瞩目的能力。我们能否给大模型装上 “眼睛” 和 “耳朵”,让它能够理解视频,陪着用户互动呢?
从这个问题出发,达摩院的研究人员提出了 video-llama,一个具有综合视听能力大模型。video-llama 能够感知和理解视频中的视频和音频信号, 并能理解用户输入的指令,完成一系列基于音视频的复杂任务,例如音 / 视频描述,写作,问答等。目前论文,代码,交互 demo 都已开放。另外,在 video-llama 的项目主页中,该研究团队还提供了中文版本的模型,让中文用户的体验更丝滑。
下面两个例子展示了 video-llama 的视听综合感知能力,例子中的会话围绕有声视频展开。
推荐:给语言大模型加上综合视听能力,达摩院开源 video-llama。论文 3:patch-based 3d natural scene generation from a single example
作者:weiyu li 等论文地址:https://arxiv.org/abs/2304.12670摘要:北京大学陈宝权团队联合山东大学和腾讯 ai lab 的研究人员,提出了首个基于单样例场景无需训练便可生成多样高质量三维场景的方法。
推荐:cvpr 2023 | 三维场景生成:无需任何神经网络训练,从单个样例生成多样结果。
论文 4:spatio-temporal diffusion point processes
作者:yuan yuan 等论文地址:https://arxiv.org/abs/2305.12403摘要:清华电子工程系城市科学与计算研究中心最新提出时空扩散点过程,突破已有方法建模时空点过程的受限概率形式和高采样成本等缺陷,实现了灵活、高效且易于计算的时空点过程模型,可广泛用于城市自然灾害、突发事故和居民活动等时空事件的建模与预测,促进城市规划和管理的智能化发展。下表展示 dstpp 相比已有点过程解决方案的优势。
推荐:扩散模型还能预测地震和犯罪?清华团队最新研究提出时空扩散点过程。
论文 5:spqr: a sparse-quantized representation for near-lossless llm weight compression
作者:tim dettmers 等论文地址:https://arxiv.org/pdf/2306.03078.pdf摘要:为了解决准确性问题,来自华盛顿大学、苏黎世联邦理工学院等机构的研究者提出了一种新的压缩格式和量化技术 spqr(稀疏 - 量化表征),首次实现了 llm 跨模型尺度的近无损压缩,同时达到了与以前方法相似的压缩水平。
spqr 通过识别和隔离异常权重来工作,这些异常权重会导致特别大的量化误差,研究者将它们以更高的精度存储,同时将所有其他权重压缩到 3-4 位,在 llama 和 falcon llms 中实现了不到 1% 的困惑度相对准确率损失。在单个 24gb 的消费级 gpu 上运行 33b 参数的 llm,而不会有任何性能下降,同时还能提高 15% 的速度。下图 3 为 spqr 的总体架构。
推荐:将 330 亿参数大模型「塞进」单个消费级 gpu,加速 15%、性能不减。
论文 6:unicontrol: a unified diffusion model for controllable visual generation in the wild
作者:can qin 等论文地址:https://arxiv.org/abs/2305.11147摘要:本文中,salesforce ai、东北大学、斯坦福大学的研究者提出了 moe-style adapter 和 task-aware hypernet 来实现 unicontrol 中的多模态条件生成能力。unicontrol 在九个不同的 c2i 任务上进行训练,展示了强大的视觉生成能力和 zero-shot 泛化能力。unicontrol 模型由多个预训练任务和 zero-shot 任务组成。
推荐:多模态可控图片生成统一模型来了,模型参数、推理代码全部开源。
论文 7:frugalgpt: how to use large language models while reducing cost and improving performance
作者:lingjiao chen 等论文地址:https://arxiv.org/pdf/2305.05176.pdf摘要:成本和准确性之间的平衡是决策制定的关键因素,尤其是在采用新技术时。如何有效和高效地利用 llm 是从业者面临的关键挑战:如果任务相对简单,那么聚合来自 gpt-j (其规模比 gpt-3 小 30 倍)的多个响应可以实现与 gpt-3 类似的性能,从而实现成本和环境上的权衡。然而,在较为困难任务上,gpt-j 的性能可能会大大下降。因此,如何经济高效地使用 llm 需要采用新的方法。
最近的一项研究尝试提出解决这一成本问题的方法,研究者通过实验表明,frugalgpt 可以与最佳个体 llm(例如 gpt-4) 的性能相媲美,成本降低高达 98%,或者在相同成本下将最佳个体 llm 的准确性提高 4%。该研究讨论了三种降低成本的策略,即 prompt 适应、llm 近似和 llm 级联。
推荐:gpt-4 api 平替?性能媲美同时成本降低 98%,斯坦福提出 frugalgpt,研究却惹争议。
以上就是deepmind用ai重写排序算法;将33b大模型塞进单个消费级gpu的详细内容。
其它类似信息

推荐信息