大型语言模型(llm)正在改变每个行业的用户期望。然而,建立以人类语音为中心的生成式人工智能产品仍然很困难,因为音频文件对大型语言模型构成了挑战。
将 llm 应用于音频文件的一个关键挑战是,llm 受其上下文窗口的限制。在一个音频文件能够被送入 llm 之前,它需要被转换成文本。音频文件越长,绕过 llm 的上下文窗口限制的工程挑战就越大。但工作场景中,我们往往需要 llm 帮我们处理非常长的语音文件,比如从一段几个小时的会议录音中抽取核心内容、从一段访谈中找到某个问题的答案……
最近,语音识别 ai 公司 assemblyai 推出了一个名为 lemur 的新模型。就像 chatgpt 处理几十页的 pdf 文本一样,lemur 可以将长达 10 小时的录音进行转录、处理,然后帮用户总结语音中的核心内容,并回答用户输入的问题。
试用地址:https://www.assemblyai.com/playground/v2/source
lemur 是 leveraging large language models to understand recognized speech(利用大型语言模型来理解识别的语音)的缩写,是将强大的 llm 应用于转录的语音的新框架。只需一行代码(通过 assemblyai 的 python sdk),lemur 就能快速处理长达 10 小时的音频内容的转录,有效地将其转化为约 15 万个 token。相比之下,现成的、普通的 llm 只能在其上下文窗口的限制范围内容纳最多 8k 或约 45 分钟的转录音频。
为了降低将 llm 应用于转录音频文件的复杂性,lemur 的 pipeline 主要包含智能分割、一个快速矢量数据库和若干推理步骤(如思维链提示和自我评估),如下图所示:
图 1:lemur 的架构使用户能够通过一个 api 调用将长的和 / 或多个音频转录文件发送到 llm 中。
未来,lemur 有望在客服等领域得到广泛应用。
lemur 解锁了一些惊人的新可能性,在几年前,我认为这些都是不可能的。它能够毫不费力地提取有价值的见解,如确定最佳行动,辨别销售、预约或呼叫目的等呼叫结果,感觉真的很神奇。—— 电话跟踪和分析服务技术公司 callrail 首席产品官 ryan johnson
lemur 解锁了什么可能性?将 llm 应用于多个音频文本
lemur 能够让用户一次性获得 llm 对多个音频文件的处理反馈,以及长达 10 小时的语音转录结果,转化后的文本 token 长度可达 150k 。
可靠、安全的输出
由于 lemur 包含安全措施和内容过滤器,它将为用户提供来自 llm 的回应,这些回应不太可能产生有害或有偏见的语言。
可补充上下文
在推理时,它允许加入额外的上下文信息,llm 可以利用这些额外信息在生成输出时提供个性化和更准确的结果。
模块化、快速集成
lemur 始终以可处理的 json 形式返回结构化数据。用户可以进一步定制 lemur 的输出格式,以确保 llm 给出的响应是他们下一块业务逻辑所期望的格式(例如将回答转化为布尔值)。在这一流程中,用户不再需要编写特定的代码来处理 llm 的输出结果。
试用结果根据 assemblyai 提供的测试链接,机器之心对 lemur 进行了测试。
lemur 的界面支持两种文件输入方式:上传音视频文件或粘贴网页链接均可。
我们用 hinton 近期的一份访谈资料作为输入,测试 lemur 的性能。
上传之后,系统提示我们要等一段时间,因为它要先把语音转成文字。
转录之后的界面如下:
在页面右侧,我们可以要求 lemur 总结采访内容或回答问题。lemur 基本可以轻松地完成任务:
如果要处理的语音是一段演讲或客服回复,你还能向 lemur 征求改进建议。
不过,lemur 似乎目前还不支持中文。感兴趣的读者可以去尝试一下。
以上就是能听懂语音的chatgpt来了:10小时录音扔进去,想问什么问什么的详细内容。