从视频一键提取某个声音:Meta 发布 SAM Audio,多模态音频分离新突破

感谢网友 浪花庆山粉 的线索投递!

12 月 17 日消息,Meta 今日发布了首个统一的多模态音频分离模型 —— SAM Audio

Meta 表示 SAM Audio 是一个“最先进的统一模型”,通过使用自然的、多模态的提示,使音频处理变得简单,能够轻松地从复杂的音频混合中分离出任何声音 —— 无论是通过文本、视觉提示还是时间段标记。这种直观的方法模拟了人们自然与声音互动的方式,使音频分离更加易于使用和实用。

SAM Audio 的核心是感知编码器视听(PE-AV),这是一个帮助实现先进性能的技术引擎。PE-AV 基于 Meta 今年早些时候分享的开源感知编码器模型构建,它使人们能够创建更先进的计算机视觉系统,以协助日常任务,包括声音检测。

▲ SAM Audio 核心架构

Meta 官方把 PE-AV 类比为“耳朵”,帮助 SAM Audio 这个“大脑”完成音频分割任务。比如,一段乐队演出的视频录像,只需点击一下吉他,就能分离出吉他音频

SAM Audio 还可以通过文本提示来分离音频,例如从户外拍摄的视频中过滤掉嘈杂的交通噪音。此外,跨度提示功能可以帮助人们一次性解决音频问题,例如在整个播客录音中过滤掉狗叫声的噪音。

SAM Audio 提出了三种音频分割方法,可以单独使用或任意组合以达到所需的效果:

  • 文本提示:输入“狗吠”或“人声演唱”以提取特定的声音。

  • 视觉提示:在视频中点击说话的人或发声的物体,以分离其音频。

  • 时间片段提示:这是行业首创的方法,允许用户标记目标音频出现的时间段,类似《赛博朋克 2077》里的超梦。

Meta 还发布了 SAM Audio-Bench,这是首个真实场景下的音频分离基准测试;以及 SAM Audio Judge,这是首个用于音频分离的自动评估模型。

Meta 今日发布了第二个模型 —— Perception Encoder Audiovisual,是 SAM Audio 成果的核心引擎。它支持核心组件,如主要的字幕生成模型和 SAM Audio Judge。该模型基于 Meta 于四月发布的开源模型 Meta Perception Encoder 构建,PE-AV 将计算机视觉能力扩展到了音频领域。

附 SAM Audio 访问地址如下:

  • https://ai.meta.com/samaudio/

  • https://github.com/facebookresearch/sam-audio

Published by

风君子

独自遨游何稽首 揭天掀地慰生平