小米自研声音理解大模型 MiDashengLM-7B 今日正式发布,并全量开源。
b3P+H r Hkg2P,2 据小米官方介绍,MiDashengLM-7B 速度精度上实现双突破:单样本首 Token 延迟仅为同类模型 1/4、同显存下并发超 20 倍,在 22 个公开评测集上刷新多模态大模型最好成绩(SOTA)。
m%0p\Y-/
k<z)WNBf MiDashengLM-7B 基于 Xiaomi Dasheng 作为音频编码器和 Qwen2.5-Omni-7B Thinker 作为自回归解码器,通过创新的通用音频描述训练策略,实现了对语音、环境声音和音乐的统一理解。
YByLoM* .S EdY: 2024 年,小米发布的 Xiaomi Dasheng 声音基座模型在国际上首次突破 AudioSet 50+ mAP,在 HEAR Benchmark 环境声、语音、音乐三大领域建立领先优势并保持至今。
X hR4ru` &L3M] Xiaomi Dasheng 在小米的智能家居和汽车座舱等场景有超过 30 项落地应用。行业首发的车外唤醒防御、手机音箱全天候监控异常声音、“打个响指”环境音关联 IoT 控制能力,以及小米 YU7 上搭载的增强哨兵模式划车检测等,背后都有 Xiaomi Dasheng 作为核心算法的赋能。
2V]UJ< [=C6U_vU MiDashengLM 的训练数据由 100% 的公开数据构成,模型以宽松的 Apache License 2.0 发布,同时支持学术和商业应用。
; cNv\t
^ G]J ,+ 小米表示,不同于 Qwen2.5-Omni 等未公开训练数据细节的模型,MiDashengLM 完整公开了 77 个数据源的详细配比,技术报告中详细介绍了从音频编码器预训练到指令微调的全流程。
&.3"Uo\#
}ZYd4h|g\z 作为小米“人车家全生态”战略的关键技术,MiDashengLM 通过统一理解语音、环境声与音乐的跨领域能力,不仅能听懂用户周围发生了什么事情,还能分析发现这些事情的隐藏含义,提高用户场景理解的泛化性。
XMZ,Y7 $Ph|e)p 基于 MiDashengLM 的模型通过自然语言和用户交互,为用户提更人性化的沟通和反馈,比如在用户练习唱歌或练习外语时提供发音反馈并制定针对性提升方案,又比如在用户驾驶车辆时实时对用户关于环境声音的提问做出解答。
7K12 G!) cUk7i`M;6 MiDashengLM 以 Xiaomi Dasheng 音频编码器为核心组件,是 Xiaomi Dasheng 系列模型的重要升级。在当前版本的基础上,小米已着手对该模型做计算效率的进一步升级,寻求终端设备上可离线部署,并完善基于用户自然语言提示的声音编辑等更全面的功能。
D#aDv0b 4>YR{ 附 MiDashengLM 开源地址:
"> ypIR< =<C:d GitHub 主页:
https://github.com/xiaomi-research/dasheng-lm 50h!
X9 @ 6\I~s( 技术报告:
https://github.com/xiaomi-research/dasheng-lm/tree/main/technical_report SZ7:u895E 5"VTK 模型参数(Hugging Face):
https://huggingface.co/mispeech/midashenglm-7b +D6YR$_< rE7G{WII 模型参数(魔搭社区):
https://modelscope.cn/models/midasheng/midashenglm-7b !"AvY y9 q~Hn-5H4Q 网页 Demo:
https://xiaomi-research.github.io/dasheng-lm _{ue8kGt #!B4 u?"m 交互 Demo:
https://huggingface.co/spaces/mispeech/MiDashengLM 810|Tj*U%