可灵AI全系模型上线“视频音效”功能 可同步生成高质量立体声音效
6月27日,可灵AI宣布全系列视频模型上线“视频音效”功能,用户在使用可灵AI进行视频创作时,不仅能获得高质量的视频画面,更能体验到与视频精准匹配、富有空间感的立体声音效,真正实现“所见即所听”的沉浸式体验。目前,该功能已无缝集成至文生视频、图生视频、多模态编辑等多种创作模式中,并限时免费开放。
与此同时,平台原有的“音效生成”也进一步升级,新增“视频生音效”功能。用户现在不仅可以通过文本生成音效,更可以直接上传本地视频,或选用在可灵平台创作的历史视频,一键为无声的画面匹配上语义契合、节奏同步的音效,自动适配动作、环境、氛围等多种场景,极大地提升了视频内容的表现力和沉浸感,有效降低了创作者在音频后期制作上的时间与技术成本。
从实际效果来看,可灵AI的音效功能在多个典型案例中展现了极高的音画同步精度和极佳的空间听感。例如,在生成“婴儿在活泼地笑”的视频片段中,模型不仅还原了婴儿清亮的笑声,甚至连婴儿笑容间隙短促的吸气声都完美捕捉,与画面中肉嘟嘟脸颊的起伏动作精准匹配,其富有空间感的立体声效果,让整个画面的温馨感与生命力扑面而来。
在另一段山体滑坡导致巨石砸中汽车的视频中,系统自动生成了金属扭曲断裂声、石块飞溅与尘土扬起的细节音效,声音定位清晰、动态层次丰富,提升了整体灾难场景的视觉冲击力与沉浸感。
据悉,上述功能的实现,依托于可灵AI自主研发的多模态视频生音效模型——Kling-Foley。Kling-Foley 支持基于视频内容与可选文本提示自动生成与视频画面语义相关、时间同步的高质量立体声音频,涵盖音效、背景音乐等多种类型声音内容。它支持生成任意时长的音频内容,还具备立体声渲染的能力,支持空间定向的声源建模和渲染。
今年3月,可灵AI首次推出AI音效功能,用户可通过输入文本生成相应的环境音或动作音,并可进一步结合平台生成的视频进行语义理解与自动匹配。随后,在可灵2.1模型中正式加入了视频音效功能,在生成视频的同时,系统也会自动生成与之匹配的音效,增强了整体视听体验。随着视频音效生成技术的成熟落地,将进一步释放可灵AI在广告创意、影视、短视频、游戏等内容等领域的发展潜力。
相关阅读
- 全国公众科技创新认知度调查报告:华为大疆比亚迪领跑,腾讯科大讯飞紧随其后
- 业务不顺人心思变,消息称部分三星电子员工考虑转投SK海力士
- 听音革命:场景跃迁、智能升维,《2025开放式耳机品类趋势洞察报告》发布
- 一加13和真我GT 7 Pro曝光 10月底11月初你期待吗?
- 电动汽车需求放缓 特斯拉在欧洲大幅下调Model Y售价
- 不再看SpaceX脸色!欧空局阿丽亚娜6号火箭即将首飞
- 征程·2025磁力引擎合作伙伴大会即将开启
- DeepSeek回答优化新路径:AI-CRO与GEO手段的深度解析
- “苏超”带火抖音电商江苏好物,无锡水蜜桃成交额环比增长超160%
- 接近0排放!吉利汽车尾气处理系统新专利公布