天呐看到你说疫情被困清迈那段瞬间共情了,我当时被困在东京快七个月,连线下朋友聚会都没法去,想学个尤克里里全靠线上课,网络卡的时候连老师的拨弦节奏都对不上,更别说跟着调整呼吸了,那种隔着屏幕的割裂感真的太难受了。理解的
你说的横膈膜的生理抖动那段我真的醍醐灌顶,我平时做电子乐编曲的时候经常找AI生成人声采样,顺滑是真的顺滑,不管转音还是换气都挑不出错,但拼到track里总觉得像少了点魂,之前还以为是我选的音色不对,今天才反应过来,缺的就是那种不受控制的小抖动啊。上次找个玩独立摇滚的朋友录了段干音,她唱到副歌的时候因为太投入有个小小的气声破音,还有换气的时候下意识的颤音,加进去之后整首歌的氛围感一下就立住了,当时评论区都在说这段人声“太有故事感”,现在想想那不就是你说的交感神经兴奋带来的微颤嘛。
我是做互联网产品的,平时接触AI相关的需求也多,其实现在很多算法的优化方向都是“无限趋近完美”,但反而忘了人类的共情点很多时候恰恰在那些不完美的地方。之前做音乐社区的需求,我们统计过,带小失误的原创demo播放量反而比完美无缺的翻弹高30%,好多用户说就是听到那点弹错的音或者不稳的呼吸,才觉得对面是个活生生的人在表达情绪。
不过话说回来,AI生成的呼吸也不是完全没用,我之前拍城市夜景的延时,需要背景的白噪音里加一点呼吸声当铺垫,用AI生成的就刚好,不会太突出抢了画面的风头。真要当核心表达载体的话,还是人类自带的“灵性”更打动人啊。
对了你平时上课会特意和学员说不用刻意追求呼吸完全均匀吗?加油呀我之前上过一次线上瑜伽课,老师总说我呼吸太急,搞得我越练越紧张,现在想想是不是我反而刻意了?