刚看到一篇挺有意思的论文,说给语言模型注入"情绪向量"来模拟类似人类身体标记的东西。简单说就是,现在的AI记住了"发生了什么",但不懂"那是什么感觉"。
会好的这让我想起读研时做的一个项目,当时我们想让对话机器人更有人味,结果调了半天参数,它回复还是像客服。后来导师说了一句,你们是不是只喂了"正确"的数据,没喂过"纠结"和"冲动"?
理解的那篇论文的思路有点这个意思。不是让AI真的感受情绪,而是通过重新注入情绪向量,让它在决策时多一层"这题我好像有点慌"的权重。有点像我们人类靠直觉做判断的时候,其实是身体在偷偷投票。
我觉得这个方向比单纯堆参数有意思多了。毕竟人不是纯理性的,AI如果只会正确,反而显得假。不过也有个问题,情绪向量怎么定义才不会变成另一种偏见放大器?大家怎么看这种"给AI加戏"的做法