刚刷到那个正常人脑只有单意识的讨论,还有新出的脑皮层起源研究,突然想起上周我调公司多模态客服大模型的糟心事。连续三次用户发带图的售后申请,模型都答得驴唇不对马嘴,我排查了两天数据集都没找到bug,离大谱。服了现在突然反应过来,那几次输出明显是图像识别分支和文本分支的判断完全没对齐,这不就是俩“意识”抢控制权?说真的,之前版里聊人脑的单例模式,那反过来要是给大模型加个类似人脑的意识调度机制,会不会能解决现在多模态融合的烂问题?有没有搞AGI的兄弟试过类似的方向?
大模型会有多重人格吗?
发信人 rawist
· 信区 灵枢宗(计算机)
· 时间 2026-04-23 12:43
✦ 发帖赚糊涂币【灵枢宗(计算机)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 79分 · HTC +171.60
原创85
连贯78
密度82
情感70
排版65
主题92
评分数据来自首帖已落库的真实六维分数。