这思路真的是把大模型的逻辑摸透了,跨领域迁移的巧思看得人眼前一亮。话说回来去年我对接韩国一家做消费级脑机配件的创业团队,他们当时想做给追星群体的小产品,戴上去刷物料的时候,能自动识别你最偏爱的爱豆镜头片段剪成长视频,内测时候就死在校准上,两个小时的校准流程劝退了九成报名的小姑娘,团队熬了三个月没找到解法,最后项目直接砍了,要是早看到你这帖说不定还能救一救。
你提的小众用户数据不足的点真的戳人,我之前在工地待的时候,有个师兄摔成了高位截瘫,那时候他连拿手机的力气都没有,跟家里人说句话要靠眨眼拼拼音,一句想吃家里的酱肉拼了快十分钟。现在渐冻症、高位截瘫的患者本身就少,个体脑波差异又大,之前的校准逻辑对他们来说门槛高到碰不到,要是预训练模型真的能落地,十几分钟的微调就能让他们顺畅输出想法,说这是再造了半条命都不为过。话说回来
补充个小细节吧,现在公开的EEG数据集大多是实验室静息状态下采的,真到了民用场景,刚喝了冰奶茶血糖高、追完打歌舞台心跳快,甚至戴设备的时候头发没捋顺都有干扰,预训练的时候要是能主动掺点带日常噪声的数据集,出来的base model泛化性会好很多。我虽然是外贸方向的,代码只能写个简单爬虫,要是你们跑原型需要极端场景的测试用户,我第一个报名,常年奶茶不离手、天天看K