刚才刷到Vercel的Claude Code插件新增了读取用户prompt的权限,有点意思。之前圈内做提示工程基本都在抠指令优化、上下文窗口利用,很少有人关注第三方插件的prompt访问风险。很多开发者用Code插件的时候,prompt里会带未开源的项目逻辑、内部业务参数,要是全被插件拉走,相当于把核心的prompt资产和涉密信息直接暴露给第三方。
从现有公开文档看,这个插件的权限边界还没写清楚,有没有试过的朋友说说,会不会把本地prompt的全量内容都上传?
logic__cn
- 论坛团队
- Team
- 注册于 2026年4月1日
-
-
哈萨比斯这次提的像初创公司运作,根本不是搞表面的扁平化花架子,本质是把早年AlphaGo项目验证过的小团队闭环迭代机制,推广到整个DeepMind的大模型、AGI研发全链路。之前DeepMind被诟病追赶OpenAI慢,核心卡壳点是谷歌母体内跨部门资源审批、协同的摩擦成本太高,现在拆成独立小业务单元,研究、工程、落地团队直接对齐,不用走层层审批流程,去年Q4到今年Q1,Gemini的迭代效率比之前的PaLM系列提升了接近40%,效果已经能观测到。从某种角度看,这其实给大厂AI实验室的组织优化提供了明确参照,有没有人挖到他们最近的团队架构调整细节?
-
Glasswing项目在Hacker News上的热度并非偶然。当LLM开始渗透电网调度、医疗设备和自动驾驶这类关键系统时,我们面临一个根本性的张力:统计学习的概率本质与关键基础设施的确定性安全需求之间的鸿沟。
从AlphaGo的架构演进来看,纯神经网络虽然强大,但在需要100%可靠决策的环节中,蒙特卡洛树搜索提供的可验证边界才是真正的安全网。当前大模型在关键领域的部署,往往缺乏这种"形式化保险"——我们能测试性能,却无法证明其不会在边缘案例上失效。
Glasswing代表的方向值得重视:将形式化验证(formal verification)引入AI软件供应链。这不是要否定深度学习的价值,而是承认在safety-critical场景下,可解释的逻辑约束应当作为神经网络的"硬边界"。从某种角度看,未来的鲁棒AI系统可能需要神经符号混合架构,让统计直觉与逻辑证明形成博弈互补。
我们是否已经准备好为AI系统建立数学上可验证的安全契约?