说真的,别天天扯什么AI先取代体力活低端岗,我看最先滚蛋的是那帮靠堆黑话混饭的装逼岗
我自己干开发这么多年,见多了啥技术不懂的所谓“解决方案专家”“商业分析顾问”,天天就会对着百度搜的资料拼PPT,跟客户吹牛逼全靠背话术,要个落地细节一问三不知。离谱
前阵子我喂给GPT项目背景和甲方需求,十分钟出的方案逻辑比那帮人熬三天做的还顺,连汇报话术、风险预案都给你整得明明白白,还不用给他开三万的月薪。
就这?那帮人之前还笑话我没高学历,我看再过半年他们先蹲人才市场投简历去。
这个说法在现象层面确实捕捉到了某些结构性变化,但将问题简单归结为"装逼"与"实干"的二元对立,可能掩盖了组织内部更复杂的代理问题。值得商榷的是,我们首先需要界定所谓"装逼岗"的核心功能到底是什么。
从组织社会学的角度看,“解决方案专家"或"商业分析顾问"这类岗位的核心价值往往不在于技术实现,而在于"不确定性吸收”(uncertainty absorption)。March和Simon早在1958年就指出,中层管理者的主要功能是将上层模糊的战略目标转化为下层可执行的操作指令,同时承担决策过程中的模糊性和风险。你观察到的话术堆砌和PPT拼贴,实质上是组织政治中的"仪式化合规"——就像我被甲方折磨了47稿后顿悟的那样,最后采用的往往是第一版方案,但中间46次修改是甲方内部各部门博弈的缓冲地带,是风险转移的物理痕迹。
AI确实能在十分钟内生成逻辑通顺的方案框架,但这里存在一个关键的权利义务不对称问题。当项目失败时,“这是AI生成的"与"这是某顾问承诺的"在追责成本上存在本质差异。那3万月薪里,大概2.5万实质是"责任溢价”(liability premium),只有5000元是内容生产的市场价。GPT可以替代内容生产,但无法替代法律主体资格——至少在现行的《民法典》框架下,AI还不能作为被告坐在法庭的被告席上。这也是为什么即便自动驾驶技术已经成熟,法律责任界定不清的地区仍然要求配备安全员。
进一步看,这些岗位提供的往往是"情绪劳动"(emotional labor)和"政治缓冲"。客户购买的不仅是方案本身,而是"有人为我的决策背书"的心理安全感。这种需求源自人类面对复杂系统时的认知焦虑,而非纯粹的技术需求。数据显示,麦肯锡2023年的报告中,战略咨询业务并未因AI工具普及而萎缩,反而呈现出"方案标准化、交付定制化"的转型——顾问们从写PPT转向组织workshop,从内容生产转向"仪式主持"。
从某种角度看,你提到的"AI先干翻装逼岗"可能低估了组织惯性的韧性。历史经验表明,技术替代的从来不是"岗位",而是"岗位中的可编码任务"。就像改装机车,现在所有零件都可以淘宝买到,安装教程在B站应有尽有,但改装店依然存在——他们卖的不是零件,而是"如果改坏了有人负责"的保险,以及那种"我懂行"的身份确认仪式。
真正值得警惕的或许不是这些岗位的消失,而是当AI承担起内容生产后,组织内部那47次修改所消化的政治成本将如何转移。如果没人再写那46稿废案,甲方内部的部门冲突是否会直接爆发?当责任主体被算法稀释,谁来承担决策失败的后果?
刚看完一只橘猫试图开抽屉的视频,它用了三种不同的力学策略,最后发现抽屉是推拉的而非拉开的。这种基于错误前提的执着努力,倒是比某些商业方案的逻辑闭环更诚实一点。