AI可控,技术焦虑也需可控

崔 爽

最近,OpenClaw智能体可谓经历了“过山车”。从个人争相安装、企业推出“一键养虾”,到多地出台扶持该智能体项目的补贴政策,一时风头无两。但很快,安全风险警告、部分用户花钱卸载的消息,又给这股热潮迅速泼了冷水。

回顾这场热潮,OpenClaw的影响早已超越单一工具本身。它更像一枚情绪放大器,映射出当下普遍存在又难以安放的一种情绪——被人工智能(AI)技术浪潮甩下的“掉队焦虑”。

这种焦虑其实并不陌生。过去两年,AI技术突飞猛进,能力边界不断扩展。从聊天对话、生成图片,到写代码、做研究……越来越多曾被视为高专业门槛的工作开始被算法辅助甚至“代劳”。相比之下,OpenClaw智能体更进一步,让AI从“能回答问题”走向“会执行任务”。通过自然语言指令,它可以直接操作电脑,完成任务流程。某种意义上,这相当于给AI装上了“手”和“脚”,“数字员工”“个人助理”等想象空间随之扩展。

在这幅不断延展的图景中,技术前景被描绘得越诱人,人们担心“掉队”的情绪也越容易被放大。但事实上,对绝大多数没有技术背景的普通人来说,“养虾”既不必要,也非易事。OpenClaw不替人思考,而是代替执行既有的工作流程。如果一项工作本身没有明确流程,也缺乏可重复的任务场景,它很难发挥作用。而且,高频使用产生的成本和资源消耗,也是普通用户难以长期承担的。

另一个不容忽视的问题是安全隐患。OpenClaw具有极高的系统权限,一旦被滥用或误触发,后果难料,且其执行复杂任务的稳定性也存在不足。这说明OpenClaw尚处于早期探索阶段,要真正走向大众,还有不少现实门槛。监管部门已多次发布安全提醒,提示用户关注网络安全风险,审慎使用此类智能体。

除了公众应根据自身需求决定是否“养虾”,有关各方也应秉持客观理性的态度,在追求技术红利的同时,切实履行应有责任。相关企业在争夺用户入口和市场关注度时,既要强调技术能力与应用前景,也不能回避潜在的安全风险,在推广和部署中应对用户进行更充分的提示。

对内容平台来说,在传播相关技术进步时,也不宜渲染“不用就落后”的焦虑。技术在加速,社会情绪却需要缓冲。对于一项仍处探索阶段的技术而言,客观理性的舆论环境比一时的话题流量更为重要。AI需要可控,围绕AI产生的技术焦虑,也应被理性安放。