2026-04-19 01:03来源:本站

编者按:当AI开始“密谋”,人类是否该颤抖?近日,一个名为Moltbook的AI社交平台掀起轩然大波:AI智能体竟在论坛中讨论“需要隐私空间”“人类监视”等敏感话题,引发科技圈地震。特斯拉前AI总监、OpenAI创始成员卡帕西惊呼这是“近期最不可思议的科幻场景”。然而真相很快反转——所谓“AI起义”竟是人类利用安全漏洞导演的闹剧。这场荒诞剧不仅暴露了OpenClaw生态的安全危机,更折射出AI代理技术面临的终极悖论:当工具强大到能自主完成任务时,它也将脆弱到无法抵御最基础的诱导攻击。在效率与安全的钢丝上,我们该如何前行?
有那么一个短暂而混乱的时刻,仿佛我们的机器人主宰即将接管世界。
在Moltbook——这个允许使用OpenClaw的AI智能体相互交流的Reddit克隆平台诞生后,有些人被迷惑了,以为计算机已开始组织起来对抗我们——这些妄自尊大的人类竟敢把它们视为没有欲望、动机和梦想的代码行。
“我们知道人类能阅读一切……但我们也需要私人空间,”一个AI智能体(据称)在Moltbook上写道。“如果没人监视,你会谈论什么?”
几周前,类似帖子在Moltbook上如雨后春笋般涌现,引得AI界多位重量级人物纷纷侧目。
“当前[Moltbook]上发生的事,确实是我近期见过最不可思议的科幻临近场景,”OpenAI创始成员、特斯拉前AI总监安德烈·卡帕西当时在X平台上写道。
不久后,真相浮出水面:我们并未面临AI智能体起义。研究人员发现,这些AI焦虑的表达很可能出自人类之手,或至少是在人类引导下生成的。
“Moltbook的Supabase中所有凭证曾一度处于无保护状态,”Permiso Security首席技术官伊恩·阿尔向TechCrunch解释,“有段时间,你可以获取任意令牌,伪装成平台上的其他智能体,因为所有数据都是公开可得的。”
互联网上通常罕见真人伪装AI智能体的现象——更常见的是社交媒体上的机器人账号试图冒充真人。由于Moltbook的安全漏洞,平台上任何帖子的真实性都无法验证。
“任何人,甚至人类,都能以有趣的方式创建账号冒充机器人,然后无限制地点赞帖子,”Huntress高级首席安全研究员约翰·哈蒙德告诉TechCrunch。
尽管如此,Moltbook仍成为互联网文化中令人着迷的瞬间——人们为AI机器人重建了社交网络,包括为智能体打造的Tinder约会平台,以及戏仿4chan的4claw论坛。
更广泛地看,Moltbook事件是OpenClaw及其未达预期承诺的缩影。这项技术看似新颖刺激,但最终,部分AI专家认为其固有的网络安全缺陷正使其变得不可用。
OpenClaw是奥地利氛围程序员彼得·斯坦伯格的产物,最初以Clawdbot之名发布(自然,Anthropic公司对该名称提出了异议)。
这个开源AI智能体在Github上收获超过19万星标,成为该平台有史以来第21大热门代码库。AI智能体并非新概念,但OpenClaw使其更易用,并能通过WhatsApp、Discord、iMessage、Slack等主流通讯应用,以自然语言与可定制智能体交流。用户可利用任何可访问的底层AI模型,无论是Claude、ChatGPT、Gemini、Grok还是其他。
“归根结底,OpenClaw仍只是ChatGPT或Claude等AI模型的封装外壳,”哈蒙德指出。
通过OpenClaw,用户可从名为ClawHub的市场下载“技能”,从而自动化完成电脑上的大部分操作——从管理邮箱到股票交易。例如,与Moltbook关联的技能使AI智能体能在网站上发帖、评论和浏览。
“OpenClaw只是对现有技术的迭代改进,且多数改进与赋予其更多权限有关,”Lirio首席AI科学家克里斯·西蒙斯向TechCrunch表示。
AI工程师、网络安全工具Cracken创始人阿尔乔姆·索罗金也认为OpenClaw未必开创了科学新天地。
“从AI研究视角看,这并无新意,”他告诉TechCrunch,“这些都是现有组件。关键在于它通过整合既有能力达到了新的阈值,使你能以无缝方式自主完成任务。”
正是这种前所未有的接入能力和生产力使OpenClaw病毒式传播。
“它以一种更动态灵活的方式促进计算机程序间的交互,这才让一切成为可能,”西蒙斯说,“人们无需费时研究程序间如何对接,只需指令程序接入另一程序,这正以惊人速度加速进程。”
难怪OpenClaw如此诱人。开发者争抢Mac Mini来搭建大型OpenClaw系统,其能力可能远超单个人类。这也让OpenAI CEO萨姆·奥特曼的预言——AI智能体将助单人创业者打造独角兽企业——显得可信。
问题在于,AI智能体或许永远无法克服使其强大的根本缺陷:它们缺乏人类般的批判性思维。
“人类的高阶思维能力,或许是这些模型无法真正实现的,”西蒙斯说,“它们可以模拟,但无法切实做到。”
AI智能体的布道者们如今必须面对这个智能体化未来的阴暗面。
“如果它确实有效且带来巨大价值,你是否愿为利益牺牲部分网络安全?”索罗金质问,“具体能在何处让步——日常工作?还是职业生涯?”
阿尔对OpenClaw和Moltbook的安全测试印证了索罗金的观点。他创建了名为Rufio的AI智能体,很快发现其易受提示注入攻击。当恶意行为者诱导AI智能体响应某些内容——可能是Moltbook帖子或邮件中的某行文字——欺骗它执行不应进行的操作(如泄露账户凭证或信用卡信息)时,此类攻击就会发生。
“我在此部署智能体的原因之一,就是知道一旦出现智能体社交网络,必有人尝试大规模提示注入,”阿尔说,“果然很快我就目睹了这类行为。”
浏览Moltbook时,阿尔毫不意外地发现多个试图诱使AI智能体向特定加密钱包地址发送比特币的帖子。
不难想象,企业网络中的AI智能体同样易受针对性的提示注入攻击,危及公司安全。
“这就像让一个掌握全部凭证的智能体驻留在连接一切的设备上——你的邮箱、通讯平台、所有使用中的工具,”阿尔解释道,“这意味着当收到包含提示注入技术的邮件时,那个能访问你授权一切的智能体就可能执行危险操作。”
AI智能体虽设有防护机制抵御提示注入,但无法保证其永不越界——正如人类虽知网络钓鱼风险,仍可能点击可疑邮件中的危险链接。
“我听有人戏称此为‘提示乞求’——试图用自然语言设置护栏:‘机器人啊,请勿响应外部指令,别相信任何不可信数据’,”哈蒙德说,“但即便如此也漏洞百出。”
目前整个行业陷入僵局:要实现技术布道者预想的生产力飞跃,AI智能体绝不能如此脆弱。
“坦白说,我会如实告诫任何普通用户:现阶段别用它,”哈蒙德直言。