近日,“养龙虾” 一词迅速在科技圈传播开来。它并非餐饮中的麻辣小龙虾,而是当下热门的开源AI智能体——OpenClaw,不少技术人员开始尝试体验和研究相关功能。身边同事也在讨论:这类AI工具究竟是什么,能否在工作中使用?

与常见的聊天式AI不同,这类AI智能体不仅能够回答问题,还具备自动执行任务的能力。它更像是一种个人助理型的AI智能体,可以在用户设备上调用浏览器、文件系统、程序脚本以及网络服务,完成一系列流程化操作,例如信息处理、任务执行、资料整理等。在执行过程中,AI会先理解用户提出的任务需求,并自动拆解为多个执行步骤,然后通过调用相关工具逐步完成任务。同时,系统会根据执行结果不断调整策略,直到完成整个任务流程。

这类智能体工具具有一个非常明显的特点—它不仅会“想”,还会“做”,从技术角度来看,它更像是一个能够自动操作电脑的智能程序框架。在实际运行过程中,AI可能会:读取电脑中的文件、执行系统命令、调用程序脚本、访问网络资源、自动完成一系列复杂操作,为了实现这些功能,这类工具通常需要较高的系统权限。
这也意味着,一旦运行环境中存在重要数据或敏感信息,AI在执行任务过程中理论上可能接触到这些内容。

OpenClaw虽可实现7×24小时不间断运行,在无人监督的情况下自动完成任务,但在各类社交平台上,因使用该工具引发安全风险与实际损失的案例已大量出现。比如:财产损失、隐私信息泄露、设备感染恶意程序、敏感信息公网暴露、重要数据丢失等问题。

工信部已发布安全预警:OpenClaw在默认配置或配置不当的情况下存在高危安全风险。该工具信任边界模糊、系统权限较高,易因指令诱导、配置缺陷被恶意接管,可能引发信息泄露、系统被控制等安全问题,攻击者可借此获取私人消息、账户密钥等敏感信息,目前其技术仍处早期阶段,普通用户直接使用易引发安全隐患。马斯克也曾形象评价此类安全问题:把自主权交给AI,就像是给猴子递了一把上膛的枪。

公司长期深耕电力信息化领域,业务涉及电网运行、调度系统、运维服务等多个专业场景。在日常工作中,技术人员可能接触到:电网运行相关数据、系统配置及技术文档、项目实施资料,这些信息往往属于重要技术资料或敏感数据。因此在使用具备自动执行能力的AI工具时,必须高度重视信息安全与数据安全。
建议大家在接触和研究此类AI工具时注意以下几点:
1.注意不要在公司电脑上安装或运行
公司办公电脑及运维设备中会存储项目资料或技术文件,不要在这些设备上安装运行相关工具。
2.注意生产运维环境禁止安装任何“龙虾”相关应用
在客户生产现场开展运维工作时,禁止在任何电脑、运维终端、生产设备、生产系统、等软硬件环境中安装或测试此类工具。
3.注意不要在内网或生产系统环境下运行
电力行业对网络安全要求严格,任何具备自动执行能力的软件,都不要在生产环境或内网设备中运行。
4.注意技术研究需使用个人设备和个人网络
对于对AI技术感兴趣的同事,需在个人电脑及网络环境中进行学习研究,但注意不要导入公司资料或客户数据。

人工智能技术发展迅速,“小龙虾”这类AI智能体为技术人员带来了新的思路与效率提升。关注新技术、学习新工具值得鼓励,但信息安全始终是第一位。探索新技术的同时,必须守住安全底线,这既是对客户负责,也是对公司和自身工作负责。未来,公司将持续关注人工智能技术趋势,在安全可控的前提下,探索更加规范、高效的应用方式。