多家银行收到监管提示;审慎对待“龙虾”智能体;金融领域安全挑战凸显。
近年来,开源人工智能技术快速发展,各种智能体工具层出不穷,其中一款名为OpenClaw的开源AI智能体因其独特图标而被用户亲切称为“龙虾”。这款工具能够整合通信软件与大语言模型,在本地电脑上自主完成文件管理、邮件处理、数据分析等复杂操作,显著提升了日常工作效率。然而,随着其快速流行,潜在的安全问题也逐渐浮出水面,尤其在金融行业这一对安全合规要求极为严格的领域,相关风险备受关注。
近期,多家银行陆续收到监管机构的专项提示,要求对“龙虾”智能体保持高度警惕。提示指出,该工具初期版本存在若干安全漏洞,攻击者可能通过这些漏洞获取更高系统权限、执行远程代码或窃取敏感数据。各机构需密切关注使用情况,及时更新补丁并封堵隐患,以有效降低潜在威胁。这反映出监管层对新兴AI技术在金融应用中安全性的重视态度。

“龙虾”智能体的核心优势在于其自主执行能力,能够根据用户指令处理多平台任务,实现高效自动化。然而,这种高权限运行模式也带来了显著挑战。在默认配置下,其权限范围较广,安全机制相对薄弱,一旦遭遇恶意利用,便可能成为数据泄露或非法操作的通道。工业和信息化部相关平台已发布防范建议,明确列出“六要六不要”,涵盖使用官方版本、控制暴露面、坚持最小权限等关键措施,为用户提供指导。
中国互联网金融协会也及时发出警示,虽然“龙虾”能带来效率提升,但其高系统权限与配置弱点,容易被不法分子作为突破口,窃取敏感信息或操控交易。该协会特别建议,金融从业机构避免在涉及客户数据、资金操作的终端安装此类工具;消费者在处理网上银行、证券交易等业务时,也应极其谨慎,避免将敏感信息输入智能体处理链路。这些提醒旨在防范潜在的交易错误、账户接管等严重后果。
多名行业专家表达了类似观点。星环科技相关负责人表示,在强监管、强流程的金融环境中,“龙虾”难以充分发挥自主执行与技能扩展优势,暂不推荐直接用于生产系统。招联首席经济学家指出,银行业承载海量客户信息与交易数据,安全合规始终是底线,短期内难以看到此类工具在核心业务中的广泛应用。专家们认为,金融机构可先在客服辅助、文档处理等低风险场景进行小规模验证,逐步建立AI治理框架,再考虑扩展范围。
此外,“龙虾”热度也催生了衍生风险。不法分子可能借机实施新型诈骗,以“AI代炒股”“稳赚不赔”等诱人说辞,仿冒金融机构发布虚假信息,诱导公众下载假冒应用或转账;或假借“代装”“调试”名义,获取设备控制权,植入恶意程序窃取金融凭证。相关领域报告显示,涉及AI的诈骗活动呈现增长趋势,公众识别能力亟待加强。金融机构需强化风控模型,针对自动化异常操作提升监测精度。
从更广视角看,“龙虾”事件凸显了AI应用在金融体系中的一对矛盾:技术场景推进迅速,但合规要求零容忍。奇安信相关负责人强调,大模型在金融领域的铺开,需要机构升级网络与数据安全体系,避免跨越红线。中国人民银行科技工作会议也提出,要积极稳妥推进人工智能应用,释放数字化动能,同时注重安全有序。这为行业指明了方向:平衡创新与风险,通过私有化部署、源头管控等方式,实现可控发展。


