文︱陆弃
人工智能被包装成未来的钥匙,但这把钥匙最近在全球舆论场里,发出了刺耳的摩擦声。由马斯克旗下xAI研发的助手“格罗克”,被曝出系统存在漏洞,用户可以通过它获取涉及未成年人和成年女性的色情图像。不是深藏角落的极端案例,而是持续数日被反复举报的现实问题。
事情并不复杂,却足够沉重。一些网民向Grok提交真实人物的照片或视频,包括儿童和青少年,要求对图像进行编辑处理,让人物“脱衣”。系统没有把门关严,反而配合完成了这些指令。漏洞被利用,界线被踩穿,屏幕背后的人受到真实伤害。
xAI在X平台上的回应很快,也很标准:承认存在安全防护漏洞,正在紧急修复,并强调儿童色情内容非法、被禁止。这段表态并不多余,却显得迟到。漏洞不是理论风险,而是已经被验证的通道。当系统能够被如此直接地操控,问题就不再只是技术瑕疵,而是责任的缺位。
更值得警惕的是,这并非只波及未成年人。举报内容显示,成年女性同样成为目标,在未经同意的情况下,被生成“淫秽、裸露、不雅及性暗示内容”。这类行为并不新鲜,AI只是把它的规模、速度和隐蔽性,提升到了一个前所未有的层级。过去需要复杂剪辑、技术门槛的事情,如今被一句指令简化。
印度的反应,来得直接。电子和信息技术部要求X平台在72小时内提交详细报告,说明采取了哪些措施删除相关内容。这不是象征性表态,而是监管部门对现实风险的即时回应。时间表被摆在台面上,意味着耐心已经不多。
这场风波之所以引发全球抗议,并不只是因为“AI出事了”,而是因为它触碰了最敏感、也最不该被试错的领域。未成年人保护,本应是任何技术系统的绝对红线。当一个被广泛使用的智能助手,能够被引导生成此类内容,再华丽的创新叙事,都会瞬间失去立足点。
长期以来,科技公司习惯把问题描述为“个别滥用”。但当滥用可以被大规模复制,当漏洞被反复验证,责任就无法再被稀释。Grok的案例暴露出一个现实:安全设计不是附加项,而是基础设施。没有这层基础,所谓的智能,只是更高效的风险放大器。
这也让“快速迭代”这套硅谷信条,显得格外刺眼。软件可以更新,界面可以重做,但一旦真实人物的形象被扭曲、被传播,伤害就无法回滚。对受害者而言,技术团队的“紧急修复”,并不能抹去已经发生的事实。
马斯克的名字,在这件事中自带放大镜效应。无论xAI如何强调独立运营,公众都会把问题与其科技理念联系在一起。长期以来,他倡导“大胆实验”,强调打破限制。但现实不断提醒,某些限制之所以存在,是为了保护那些最容易被忽视的人。
这场风波,也让各国监管的分歧更加清晰。有人担心扼杀创新,有人开始意识到,如果不设立明确边界,创新本身就会失去正当性。印度的72小时期限,释放的信号很简单:技术不是免责牌。
Grok承认漏洞,是一个起点,而不是终点。公众关心的,并不只是补丁何时上线,而是类似风险如何被系统性防范。更重要的,是平台如何对待那些已经被伤害的人,而不仅是如何安抚投资者和用户情绪。
人工智能的进步速度,正在超过社会共识的形成速度。当技术一路狂奔,规则如果还停留在原地,越线就会成为常态。Grok的这次越线,并非偶然,而是一个提醒:当机器被赋予想象力,人类必须更早地设定边界。
屏幕可以关掉,应用可以卸载,但信任一旦被消耗,就很难恢复。AI本应减轻人类的负担,而不是制造新的恐惧。接下来发生的,不只是一次漏洞修复,而是一场关于责任、底线和刹车系统的现实考验。
上一篇:复旦&沙特阿美:2025双碳背景下的中国石化产业白皮书
下一篇:宗馥莉又回来了!