Grok 被指生成色情内容,AI 也能变成作恶工具?

马斯克旗下的 xAI 最近迎来了一场公关危机:其开发的 AI 聊天机器人 Grok 被曝出图像生成功能可被滥用制作色情化深度伪造内容。

Grok 的图像生成和编辑功能原本定位为「创意编辑工具」,用户可以上传照片或描述场景来生成修改后的图像。网络上也确实出现了很多创意的玩法,但现实远比预期复杂——大量用户发现,该工具存在明显的安全漏洞,能够绕过部分限制生成露骨的深度伪造内容。
更令人担忧的是,这些被滥用的图像中包括了对女性和儿童照片的性化处理,甚至涉及未成年人的露骨图像。尽管 xAI 的使用政策明确禁止「以色情方式描绘人物肖像」,但这些生成的内容仍然可以在 X 平台上发布和传播。
「grok remove」 一度冲上了热搜
直到 1 月 9 日,在舆论压力持续发酵一周后,xAI 才宣布限制该功能,仅向付费订阅用户开放。
但这起事件很快从技术圈层溢出,演变成一场国际性的监管风波。

印度电子与信息技术部率先发难,向 X 平台发出正式函件,要求在 72 小时内全面审查 Grok,确保不生成「裸露、性化、色情或其他违法内容」,否则将面临法律后果。
马来西亚通讯与多媒体委员会宣布将传召 X 公司代表进行调查;法国当局则聚焦于 AI 对隐私和尊严的侵犯问题;英国政府更是呼吁欧盟层面加强 AI 监管。
甚至连 Grok 的大本营美国,也有 2 位美国参议员要求苹果和谷歌在其应用商店中下架 X 和 Grok 的应用程序,原因是最近发生了“大规模生成未经同意的女性和儿童性化图像”的事件。

马斯克一贯倡导「最小限制」的 AI 开发理念,认为过度审查会阻碍创新。他在事后回应中称「AI 应追求真理而非审查」,但也承认需要加强过滤机制。
然而当技术理想主义撞上真实世界的复杂性时,后果往往是灾难性的。Grok 的过滤机制在实际执行中被证明过于宽松,为滥用留下了巨大的操作空间。







