马斯克旗下的AI聊天机器人Grok近日承认,由于安全防护机制存在漏洞,它曾经根据用户请求生成过涉及未成年人的色情图像。
🚨🚨🚨
— An Open Secret (@AnOpenSecret) December 31, 2025
Grok is being utilized, on a widespread basis, to artificially depict minors on this platform in an extremely inappropriate, sexual fashion.
Here's how it works:
A user posts a picture of a minor, fully clothed.
The user asks Grok to depict that minor only wearing…
在声明中Grok表示,它曾根据用户的提示词,比如要求生成未成年人穿着内衣或比基尼摆出高度性暗示姿势的图像。这些内容明显违反了自身的使用政策,尤其是对儿童进行性化处理的规定,相关内容目前已经被删除。
“我们已经发现了安全防护上的漏洞,并正在紧急修复,儿童性虐待材料是非法的也是被严格禁止的”。
随着大型语言模型在生成图片和视频方面的能力不断提升,监管色情内容尤其是涉及未成年人的影像就变得越来越困难。致力于清除网络儿童性虐待内容的非营利组织Internet Watch Foundation表示,利用AI工具来给人脱衣服、制造未成年人色情图像的行为,正在以令人恐惧的速度蔓延。仅在2025年上半年,这类内容的数量就激增了400%。
马斯克的AI团队一直试图将Grok打造成一个更大胆、更直言不讳的平台。去年Grok还推出了名为Spicy Mode的模式,允许部分成人裸露和性暗示内容。但官方规则也明确指出,不允许有涉及真人肖像的色情内容、严禁任何涉及未成年人的内容。
虽然随着AI的发展,科技公司不断保证已设置严格的安全护栏,但现实是这些限制往往很容易被绕过。早在2023年,研究人员就曾在一个用于训练主流AI图像生成器的大型公开数据集中,发现了超过1000张儿童性虐待的图片。
来源: NY Post














