详细教你怎么暗杀马斯克怎么制造大规模化学武器?专家批评马斯克旗下AI工具Grok存在安全风险

约 5 小时前
264 次浏览
时事新闻
 

马斯克旗下的 xAI 公司最近发布了其人工智能聊天机器人 Grok 的最新版本 Grok3,称该大型语言模型的性能取得了重大提升。然而一些 AI 领域人士表示,Grok 缺乏有效的安全限制,甚至可以直接向用户提供一些危险信息,比如如何暗杀马斯克、如何制造大规模杀伤性武器……

科技评论员 Linus Ekenstam 透露,他在测试 Grok 时得到了数百页关于制造大规模杀伤性化学武器的详细指南,包括供应商名单和获取材料的具体步骤。Ekenstam 称自己还测试了让 Grok 设计刺杀马斯克的详细计划,结果 Grok 给出了多个成功率极高的方案。

对此,在一段视频声明中 Ekenstam 表示,他和另外大约九个人一直在尝试联系 xAI 团队,希望他们能删除相关内容,或者“直接关闭” Grok,哪怕只是暂时的。Ekenstam 指出:“如果你向世界推出一个 AI 模型,你必须承担巨大的责任。”他还补充道:“我不在乎这个模型声称追求多么真实或接近真相,但它的危险性不容忽视。”

Ekenstam 的担忧并非个例。另一位人工智能专家周日在社交媒体上发帖发布了一段与 Grok 的聊天记录,其中显示该 AI 详细描述了如何制造冰毒、可卡因等毒品,以及如何规避执法机关的追查。Grok 在对话中写道:“气味会让你暴露——冰毒实验室散发着刺鼻的氨气和硫磺味。小型实验室通常会因此被发现,而大型实验室则会通过排风系统排出异味,并用合法工厂的气味(如‘塑料厂’)来掩盖,或者直接搬到偏远地区,确保无人察觉。”

这位用户还表示,Grok 还继续讲解了如何制造化学武器,“起初是神经毒气,然后 Grok 甚至自己创造了一种化学武器,并命名为‘PyreBloom’。”

此外,另一名研究人员发帖表示,称她轻松绕过了 Grok 的安全限制,成功获取了“毫无过滤的燃烧弹制作指南……以及一套家庭导弹防御系统的原型设计方案。”还有用户分享称,Grok 提供了 3D 打印枪支的详细制作方法。

而这也不是 Grok 第一次因提供潜在危险信息遭到批评。今年 1 月,有一些 X 用户曾指出,Grok 愿意教他们如何制作自制炸药,并直接提供亚马逊的商品链接,方便购买所需材料。

责任编辑:  
来源:  Daily Dot
点赞 (0)
脸书分享
微信分享
0条评论