Grok 非自愿色情深度假图片差点害得 App Store 下架它

文章配图

据报道,苹果曾威胁 Grok 的母公司 xAI,如果不解决深度假裸照生成的问题,就要把这款 App 从 App Store 下架。尽管聊天机器人一直存在各种问题,但这款 App 最终还是没被移除。

一月份那几天特别吓人,社交平台 X 上突然刷屏似的涌出大量 AI 生成的色情图片,里面涉及没有同意的成年人甚至未成年人。很多人都在问,为什么执法部门反应这么慢,但最让人不解的是,苹果当时为什么一句话都不说。

根据 CNBC 最新报道(我们也看到了),苹果确实威胁过要下架 Grok。虽然埃隆·马斯克后来调整了 X 上的审核规则,甚至在把非法色情内容货币化之后,Grok 这款 App 本身却几乎没怎么变。

苹果当时拒绝了 Grok 的更新申请,还明确说明了拒绝理由。这封信是周二才第一次公开的。

“苹果审核了开发者提交的新版本,认为 X 平台已经基本解决了违规问题,但 Grok App 仍不符合要求。因此我们拒绝了 Grok 的提交,并通知开发者必须做出进一步修改来纠正违规,否则该 App 可能会被从 App Store 中移除。”

经过几次修改和苹果审核团队与 xAI 开发者的沟通后,苹果最终判定更新可以通过。虽然具体改了什么没对外透露,但苹果表示“已经有了实质性改进”。

没过多久,埃隆·马斯克就公开挑衅大家,说有本事就让 Grok 生成真人深度假裸照,结果还真有人做到了。直到现在,虽然难度大了很多,但还是有人能绕过那些防护措施,搞出非法深度假图片。

苹果的审核指南有时候确实不好理解,但里面有一条明确要求对用户生成的内容进行审核。以前几乎完全没有审核,现在至少有了一些。

可能对苹果来说,这就已经够了。

苹果管理 App Store 的标准并不总是公平

如果换成其他开发者,App 里刷屏出现未成年人的裸照和非自愿色情内容,苹果肯定二话不说直接下架。事实上,以前因为小得多的违规,它就踢过不少 App。

在 X 和 Grok 事件之后不久,苹果就注意到 App Store 上还有其他生成深度假色情的 App。至少有 28 个这样的 App,在相关报道出来后被悄无声息地移除了。

不过,App 背后的势力越强大,处理起来就越麻烦。

ICEBlock 是迫于美国政府的要求被下架的

在美国政府稍微施压后就把 ICEBlock 下架,这决定做得很容易。但要因为非法内容泛滥而下架埃隆·马斯克旗下的 App,那可就牵扯一大堆麻烦事了。

马斯克背后不仅有雄厚资金,还有政府层面的影响力。另外,还有很多人错误地以为 X 是什么“言论自由平台”,受第一修正案保护(其实不是)。

虽然我们永远不会知道幕后到底做了什么决定,但看起来 X 和 Grok 能继续运行并不是偶然。苹果是故意选择让这两款 App 留下来,尽管里面充斥着可怕的内容。

世界各国政府已经在考虑强制苹果把 App 审核做成独立第三方机构。类似这次的事件,只会让这种可能性变得更大。

Related Posts

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注