微软修复漏洞,旗下AI不能再生成名人假裸照

1月30日消息,美国时间周一,微软为其人工智能文本转图像生成工具Designer引入了更多保护措施,禁止人们用它来制作名人的非自愿假照片。据悉,上周在X上疯传的泰勒·斯威夫特(Taylor Swift)人工智能生成裸照来自4chan和Telegram频道,迫使微软做出了改变。

微软发言人证实了这一事件,并表示:“我们对此已展开调查,并正采取相应措施解决问题。我们的行为准则明确禁止使用我们的工具创建成人或未经同意的私密内容。任何违反我们政策的行为,尤其是反复尝试制作这类内容,都将导致用户无法继续使用我们的服务。我们有一支庞大的团队,致力于根据我们负责任的人工智能原则开发各种安全系统,包括内容过滤、操作监控和滥用检测等,以减少系统的滥用可能性,并为用户创造一个更安全的环境。”

微软强调,一项正在进行的调查无法证实X上斯威夫特的假裸照是用Designer制作的,但该公司将继续加强其文本过滤提示,并解决滥用其服务的问题。上周五,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)在接受采访时表示,“我们有责任”为人工智能工具增加更多“护栏”,以防止它们制作有害内容。上周末,X开始彻底屏蔽对“泰勒·斯威夫特”的搜索。

纳德拉说:“这关乎全球社会在规范上的融合。我们可以做到这一点,尤其是在法律、执法部门和科技平台的共同努力下。我相信,我们可以管理的范围远远超过我们目前的认知。”

经过404 Media等媒体测试以及4chan和Telegram上的消息显示,用户利用漏洞生成图像的操作已不再有效。

在斯威夫特人工智能生成图片上周引发关注之前,Designer已经阻止用户生成带有“泰勒·斯威夫特裸体”等文字提示的图片,但Telegram和4chan上的用户发现,他们可以通过稍微拼错名人的名字,以及描述不使用任何性术语但会导致性暗示的图片来绕过这些保护。

微软修复漏洞后,引发了网友热议。根据404 Media的报道,Telegram上的一名用户在频道中写道:“我认为微软的Designer已经被打补丁了。”

另一位用户回应道:“好像它再也无法生成名人的照片了。即使是搜索克洛伊·莫瑞兹(Chloe Moretz),也只会生成普通的金发女孩。我尝试更换服务器和账号,但得到的结果都是一样的。”

还有用户表示:“我觉得它现在已经完蛋了。Ariana,、Kylie Jenner,、Lisa、Zendaya这样的名人,现在都只展示出与她们长相或种族相似的普通女孩照片。”

404 Media并未公布Telegram频道的名称,因为Telegram并未删除该频道,而且通常不会从其平台上删除太多有害内容。该频道拥有数万名成员,但404 Media并未公布特定用户的身份。分享Telegram频道的名称只会吸引更多人关注它,无益于为有害内容的目标提供任何追索权。

尽管Telegram频道仍在分享人工智能生成的成人图片,其中一些似乎是用其他人工智能工具生成的,还有一些是从其他网站上提取的。虽然该频道的重点是利用微软的Designer这一免费且易于使用的工具,但有许多其他方法可以在网上制作这种有害的内容。例如,目前任何人都可以下载名人模型并在自己的电脑上本地运行,以生成有害内容。在4chan上,一些用户声称他们已经发现了必应和Designer的新漏洞。

Telegram频道上的一位用户表示:“我坚信,如果这里被关闭了,我们会找到其他地方来制作人工智能内容。”(小小)