不敢用ChatGPT水论文了!OpenAI反作弊工具曝光,准确度高达99.9%
检查内容是否用了ChatGPT,准确率高达99.9%!
这个工具,正是来自OpenAI。
它能专门用来检测是否用ChatGPT水了论文/作业。早在2022年11月(ChatGPT发布同月)就已经提出想法了。
但是!
这么好用的东西,却被内部雪藏了2年,现在都还没对外公开。
为啥?
OpenAI对忠实用户做了调查,结果发现近三分之一的人都表示如果用了反作弊工具,他们就弃了ChatGPT。而且还可能对非英语母语的用户影响更大。
但公司内部也有人提出,使用反作弊方法对OpenAI生态有好处。
双方一直争执不下,该水印检测工具因此未发布。
而除了OpenAI,如谷歌、苹果也都准备了类似工具,有一些已开始内测,但都未正式上线。
ChatGPT没发布前已开始讨论
ChatGPT大火后,不少高中生大学生都拿它来写作业,所以如何甄别AI生成内容也成为了圈内的热议话题。
从最新曝光的信息来看,OpenAI早在ChatGPT发布前就考虑到了这一问题。
当时开发这项技术的人是Scott Aaronson,他在OpenAI从事安全方面的工作,也是德克萨斯大学计算机科学教授。
2023年初,OpenAI联合创始人之一John Schulman,在一份Google文档中概述了该工具的优缺点。
随后公司高管决定,在采取进一步行动之前,他们将征求一系列人士的意见。
2023年4月,OpenAI的一项委托调查显示,全球范围内仅有1/4的人支持增加检测工具。
同月,OpenAI又对ChatGPT用户进行了调查。
结果显示,有近30%的用户表示,如果ChatGPT部署了水印,他们会减少使用ChatGPT。
此后,围绕这项工具的技术成熟度以及用户喜好的争议一直不断。
今年6月初,OpenAI召集了高级员工和研究人员再次讨论该项目。
据称最后大家一致认为,虽然技术上已经成熟了,但去年的ChatGPT用户调查结果还是无法忽视。
内部文件显示,OpenAI认为他们需要在今年秋天之前制定一项计划,以影响公众对人工智能透明度的看法。
不过直到目前消息曝出,OpenAI仍未透露出相关对策。
为啥不公开?
总结OpenAI迟迟不公开这项技术的原因,主要有两方面:一是技术,二是用户偏好。
先说技术,早在2023年1月,OpenAI就开发了一种甄别多个AI模型(包括ChatGPT)文本的技术。
这项技术利用了一种类似“水印”的方法,把看不见的标记嵌入文本中。
这样,当有人用检测工具分析文本时,检测器可以提供一个分数,表示文本由ChatGPT生成的可能性有多大。
不过当时成功率只有26%,仅过了7个月,OpenAI就撤回了。
后来OpenAI逐渐将技术的成功率提到了99.9%,从技术上讲,该项目大约一年前就已经可以发布。
然而,围绕技术的另一个争议是,内部员工认为该技术可能会损害ChatGPT写作质量。
同时,员工们还提出了一些关于“人们可能规避水印”的潜在风险。
比如大学生都会的“翻译术”,将文本翻译成另一种语言,然后通过类似谷歌翻译的方式再次翻译回来,从而有可能被擦除。
再比如有人搞个“上有政策下有对策”,一旦公开使用水印工具的人多了,网友们指定分分钟搞出破解版。
除了技术,另一大阻碍因素就是用户了,OpenAI的多项调查显示,用户们似乎并不看好这项技术。
这也不得不提到用户们到底拿ChatGPT在干啥?
这个问题可以参考《华盛顿邮报》的一项调研,他们从数据集WildChat中查看了近200,000个英语聊天记录,这些对话由人类与两个基于ChatGPT构建的机器人生成。
可以看出,人们主要用ChatGPT来写作(21%)以及帮助完成家庭作业(18%)。
这样看来,人们反对这项检测技术好像也不难理解。
那么,你同意在使用ChatGPT这类工具时增加水印吗?