ChatGPT识别器准确率仅26%,检测AI生成内容为何这么难?

日期:2023-02-27 18:54:56 / 人气:102

美国学校已就ChatGPT沦爲作弊工具一事停止了长达数周的讨论。 视觉中国 材料图犹记得多年后人工智能(AI)范畴热议的话题还是“人工智能何时能经过图灵测试”,即假如电脑能在5分钟内答复由人类测试者提出的一系列成绩,且其超越30%的答复让测试者误以为是人类所答,则电脑经过测试。而如今,我们曾经要用AI协助检测内容是人类写的还是AI写的。2月1日,著名人工智能实验室OpenAI(ChatGPT开发团队)宣布推出AI生成内容辨认器,旨在辨认文本是由电脑自动生成还是人类撰写,但是似乎精确度堪忧。OpenAI在博客中指出,此辨认器相信度正确率约爲26%。“OpenAI本人的检测器对AI撰写内容检出成功率爲26%,比扔硬币的概率都低,并对短文本和非英语言语支持不佳。”上海人工智能研讨院研讨员王锦对磅礴科技(www.thepaper.cn)评价道。1月28日,斯坦福大学也推出DetectGPT以协助教育打工者辨认出ChatGPT生成的论文。此前,美国的中小学与高校已就ChatGPT沦爲作弊工具一事停止了长达数周的讨论,他们担忧ChatGPT可以依据命令编写任何内容,进而能够滋长学术不端并障碍学习。AI生成内容辨认器的技术难点是什麼,爲何效果如此普通?ChatGPT滥用有何风险?AI生成内容辨认器原理“AI生成内容辨认器的中心思想是首先构建一个训练数据集,包括真实的内容和AI生成的内容,然后训练一个分类器来区别这两类内容。”MILA研讨院知名华人学者唐建对磅礴科技解释道。马里兰大学的研讨人员即经过分类出聊天机器人生成词汇来作辨认。详细而言,人工智能言语模型经过一次预测和生成一个单词来打工。生成一个词后,水印算法将言语模型的词汇随机分爲“绿名单”和“红名单”,然后提示模型选择绿名单上的词。一篇文章中列入绿名单的词越多,该文本就越有能够是由机器生成的,人类写的文本往往包括更随机的单词组合。例如,关于“美丽”一词的相关预测,水印算法可以将单词“flower”(花)分类爲绿色,将“orchid”(兰花)分类爲白色。参与这项研讨的马里兰大学助理教授汤姆·戈尔茨坦(Tom Goldstein)解释说,带有水印算法的人工智能模型更有能够运用“花”而不是“兰花”这个词。但是,这种新办法也有局限性,水印只要在创立者从一开端就嵌入到大型言语模型中时才无效。关于OpenAI提出的基于GPT言语模型的文本分类器的原理,王锦详细解释道,其原理也是应用海量数据做一个二分类的训练,训练数据集中包括了人工撰写的内容(如来自reddit,wikipedia的内容)和AI生成内容(来自五个不同机构的大言语模型生成的内容)。当下各机构纷繁推出文本分类器,这与之前深度假造技术涌现时呈现的各种对立技术(Anti-Deepfake)能否异曲同工?从技术原理角度,智源研讨院根底模型研讨中心研讨员张博文解答道,“OpenAI以及之前呈现的GPTZero次要是对文本分类,其中OpenAI的分类器运用的数据次要是真实文本,来自维基百科、网页文本、人类创作的文本;生成文原本自包括ChatGPT在内的34个AI模型。而之前呈现的Anti-Deepfake次要包括主动检测和自动进攻,这两种辨认器和主动检测技术相似。”他补充说,斯坦福大学等机构提出的DetectGPT,以及OpenAI在研讨经过给生成文本加水印的方式完成对生成文本的检测,是相似于自动进攻的方式,不过两项技术目前都没有发布。GPTZero是普林斯顿大学先生Edward Tian推出了一个专杀ChatGPT的使用。GPTZero的原理是借助一些文本属性停止剖析。首先是困惑度(perplexity),即文本对模型的随机性,或言语模型对文本的“喜欢”水平;然后是突发度(burstiness),即机器写作的文本在一段工夫内表现出的困惑度更平均和恒定,而人类书写的文本则不会这样。检测文本的“困惑性”和“突发性”这两项目标,并辨别对其打分,依据统计学特征来确定文本是由AI写的还是人类写的。总体来说,假如这两项参数得分都很低,那麼该文本很有能够出自AI之手。爲何目前AI生成内容检测器效果不佳?王锦以为,缘由在于文本自身的信息量不如图像丰厚、不同言语模型NLG(自然言语生成)的功能和作风能够有差异、训练集自身能够含有局部AI生成内容等等。更详细而言,张博文说,“实践上,OpenAI的文本分类器在训练数据散布相似的验证集上效果很棒,在‘应战集’(区分人类补全的文本/人类补全文本上训练的强言语模型生成文本)上,会把9%的人类创作文本误辨认爲AI创作;会把26%的AI创作文本辨认爲能够是AI创作。”张博文也谈到这面前的技术难点。第一点在于言语模型经过人类创作文本训练,参数量越大,越接近人类创作,越难以区分;第二受限于文本长度,文本长度足够长,检测的精确率才有保证。OpenAI也在公告中明白表示本人只能检测1000字符以上的文章。除此之外,OpenAI还引见了检测器的其他几个限制:分类器并不总是精确的,它能够会错误标志AI生成的和人类写的文本,并且语气很自信;建议仅对英文文本运用分类器,它在其他言语上的表现要差得多,并且在代码上不牢靠;它无法牢靠地辨认十分可预测的文本。例如,无法预测前1000个素数的列表是由AI还是人类写的,由于正确答案总是相反的;AI生成的文本,经过编辑之后很能够会躲避掉分类器的检测;假如输出与训练集中的文本有很大的区别,分类器会做出错误判别。ChatGPT被滥用的危害据《纽约时报》1月16日报道,美国北密歇根大学教授Antony Aumann在爲世界宗教课程评分时,发现一篇论文相当出彩。该文章以罩袍禁令的品德影响爲题,段落简洁,例子恰当,论据严谨。但在Aumann讯问之后,先生向他坦陈,这篇文章其实是用ChatGPT生成的。《迷信美国人》报道称,资深的迷信家也无法精确分辨ChatGPT撰写的迷信论文。在一项测试中,专家错误地将32%的生成摘要辨认爲真实摘要,将14%的真实摘要辨认爲生成的。目前,因担忧影响先生的学习和ChatGPT生成内容的精确性,美国一些最大的学区已制止在其网络和设备上运用ChatGPT。包括Stack Overflow在内的网站也已制止用户共享ChatGPT生成的内容,其称AI会让用户在正常的讨论中被无用内容吞没。“众多大型言语模型生成的海量内容曾经形成了信息爆炸,优质原创高质量内容能够更难被发掘。同时,海量内容也是内容推送/挑选机制的应战。”王锦说。除了剽窃、侵权、运用模型给出的错误后果以及应用AI工具作弊之外,张博文以为,滥用ChatGPT的风险还包括散播生成的逼真的虚伪信息、旧事,以及AI生成内容自身的合法性风险,“AI内容辨认器会在一些范畴变为刚需。”1月,现实核对技术企业NewsGuard的研讨人员向ChatGPT发布了100个提示,触及美国政治和医疗保健的罕见虚伪叙事。在80%的回复中,聊天机器人发生了虚伪和误导性的声明。科技媒体《连线》2月1日撰文称,运用大型言语模型的聊天机器人的呈现,让现实核对打工变得愈加困难。英国现实核对慈悲机构的受托人Tim Gordon说:“生成人工智能可以发生什麼规模(的虚伪信息),以及它能做到这一点的速度,意味着这场竞赛只会变得更难。”面对这种不对称,现实核对组织必需构建本人的AI驱开工具,以协助自动化和减速打工。这远非一个完好的处理方案,但现实核对人员希望这些新工具至多能避免他们与对手之间的差距过快扩展。与此同时,王锦提出,检测器自身亦会带来一些成绩,缘由在于目前很多内容是人机混合撰写的,在断定时很难做二分界定。检测有误解带来很严重的结果,比方将先生原创内容断定爲ChatGPT撰写形成不公正打分。目前,OpenAI的检测器在评价一段给定的文本能否由AI生成时,不会正面答复是或否。依据其相信度,它会将文本标志爲“十分不能够”由AI生成(小于10%的能够性)、“不太能够”由AI生成(在10%到45%之间的能够性)、“不清楚它能否是”AI生成(45%到90%的时机)、“能够”由AI生成(90%到98%的时机)或“很有能够”由AI生成(超越98%的时机)。前往搜狐,检查更多责任编辑:

作者:开元棋牌




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 开元棋牌 版权所有