服务粉丝

我们一直在努力
当前位置:首页 > 科技 >

冒充人类作者,ChatGPT等滥用引担忧,一文综述AI生成文本检测方法

日期: 来源:数据派THU收集编辑:数据派THU
来源:机器之心

本文约1800字,建议阅读5分钟

大型语言模型(LLM)的出现导致其生成的文本非常复杂,几乎与人类编写的文本难以区分。本文旨在提供现有大型语言模型生成文本检测技术的概述,并加强对语言生成模型的控制和管理。


自然语言生成 (NLG) 技术的最新进展显着提高了大型语言模型生成文本的多样性、控制力和质量。一个值得注意的例子是 OpenAI 的 ChatGPT,它在回答问题、撰写电子邮件、论文和代码等任务中展示了卓越的性能。然而,这种新发现的高效生成文本的能力也引起了人们对检测和防止大型语言模型在网络钓鱼、虚假信息 和学术造假等任务中滥用的担忧。例如,由于担心学生利用 ChatGPT 写作业,纽约公立学校全面禁止了 ChatGPT 的使用,媒体也对大型语言模型产生的假新闻发出警告。这些对大型语言模型 滥用的担忧严重阻碍了自然语言生成在媒体和教育等重要领域的应用。
最近关于是否可以正确检测大型语言模型生成的文本以及如何检测的讨论越来越多,这篇文章对现有检测方法进行了全面的技术介绍。

  • 论文地址:
    https://github.com/datamllab/The-Science-of-LLM-generated-Text-Detection
  • 相关研究地址:
    https://github.com/datamllab/awsome-LLM-generated-text-detection/tree/main
现有的方法大致可分为两类:黑盒检测和白盒检测。


  • 黑盒检测方法对大型语言模型通常只有 API 级别的访问权限。因此,这类方法依靠于收集人类和机器的文本样本来训练分类模型;
  • 白盒检测,这类方法拥有对大型语言模型的所有访问权限,并且可以通过控制模型的生成行为或者在生成文本中加入水印(watermark)来对生成文本进行追踪和检测。

在实践中,黑盒检测器通常由第三方构建,例如 GPTZero,而白盒检测器通常由大型语言模型开发人员构建。

大型语言模型生成的文本检测分类学
黑盒检测
黑盒检测一般有三个步骤,分别是数据收集,特征选择和模型建立。

对于人类文本的收集,一种方法是招募专业人员进行数据采集,但是这种方法费时费力,不适于大型数据集的收集,更加高效的方法是利用现有的人类文本数据,比如从维基百科上收集各种专家编辑的词条,或者是从媒体上收集数据,例如 Reddit。

特征的选取一般分为统计特征,语言特征和事实特征。其中统计特征一般是用来检查大型语言模型生成文本是否在一些常用的文本统计指标上于人类文本不同,常用的有 TFIDF、齐夫定律等。语言特征一般是找一些语言学特征,比如词性,依存分析,情感分析等。最后,大型语言模型常常会生成一些反事实的言论,因此事实验证也可以提供一些区分大型语言模型生成文本的信息。

现有的分类模型一般分为传统的机器学习模型,例如 SVM 等。最新的研究倾向于利用语言模型来做主干, 例如 BERT,RoBERTa, 并且取得了更高的检测表现。

这两种文本之间有明显的不同。human-written 文本来自 Chalkbeat New York。

白盒检测

白盒检测一般默认是大型语言模型开发人员提供的检测。不同于黑盒检测,白盒检测对模型拥有完全访问权力, 因此能通过改变模型的输出来植入水印,以此达到检测的目的。
目前的检测方法可以分为 post-hoc 水印和 inference time 水印

  • 其中 post-hoc 水印是在大型语言模型生成完文本后,再在文本中加入一些隐藏的信息用于之后的检测;
  • Inference time 水印则是改变大型语言模型对 token 的采样机制来加入水印,在大型语言模型生成每一个 token 的过程中,其会根据所有 token 的概率和预设的采样策略来选择下一个生成的词,这个选择的过程就可以加入水印。


作者担忧

(1)对于黑盒模型,数据的收集是非常关键的一步,但是这个过程非常容易引入偏见(biases)。例如现有的数据集主要集中在问答,故事生成几个任务,这就引入了主题的偏见。此外,大模型生成的文本经常会出现固定的风格或者格式。这些偏见常常会被黑盒分类器作为分类的主要特征而降低了检测的鲁棒性。

随着大型语言模型能力的提升,大型语言模型生成的文本和人类的差距会越来越小,导致黑盒模型的检测准确性越来越低,因此白盒检测是未来更有前景的检测方式。

(2)现有的检测方法默认大型语言模型是被公司所有,因而所有的用户都是通过 API 来获得公司的大型语言模型服务,这种多对一的关系非常有利用检测系统的部署。但是如果公司开源了大型语言模型,这将导致现有的检测方法几乎全部失效。

对于黑盒检测,因为用户可以微调他们的模型,改变模型输出的风格或者格式,从而导致黑盒检测无法找到通用的检测特征。

白盒检测可能是一个解决办法,公司在开源模型之前可以给模型中加入一个水印。但是用户同样可以通过微调模型,改变模型 token 的采样机制来移除水印。现在还没有一种水印技术能够抵御用户的这些潜在攻击。

相关阅读

  • 为什么本土大厂造不出全新的ChatGPT?

  • ChatGPT革命,掀起了全球科技竞赛的巨浪。据报道,因为ChatGPT大热,三星、SK 海力士高带宽内存接单量也大增,最新的 HBM3 解决方案价格已经翻了 5 倍。国外的ChatGPT还没弄明白,国
  • 孙郁:打开《野草》的方式

  • 打开《野草》的方式文|孙郁

    《野草》诞生以来,对于它的读解,吸引了不同群落的人。除了文学家不断谈论它,该作品对于美术界、哲学界的辐射力,也超出一般人的想象。我们在吴冠中
  • 谁拖了中国ChatGPT的后腿?

  • ChatGPT已经成了全球信息技术产业界毋庸置疑的现象级产品。它以“通用人工智能”的名义,跟人类唠家常,帮人们起草邮件和律师信,回答一些玄奥的终极哲学问题,写一段可用的Python
  • ChatGPT引发的人工智能内容生产传播风险

  •   2022年12月初,美国人工智能实验室(OpenAI)发布了一款名为ChatGPT的自然语言处理工具。ChatGPT一经问世就迅速引发关注,它能“接住”网友提出的一系列“刁钻问题”,比如可以用
  • 47岁清洁工精通24国语言,他是怎么做的

  • 文 | 王见卓
    多数人只会说一两种语言,而美国华盛顿特区的47岁地毯清洁工Vaughn Smith却精通24国语言。
    据《科学》报道,在一项新的大脑成像研究中,研究人员仔细观察了像Smith这
  • 用3D模型保存濒危语言

  • 据学者估计,全世界有记载的语言超过7000种,然而其中约有一半濒临灭绝。近日,来自英国伦敦大学学院的一个团队尝试使用一种全新的3D模型保存这些濒危语言。  研究显示,1

热门文章

  • OPPO k1的低价高配真实么?网友:不看不知道

  • 近日OPPO一款新机OPPO k1,摒弃了高价低配,就连自家老大哥r17都要怼一下。更是放弃了请代言人,以往的OPPO手机还没出来,各路流量小生,花样美男的代言就先来了。还有线下销售人员的
  • 一招教你手机无限制成为一台新设备

  • 大家平时用手机去注册app,肯定会遇到检测设备异常,交易关闭,等问题 这个都是手机已经不止1-2次注册过此app,不断更换手机仅是一个暂时的方法,却不是长久之计,手机总归会用完
  • 从零开始如何开网店

  • 随着互联网的高速发展,人们的生活发生了翻天覆地的变化,生活节奏越来越快,网购已经成为家家户户生活中离不开的一种购物方式了。网购的发展使得越来越多的人想要涉足电商事业,那

最新文章

  • 土耳其强震牵动人心,这些自救知识收藏学习

  • 2月6日,土耳其发生了7.8级大地震,这是土耳其自1939年以来经历的最大地震,甚至被称为“世纪灾害”,房屋被震毁,大量国民被废墟掩埋。 图:微博@央视新闻 根据土耳其应急灾害管理局2
  • 安乡县春耕备耕忙 农技专家田间助生产

  • 今年,安乡县计划完成粮食播种面积80万余亩。为保证粮食丰收开好局、起好步,连日来,县农业农村局组织农技人员深入田间地头,送去技术和服务,保障春耕备耕。一大清早,安障乡种粮大
  • 多囊卵巢≠多囊卵巢综合症,别再傻傻分不清了

  • 很多女性患者在体检的过程中会查出多囊卵巢,上网一查多囊卵巢综合症就害怕的不得了,生怕自己不孕。其实,多囊卵巢和多囊卵巢综合症并不一样。两者概念不一样多囊卵巢(polycystic