新工具检测人工智能生成的虚假科学文章

【字体: 时间:2024年09月05日 来源:AAAS

编辑推荐:

  包括宾厄姆顿大学、纽约州立大学的教师在内的一个团队创造了一种机器学习算法,可以检测出高达94%的虚假学术论文,成功率几乎是普通数据挖掘技术的两倍。

  

当ChatGPT和其他生成式人工智能能够制作出看起来真实的科学文章时——尤其是对该研究领域以外的人来说——分辨哪些是假的最好方法是什么?

纽约州立大学宾厄姆顿大学的访问研究员Ahmed Abdeen Hamed创建了一种机器学习算法,他称之为xFakeSci,可以检测到高达94%的伪造论文,几乎是普通数据挖掘技术的两倍。

“我的主要研究是生物医学信息学,但因为我的工作涉及医学出版物、临床试验、在线资源和挖掘社交媒体,所以我总是关心某人传播的知识的真实性,”哈米德说,他是系统科学路易斯·m·罗查(Luis M. Rocha)的复杂适应系统和计算智能实验室的乔治·j·Klir教授。“在全球大流行期间,生物医学文章受到的打击尤其严重,因为一些人在宣传虚假研究。”

在《科学报告》杂志上发表的一篇新论文中,哈米德和他的合作者、中国合肥工业大学的吴新东教授为三个流行的医学主题——阿尔茨海默病、癌症和抑郁症——分别制作了50篇假文章,并将它们与相同主题的相同数量的真文章进行了比较。

当他要求ChatGPT提供人工智能生成的论文时,Hamed说:“我试图使用与我从[美国国立卫生研究院]PubMed数据库中提取文献完全相同的关键词,这样我们就有了一个共同的比较基础。我的直觉是,在虚拟世界和真实世界之间一定存在某种模式,但我不知道这种模式是什么。”

经过一些实验,他编写了xFakeSci程序来分析论文写作的两个主要特征。一种是双词的数量,这是两个经常一起出现的词,如“气候变化”、“临床试验”或“生物医学文献”。第二是这些双引号如何与文本中的其他单词和概念联系起来。

哈默德说:“首先令人吃惊的是,在虚拟世界中,大字的数量很少,但在现实世界中,大字的数量要丰富得多。”“而且,在虚拟世界里,尽管字母很少,但它们与其他一切都紧密相连。”

Hamed和Wu的理论认为,写作风格不同是因为人类研究人员的目标与人工智能在给定主题上的写作目标不同。

“因为ChatGPT的知识仍然有限,它试图通过使用最重要的词语来说服你,”Hamed说。“科学家的工作不是向你提出令人信服的论点。一篇真正的研究论文会诚实地报道实验过程中发生的事情和使用的方法。ChatGPT是关于单个点的深度,而真正的科学是关于广度的。”

为了进一步开发xFakeSci,哈米德计划扩大主题范围,看看泄露信息的单词模式是否适用于其他研究领域,从医学扩展到工程、其他科学主题和人文学科。他还预测,人工智能将变得越来越复杂,因此判断什么是真实的,什么不是真实的将变得越来越困难。

他说:“如果我们不设计一些全面的东西,我们将永远是在追赶。”“我们还有很多工作要做,以寻找一种通用模式或通用算法,而不依赖于使用哪个版本的生成式人工智能。”

他补充说,因为即使他们的算法捕获了94%的人工智能生成的论文,这意味着100篇论文中仍有6篇被通过:“我们需要对我们所取得的成就保持谦虚。通过提高人们的意识,我们做了一件非常重要的事情。”


相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号