ChatGPT 将能够欺骗科学评论者。一项新研究的作者警告说,如此复杂的程度可能会引发科学诚信危机。
新的聊天机器人 ChatGPT自几个月前推出以来,它越来越受欢迎,特别是由于其相当出色的性能。因此,研究人员想知道它是否能够令人信服地生成虚假摘要,从而导致愚弄科学家,让他们相信研究是真实的。
为此,西北大学和芝加哥大学的研究人员要求 ChatGPT 从医学期刊上发表的 10 篇真实摘要中生成虚假研究摘要,并将虚假文章与真实文章一起提交给科学家。这些是为了区分真假,我们至少可以说的是结果令人震惊。
另请阅读–微软钟爱ChatGPT并出价100亿美元成为近乎多数股东
人类审阅者在混合真实和虚假生成的摘要后,只能在 68% 的情况下发现 ChatGPT 生成的摘要。审稿人还将 14% 的实际摘要误认为是人工智能生成的。
研究人员还将 chatGPT 撰写的文章提交给抄袭检测软件。如果其中 100% 确实是唯一的,那么由于 chatGPT 会在不复制来源的情况下生成答案,因此只有 8% 的答案符合科学期刊要求的格式要求。
因此,ChatGPT 尚未接近取代所有领域的作家,但聊天机器人应该会在几年内取得巨大进步。学术科学出版物依赖于相关领域的人类专家提交和审查文章的过程,但如果他们不再能够区分人工智能和人类生成的文章,这可能会引起许多专业人士的质疑。
目前,研究人员敦促依赖科学研究的医学期刊和会议保持“严格的科学标准» 并在审阅文章时实施人工智能退出检测器。一名学生还开发了软件,可以让您知道文本是否是由 chatGPT 生成的。