ChatGPT产生“令人信服的”假科学文章
一项新的研究发表在医学网络研究杂志》上马丁Majovsky博士和他的同事们发现,人工智能(AI)语言模型如ChatGPT(聊天生成Pre-trained变压器)可以产生欺诈篇科学论文,显得非常真实。这一发现提出了关键的对科学研究的完整性和发表论文的可信度。
查尔斯大学的研究人员,捷克共和国,旨在调查当前人工智能语言的能力模型在创建高质量欺诈医疗的文章。该团队使用流行的人工智能聊天机器人ChatGPT运行在由OpenAI GPT-3语言模型,生成一个完全捏造在神经外科领域的科学文章。问题和提示精制ChatGPT生成反应,允许迭代输出的质量改进。
这个概念验证研究结果的人工智能语言模型成功地产生欺诈的一篇文章,一个真正的科学论文相似的单词用法,句子结构和总体构成。本文包括标准的部分,如抽象,介绍,方法,结果和讨论,以及表和其他数据。令人惊讶的是,整个过程的文章作品只用了一个小时没有任何特殊训练的人类用户。
虽然AI-generated文章出现复杂和完美的,在最近的一次检测专家读者能够识别语义错误和错误尤其是references-some引用是不正确的,而其他人是不存在的。这凸显了需要提高警惕,增强检测方法来应对潜在的滥用AI的科学研究。
本研究的结果强调了道德准则和发展的重要性最佳实践使用人工智能语言模型在真正的科学写作和研究。模型像ChatGPT有潜力提高文档创建的效率和准确性,结果分析和语言编辑。小心的使用这些工具和责任,研究人员可以利用他们的权力同时最小化误用或滥用的风险。
在Majovsky博士的一篇评论文章中,佩德罗Ballester博士讨论了需要优先考虑科学作品的再现性和可见性,因为他们作为必要的防范欺诈研究的蓬勃发展。
AI不断进步,成为科学界的关键来验证的准确性和真实性内容由这些工具生成和实现机制检测和防止舞弊和不当行为。虽然这两篇文章都认为需要有一个更好的方法来验证的准确性和真实性AI-generated内容,如何实现尚不明朗。
“我们至少应该声明的人工智能辅助论文的写作和分析,“表明Ballester博士作为起点。Majovsky提出的另一个可能的解决方案和他的同事们正在提交数据集的强制性的。
文章“人工智能可以生成虚假但看似真的科学医学文章:潘多拉的盒子被打开“发表的医学网络研究杂志》上。
更多信息:马丁Majovsky et al,人工智能可以生成虚假但看似真的科学医学文章:潘多拉的盒子已经打开,医学网络研究杂志》上(2023)。DOI: 10.2196/46924
佩德罗•L Ballester开放科学和软件帮助:评论“人工智能可以生成虚假但看似真的科学医学文章:潘多拉的盒子被打开”,医学网络研究杂志》上(2023)。DOI: 10.2196/49323