2023年11月22日,nature新闻发表Miryam Naddaf的报道,ChatGPT背后的模型伪造了一个令人信服的虚假数据库,但法医检查表明,它并不符合真实性.
研究人员利用人工智能(AI)聊天机器人 ChatGPT 背后的技术,创建了一个假的临床试验数据集,以支持一个未经证实的科学说法。
为 ChatGPT 提供动力的人工智能模型可以创建表面上看似合理的科学数据集,作者将这些结果描述为“看似真实的数据库”。但是当专家检查时,这些数据没有通过真实性检查,并且包含了捏造的迹象。
在11月9日发表在《美国医学会杂志 · 眼科学》(JAMA Ophthalmology)上的一篇论文中,作者使用了ChatGPT4 与高级数据分析(Advanced Data Analysis,ADA)相结合,ADA 模型结合了编程语言 Python,可以执行统计分析并创建数据可视化。Ai 生成的数据比较了两种外科手术的结果,错误地指出一种治疗方法优于另一种。
EMBO Reports 的主编 Bernd Pulverer 也认为这是一个值得关注的问题。他表示: “同行评议在现实中往往不会进行全面的数据再分析,也不太可能发现利用人工智能精心设计的诚信缺失。”他补充称,期刊将需要更新质量检查,以识别人工智能生成的合成数据。
以上来自图情门户项目组编译报道,如需转载请注明出处。