近日,科隆大学植物科学教授马塞尔·布赫在《自然》杂志专栏中公开了自己因使用ChatGPT而遭受重大损失的遭遇。布赫教授为测试在不提供个人数据的情况下能否使用ChatGPT全部功能,关闭了“数据授权”选项,导致其两年间存储于该平台的全部学术资料——包括经费申请、论文修订稿、讲义与试题等——瞬间被清空且无法恢复。他指责OpenAI在缺乏基本数据保护措施的情况下便推出付费服务,并未在操作前给予明确警示。

血的教训!教授踩坑ChatGPT数据授权 两年学术清零(图1)

  OpenAI对此回应称,删除聊天记录前系统会弹出确认窗口,且数据一旦删除即不可恢复,同时建议用户在处理专业工作时自行备份。此事引发了公众广泛讨论,部分评论质疑布赫过度依赖AI且未做本地备份,也有声音对其公开经历以示警醒表示肯定。

血的教训!教授踩坑ChatGPT数据授权 两年学术清零(图2)

  需要注意的是,ChatGPT等工具虽能辅助写作,但其常生成虚假信息、语气谄媚,易误导用户,不宜作为重要工作的依赖。

  此外,AI生成的低质稿件正涌入学术期刊,甚至出现由AI评审AI稿件的乱象,造成学术文献污染。布赫的经历表明,即便使用者保持批判态度、未直接采用AI产出的内容,仍可能因过度信任平台的稳定性而蒙受损失。

血的教训!教授踩坑ChatGPT数据授权 两年学术清零(图3)

  这为科研工作者及广大用户敲响警钟:在使用人工智能工具时,必须警惕其局限性,并始终保持关键数据的独立备份。

0