AI写论文这件事,为什么越讨论越让人焦虑?

        前几天刷到一条新闻,说有个学生把自己纯手写的5.8万字论文送去AI检测,结果报告显示AI生成率86.8%,连致谢部分都被判定为“机器写的”。另一头,南京大学历史学院却发起了一个“我用AI写历史论文”大赛,不仅鼓励本科生大胆使用AI,还要求他们把用了什么材料、问了AI什么问题、AI给了什么回答,全都记录在案。

一边是“宁可错杀”的AI检测,一边是“光明正大”用AI写作。这两件事几乎同时发生,让我意识到一个事实:AI创作这件事,我们可能连问题都没问对。

第一个问题:AI写论文,到底是工具还是作者?

        这个问题在学术界已经吵了快两年。2025年,华东师范大学发起了一场“AI一作”大型社会实验,要求投稿论文的第一作者必须是AI。这不是作秀,而是用极限测试的方式,去追问一个根本问题:AI到底能不能独立完成学术创作?实验结果怎么说呢?学校方面明确表示,发起实验并非为了用机器替代学者,而是为了在极限测试中暴露问题,进而推动人机协同下的学术规范与伦理秩序的重构。

说白了,给AI冠以“作者”身份,目前更像是一场思想实验,而非现实判断。中国工程院院士丁文华的观点我特别认同:AIGC可以帮助并辅助人类进行创作,但不应该替代人类创作,人类创意是多维度的复杂过程,AI价值观与创作伦理还需要规范。

        从法理上说更简单——《著作权法》规定作者只能是自然人、法人或非法人组织,AI显然不满足这个前提。它生成的内容本质上是海量数据的模式匹配,而非基于自我意识和生命体验的创作。

所以我的理解是:AI是“创作杠杆”,不是“创作者”。它可以帮你梳理论证结构、优化语言表达、检索文献,但核心观点、研究方法、结论总结这些关键环节,必须由你来完成。这一点,清华大学发布的《人工智能教育应用指导原则》说得很清楚:严禁将AI生成内容直接复制用作学业成果,研究生指导教师需提供规范性指导并进行全过程监督。

第二个问题:高校规定五花八门,学生到底该怎么用?

        我花了一下午整理了近期各高校发布的AI使用规范,发现一个有趣的现象:不同学校的“可用边界”差别很大。

青岛科技大学明确禁止使用AI工具进行论文正文文本撰写、语言润色及翻译。复旦大学允许AI工具推荐统计图表类型和辅助制图,但不得用于生成或修改原始研究数据及关键研究图表。而南京大学则在竞赛中鼓励“充分、大胆”使用,只是要求全程记录操作痕迹。

这种“规定打架”的局面让很多同学感到困惑:我到底能不能用AI润色一段话?能不能让AI帮我整理文献综述?

个人观察下来,尽管各校细则不同,一条“铁律”是共通的:AI不能替你完成本应由你完成的学术思考。中国科学技术信息研究所发布的《学术出版中AIGC使用边界指南2.0》明确表示,AIGC不应该用来产生研究假设、直接撰写整篇论文文本或解释数据、得出科学结论。换句话说,AI可以帮你“打下手”,但不能帮你“做决策”。

        更值得关注的是,教育部门已在组织制定生成式人工智能在教育领域的伦理指南,要求学生在课程作业、学位论文、学术报告中,如实注明AI使用场景、参与环节与具体作用,做到全程透明可追溯。这意味着“用了不说”的风险,比“用对了但没说”更大。

第三个问题:AIGC检测到底靠不靠谱?

        回到开篇那个例子:原创论文被检测出86.8%的AI率。还有网友实测,将朱自清的《荷塘月色》上传到主流检测系统,测出62.88%的疑似AI生成率。甚至古文名篇《滕王阁序》,检测结果显示AI生成率100%。

这说明什么?当前AI检测技术尚不成熟,误判率不容忽视。北京师范大学教授李艳燕也指出,AI检测技术仍在快速迭代、不断完善中,需要建立包含人工复查、申诉机制的完整流程,避免“一票否决”式粗暴处理。

        但现实是,从2025年起,越来越多高校已将AIGC检测纳入毕业答辩审核流程。黑龙江大学规定AIGC比例超过30%需通报培养单位认定是否修改,超过70%取消申请学位资格。南京航空航天大学要求学院按不低于10%的比例组织AIGC抽查检测。常州大学要求AIGC检测率低于40%。

所以我的建议是:与其把精力花在“骗过检测系统”上,不如从一开始就建立正确的AI使用习惯。比如,用AI生成大纲和参考文献框架,但核心论证自己写;用AI润色个别语句,但保留自己的表达风格。

        如果不确定自己的AIGC比例是否达标,可以提前用检测工具自查,有针对性地调整。有平台提供按检测系统分类的降重和降AI服务,从降重到降AI,覆盖知网、维普、万方、格子达四大系统,承诺AIGC超10%或查重超15%全额退款——敢这么承诺,至少说明技术在进步。

第四个问题:AI创作会消解人类的创意吗?

        这个问题跳出学术圈,放到更广的创作领域来看,争议同样激烈。

        有人担心,如果所有AI模型都以2025年之前的作品进行训练,并在此基础上生成新作品,那么作品质量会下降,趋于同质化。全国政协委员舒勇也指出,AI基于既有数据训练易生成“平均美”,削弱艺术的个性与情感。

但也有人看到了机遇。舒勇在800多天的AI创作实践中发现,AI能“重新定义创作者角色”——比如输入“情绪森林”,AI会生成“水晶构成的无叶树林”,这种意外灵感让人对符号、色彩、时空有了全新理解。他把AI比作“思想的照相机”,能定格创作中每一次思想变化。

        试了多种方法,我发现一个规律:AI能不能激发创意,取决于你把它当“答案生成器”还是“思维脚手架”。

如果你只是让AI帮你写完整篇文章,那确实会消解你的思考能力;但如果你用AI来打破思维惯性、探索不同表达方式、快速验证多个方案,它反而能成为创意的放大器。

文化创意的深层价值在于表达人类的存在经验与文化意识,而非仅仅生成风格化的内容。工具本身没有善恶,关键看你怎么用。

我的几点体悟

        写到这,我大概梳理出几条心得:

第一,不要纠结“用不用”,要思考“怎么用”。AI进入学术写作已是不可逆的趋势。与其偷偷摸摸用,不如像南大竞赛要求的那样,公开操作痕迹、主动披露使用情况。用得好,AI能帮你在文献整理、大纲搭建、图表生成上节省大量时间。比如知学术这类平台,支持免费生成智能大纲,每个章节可定制标题和内容概述,还能在特定位置插入图表、公式、代码,相当于把你的写作思路先可视化,再动笔。

第二,守住“原创性”底线。不管技术多先进,核心观点、研究方法、结论总结必须由你独立完成。AI可以辅助,不能替代。如果担心AIGC比例超标,提前用专业工具检测并调整,别等到答辩前才发现问题。

第三,善用“无限改稿”思维。论文写作是一个反复打磨的过程。导师的修改意见往往分期分批到来,与其每次从头再来,不如把论文当作一个可进化的文档。有些平台提供无限改稿功能,生成一次后可以在编辑器里持续优化,调整措辞、增删参考文献、替换图表都不需要重新付费。这比找代写靠谱得多——内容是自己的,工具只是辅助润色。

第四,拥抱“透明化”。未来学术规范的方向一定是透明披露,而非遮遮掩掩。如实记录AI使用场景和参与环节,既是自我保护,也是对学术诚信的尊重。

说到底,AI创作带来的焦虑,根源不在于技术本身,而在于我们还没建立起一套成熟的“人机协作”规范。

        南京大学王涛教授有句话说得特别好:“我们希望通过这种具体的实践活动,来反推历史学界,乃至人文学界的学术伦理到底应该怎么重建”。这场讨论远没有结束,但至少方向越来越清晰了——让AI成为你手中的笔,而不是代替你的大脑。

(文中涉及的高校规范请以各校最新通知为准,本文观点仅供参考。)

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐