在科研领域,人工智能技术的迅猛发展无疑为学术研究带来了前所未有的机遇,但同时也带来了一系列新的挑战。9月10日,中国科学院科研道德委员会发布了《关于在科研活动中规范使用人工智能技术的诚信提醒》(以下简称《诚信提醒》),旨在引导科研人员和学生正确使用人工智能,维护科研诚信。
《诚信提醒》的发布,是对当前科研环境中人工智能技术应用的一种及时回应。随着AI技术的不断进步,科研人员在数据处理、文献检索、成果撰写等方面越来越依赖于人工智能的辅助。然而,这种依赖也带来了潜在的风险,如数据伪造、论文抄袭等问题,这些问题不仅损害了科研的公正性,也对科研诚信构成了严重威胁。
《诚信提醒》由中国科学院科研道德委员会组织专家精心编制,经过深入讨论和广泛征求意见,最终形成了八条具体的提醒。这八条提醒涵盖了从研究选题到成果发布的整个科研流程,旨在确保科研人员在使用人工智能技术时能够遵循诚实、透明、负责任的原则。
自2018年以来,中国科学院科研道德委员会每年都会发布诚信提醒,聚焦不同的科研环节,如学术评议、科技奖励推荐、学术成果发布等,不断强化科研人员的诚信意识。今年的《诚信提醒》特别强调了人工智能技术在科研中的应用,这是对科研诚信管理的一次重要补充。
《诚信提醒》的具体内容包括:
中国科学院科研道德委员会发布的《诚信提醒》
(2024年9月10日发布)
在科研活动中,为了规范人工智能技术的使用,避免由此引发的科研诚信风险,我们提出以下八条提醒:
提醒一:在研究初期,可以利用AI技术追踪研究动态和整理文献,但必须对AI生成的信息进行真实性、准确性、可靠性的核实。
提醒二:在撰写申报材料时,若使用了AI生成的内容,必须对内容负责,并明确声明使用情况。
提醒三:在数据收集和使用过程中,若使用了AI生成的数据,应如实声明,并不得将这些数据作为实验数据。
提醒四:在制作音视频和图表时,可以借助AI技术,但必须对生成内容进行标识,并声明使用情况。
提醒五:在撰写成果时,可以利用AI技术辅助整理理论、材料与方法,但不得将AI生成的内容作为核心创新成果。
提醒六:在同行评议过程中,禁止使用AI技术撰写评议意见,且不得将评议信息上传至未经认可的平台。
提醒七:在科研活动中使用AI技术时,应在适当位置声明工具的名称、版本、日期及使用过程。
提醒八:在选择AI技术时,应优先使用经国家备案的服务工具,避免滥用AI技术造成数据安全、知识产权侵犯等问题。
各单位应根据《诚信提醒》,结合自身学科特点和学术惯例,开展相关教育培训,引导科研人员和学生正确、规范、负责任地使用人工智能技术。
《诚信提醒》的发布,不仅是对科研人员的一种警示,也是对整个科研环境的一种净化。它强调了在科研活动中使用人工智能技术时的规范性,确保了科研工作的质量和诚信。通过这样的提醒,我们期待能够建立起一个更加健康、公正的科研生态。