随着以ChatGPT为代表的生成式人工智能技术日益渗透进写作领域,其强大的文本生成能力不仅革新了工作效率,也为学术论文的撰写提供了便捷工具。然而,这一技术的应用并非全然无害,学术不端的风险随之浮现。
江苏省科技厅监督评估处处长顾俊在《政风热线》节目中指出,为应对这一挑战,相关部门将开展科技人员论文自查和抽查,并加强科技伦理审查,以提升科研诚信意识。这一举措旨在预防学术不端现象,确保科研领域的健康发展。
当前,尽管《科技伦理审查办法(试行)》已正式实施,但尚未明确规定生成式人工智能技术的具体应用规范。尽管如此,学术不端行为如抄袭、剽窃和数据伪造等,依然是严厉查处的对象。例如,国家自然科学基金委员会近期公布的案件显示,抄袭和剽窃是最常见的不端行为,占比高达62.5%。
江苏省科技厅强调,将加强对科技伦理的审查,并鼓励科研机构内部开展学术不端问题的自查工作。科技部门还将不定期进行抽查,以不断完善学术不端的治理流程和标准。
南京理工大学教授李千目,专注于人工智能系统安全与大数据挖掘的研究。他认为,人工智能技术作为科研辅助工具,能够提升研究效率与质量。在合理应用的前提下,AI技术能够促进科研成果的整体提升,包括论文撰写过程。
为了更好地引导AI技术服务于科研工作,而非成为抄袭与造假的手段,需要建立健全的制度规范,并加强对AI技术使用的约束。《科技伦理审查办法(试行)》的实施为科研人员提供了价值观念、社会责任和行为规范的指导,期望通过广泛宣贯,增强科研人员的伦理意识。
提升公众对AI技术的认知同样至关重要。虽然抄袭难以彻底避免,但通过合理利用AI技术,可以促进知识共享与技术创新。AI工具在数据收集与信息整合方面的高效性,有助于研究人员形成更为严谨且具有说服力的论据。
面对AI技术的广泛应用,科研人员应意识到其在学术写作中的潜在影响,并在使用过程中严格遵守学术诚信原则。在论文中提及使用了AI技术,不仅是对学术透明度的尊重,也是对自身研究责任的坚守。
生成式人工智能技术在学术写作领域的应用,既带来了效率与创新的潜力,也引发了关于学术诚信与伦理的深刻讨论。面对这一发展趋势,科研界需在拥抱技术的同时,建立更为完善的规范与机制,以确保学术环境的纯净与可持续发展。