国际刊号:ISSN 1672-8122 

国内刊号:CN 61-1430/G

首页 >> 学术前沿 >>学术前沿 >> 李添添 杜志波|人工智能时代医学科技期刊面临的出版伦理问题探讨
详细内容

李添添 杜志波|人工智能时代医学科技期刊面临的出版伦理问题探讨

人工智能时代医学科技期刊面临的出版伦理问题探讨

李添添 杜志波

江苏省省级机关医院《实用老年医学》编辑部

摘 要:当前,人工智能技术逐渐被应用于医学领域,医学科技期刊接收的相关投稿日益增多,其中潜藏的伦理问题也逐渐浮现。本文从作者、评审专家等主体出发,探讨有关人工智能技术应用涉及的出版伦理问题,并提出应对策略,旨在提升医学科技期刊的伦理审查水平,推动出版伦理体系进一步完善。

关键词:出版伦理;科技期刊;人工智能

一、引 言

随着现代信息技术的快速发展,机器学习、深度学习等技术被广泛应用于各行各业,人工智能时代已经到来。目前,人工智能已成功应用于医学影像、医学检测等领域,但在临床专科领域仍处于起步阶段,发展空间广阔,备受医学科研人员的关注。医学科技期刊接收的相关投稿日益增多,其中潜藏的伦理问题也逐渐浮现。论文在研究设计、投递期刊、专家评审及编辑加工等环节均存在伦理风险,甚至会在流程传递中累积并加剧。因此,仅依靠单一阶段的伦理审查机制难以全面保障透明度与公平性。针对此类问题,医学科技期刊应构建完善的伦理准则与规范化框架。本文从作者、评审专家等主体出发,探讨人工智能技术应用涉及的出版伦理问题,并针对编辑主体提出应对策略,旨在提升医学科技期刊对此类稿件的伦理审查水平,推动出版伦理体系进一步完善。

二、作者应用人工智能引发的出版伦理问题

(一)忽视研究对象的医疗自主权

医疗自主权是指患者或其代理决策者在充分知情的前提下,自主做出治疗决策的权利。过去,医疗道德决策责任人由医务人员承担,而在人工智能时代,部分医疗决策权被交由机器执行。因此,如何确保并实现患者(研究对象)的自主权,成为人工智能医学伦理中的关键问题。

保障研究对象的自主权需要遵循透明度和可信度两项基本原则。透明度意味着研究者不仅需要向研究对象告知人工智能的使用情况,还需要解释其工作原理以及对治疗的潜在影响。可信度则要求明确责任主体,这意味着研究对象不仅需要签署知情同意书,还需要知晓谁对使用人工智能医疗设备所产生的结果负责。研究者必须尊重研究对象的医疗自主权,使他们自主判断何种方式最符合其利益,而非被动接受技术更先进的治疗方案。个别作者在研究开始时,倾向于推荐使用人工智能医疗设备,此举会侵害研究对象的医疗自主权。唯有在人工智能应用公开透明,研究对象对其诊疗过程充分信任的基础上,才能真正实现医疗自主。

(二)存在数据泄露风险

医学信息技术的应用必须以尊重人的尊严和生命为前提,致力于造福患者。然而,人工智能医学有可能背离该原则。例如,基于不恰当数据集训练出的人工智能模型,会给出过于乐观或悲观的预测,对研究对象的情绪产生负面影响。此外,人工智能需要大量数据进行训练,而来源于互联网与物联网的数据会导致个人信息与隐私泄露,共享数据的电子系统越多,研究对象遭受意外伤害的风险就越大,敏感数据也更容易被泄漏。研究者必须识别哪些行为可能侵犯研究对象的隐私,确保人工智能系统具备可控性和可更新性,并持续监测系统内外部的安全风险,制定应对策略。

(三)不当署名

科技论文的作者署名通常依据其对研究的实质性贡献而确定,而人工智能是研究者使用的工具而非贡献主体,因此,将其列为作者属于署名不当。虽然人工智能及其辅助技术在医学研究中承担了医疗诊断、数据分析等具有独创性的任务,但其既无法独立发起研究,也不能对已发表论文或研究设计承担相应责任,因此,不应被列为论文作者。在绝大多数国家和地区,人工智能不具备法律主体资格,也无法享有或转让版权,不符合国际出版伦理道德委员会(COPE)对作者资格的界定。但是,作者可以在论文的“致谢”部分通过增加贡献声明,明确并量化人工智能在研究中发挥的作用。国际医学期刊编辑委员会(ICMJE)也明确指出,作者应在投稿与论文中说明人工智能技术的具体使用情况,禁止将人工智能及其辅助技术列为作者或合著者,也不得引用以人工智能名义生成的内容。

(四)人工智能生成内容失范

目前,基于大语言模型的生成式人工智能技术可根据用户指令,生成近似于人类写作的内容,个别作者直接提交由人工智能生成的论文稿件,明显违背出版伦理,构成学术不端。首先,该做法破坏学术竞争的公平性,损害科学研究的真实性与可信度;其次,人工智能生成的医学论文未经实验验证,一旦被发表可能误导读者,使其作出错误临床决策;最后,人工智能生成内容通常建立在大量已有论文的基础上,会侵犯他人的著作权。此类稿件不符合期刊投稿要求,编辑部需要耗费大量的时间与人力去识别,浪费了编辑部的资源。

部分临床试验研究受限于时间和资源,存在样本量小、来源单一、对象依从性不足以及数据缺失等问题,导致结果可靠性较低。目前,市面上已有基于人工智能的数据分析软件,能够自动生成数据与图表。个别作者为了追求“积极结果”,滥用此类工具,伪造或篡改研究数据,严重违背出版伦理中的原创性原则。同时,由于算法的开发设计和训练数据中嵌入了设计者的思想,可能存在学术偏见,其生成的数据累积放大后会造成结果的偏倚,影响结论的科学性。如果作者使用人工智能创建或修改图像,属于研究设计或方法的一部分,则必须在“方法”章节明确说明使用目的、工具名称、版本号、制造商等关键信息,并向编辑部提供人工智能处理前的原始结果或图像,以便编辑评估使用过程的合理性与透明度。

三、评审专家使用人工智能所引发的伦理问题

(一)对人工智能的认知度较低

医学科技期刊的出版周期相对固定,编辑在完成稿件的初审工作后,需要尽快选择同行评审专家。然而,受限于自身的医学专业知识以及对专家库熟悉程度,编辑很难精准选择真正匹配的同行专家。目前,医学科技期刊评审专家的研究方向主要集中于传统医学领域,对计算机与人工智能相关方法了解有限,无法准确地评估论文中涉及人工智能的研究方法和结论,影响审稿意见的科学性。此外,专家在评审人工智能医学领域稿件耗时更长,会造成出版周期延误。因此,医学科技期刊在收稿时,必须要求作者提供所使用人工智能技术和相关设备的介绍,以便协助评审专家与编辑高效理解论文背景。

(二)利益冲突及回避机制不完善

人工智能医学属于医工交叉新兴学科,国内开设该专业的高校较少,领域内专家数量有限。因此,在论文送审过程中会产生利益关联。例如,审稿专家与作者存在合作或同机构关系,或因研究方向相近形成潜在竞争,影响评审公正性。医学科技期刊在处理此类投稿时,应严格执行利益冲突声明与审查机制,推行双盲评审,杜绝主观性偏差。同时,应积极拓展医学人工智能领域的评审专家资源,依据学科发展动态持续更新专家库。

(三)人工智能伦理审查被忽视

外审专家是学术出版体系中不可或缺的角色,但其在学术伦理等方面的知识更新目前尚未得到充分重视,也缺乏长效机制[10]。由于缺乏系统的伦理培训,部分外审专家对国内外人工智能医学伦理的相关法规、政策和指导原则并不熟悉,难以应用伦理标准进行评判。此外,一些专家更侧重于研究方法与结果的科学性,忽视了人工智能医学应用涉及的数据隐私、算法偏见、患者权益等伦理问题。因此,医学科技期刊应将伦理维度纳入审稿评价体系,明确伦理审查要求,便于编辑对论文开展伦理复审,增强外审专家对伦理问题的敏感性与审查能力。

(四)不当使用人工智能生成模型

人工智能可通过文本分析,理解论文结构内容,对论文进行简单评价。个别外审专家未经编辑部允许,擅自使用第三方人工智能软件辅助审稿。虽然人工智能工具能生成看似规范的评审意见,但其本质上不具有批判性思维,给出的意见可能存在错误、不完整或带有算法偏见。此外,第三方人工智能软件往往难以保障数据安全。此类工具通常会将用户提交的稿件用于模型训练,导致文章内容和作者信息泄露,违反了审稿保密原则,侵犯了作者的隐私权。因此,应限制外审专家使用人工智能生成模型审稿,并强调他们必须对审稿意见的真实性、客观性与公正性承担责任。

四、编辑应对相关出版伦理问题的策略

(一)加强算法伦理审查

人工智能医学论文不仅涉及传统医学研究中的伦理规范,还延伸至算法伦理这一新兴范畴。算法作为人工智能系统的核心,其设计、训练与应用直接影响着医疗诊断和治疗决策的公正性与安全性。如果作者无法清晰阐述算法的来源、设计原理、训练数据集构成以及具体实施方式,审稿方就会难以识别其中存在的问题。因此,医学科技期刊编辑应在审稿流程中增设算法伦理审查环节,从公平性、透明度、可解释性以及社会伦理等维度,系统评估论文所使用算法的合理性与责任界限。

由于算法涉及计算机科学、伦理学与临床医学等学科领域,而部分编辑在这一方面的知识储备明显不足。因此,医学科技期刊应加大培训力度,促进编辑主动学习,增强对算法伦理基本原则与现实应用的理解,提高对潜在伦理问题的敏感性与判断能力。此外,期刊应推动建设规范、开放的代码与算法共享机制,鼓励作者在发表论文时同步公开所使用算法的核心代码及运行环境设置。这样不仅有利于学术同行验证实验结果、推动方法改进,还能引入社区监督,提升人工智能医学研究的可靠性、可重复性与伦理治理水平。

(二)严格数据来源与质量管控

人工智能算法的性能高度依赖训练数据的质量,数据的准确性、代表性和合法性直接影响研究结论的可靠性。低质量、有偏差、缺乏代表性的数据不仅会导致模型性能下降,还会引入系统性偏见,进而影响临床决策的科学性与安全性。编辑应警惕不同数据来源潜在的学术不端与伦理隐患,尤其应注意非公开来源、自行采集或未经伦理审批的数据集。

若作者未明确说明数据获取途径、伦理审查批准号及知情同意过程,编辑应主动要求其提供原始数据或详细的数据描述信息,审查其是否存在数据污染、标注错误、隐私泄露、样本选择偏差等问题,确保数据来源合规、权威且符合伦理准则。数据应来自公共数据库、多中心临床试验或经过严格伦理审批的研究项目。为应对数据伪造或篡改行为,编辑应借助一致性检验、异常值检测等统计检验工具初步筛查可疑数据,或委托第三方机构对数据进行独立验证与重复分析。同时,编辑部应建立健全学术不端行为发现与通报机制,定期公开数据造假、篡改或其他违规行为的处理结果,构建清晰的责任追溯与惩戒体系,从而强化学术诚信氛围,提高整体出版质量。期刊应要求作者共享数据管理与处理全流程的详细记录,包括数据清洗、标注以及划分策略,以增强数据使用过程的透明度与可重现性,进一步提升人工智能医学研究的可信度。

(三)提升对人工智能生成内容的识别能力

医学科技期刊是医学研究成果和知识传播的重要平台,承担着维护学术诚信和社会伦理规范的重要责任。编辑应提升对人工智能生成内容的警觉性,从多个维度辨别其典型特征:语言风格是否过于模板化,是否缺乏学术深度与语境适应性;文献引用是否真实、准确且与内容实质相关;逻辑结构是否连贯等。对于存疑稿件,编辑应及时提出质询,要求作者补充说明研究过程与方法细节,必要时建议修改或退稿,严防不准确、虚假甚至具有潜在危害的研究成果公开发表。

此外,编辑须严格遵循保密伦理,不得将投稿内容上传或输入至任何第三方人工智能生成平台。此类行为不仅可能导致作者未公开的研究成果、个人信息及版权材料外泄,也违背学术评审的基本保密原则。同时,人工智能生成模型自身可能存在训练偏差,其生成的内容未必可靠,甚至带有系统性偏见与错误结论。因此,在审稿决策过程中,编辑必须始终保持批判性思维,坚持以专业知识和学术判断为主导,而非依赖人工智能工具的辅助建议。为提升识别能力,期刊应开展专项培训,帮助编辑掌握人工智能生成文本的常见特征与最新动态,并引入AI检测软件等技术辅助工具为初步筛查手段,以人工专业审核为最终依据。只有构建系统化、多层次的防范体系,才能有效维护医学学术出版的严肃性与公信力。

五、结 语

为了建设世界一流科技期刊,我国越来越重视科技期刊的出版伦理建设。2023年9月,中国科学技术信息研究所联合爱思唯尔、施普林格自然、约翰威立国际出版集团,发布《学术出版中AIGC使用边界指南》,对人工智能内容生成用于学术出版的规范进行界定,为作者、评审专家和编辑在生成式人工智能的合理使用方面提供了明确指引,引导相关利益主体就AIGC使用达成共识。目前,国内外多家期刊编辑部与出版商已陆续制定并实施针对生成式人工智能技术在写作与评审环节中的应用规范。今后,作者、评审专家和编辑要共同努力,维护学术诚信,提升学术质量,保障研究过程的透明度与可追溯性,推动我国科技期刊出版伦理建设日趋完善。



24小时服务热线:029-81298560 029-81298610
更多

陕西今传媒杂志社有限责任公司

微信公众号

扫码订阅  今传媒

http://www.masscm.com

COPYRIGTT  2014-2025,ALL RIGHTS RESERVED

技术支持: 善源网络.善建站 | 管理登录
seo seo