学术出版视域下人工智能使用者透明度义务构建*
[摘 要] 人工智能参与知识生产活动具有隐蔽性,使用者为了获得AIGC的完整著作权,可能掩盖人工智能的实质贡献,从而破坏作品市场秩序和学术生态环境。构建人工智能使用者透明度义务是加强可信AIGC的基石,具有保证学术诚信、识别作品来源、区分人机贡献的作用,以及提供学术评价和侵权追溯的事实依据。透明度义务的具体设定应充分考虑客观现实,避免“完全透明”标准,以此明确义务履行的内容和方式:通过披露用户协议说明AIGC的权属,以显式标识方式表明内容系人工智能生成,并以可视化方式记录与人工智能的交互过程。为推动透明度义务的实现,还需寻求支撑机制:一是构建场景化的义务履行模式,二是重塑传统知识核验体系,三是完善违反义务的问责机制。
[关键词] 学术出版 学术诚信 人工智能使用者 透明度义务
随着人工智能(AI)技术的应用和发展,使用大语言模型进行选题、写作、润色的现象愈发常见,极大地提升了知识生产力。但AI介入创作具有隐蔽性特征,人类作者可能会为了获得生成式人工智能生成物(AIGC)的完整著作权,隐瞒AI参与创作的事实。如何规范人工智能生成合成内容标识,既是保护公民、法人和其他组织合法权益、维护社会公共利益的必要举措,也是促进人工智能健康发展的题中应有之义。2025年3月7日,国家互联网信息办公室等四部门印发《人工智能生成合成内容标识办法》,[1]明确相关服务主体的标识责任义务,进一步细化了标识的具体实施规范,着力构建开放、公正、有效的治理机制,营造公平有序的发展环境。
事实上,为推动可信AI技术的发展,全球主要国家和地区不断出台相关政策法规强化AI的透明性和可解释性。如欧盟《人工智能法案》提出AI系统的开发和应用应当遵守“透明度原则”。[2] 2025年2月10日,人工智能行动峰会在法国巴黎召开,61个国家共同签署人工智能宣言,明确提出七大原则,其中之一即包括“AI透明度”。[3]我国相关法规文件也体现了对AI透明度问题的关注,如《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等对服务提供者提出内容标识的要求。整体来说,现行规范主要构造了以AI服务提供者为义务主体,以“标识”为主要方式的透明度规则。但“是否AI生成”的标识不足以应对AI带来的挑战,[4]将透明度义务主体限于服务提供者也难以处理AIGC在出版阶段产生的问题。作为与AI交互的重要主体,AI使用者的信息披露对于AIGC的识别和判断至关重要。当前,传统出版业对AIGC透明度的追求仍处于初步探索阶段,AI使用者应当披露什么、何时披露、如何披露并不明确。在学术出版场景下,学术诚信规范与可信AI准则交叠,AI使用者(作者)透明度义务的履行对于AIGC治理具有重要意义。基于此,本文首先明确在学术出版阶段AI使用者履行透明度义务所体现的功能定位,继而对其具体义务展开讨论,提出保障义务履行的具体路径。
一、人工智能使用者透明度义务的功能定位
虽然AI的智能化水平不断提升,但在人机交互的过程中用户的提问和引导仍旧主导着学术生产活动,需要AI使用者履行透明度义务以拨开人机协同创作过程的迷雾,在保证学术诚信的同时,消弭作者与社会公众之间的信息不对称。
1.保证学术诚信与学术公平的先决条件
利用AI进行知识生产实际上属于学术自由的范畴。但学术自由并非完全的自由,还应受到法律、道德的规范。而学术诚信与学术公平既是学术自由的内在品质,也是对学术自由的限制。在传统的知识生产活动中,通常只关注最终的成果,学术不端治理亦是采取事后治理范式,创作过程并非必须披露的信息。即便是多人合作场景,通过合作协议也能较为容易地得知作品权利归属以及各作者的学术贡献,创作过程相对简单、清晰。但在AI介入的场景下,人机协同的知识生产具有创作过程隐蔽性和实质贡献杂糅性的特征。其中,创作过程隐蔽性包括客观上的隐蔽性和主观上的隐蔽性两个方面。[5]客观上的隐蔽性表现为很强的技术黑箱。以DeepSeek模型为例,其通过强化学习机制不断进行自主学习和进化,学习过程被认为是黑盒系统,我们无法直接观察和理解其内部的工作原理,只能通过改变输入指令,观察输出结果,优化模型参数来调整AIGC。主观上的隐蔽性表现为使用者对AIGC的控制,第三人无法得知具体的创作过程,从而产生信息不对称问题。一方面,AIGC仅用户自身可见,并未采取直接公开的方式;另一方面,用户控制着AI在学术活动中的介入范围、介入时间以及介入程度,相关信息仅由本人所掌握,第三方无从得知,也难以通过反向探测的方式了解。实质贡献的杂糅性是指人机贡献混杂难以区分。AIGC包含的人机贡献分别体现在:人类通过输入指令对知识生产进行诱导以投入创作要素,而机器通过接受指令将非结构化信息转化成结构化内容。由此,人和机器均对AIGC产生实质性贡献,导致知识产品人机贡献杂糅。
若要克服上述隐蔽性和杂糅性问题,就必须设定AI使用者的透明度义务,否则将有损学术诚信和学术公平。隐瞒AI对学术论文的贡献可能构成学术失信行为,利用AI进行论文代写、将AIGC直接署名使用则可能构成学术不端。AIGC模糊了“独创”和“剽窃”之间的界限,其技术瑕疵也可能造成对他人作品的伪造和篡改,可能导致学术不端行为更加隐蔽。对于学术公平而言,由于AI极大地赋能学术生产,若使用者不披露AI的具体使用情况,将导致AIGC与普通学术成果处于同一评价赛道,学术失信和学术不端行为被掩盖、遮蔽,势必破坏公平竞争的学术环境。因此,透明度义务的构建是督促和保证作者诚信科研、维系学术公平竞争环境的先决条件。
2.识别作品来源与实质贡献的基本要求
人机协同创作的不透明和复杂性,突出表现在人机贡献的混合,形成识别作品来源和判断学术贡献的难点。在著作权法上,署名是表明作者身份的重要形式,也是识别作品来源的主要方式。但对于AIGC而言,其外观与普通创作物无异,通过署名区分AIGC与人类作品具有不可操作性。[6]第一,因为AI的名称可能与人类姓名相似,如字节跳动公司研发的AI机器人“张小明”,社会公众难以通过其署名识别作品来源于AI还是自然人;第二,若因署名不同而造成定价差异,极易诱发虚假署名的道德风险;第三,AI背后涉及的权利主体众多(包括服务提供者、开发者、使用者等),加上不同用户协议所作出的权属约定不尽相同,易导致署名不全的问题。因此,使用者应当披露内容系AI生成,以此区分AIGC与人类作品。
除识别作品来源外,AIGC的可版权性判断亦是出版阶段面临的难题。当前我国司法实践并未对AIGC的可版权性持否定态度,而是采取有条件保护的司法原则。[7]如在李某诉刘某侵害信息网络传播权案中,法院认为AI生成图片从外观上看与寻常的摄影、美术作品无异,且具有一定的表现形式,若原告对其体现了“一定的智力投入”或“个性化表达”,则该图片属于智力成果,具有可版权性。[8]美国版权局2023年发布的《关于包含人工智能生成材料作品的著作权登记指南》指出,对含有AIGC的作品,能否予以注册的关键在于该作品是否蕴含足够的人类作者贡献。如果作品的“传统作者要素”完全由机器添加,人类作者没有对其施以“最终的创造性控制”,版权局将拒绝该注册申请。[9]我国与美国著作权法实践的不同之处在于:我国司法实践主张只要人类作者有“一定的智力投入”,就可能将AIGC认定为作品;而美国著作权法实践强调对AIGC拥有“充分的控制”,承认AIGC中人类作者创作部分,排除AI生成部分。但无论持何种观点,对AIGC可版权性的判断,均以人机贡献的外化为前提。利用AI进行知识生产的行为固然极大地提升了创作效率,但高质量内容的生成依旧需要专业的知识经验。比如AI生成图片,除了输入描述性语言外,图片风格、大小、细节调整的提示词同等重要,高质量图片的生成往往要求AI使用者具有绘画、摄影方面的美学经验,这些持续的修改指令即体现了作者的智力投入。因此,使用者利用AI进行创作的执行程度,成为评价其是否有资格成为作者以及AIGC是否具有可版权性的关键。如上文分析,人机协同创作过程具有隐蔽性,且人机贡献杂糅难以区分,若AI使用者不披露利用AI创作的具体过程,实际上难以判断人类作者是否具有足够的创造性贡献,也就无从判断AIGC的可版权性。
3.提供学术评价与侵权追责的溯源基础
对于作者而言,可以通过学术论文获得财产性利益,但更多的是基于论文产生的良好学术评价而获得名誉、晋升以及学术共同体认同等多方面精神利益。同自然人产出的知识产品一般,AIGC亦需要接受学术共同体的学术评价,评价标准涉及知识创新、应用效益以及作者贡献等多维度。传统的学术评价单纯指向自然人作者及其学术成果,但对于人机协同创作的AIGC而言还应包括机器及其创造性贡献。AI在提升学术生产效率和质量的同时,加大了学术产出的鸿沟,推动学术共同体将“人机交互能力”作为学术成果评价的重要维度。[10]这种学术产出鸿沟体现在学术成果的质效将在很大程度上依赖于是否使用智能工具以及使用智能工具的水平。AI工具使用能力差的研究人员在成果产生的效率和质量上将处于劣势,而能熟练使用AI的科研人员则可能更快占领学术高地。申言之,随着AI在知识生产中的应用,学术评价的对象和边界面临重塑,研究人员与AI之间的交互关系将纳入评价维度。有鉴于此,研究人员应当充分披露AI在学术成果中的使用,为学术评价提供足够的事实依据,以追求学术评价的客观公正。
使用者披露AI在知识生产活动中的使用,不仅提供了学术评价的事实依据,而且也为后续的侵权追责提供溯源基础。机器学习对海量作品数据的使用,导致AIGC的著作权侵权风险客观存在且难以避免。在AIGC著作权侵权责任主体的认定上,用户作为使用者仅提供生成指令,对于侵权内容的生成通常不存在过错,因为用户难以预知软件能够生成何种内容,也没有义务判断AIGC的侵权性质,不宜对其过分苛责。相较而言,AI服务提供者更应承担风险控制义务,通常作为AIGC著作权侵权的责任主体。但是,若用户在接触在先作品后,通过多次指令输入有目的性地生成类似内容,通过特定的创作行为有预见性地生成侵权内容,则应认为其实施了主动侵权行为。通过分析生成AIGC的具体步骤,以及后续的利用行为,也能够对其过错情形和过错程度进行认定。通过披露具体创作过程,作者也可以主张该侵权作品完全由AI生成,请求免除损害赔偿责任。因此,在分配AIGC著作权侵权责任时,履行透明度义务能够提供相关信息,支持侵权责任主体以及过错程度的认定。
二、人工智能使用者透明度义务的具体设定
透明度义务既是AI技术规范,也是社会规范,牵涉人机互动关系以及社会信息结构。因此,透明度义务的设定不仅要充分考虑AIGC的技术特性,还应充分权衡相关主体的利益得失,以此明确透明度义务履行的限度、内容和方式。
1. AI使用者履行透明度义务的限度
AI使用者履行透明度义务,要求以一定的方式向出版者和社会公众说明创作的具体过程。但需要注意的是,透明度义务的实现并非要求义务主体对AIGC的生成过程进行“完全透明式”的披露,而应基于客观现实,综合考虑使用者披露能力和受众信息需求,合理设定义务履行的限度。
首先,AI使用者只负有披露其所知悉信息的义务,而不包括其不掌握也难以掌握的信息。AIGC透明度义务并非为使用者设定的一项技术解释义务,而是要求使用者根据诚实信用原则进行创作,做到不隐瞒、不虚构。AIGC本身存在一定程度的不可解释性,即便是技术开发者,也无法对AI的具体决策过程作出完全解释,因此,要求使用者对AIGC作出完全解释是不现实的。其次,使用者应当披露的只是影响出版审查、保障社会公众知情权的重要信息,而不包括有关联但不具有足够价值的信息。透明度义务所需传达的信息应当表现为具有意义的、能够为行为人决策提供价值的形式。在学术出版场景下,所需披露的信息既包括作品是否系AI生成的信息,还包括涉及作品可版权性审查、学术创新评价、内容质量判断等的重要信息。由于相关主体在知识储备、理解能力以及信息需求等方面均有差异,AIGC披露和解释的范围还可能随着场景变化而调整。最后,过高过严的透明度标准可能适得其反。一方面,透明度义务的设定虽然能够作为保证创作诚信和学术责任的重要基础,但过严的履行标准可能会加重作者的负担,抑制创作自由权的行使;另一方面,高透明度标准看似可对AIGC进行更好监督,但过载的信息量反而会掩盖核心问题,造成负面影响。
2. AI使用者履行透明度义务的内容
第一,使用者利用AI生成作品并进行传播的,应当在作品存在被误认风险时,添加“由AI生成”的标识。《互联网信息服务深度合成管理规定》第十七条第二款规定,服务提供者应当提供显著标识功能,并提示深度服务使用者可以进行显著标识。该条规定虽以服务提供者作为核心主体,但同时也体现了AI使用者的标识责任。如前所述,现有研究大多围绕服务提供者这一主体探讨内容标识制度,但局限于服务提供者难以满足AIGC治理需求。其原因在于:一方面,服务提供者对于AIGC的把控具有局限性;另一方面,服务提供者通常对AIGC进行无差别标识,仍将作品质量辨识问题遗留下来,无益于AIGC治理。相反,AI使用者作为AIGC的制作者和传播者,对内容生成和传播具有更大的掌控力,由其履行标识义务更为合理、可行。
第二,在出版过程中,AI使用者应向相关主体披露AIGC中的人机贡献及具体交互过程。比如,人类作者应当说明对AIGC进行了哪些构思、选择、安排和调整;得到AIGC后是否继续对其进行了较大程度的修改或再加工,以形成最终文本。对于AI贡献而言,AI虽未直接控制输出的具体表达,但算法设计、数据标注、大模型训练等也实质影响了最终输出的形式,在一定程度上也体现了开发者的“个性”。由于著作权法只保护人类作者的创作,探讨AI贡献对于可版权性审查来说没有实质的价值,但在科学研究场景下,AI可能仅介入研究的部分环节,如选题、部分数据处理等,此时也需要明确AI的贡献,以保障社会公众的知情权,为学术评价提供足够的事实要件。
第三,在出版过程中,AI使用者应向相关主体披露AIGC权利归属和使用权限。在智能时代,作品版权状态不明以及权属不清的情形成为常态,[11] AIGC的权属确定更加复杂。在学者的讨论中,AIGC权利归属存在“人工智能归属论”“使用者归属论”“设计者归属论”等诸多观点。在腾讯诉上海某科技公司案中,法院就采用了“使用者归属论”,认为AIGC的著作权归属于AI使用者。[12]但AI服务提供者和使用者之间的用户协议并不必然约定由使用者享有所有相关权利。如ChatGPT将AIGC的所有权利转让给作者;[13] DeepSeek也将AIGC的所有权利转让给用户,并声明用户可以将AIGC应用于个人使用、学术研究、衍生产品开发等场景;[14] Midjourney绘图软件根据是否付费采取不同的权属模式,付费用户拥有著作权,免费用户仅获得非商业性目的的使用许可;[15]文心一言许可用户不可转让的、非独占的和非商业的使用AIGC的权利,除此之外的一切权利由百度保留。[16]由此可知,不同的服务提供者在用户协议中所约定的权利不尽相同,作者应当披露AIGC的权利归属和使用权限,为出版审查和解决权属纠纷提供基础信息。
3. AI使用者履行透明度义务的方式
只要是有利于AIGC可信,透明度义务履行的方式可以有多种,基本方式包括披露用户协议、标识内容来源、记录和说明AI贡献等。
通过披露用户协议说明供稿者拥有AIGC的著作权,并声明对AIGC的使用行为未违反约定。《生成式人工智能服务管理暂行办法》第九条第二款规定,提供者应当与使用者签订服务协议,明确双方权利义务。在不违反法律、行政法规的情况下,用户协议通常具有完整的法律效力。除明晰AIGC的权利归属外,用户协议还会载明使用场景以及平台保留的权利,以此规范用户对AIGC的二次利用。因此,AI使用者可以通过提交和声明AI软件的用户协议,以进行权属信息的披露,证明后续的AIGC使用行为符合约定。
以显式标识方式披露作品系AI生成。《人工智能生成合成内容标识办法》第三条规定,人工智能生成合成内容标识包括显式标识和隐式标识。前者是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;后者是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。AI使用者通常不具备足够的技术能力,因此只能以显式标识作为主要的履行方式。具体而言,对于文本内容,由于其具有碎片化特征,标注难度较高,可以在适当位置添加文字以说明AI的具体贡献,或者添加合理的水印标识。对于论文图表等内容,显式标识也应采用文字提示,安排在图表边角位置。标识要素包含“人工智能合成”或“人工智能生成”等。
以可视化方式记录和披露与AI的交互过程。记录和披露与AI的具体交互过程,将作为AIGC治理的基本方式。可视化方式要求AI使用者以看得见的方式向受众传达创作信息。对此,作者可以采用文字、图表、流程图等不同方式客观全面地记录与AI的具体交互过程,尽量避免个人主观的价值判断。其中,图表和流程图方式相较于文字来说更为清晰和直观,能够达到更好的披露效果。出版主体可以对披露方式和效果提出要求,引导用户采用流程图或图表的方式对AIGC进行解释。在教育和学术研究方面,可参考《学术出版中AIGC使用边界指南》的思路,基于学术研究的全流程,记录AI在选题、文献综述、数据收集、方法设计等环节的介入情况。披露的方式包括但不限于在摘要中表明使用何种AI、在引言部分说明使用AI的目的和作用、在研究方法中指出AI算法相较于其他方法的优越性等。
三、人工智能使用者透明度义务的实现路径
推动透明度义务落到实处,不可能仅仅寄希望于AI使用者的自觉和自主行为,还需要寻求支撑机制和可能的实现方式。
1.构建场景化透明度义务履行模式
在学术出版传播过程中,透明度义务的履行可分为涉财产利益和精神利益两类场景。
在涉财产利益场景下,可基于民法上的诚信原则化解隐匿AI贡献行为的财产性风险。对于许可或转让AIGC著作权权益的情形,许可方或转让方应当主动、如实披露该作品中涉及的人机贡献。如果行为人在订立著作权合同时,故意隐瞒AI参与创作的重要事实,或提供AI参与创作的虚假情况,造成对方损失的,可适用《民法典》第五百条第二、三项的规定,要求行为人承担赔偿责任;对于完成职务作品、委托作品等特殊作品类型的情形,根据《民法典》第五百零九条的规定,当事人也应当遵守诚信原则,向相关利益主体披露作品创作是否使用AI以及使用程度,以防因著作权基础权利丧失导致合同目的不能实现。[17]
在涉作者精神利益的场景下,由于学术研究的严谨性,期刊出版单位和教育部门对于AI介入的成果大多持谨慎和保守态度。期刊出版单位大多发表声明禁止投稿人使用AI,或要求投稿人披露AI参与创作的事实。比如,《科学》期刊社明确禁止使用ChatGPT生成的文本[18],《暨南学报》编辑部要求投稿者披露AI的贡献[19]。高等院校和科研机构也开始为AI介入学术论文立规,如2024年11月28日复旦大学正式发布《复旦大学关于在本科毕业论文(设计)中使用AI工具的规定(试行)》,对AI工具的使用进行详细规范。[20]期刊社和高校均有权禁止使用AI撰写文章,或者要求作者披露AI的具体贡献,并对不遵守规定的行为施以惩戒措施。在学术论文写作场景下,作者应当严格遵守学术诚信,对内容的合法性、准确性和创新性负责,使用AI的应当履行强制性的透明度义务。
2.塑造多手段组合的知识核验体系
当使用者未披露或瑕疵披露AI使用情况时,AIGC与人类作品的区分需要依靠技术检测手段来实现。AI文本检测技术利用机器学习和深度学习技术,以AIGC和人类作品作为训练数据,当训练数据足够庞大时,能够极大地提升AI生成文本识别的效率和准确性,但是也存在技术层面的限制和实施层面的难度。欧盟2024年5月21日发布的《生成式人工智能透明度:机器生成内容的识别》报告指出,当前AIGC检测技术均具有一定的短板和局限性,更好的办法是在具体情况下综合采取多种手段。[21]除利用单纯检测技术以外,元数据技术、水印技术和指纹识别技术的应用,也能进一步提高AI生成文本的识别效率。若能在AI技术开发早期嵌入元数据的技术标准,将会大幅提升AIGC的识别效率。
AI检测技术虽然具有一定的优越性,但只能用于初步的识别,即便文本通过了机器的检测,仍需要同行专家以及编辑的审核把关。《自然》杂志也提出人工验证步骤必不可少。[22]实际上,生成式AI虽然展示出极强的知识生产能力,但AIGC在真实性、准确性和创新性上的不足依旧有迹可循,仍能被同行专家所甄别。考虑到AI参与知识生产活动的特殊性,知识核验体系建设应当由多方主体共同参与、多个环节共同作用,并对知识生产的过程和结果展开核查。[23]这就要求,期刊编辑、同行专家等主体不仅需对知识成果进行审查,还需要将知识生产过程作为核验对象。具体来说,知识成果核验可分三步进行:第一步,先由编辑进行成果初审,并利用AI检测工具识别AIGC,对比作者披露的AI使用信息,形成初步审查报告。若成果经AI检测为AIGC,或检测结果与作者披露信息不符,编辑可要求作者作进一步披露,或者采取拒稿措施。第二步,将通过初审的成果及初步审查报告一并提交同行专家评议。在同行评议环节,可以要求专家群体从成果的科学性、创新性等方面进行评判,重点关注AI使用的规范性与人类作者贡献是否足够,形成最终评议意见反馈至编辑部。第三步,编辑部综合同行评议意见对成果进行复审,对符合相关标准的成果作出出版决策。
3.完善违反透明度义务的问责机制
检测技术工具固然不可或缺,但更重要的是建立完善的学术诚信问责机制,让人类作者成为论文的第一责任人,编辑和相关公众成为学术诚信的监督员,对滥用AI进行学术生产,以及违反透明度义务的行为进行限制。生成式AI已广泛应用于科研、文学和艺术领域,但科学研究的要求通常严于文学、艺术领域。
在科学研究领域隐瞒AI对学术论文的贡献可能构成学术失信行为,利用AI进行学术论文的创作可能认定为剽窃、抄袭、伪造、代写、不当署名以及盗用等学术不端行为。2023年发布的《学位法(草案)》第三十三条明确将AI代写行为纳入学术不端,但正式通过的法律文本删除了该条规定。为规范生成式AI在学术研究中的使用,明确违反透明度义务的责任承担势在必行。《高等学校预防与处理学术不端行为办法》与《学位论文作假行为处理办法》均明确了学术不端行为的认定标准和程序,可结合AI使用者透明度义务细化学术不端行为的认定。具体来说,对于使用未被授权AIGC的行为,侵犯他人研究成果的,可定性为学术不端中的“剽窃”“抄袭”行为;对于未按规定标识AIGC,违反AI使用者披露义务的,可定性为学术不端中的“代写”行为;对于擅自将AI列为作者,标注失当的,可定性为学术不端中的“不当署名”行为;对于AI生成错误和虚假学术信息,未加审查便使用的,可定性为学术不端中的“伪造”行为;对于在AIGC中使用他人许可的独创性成果,未加引注或错误引注的,可定性为学术不端中的“盗用”行为。《关于进一步加强科研诚信建设的若干意见》提出严肃查处严重违背科研诚信要求的行为,其中体现的责任形式包括违纪责任、违规责任、违法责任等。有学者提出构建软法和硬法协同的惩罚机制,[24]前者通过出版机构或行业组织对相关失信人员采取撤稿、拉入学术失信黑名单、剥夺学术荣誉等措施;后者按照相关法律规定,对责任人员采取开除学籍、撤销学位、解除劳动合同、进行党纪处分等措施。综上,进一步细化和完善学术不端认定规则,可以有效震慑在学术科研领域不当使用AI的行为,有利于营造良好的学术生态。
四、结语
生成式AI的发展和应用促使知识生产范式由“人类创作”向“人机协同创作”转变,由此产生的人机贡献模糊和知识产品不当署名问题,对作品市场秩序产生影响。构建AI使用者透明度义务对于营造良好的学术竞争环境、保障社会公众知情权具有重要意义。加强AIGC的透明度,不仅需要明确AI使用者透明度义务的限度、内容和方式,还需要寻求支撑机制推动透明度义务落到实处。透明度义务是个体识别AIGC与高质量内容出版供给的共同需求,多手段核验体系与完善的问责机制能够应对现阶段的AI,在未来强人工智能的场景下,还需探寻更可靠的实现方式,促进创作市场的良性发展。
(作者单位:中南财经政法大学知识产权研究中心)
*本文系2022年教育部人文社会科学重点研究基地重大项目“建立科学高效的专利无效抗辩制度研究”(22JJD820028)阶段性成果
注释:略
来源:中国出版
编辑:谭诗蕊
审核:刘泽林