知识产权保护的多元视角与司法实践 |
||
来源: 发布时间: 2025年04月25日 | ||
2025年4月26日是第25个世界知识产权日。人民法院作为知识产权司法保护的核心力量,始终坚守公正司法,为创新成果保驾护航。本期理论专版,汇聚了业内专家、资深法官及学者的前沿思考与深度剖析。他们围绕知识产权的新趋势、司法实践中的热点难点、未来保护策略等关键议题展开论述,既有对新兴技术领域如人工智能创作成果归属等前沿问题的探索,也有对传统知识产权领域的研讨。希望通过这些多元视角的文章,为读者搭建起一座全面了解知识产权现状与走向的桥梁,让创新之花绽放得更加绚烂。 生成式人工智能著作权责任的司法认定 通常而言,人工智能(AI)是指能够执行一般需要人类智能才能完成的任务的计算机系统。生成式人工智能作为人工智能的一个分支,能够基于预先训练的数据生成新的内容。目前,生成式人工智能的著作权责任问题已成为国内外学术界及社会公众广泛关注的热点议题。 一、当前生成式人工智能不具备法律主体资格 毋庸置疑,生成式人工智能是科技高速发展的产物。以ChatGPT为代表的生成式人工智能依托深度学习模型(transformer),在自然语言处理技术领域引发了深刻变革。部分学者认为,生成式人工智能在本质上已具备自然语言能力、认知能力以及逻辑推理与判断等理性能力,从而展现出类人类意志特征,满足责任能力的前提条件。同时,在实践中已被广泛应用于重复性劳动的处理,并在某些方面可能替代人类职业,表现出一定的行为能力。基于此,有观点提出生成式人工智能可类比法人(拟制人),进而获得相应的法律主体资格。然而,笔者认为,当前生成式人工智能尚无法取得类似于自然人的法律主体资格。其核心原因在于生成式人工智能缺乏人类理性。具体而言,生成式人工智能存在以下不足:首先,生成式人工智能缺乏形式逻辑。人工智能的发展形成了两条主要路径,即符号主义与联结主义。由于联结主义摒弃了符号主义的逻辑计算能力,生成式人工智能因此并不具备演绎推理能力,难以满足形式逻辑的要求。其次,生成式人工智能不具备真实的人类语言能力。尽管生成式人工智能能够模拟人类的自然语言能力并与人类进行交流,但其使用的计算机语言本质上不同于人类语言。生成式人工智能通过不断训练,依据上下文语境输出符合人类价值观和表达方式的文本,但其内部语言机制仍属于计算机语言范畴,机器理性亦无法完全等同于人类理性。 二、生成式人工智能引发的著作权困境 从权属层面来看,生成式人工智能因缺乏法律主体资格,导致其生成内容的权利归属问题悬而未决。开发者、投资者与用户均对权利归属提出合理主张,但目前尚无明确标准予以界定。在行为定性层面,模型训练是否构成合理使用需结合“三步检验法”进行综合判断。然而,在司法实践中,相关标准仍显模糊,服务提供者因难以对生成内容实施有效控制,无法适用“避风港原则”。 《生成式人工智能服务管理暂行办法》仅对相关问题进行了概括性规定,而合理使用规则则以“三步检验法”为核心构建。该规则源于《保护文学和艺术作品伯尔尼公约》第9条(2)的规定,主要包括以下三个方面:其一,特殊情况下的使用应符合具体范围限制,我国著作权法第24条列举了13种具体情形;其二,合理使用不得与作品的正常利用相冲突;其三,合理使用不得损害著作权人的合法权益,包括经济利益与精神利益等。 从责任分配层面分析,开发者与服务提供者的界限模糊,加之用户责任有限,导致权利与义务失衡。当前亟需通过立法重构权属规则与责任分配体系,以实现公平合理的权益保障。大多数生成式人工智能模型依赖海量受版权保护的内容(如文本、图像、音乐等)进行训练,这些数据通常未经原作者明确授权,可能构成对复制权与改编权的侵犯。由此引发的合理使用争议中,人工智能公司常以“合理使用”为抗辩理由,主张训练行为属于“转换性使用”。然而,各地区法律标准存在差异,欧盟《数字化单一市场版权指令》(Directive on Copyright in the Digital Single Market)相较于美国国内法律更为严格。人工智能可能生成与训练数据中某作品高度相似的内容(如模仿特定画家的风格),从而引发潜在侵权风险。 关于平台与用户的责任划分问题,若用户利用人工智能生成并传播侵权内容,责任应由用户还是人工智能开发者承担?人工智能服务提供商是否负有监控生成内容的义务?如何在技术中立性与版权保护之间寻求平衡?这些问题不仅对行业伦理产生深远影响,还对创作者经济造成冲击。一方面,人工智能可能替代部分创作岗位,压缩原创作者的生存空间;另一方面,由于人工智能模型通常不披露训练数据来源,权利人难以追溯侵权行为,进一步加剧了透明度缺失的问题。 三、各地不同的立法模式与经验 美国虽未针对数据挖掘制定专门的例外规定,但其著作权法允许为“评论、研究”等目的合理使用作品,且不构成对著作权的侵害。合理使用的判断主要依据四大要素:一是利用的目的与性质,包括商业性或非商业性(非营利)用途;二是作品本身的性质;三是所利用部分的质量及其在整个作品中所占的比例;四是对作品潜在市场或价值的影响。其中,第一个要素“利用目的与性质”是否具有“转化性”是判断合理使用的关键。所谓“转化性”,是指对原作品的利用添加了新的要素,使其具有不同于原作品的性质或目的,并且不会替代原作品的使用。这种“转化性利用”更有可能被认定为合理使用。 同属普通法系的英国在2014年修订了《1988年著作权、设计及专利法》(Copyright Designs and Patents Act 1988),对数据挖掘权作出限制性规定,但仅限于非商业性的研究目的,适用范围较为狭窄。近年来,英国政府曾考虑为适应人工智能发展趋势而放宽数据挖掘权的商业用途限制,但由于受到音乐、出版等创意产业的强烈反对,相关提案最终未能通过。 作为大陆法系的代表国家,日本于2018年修订了著作权法,在数据挖掘权方面作出了明确规定。根据该法,“不以享受著作中表达的思想或情感为目的”的情况下,可在必要范围内利用作品,但不得“不当损害著作权人的利益”。基于这些条款及相关案例,可以认为数据挖掘用于生成式人工智能学习原则上不构成侵权,相较于其他地区的规范显得更为宽松。然而,这一规定可能对创作者权益产生较大影响,需进一步平衡各方利益。 四、对策建议 生成式人工智能的应用引发了一系列著作权风险及侵权责任承担的困境。由于生成式人工智能缺乏形式逻辑、人类语言能力和理性思维,其不具备法律主体资格与责任能力。为明确生成式人工智能引发的著作权责任承担机制,需进一步厘清相关主体的责任边界。现行网络侵权责任和产品责任的规定难以完全适用于生成式人工智能侵权场景,因此有必要调整相关法律法规与司法解释,并针对生成式人工智能侵权建立专门的责任承担方式,以缓解科技进步对现有法律体系的冲击。具体而言,可从以下三个方面着手解决: 一是构建授权机制。通过设立版权数据许可平台(如Adobe Firefly采用授权库进行训练),规范数据使用流程,确保数据来源合法合规。二是完善技术标识制度。强制要求人工智能生成内容标注来源或添加水印,增强内容透明度。即将于2025年9月1日起施行的《人工智能生成合成内容标识办法》设计了显隐双标识机制与全链条责任体系,可参考欧盟《数字服务法》(Digital Services Act)的相关规定进一步优化和完善。三是细化法律规定。重点在于明确人工智能生成内容的著作权标准与侵权认定规则。在权属分配方面,采用“用户协议约定﹢法定补充”模式,原则上确认生成内容归用户所有;若无约定,则依据实质性贡献原则确权,并辅以区块链(blockchain)标记技术提升透明度。同时,引入文本数据挖掘例外条款,允许非商业性数据挖掘,但需支付合理报酬或尊重权利人“选择退出”权利。 (作者单位:华东政法大学涉外法治学院) |
||
|
||
【关闭】 | ||
|
||
版权所有:潍坊市寒亭区人民法院 ICP备案号:鲁ICP备13032396号
地址:潍坊市寒亭区通亭街5099号 电话:0536-7500876 邮编:261100