一、AIGC版权归属法律争议与确权机制
1.人工智能生成物的作品属性界定
在判定人工智能生成物是否属于作品时,独创性是关键的判断标准。然而,这一标准在司法实践中存在诸多争议。从我国现行著作权法来看,作品需是文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。对于人工智能生成内容,部分具有人类作品的外观,若不加以提示,难以准确区分是人类创作还是人工智能生成。此时,就需要深入考察人工智能创作过程是否体现了人类的智慧贡献。
以我国苏州市中级人民法院在“丰某诉东山公司侵害著作权及不正当竞争案”为例,用户首次输入提示词由人工智能绘图软件自动生成的内容,不被认定构成作品;但如果用户通过增加提示词、修改参数等对最初生成的图片进行调整、选择和润色,对图片的布局、比例、视角、构图要素、色彩、线条等表达要素做出了个性化选择和实质性贡献,则满足作品的独创性要件。
国际上,不同国家对此观点和做法各异。美国版权局坚持作品必须是人类创作的,必须体现人的创造性,否则排除其作品资格和著作权保护。而相对而言,我国司法界和学术界更加开放,不少法院已经判决人工智能生成内容体现了使用者的创造性,基于作品资格并进行著作权保护。在欧洲,对于人工智能生成物的著作权归属也在不断探讨和研究中,尚未形成统一的定论。
2.训练数据来源合法性风险
- 知识产权侵权隐患:AIGC技术在数据采集中存在诸多知识产权侵权风险。例如,未经允许采集他人作品用于训练,存在著作权侵权风险。像LAION – 5B数据集争议,该数据集在收集过程中可能未经授权使用了大量受版权保护的图像,引发了广泛的版权争议。利用爬虫协议等底层技术绕开第三方设置的访问限制或审核要求对数据进行搜索抓取,有非法获取计算机信息系统数据、侵犯个人信息或商业秘密的风险。三星代码泄露事件就是一个典型案例,代码的非法获取和使用可能涉及到商业秘密的侵犯。
- 生物特征数据合规问题:未经允许采集和使用他人声音、面部特征等生物识别数据,存在人格权侵权风险。企业在使用生物特征数据进行训练时,必须严格遵守相关法律法规,确保数据来源的合法性和合规性。
3.企业版权合规实践路径
企业要做好版权合规,首先应建设数据源合法性审查机制。依据《生成式人工智能服务安全基本要求》,企业在模型训练和内容生成过程中,要使用具有合法来源的数据和基础模型。可以设计语料授权协议,明确数据提供者和使用者的权利义务,确保数据的使用获得合法授权。
同时,应用区块链溯源技术,对数据的来源、使用和流转进行全程记录,实现数据的可追溯性,有效防范版权侵权风险。例如,通过区块链技术记录每一次数据的采集、处理和使用情况,一旦出现版权纠纷,可以快速准确地查明数据的来源和使用情况。
此外,还应推动标注规则的标准化。对生成或者编辑的信息内容在合理位置、区域进行显著标识,明确内容的生成方式和来源,做到有效防范企业的知识产权侵权风险。通过标准化的标注规则,不仅可以提高企业的合规性,也有助于用户更好地识别和使用AIGC生成的内容。
二、虚假信息生成的技术防控体系
1.深度伪造内容特征识别
深度伪造内容的特征识别依赖多模态检测算法,其原理是综合分析文本、图像、音频和视频等多种模态的数据特征。通过对不同模态数据的特征提取和比对,算法能够发现深度伪造内容中的异常和不一致之处。例如,在视频中,眨眼频率的异常可能暗示着视频被篡改;音频频谱的异常则可能表明音频经过了处理。
NIST对抗测试平台在这一过程中发挥着重要作用。该平台通过模拟各种攻击场景,对检测算法进行评估和优化。它会生成一系列具有挑战性的测试样本,包括不同类型和程度的深度伪造内容,以检验检测算法的性能和鲁棒性。通过不断地在NIST对抗测试平台上进行测试和改进,检测算法能够更好地适应复杂多变的深度伪造技术,提高对虚假信息的识别能力。
2.虚假信息传播阻断机制
- 技术协同应用:区块链溯源与数字水印技术的协同应用是阻断虚假信息传播的关键。区块链技术可以记录信息的来源和传播路径,实现信息的可追溯性。数字水印技术则可以在信息中嵌入特定的标识,用于验证信息的真实性和完整性。通过这两种技术的结合,能够有效追踪虚假信息的源头,并在传播过程中及时发现和拦截。
- 标注规范遵循:依据《人工智能生成合成内容标识办法》,对生成的内容进行明确标注,表明其是否为人工智能生成或合成。这有助于用户识别虚假信息,同时也为平台的审核和管理提供了依据。
- 平台响应流程:平台在发现虚假信息后,应立即启动响应机制。首先,对虚假信息进行快速定位和分析,确定其传播范围和影响程度。然后,采取相应的措施,如删除虚假信息、限制相关账号的传播权限等。最后,对事件进行总结和评估,不断完善防控机制。平台应在规定的时效内完成这些操作,以确保虚假信息得到及时有效的处理。
3.用户依赖度管理策略
防沉迷系统设计是管理用户对AIGC依赖度的关键。首先,可通过输入频次控制,限制用户在一定时间内的提问次数,避免过度依赖。例如,设定每小时最多提问10次,防止用户无节制地使用。其次,对生成内容进行可信度分级提示,让用户了解内容的可靠程度。对于可信度较低的内容,给予明显的警示,引导用户理性对待。
在未成年人保护方面,应设置专门的保护机制。例如,对未成年人的输入内容进行严格审核,过滤不适当的信息。同时,限制未成年人使用AIGC的时间和功能,避免对其身心健康造成不良影响。
以ChatGPT历史对话泄漏案例为鉴,企业应加强对用户信息的保护,防止用户数据的泄露和滥用。通过完善的安全措施,保障用户的隐私和权益,增强用户对AIGC的信任。
三、生成式AI伦理治理框架构建
1.算法歧视消除机制
算法歧视是生成式AI面临的重要伦理问题,消除算法歧视需从训练数据去偏处理技术入手。训练数据中的偏差可能导致AI在输出结果时产生职业、地域、性别等方面的歧视。例如,若训练数据中某一职业的样本多为男性,AI可能在推荐该职业相关内容时更倾向于男性。
为解决这一问题,企业可采用训练数据去偏处理技术,对数据进行筛选和调整,去除可能导致歧视的因素。同时,制定人工标注规则至关重要。标注人员需遵循严格的规范,确保标注过程的客观性和公正性。标注完成后,还需进行核验流程,对标注结果进行复查和修正,保证数据的准确性。
依据《管理办法》第四条规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。这也要求在消除算法歧视时,确保AI生成的内容不包含歧视性信息,做到公平公正。通过这些措施,可有效减少算法歧视的发生,使生成式AI更加符合伦理规范。
2.隐私保护双重路径
隐私保护是生成式AI伦理治理的关键环节,可通过输入信息脱敏与使用记录保护双重路径来实现。输入信息脱敏是指对用户输入的敏感信息进行处理,如对姓名、身份证号等进行加密或替换,防止信息泄露。使用记录保护则是对用户与AI交互的记录进行妥善保存和管理,避免被非法获取和利用。
对于生物特征数据,有特殊的规范要求。依据《个人信息保护法》,企业在收集、使用和存储生物特征数据时,需获得用户明确的授权,并采取严格的安全措施。动态数据加密存储方案是一种有效的保护方式,它在数据传输和存储过程中进行加密,且加密密钥会动态变化,即使数据被窃取,攻击者也难以解密。通过这些措施,可确保用户的隐私得到充分保护,增强用户对生成式AI的信任。
3.科技伦理审查制度
企业伦理委员会的组建是科技伦理审查制度的核心。其组建标准应涵盖多方面,成员需包括技术专家、伦理学家、法律专家等,以确保从不同角度对生成式AI的研发和应用进行审查。伦理委员会应制定详细的审查流程和标准,对AI项目的各个环节进行评估,包括数据使用、算法设计、应用场景等。
第三方认证机制可作为企业伦理审查的补充。专业的第三方机构具有更广泛的行业经验和专业知识,能够提供客观、公正的评估意见。例如,与NCMEC合作,引入其CSAM检测系统,可有效检测AI生成内容中是否包含儿童性虐待材料,保障内容的安全性。
RLHF价值观对齐也是重要实践。通过强化学习从人类反馈中学习,使AI的输出符合人类的价值观和伦理标准。企业应建立完善的价值观评估体系,对AI的输出进行持续监测和调整。通过科技伦理审查制度的建设,可确保生成式AI在符合伦理规范的前提下健康发展。
四、企业部署AIGC合规检查清单
1.数据治理合规要点
- 语料授权文件清单:包括数据提供者的授权书、知识产权声明模板、数据使用许可协议等,确保数据来源合法合规。知识产权声明模板应明确数据的知识产权归属、使用范围和限制等内容。
- 个人信息影响评估表:对涉及个人信息的数据进行评估,包括信息收集目的、处理方式、安全保障措施等,以满足《个人信息保护法》的要求。
- 数据出境审批流程:若涉及数据出境,需按照相关规定进行审批,提交数据出境风险评估报告等文件,确保数据出境安全。
2.算法备案操作指南
- 第一阶段(第1 – 1个月):依据《互联网信息服务算法推荐管理规定》,企业需准备算法备案所需材料,包括算法的基本信息、功能描述、运行机制等。同时,确定备案系统的填报账号和密码,完成注册和登录。
- 第二阶段(第2 – 2个月):在备案系统中详细填报算法信息,确保信息准确无误。对算法的设计原理、数据来源、模型训练等关键环节进行说明。若在填报过程中发现信息变更,需及时修改并重新提交。
- 第三阶段(第3 – 3个月):提交备案申请后,等待审核结果。若审核不通过,按照反馈意见进行整改并重新提交。变更备案触发条件包括算法功能重大调整、数据来源发生变化等,出现这些情况时需及时办理变更备案。
3.内容安全审核标准
- 九类违禁内容识别规则:依据《网络信息内容生态治理规定》,制定包括反对宪法所确定的基本原则、危害国家安全、损害国家荣誉和利益等九类违禁内容的识别规则。建立意识形态关键词库,对涉及敏感话题和不良思想的内容进行精准识别。
- 虚假信息复核流程:当发现疑似虚假信息时,启动复核流程。首先对信息来源进行核实,检查信息的真实性和可靠性。然后组织专业人员进行评估,判断信息是否属于虚假信息。若确定为虚假信息,及时采取删除、屏蔽等措施。
- 用户举报处理时效:规范用户举报处理时效,在收到举报后24小时内进行初步核实,对于情况属实的举报,在48小时内完成处理,并向用户反馈处理结果。通过完善的内容安全审核标准,确保AIGC生成内容的合法性和健康性。