找回密码
 立即注册
搜索
查看: 8|回复: 0

人工智能被视为新动能,但其侵权问题复杂待厘清

[复制链接]

1万

主题

0

回帖

5万

积分

管理员

积分
57167
发表于 前天 17:12 | 显示全部楼层 |阅读模式
1288

毫无疑问,人工智能被视为未来经济和社会发展的新推动力,技术迭代和工业应用已成为过去两年中最大的亮点。但是,随着工业变化的同时,人工智能带来的风险逐渐被关注。诸如“ AIGC平台侵权案件”,“ AI语音侵权案件”和“ AI图像生成版权争议案件”之类的案例开始涌向司法领域。

但是,与互联网时代不同,人工智能涉及的侵权问题更为复杂。通用模型提供商,垂直模型提供商和产品运营商的作用不同。我们应该如何阐明我们承担的责任?它是适用的技术中立性还是承担侵权责任?此外,随着应用程序的普及,庞大的用户组应建立哪些权利和义务?

最近,举行了广东金融与经济学大学,中国人民大学民事和商法科学中心和东亚侵权法律学会的民事与经济学中心共同组织的人工智能发展与侵权法论坛。来自中国(包括香港,台湾,中国),英国,澳大利亚,日本和韩国的专家,学者和行业代表讨论了各种人工智能实体的责任和义务的核心问题。

侵权的主要责任很难分裂。传统侵权法仍然适用吗?

牛津大学法学院教授唐纳尔·诺兰(Donal Nolan)说:“人工智能有自己的大脑和自己的思想,因此这将为当前的侵权制度带来一些挑战。”他认为,在人类过失的情况下,“人”必须对操作错误造成的损害负责。但是,由于人工智能系统的自主性和不透明度,很难确认人类缺陷。开发商和运营商造成的任何侵权均承担责任,但在某些情况下很难确认权利。

诺兰还说,立法通常落后于技术发展,很难确认证明的因果关系。定义合理机器人的标准存在困难,不同的标准可能会带来一致性的挑战。就归因而言,无论是过错原则或严格责任原则的应用,都存在权利确认,证明,比较责任和选择标准的缺点。

广州互联网法院总裁宋威利(Song Weili)从司法实践的角度指出,现有的判断标准主要基于人类的行为和主观过错,以及因果关系。但是,人工智能系统的行为和决策是自主和不可预测的,很难使用传统的断层责任原则来做出判断。传统法律中的故障责任要求侵权主体具有主观故障,而人工智能系统没有主观意图,其行为是由算法和数据驱动的。当人工智能系统独立操作期间造成的损害时,谁承担责任?它是开发人员,用户还是其他相关主题?

她进一步解释说,AI决策和行为通常依赖大量数据,这些数据的来源,质量和处理直接影响算法输出的结果。因此,在特定情况下,确定这些数据的真实性,合法性和相关性是一个关键问题。训练数据的偏差可能导致算法产生启发性的结果。在不深入了解数据的来源和处理的情况下,很难判断算法行为的合法性和合理性。

在人工智能时代,是否应该改变传统的侵权法?广东金融与经济学大学的杰出教授杨·利克森(Yang Lixin)有不同的看法。他认为,当人工智能产生侵权责任(无论是对其进行调节还是损害)时,摘要是两个问题:它是人的责任或事物的责任。人类责任应是传统的过失责任,而物质责任是人工智能产品的责任。一种使用故障责任,另一个使用产品责任,可以完全解决。

中国人民大学法律学院的教授Yao Hui还认为,在现有侵权法的框架内,人工智能侵权问题仍然可以解决,因为侵权的对象(权利)并未根本改变;损害的类型仍在传统范围内,主要侵犯了个人权利,知识产权,个人信息等;此外,规则和原则仍然围绕故障责任,故障推定和无故障责任。



人工智能产业链的复杂性受到挑战

法律体系的修订很复杂,现在提供更现实的解决方案可能是一个不错的选择,但这并不容易。

与强调平台在互联网时代的主要责任的治理范式不同,生成人工智能具有非常复杂的工业链,涉及多个实体,例如模型开发人员,部署者,专业用户,个人用户,收件人和第三方服务提供者。归因的准确性受到挑战。

因此,有必要区分人工智能的类型,而由不同类型造成的提供者的侵权责任是不同的。

Sun Yat-Sen大学法学院副教授Xie Lin认为,人工智能应区分一般用途和特定用途并承担不同的责任。

“如果要求通用提供者保持与实施特定访问目的的当事人相同的关注义务,这可能会导致对通用提供者的谨慎谨慎,从而抑制创新(冷酷的效果)。说,对人工智能的最终决定是人工智能的最终决定,以确保其下游特定的特定目的衡量手机,以确保人工智力的范围。

因此,上游通用AI服务提供商只需要承担透明度义务,即,上游通用AI服务提供商向下游提供商提供足够的信息,以确保他们完全了解大型模型及其功能,并协助下游提供商设计符合其安全功能的产品。

澄清主要责任并考虑各方的利益

合理地分配人工智能的主要责任不仅与保护每个实体的权利,而且与行业的发展有关。

广州互联网法院法官Lin 指出,生成人工智能引起的侵权法律问题涉及非常复杂的技术过程和程序,并参与了多个受试者。这使得服务提供商很难使用直接侵权和间接侵权的传统二分法正确解决侵权确定问题,这可以强调关注传统侵权责任法中裁决案件中义务的作用。

他认为,注意力的义务具有法律可扩展性,技术兼容性和成本负担能力等优点,并且可以在此阶段通过提醒义务和避免行为后果来实现。最后,林·贝赞(Lin )还指出,考虑到生成人工智能行业处于发展的早期阶段,有必要考虑权利保护和工业发展,因此不建议过度增加服务提供者的义务。



目前,“不发展是最大的不安全感”。我们如何在保持安全的底线,允许人工智能服务提供商履行合理且负担得起的义务并实现创新和保护包容的同时,合理地分配人工智能的主要责任?

广东金融与经济学大学法律学院的教授Yao 认为,有必要区分人工智能是信息服务还是产品服务。信息服务应遵守故障责任的原则,并应用避风港规则,并具有责任豁免机制。

“遗传AI服务提供商可以通过安全投资(例如建立通知渠道,采取必要的措施,履行管理义务和履行身份证等)来交换责任的免税。这些也是生成AI服务提供商关注的义务。” Yao 指出,当服务涉及侵权时,如果履行这些义务,则可以将生成的AI服务提供商免于赔偿责任。当然,如果您知道或应该知道该服务是侵权的,并且不采取必要的措施来停止生成或传输,则不能免除责任。

广东金融与经济学大学的杰出教授杨·利克森(Yang Lixin)以侵犯人工智能绘画工具的原始版权为例。他指出,从开发到人工智能绘画工具的操作,都有多个主题。受伤方可能要求提供者承担侵权责任,并且提供者可以在承担赔偿责任后向第三方寻求赔偿。 When the AI ​​ tool     for  works on the page, and if a  over   of users and other  users   works or other works on the  , the "safe haven " and "red flag "  in the "E- Law"  be , but the  two   must be met: the  of the AI ​​ tool   be the e-  , and the  of the认为自己的权利侵犯的原始版权所有者应该是合适的持有人。

南京师范大学法律学院的教授梁·齐温(Liang )指出,问答生成的人工智能在某种程度上与搜索引擎相似,并且正在向发问者提供答案。但这与搜索引擎基本不同。搜索引擎提供了指向第三方网站的链接,而生成人工智能直接提供内容。 Liang 认为,生成的人工智能服务提供商本质上是网络技术服务提供商,而不是内容生产商,因此可以进入“避风港”。他说:“作为一名大型模型开发人员,除了通过合同协议和技术响应的过程中,应承担的义务在过滤及时的言语过程中,例如机器遗忘技术,最后,确定这些义务的义务。如果履行了这些义务,则可以用作免责声明的理由。”

一个庞大的用户组应该负责使用AI吗?

侵权责任不仅限于人工智能产品的提供者。在迅速应用人工智能的那一刻,用户的主要责任也越来越重视。

关于第三方遭受人工智能操作造成的损失的情况,东京大学的名誉教授海洛托·戈纳基( )说,当人工智能系统失败并造成损害时,例如外科机器人会激活手术过程中的抗动力机制或自动驾驶在制动系统中的启动,如果对人工造成的造成的损害,则应造成人工智能的使用。

西林说:“从传统意义上讲,人工智能产品的用户通常不应承担任何责任。”但是,随着自适应人工智能的出现,用户还将参与数据培训并需要承担相应的责任。例如,当招募候选人时,一些公司的人员系统将引入模型,输入培训数据,然后在培训后招募候选人。在这种情况下,用户将参加数据培训。即使是一些非常普通的消费者,例如用户,每次输入的模型都会纠正该模型。

(在2024年8月20日报告的合规技术:)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|【智道时空】 ( 京ICP备20013102号-16 )

GMT+8, 2025-5-2 18:42 , Processed in 0.099505 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表