1. 我爱无人机网首页
  2. 无人机百科
  3. 无人机知识

智能无人系统开发与应用的法律规制-科技论文

background 智能无人系统开发与应用的法律规制-科技论文 智能无人系统开发与应用的法律规制-科技论文

胡元聪1,2,曲君宇1

摘 要:智能无人系统的迅猛发展使人类获益良多,但在其开发与应用中也引致了数据垄断、数据侵权、算法霸权、产品责任和社会保障等法律问题,亟需加以应对和解决。在弱人工智能时代,应将智能无人系统作为“产品”以法律客体进行对待。同时在坚持尊重人权原则、社会公平原则、安全可控原则、开放共享原则和权义统一原则的基础上,通过构建数据强制许可与用户授权规则、制定产品安全与算法技术标准、加重开发者信息披露与解释说明义务、建立产品责任追溯与责任分担机制、健全相关社会保障与公民发展制度,为智能无人系统的高质量发展提供坚实的法律保障。

一、研究背景与问题

自2017年国务院政府工作报告提出要培育和壮大人工智能产业以来,我国掀起了智能无人系统开发与应用的热潮。基于智能无人系统对社会生产力发展的巨大推动作用,同时基于对《中国制造2025》提出的“关键岗位机器人替代”工程目标的美好憧憬,政府、企业、高校等社会各界均投身于智能无人系统的研究中。随着研究不断深入,智能无人系统开发与应用中面临的法律问题也日渐凸显。因此,如何通过制度革新对这些法律问题加以解决成为了智能无人系统研究中的新焦点。目前,对于智能无人系统开发与应用中面临哪些法律问题,学界已研究得较为透彻,《新一代人工智能治理原则——发展负责任的人工智能》《人工智能安全白皮书(2018)》等报告中对此均有涉及,大致可以概括为数据垄断问题、数据侵权问题、算法霸权问题、产品责任问题和社会保障问题。但对于如何通过制度革新解决智能无人系统开发与应用中面临的上述法律问题,现有研究仍然存在不足,一方面对规制理念的探讨尚不全面;另一方面提出的规制对策也有待细化,因而迫切需要后续研究者加以挖掘与拓展。

智能无人系统开发与应用的法律规制-科技论文

研究“智能无人系统开发与应用的法律规制”需要结合智能无人系统的现有技术背景进行展开。在目前的弱人工智能时代,智能无人系统不能也没有必要成为独立的法律主体,可以作为“产品”以法律客体的形式存在。而根据法学的基本原理,法律规制主要具有两个功能,一是对法律主体进行约束和限制,二是对法律主体提供激励和保护。因此,对智能无人系统开发与应用的法律规制实质上是对智能无人系统中各方主体的法律规制。其中,智能无人系统的开发者凭借数据壁垒和算法优势,不断攫取超额利益,所以需要法律予以约束和限制;智能无人系统的消费者、受智能无人系统影响的劳动者以及其他利益相关者的正当利益不断受到侵害,所以需要法律予以激励和保护。只有善用法律,对智能无人系统中各方主体辩证地加以规制,使各方主体的利益达致均衡,才能妥善解决智能无人系统开发与应用中面临的法律问题[1]。

基于上述考虑,本文以“问题提出——基本原则——具体对策”为分析框架,试图阐明智能无人系统开发与应用中面临的许多法律问题,而这些法律问题阻碍了市场秩序的正常运行,可能对个人、社会和国家的利益造成严重损害,故而亟需对其进行法律规制。本文通过对各类法律价值理念进行考量和取舍,提出应当树立尊重人权、社会公平、安全可控、开放共享和权义统一五项基本原则,为智能无人系统开发与应用的法律规制提供理论支撑。并以此为指引,通过构建强制许可与用户授权规则、制定产品安全与算法技术标准、加重信息披露与解释说明义务、建立责任追溯与责任分担机制、健全相关社会保障与发展制度,为智能无人系统的开发与应用提供具体的规制对策,以保障智能无人系统的高质量发展。

二、智能无人系统开发与应用中的法律问题梳理

(一)智能无人系统开发中的数据垄断问题

依照德国于2017年发布的《大数据与竞争》中的观点,数据壁垒的形成有两个前提,一是相关数据具有重要作用,二是其他经营者没有能力获得数据。参照此观点可以发现,智能无人系统在开发中可能面临数据壁垒问题[2]。一方面,智能无人系统的开发离不开海量的数据作为支撑。开发者通过对数据进行收集、分析和使用,不仅可以充分了解用户偏好而提供个性化的智能无人系统产品,还可以对智能无人系统产品的应用环境作出更多模拟,促进智能无人系统产品性能的优化,增强其自主性。因此,相关数据对智能无人系统的开发具有重要作用[3]。另一方面,对智能无人系统的相关数据进行收集,需要开发者投资相应的基础设施且需要用户使用该开发者的产品。然而许多潜在的开发者没有能力进行相应的前期基础设施投资,又或者虽然进行了前期投资但却因为用户数量过少而难以收集到足够的用户数据。就目前的情况看,由于我国对数据垄断的法律规制仍处于空白状态,导致开发者很容易凭借数据壁垒进行数据垄断。因为其只需要依靠自身掌握大量数据资源的优势,拒绝向其他开发者共享数据资源,就可以迫使其他开发者开发同类智能无人系统时从头做起,重复自己已做的劳动。待其他开发者完成开发,原开发者早已通过产品的市场反馈数据以及后续模拟实验开发出更先进的智能无人系统,如此循环往复,形成完整的周期闭环,其他开发者只能被迫退出竞争。因此,开发者可以依靠不断累积的数据在市场竞争中构筑最深的“护城河”,限制其他开发者进入相关市场,从而占据市场支配地位,形成数据垄断。开发者的数据垄断行为不仅有碍市场的正常竞争秩序,剥夺了其他开发者公平参与市场竞争的机会,从长期来看,更会损害消费者权益,最终减损社会整体利益。

智能无人系统开发与应用的法律规制-科技论文

(二)智能无人系统开发中的数据侵权问题

智能无人系统在开发中不仅面临数据垄断问题,还可能面临严重的数据侵权问题。智能无人系统产品应用中所反馈的数据,往往是通过对用户的个人信息进行采集、处理和分析所得,这就可能涉及到对用户权利的侵犯。事实上,针对数据侵权问题,我国已经出台了多部法律以及规范性文件进行规制,但其都存在一定缺陷。如《中华人民共和国消费者权益保护法》(以下简称《消费者权益保护法》)第29条规定了经营者收集、使用消费者个人信息时应遵循合法、正当、必要原则,并承担明确告知、征得同意、保密、保障安全、补救等义务。但其并未正面规定消费者作为信息主体所享有的权利。《关于加强网络信息保护的决定》第1条规定了国家保护有关公民个人身份和个人隐私的电子信息。但其却未明确个人身份的具体范围而存在可诉性缺陷。《中华人民共和国民法总则》第111条规定了自然人的个人信息受法律保护,任何组织和个人在获取个人信息时都应当依法取得并确保信息安全,而不得非法收集、使用、加工、传输他人个人信息,也不得非法买卖、提供或者公开他人个人信息。但该条款也只是一种原则性规定,在实践中难以直接适用。目前为止,我国尚未对个人信息权利做出明确且具体的规定。正是由于制度设计过于粗略,致使部分开发者抱着侥幸心理,游走于法律边缘。其中有的开发者未经授权,任意收集、使用和分析用户的个人信息数据,有的开发者虽然获得了用户授权,但授权协议采用了格式条款的形式,不仅难以引起用户的注意,且授权协议的内容也超越了必要范围。开发者的这些行为由于缺乏法律上的依据,因而均涉嫌个人信息数据侵权。

(三)智能无人系统开发中的算法霸权问题

尤瓦尔曾预测,未来的时代将会进入算法主导的时代,权威将从个人转向由算法构成的网络。人类不会再认为自己是自主的个体,不再依据自己的期望度日,而是习惯把人类整体看作一种生化机制的集合体,由电子算法网络实时监测和指挥[4]。这一预测虽然现在看来还有些杞人忧天,但也间接证明了算法在人工智能时代的重要性。对智能无人系统而言,算法是其运行机制的核心,决定着智能无人系统的运行逻辑。因此,当开发者滥用算法时,很可能导致算法霸权的产生。算法霸权在智能无人系统的开发中可能基于两种原因产生:其一,开发者基于算法后门取得霸权。一般产品的生产者将产品售出后,通常会丧失产品的控制权,而智能无人系统产品则不同,其不仅有生产者,还有开发者。如果开发者通过算法设计在智能无人系统上留下“后门”,其将在事实上对智能无人系统拥有最高权限。举例而言,如果开发者在无人驾驶汽车中留有“后门”,其将可以在后台接管无人驾驶汽车的驾驶权,进而对消费者的生命安全产生实质威胁。因此,当智能无人系统产品广泛普及后,开发者将借此获得巨大的社会影响力。其二,开发者基于算法判断取得霸权。由于算法的回报函数都是在特定的价值立场下设定的,其运算过程总是蕴含着开发者的价值判断[5]。因此,开发者的道德倾向甚至个人好恶都会对智能无人系统的实际运行产生影响。以著名的“电车难题”为例,如果该轨道是由智能无人系统控制,则将失控电车引向哪一边其实是由开发者的价值观念决定的,亦可以说,开发者成了该题的“判官”。这意味着,智能无人系统产品广泛普及后,开发者的价值判断将自然而然的取代产品使用者甚至法官的价值判断,开发者将因此而获取解释“正义”的权力。算法霸权的出现,不仅会对市场秩序造成破坏,更会对国家安全和社会治理带来严重的威胁。

(四)智能无人系统应用中的产品责任问题

2018年3月20日,美国亚利桑那州的一名女子在穿越马路时被Uber无人驾驶汽车撞伤致死。有关部门在事后判定中认为该女子横穿马路本身具有一定过错,但是其过错并不必然导致损害结果的发生,无人驾驶汽车显然未能尽到与普通驾驶员相同水平的注意义务。也就是说,Uber公司作为无人驾驶汽车的开发者,也应当因产品缺陷承担部分责任。虽然此案最终以双方和解收场,未能在制度层面给我们多少经验加以借鉴,但该案的发生已经证明了智能无人系统在应用中面临产品责任问题[6]。众所周知,智能无人系统在开发中会存在漏洞,这些漏洞会影响智能无人系统的稳定性与安全性,导致其作为产品进入市场后可能会出现产品责任事故而造成他人损害。既然有损害就要有救济,产品责任问题将会随之而来。对一般产品而言,产品责任的归责主体为生产者和销售者,适用的归责原则为无过错责任原则,即产品致人损害后,除了消费者有过错以及几种特殊抗辩情形外,应当由生产者或销售者分别或共同承担赔偿责任。但对智能无人系统产品而言,其是由开发者设计而成,因此产品的归责主体还应当包括开发者,这一点各方基本没有异议。但除此之外,智能无人系统产品应当适用何种归责原则,产品责任该如何进行分担,目前法律并未给出明确答案[7]。除此之外,另一个与责任分担相关的问题在于算法开发与产品制造不同,我们可以很容易地根据产品编号等证明文件追踪到产品的制造者,但却很难对算法的开发者进行追踪。因此,即便明确了产品责任的分担方式,如何寻找智能无人系统的开发者仍是法律需要面临的问题。随着武汉发出首张自动驾驶商用牌照,解决智能无人系统产品的产品责任问题已迫在眉睫,如果法律不能妥善解决该问题,势必使智能无人系统产品的消费者产生疑虑,从而影响市场信心,减缓智能无人系统的发展速度。

(五)智能无人系统应用中的社会保障问题

正如美国科普作家马丁·福特所说,我们要承认一个严峻的现实,目前的大部分工作被机器人取代只是时间问题。与人工智能相比,人类在工作效率上存在明显的劣势。即便在弱人工智能时代,智能无人系统在某些行业的工作效率也已远远高出人类。一方面,在一些劳动密集型行业,智能无人系统可以长期工作而不降低稳定性。另一方面,在一些涉及高危险、高精度劳动的特殊行业,智能无人系统可以很好地适应环境,同时保持高精密性。因此,在这些行业,智能无人系统可能会很快取代人类,而由此引发的大规模失业将会使我国面临严峻的社会保障问题。事实上,麦肯锡全球研究院发布的报告已经对智能无人系统即将取代人类约一半的工作作出了预测,并认为这一趋势极有可能实现[8]。在中国,智能无人系统带来的失业浪潮已经开始上演,如银行使用ATM机代替柜员、阿里巴巴启用机器客服取代人工客服、高速公路收费站用ETC系统代替收费员等等。随着大量工作岗位被智能无人系统所取代,一些传统行业消亡将成为当代经济发展中不可阻止和逆转的事实。虽然智能无人系统的发展也为社会创造了许多新的就业岗位,如数据科学家、机器学习工程师等,但其创造岗位的数量和速度远远比不上其替代岗位的数量和速度[9]。况且对于失业的劳动者来说,他们一般属于底层劳动者,综合素质相对较低,这决定了其很难快速掌握智能无人系统所取代不了的先进技术,即便创造了新的岗位,他们也难以胜任。在此情况下,如果我国的社会保障能力跟不上社会发展的步伐,导致这些失业劳动者被时代所抛弃,不仅会引发大规模的失业浪潮,使得经济稳定性和可持续性大大降低。还会加大社会的贫富差距,甚至于造成阶级对立与割裂,最终偏离共同富裕的发展目标。

三、智能无人系统开发与应用法律规制的基本原则

(一)尊重人权原则

《世界人权宣言》提出:“人人生而自由,在尊严和权利上一律平等。”因此,人权不仅是每个公民与生俱来的权利,也是社会发展的最终旨归。具体到智能无人系统而言,其只是人类发展过程中的一种工具,开发与应用的最终目的是为了丰富人们物质生活,帮助人们更好地适应自然和改造自然,将人们从繁重的劳动中解救出来,以实现更大程度的自由。因此,在智能无人系统开发与应用的法律规制中,我们首先应当树立尊重人权原则。该原则有以下内涵:

(1)智能无人系统的开发不得以侵害具体人权为代价。在智能无人系统的开发中,我们应当认清一个事实,即智能无人系统只是手段和工具,为人类社会发展所用才是目的。人权的具体内容有很多,智能无人系统开发中主要侵害的是其中的个人信息权。因此,我国应当尽快完善个人信息保护立法,制定具体的个人信息数据保护细则,对智能无人系统开发中的数据侵权行为进行规制,保护公民的个人信息权,以维护其人格尊严。

(2)智能无人系统不得擅自应用于侵害具体人权之领域。智能无人系统可以应用于人类生活的各个领域,但应用的领域不同,对人类社会发展产生的效果也不同。如果将其应用于科研、医疗等领域,自然会对人类社会的发展产生帮助,但是如果将其应用于战争、犯罪等领域,不仅不能对人类社会发展产生助力,反而会对人类社会发展造成严重损害。因此,我国应当通过立法对智能无人系统的应用领域作出严格限定,一般领域的应用需要经过法律程序进行备案,可能严重侵害人权的特殊领域的应用则需要经过法律特别审批,以此降低智能无人系统应用中的人权侵害风险。

(3)智能无人系统开发与应用中对人权带来的负外部性应当被合理抑制。智能无人系统的广泛普及可以提高社会发展水平,提高人们的人均生活质量,为人权带来正外部性。但同时也可能造成劳动者大规模失业,影响社会秩序的稳定,给人权带来负外部性。因此,我国应当秉持创新发展战略,以“人工智能+”作为战略目标,通过制度革新推动智能无人系统在更多传统行业与传统产业中的应用,进而实现人机协同。同时,将“大众创业,万众创新”的思想与智能无人系统的开发与应用相结合,从而调动全民的创新热情,追求新的经济增长点,创造更多的就业岗位,以此促进就业,缓解社会矛盾,抑制智能无人系统开发与应用中对人权带来的负外部性。

(二)社会公平原则

社会公平是人类多年来一直不懈追求的重要目标,其涵义已从最初的形式公平发展到后来的实质公平。而随着时代的发展,社会公平的内涵还在不断变化。在人工智能时代,国家新一代人工智能治理专业委员会赋予了社会公平新的内涵,其认为人工智能时代的社会公平就是保障利益相关者的权益,促进机会均等,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。因此,在智能无人系统开发与应用的法律规制中,我们坚持的社会公平原则有以下内涵:

(1)通过立法保证智能无人系统开发中的信息公平。在人工智能时代,信息已经成为一种战略资源,具有很高的经济价值。在智能无人系统的开发中,各方主体间存在信息不对称的问题,其中开发者可能凭借地位优势对信息进行控制,形成信息垄断,损害其他主体的正当权益。因此,我国应当加快相关立法,一方面赋予其他开发者对原开发者所收集的数据在支付对价的前提下享有要求共享的权利;另一方面赋予他方主体对开发者所设计的算法中与自身利益密切相关的信息享有充分的知情权。通过数据信息的共享以及算法信息的披露,保证智能无人系统开发中各方主体之间的信息公平。

(2)通过立法保证智能无人系统开发中的算法公平。伴随人工智能的发展,国家和社会对于算法的依赖逐渐加深,一种新型的权力形态——算法权力也随之出现[10]。算法权力打破了智能无人系统中各方主体的权利平衡,使开发者对他方主体具有了巨大的影响力和控制力。实现算法公平,其实质就是抑制开发者的算法权力,将算法权力放入法律的“笼子”中[11]。因此,我国应当通过立法对开发者的算法设计进行引导和约束,使其保持客观中立的价值取向,在运行时不歧视或区别对待。如果算法设计中涉及重大价值判断问题,应当通过法律程序由公民民主决定其最终应当遵循何种价值观念,以增强算法的可解释性,保证智能无人系统开发中各方主体之间的算法公平。

(3)通过立法保证智能无人系统应用中的交易公平。开发者不仅在智能无人系统的开发中具有优势地位,在智能无人系统的应用中,其作为经营者同样处于优势地位。因此,我国应当基于《消费者保护法》弱者保护之精神,通过立法对开发者在市场交易中的权利与义务进行倾斜配置,适当加重开发者的义务与责任,以削弱开发者的地位优势,从而恢复平等的市场关系并实现智能无人系统应用中的交易公平。

(三)安全可控原则

安全是维持人们正常生产生活的最低需求,社会安全一旦被破坏,人权也就丧失了实现的基础。智能无人系统的开发与应用给社会安全带来了巨大的挑战,由于智能无人系统具有很强的不确定性,其存在触碰到了人类预知的限度,导致其在运行中很容易脱离人们的掌控,因而产生了巨大的安全风险[12]。而且随着智能无人系统的自主性不断提高,人类对其的控制力度将越来越弱,预判其运行结果将更加困难,所以其安全风险也会变得越来越高。因此,在智能无人系统开发与应用的法律规制中,我们要树立安全可控原则。其内涵包括:

(1)法律应当对智能无人系统的安全开发起引导作用。根据传统观念,法律具有滞后性,其只能被动应对现实生活中已经出现的问题。但对智能无人系统而言,如果等待其开发完毕再进行法律规制,不仅规制效果不佳,而且会使开发者承担过高的开发成本。因此,我国应当增加法律的能动性,通过直接对开发者的开发行为进行约束,提高算法的可追溯性,同时明确开发者的严格产品责任,引导其在算法设计时着重考量算法的可控性,进而提高智能无人系统产品的安全性,避免产品损害风险的发生。

(2)法律应当对智能无人系统的市场准入起到管理作用。清代理学家朱用纯有言:“宜未雨绸缪,毋临渴而掘井”。与其等智能无人系统产品在应用中出现安全问题再对其进行法律规制,不如防患于未然,直接在生产源头对智能无人系统产品的质量加以控制。因此,我国应当加强智能无人系统标准体系建设,通过建立合理的产品安全标准和算法技术标准,对智能无人系统产品的安全性进行有效评估,杜绝不符合标准之产品进入市场,从生产源头消灭安全风险。

(3)法律应当对智能无人系统产品责任事故处理机制起监督作用。即便法律对智能无人系统的开发和市场准入都作了预先规制,但其只能降低智能无人系统发生产品责任事故的几率,而不能完全杜绝产品责任事故的发生。因此,我国还应当健全智能无人系统产品责任事故处理机制。一方面,要求开发者在智能无人系统产品投入市场前,必须对其可能产生的各种安全风险进行评估,并设计相应的产品责任事故应对处理预案;另一方面,要求政府有关部门加强对开发者的监管,确保开发者对安全风险的评估完整和准确,处理方式合理且有效,并督促开发者及时将评估信息披露给公众。同时,政府还应当勇于承担责任,通过设立应急处理机构和制定应急处理预案等方式,确保一旦出现产品责任事故,能将其损害结果降至最低[13]。

(四)开放共享原则

“封闭使人落后,开放使人进步。”在科技发展日新月异的今天,闭门造车将被时代抛弃,只有交流合作才能进一步促进智能无人系统的发展。对此,工业和信息化部在《促进新一代人工智能产业发展三年行动计划(2018-2020年)》中提出要加强国际合作,推动人工智能共性技术、资源和服务的开放共享。完善发展环境,提升安全保障能力,实现产业健康有序发展。由此可见,只有秉持着开放的心态积极应对人工智能带来的挑战,才能抓住机遇实现国家的跨越式发展。因此,在智能无人系统开发与应用的法律规制中,我们要树立开放共享原则。

(1)法律应当为智能无人系统开发中的国际交流与联合治理提供方便。人工智能的发展,不仅关乎我国的未来,更关乎全人类的未来。因此,对智能无人系统进行法律规制,不能仅限于国内法领域,更要延伸到国际法领域。我国应当以优化共生理念为指导,通过与域外各国签订相关国际条约、发表相关共同声明等方式,建立跨地域、全球性、综合性的人工智能治理生态系统。以此促进智能无人系统开发中的国际交流与合作,推动国际智能无人系统治理框架和标准规范的形成,助力于人类命运共同体的构建[14]。

(2)法律应当对智能无人系统市场中的合作与竞争关系进行协调。早期的技术创新,主要强调个体的作用,但随着时代的进步,技术创新的系统性越来越强,仅凭单一个体的独立研究已经很难有所突破,只有通过不同个体间的复杂互动才能实现。在此情况下,能否协调好市场中合作与竞争的关系将决定智能无人系统技术创新的成败。因此,我国应当善用激励制度,在不降低开发者生产积极性的前提下,加强数据共享,打破数据垄断。同时,给予中小开发者适当的政策扶持和财政税收补贴,提高其市场竞争力,进而促进智能无人系统市场的有序竞争。

(3)法律应当对智能无人系统的广泛应用给予鼓励和支持。智能无人系统的应用不仅可以降低生产中的资源能耗,有效推动各行各业转型升级,提高经济效率,更可以提升人民整体生活水平。因此,我国应当通过立法加强对智能无人系统中各方主体的教育和科普力度,使各方主体能在心理、情感、技能等方面适应智能无人系统发展所带来的影响。同时,我国应当给予弱势群体以相应政策优惠,将智能无人系统产品普及到最广大的基层中,使每个公民都能共享科技发展之成果。

(五)权义统一原则

智能无人系统在开发与应用中会涉及多方主体,不仅包括开发者、制造者、销售者、使用者,还包括政府及其他利益相关方。由于牵涉主体过多,导致各个主体间的关系错综复杂。想要对这些关系进行梳理,必须建立明确统一的权义结构,以权利与义务作为逻辑线索,将各方主体的行为纳入法律框架中进行统一规制。因此,在智能无人系统开发与应用的法律规制中,我们要树立权义统一原则。其内涵如下:

(1)智能无人系统开发与应用中各方主体的法律权利与法律义务设定应当明确。黑格尔曾说过:“法律规定得愈明确,其条文就愈容易切实地施行”。因此,国家在设定智能无人系统开发与应用中各方主体的法律权利和法律义务时,应力求使其明确、具体,禁止通过概括性条款对其作出模糊规定,以便各方主体加以遵循。以政府的监管职责为例,应当通过立法构建相应的政府监管制度,对监管范围、监管权行使、监管程序等内容作出具体规定。通过设定明确的权利义务关系,厘清各方主体的利益范围。

(2)智能无人系统开发与应用中各方主体的法律权利与法律义务配置应当合理。智能无人系统开发与应用中各方主体的地位存在天然差异,如果法律对这种差异视而不见,仍然一视同仁地分配权利和义务,只会使这种差异越拉越大。因此,国家在配置各方主体的法律权利和法律义务时,必须考虑智能无人系统开发与应用的现实特点,具体问题具体分析,给予不同主体以正当的差别待遇[15]。以开发者为例,其在智能无人系统的开发与应用中获益最多,享受了大量的天然权利,因此立法时应当使其承担更多的法律义务。通过合理的配置权利义务,从而使各方主体间的利益关系得以平衡。

(3)智能无人系统开发与应用中各方主体的法律义务与责任承担联系应当紧密。古希腊作家索福克勒斯曾说过:“如果法律没有恐惧支撑,他绝不能生效”。对于智能无人系统开发与应用中的义务主体而言,仅希冀于其自愿履行法律规定的义务是不现实的,必须以法律责任的形式督促和约束义务主体履行义务。因此,国家应当为义务主体设定适当的民事责任、行政责任和刑事责任,若其不履行或不适当履行义务,则根据情节使其承担相应法律责任。通过健全智能无人系统中的责任承担体系,不仅可以对义务主体起到威慑作用,还可以使权利主体得到一定的补偿,从而促进各方主体权利、义务、责任三者的统一,确保各方主体在法律允许的范围内实现自身利益。

四、智能无人系统开发与应用法律规制的具体对策

(一)构建数据强制许可与用户授权规则

构建智能无人系统开发与应用中的数据强制许可与用户授权规则,应当从以下两方面进行:

(1)构建数据强制许可规则。数据与知识相类似,都具有公共性,所以数据利用者的增加并不会提高数据利用的边际成本,即数据的利用者越多,对数据的总体利用效率越高[16]。因此,我国应当根据数据的这一特性,在智能无人系统的开发中,借鉴域外知识产权法律中的著作权强制许可规则,构建与之类似的数据强制许可规则。即开发者在无正当理由而拒绝与第三方开发者达成数据共享协议时,国家有关部门经第三方开发者申请,可强制开发者共享自己所拥有的一般开发数据给第三方开发者使用,该强制可不经过开发者同意,但应当向其支付报酬。数据强制许在适用中应当满足几个条件。首先,数据强制许可的目的必须是为了防止数据垄断,提高市场效率;其次,数据强制许可的前置条件是第三方开发者向该开发者请求数据共享被无正当理由拒绝,其中正当理由的范围应当以未严重限制竞争及有利于社会公共利益为限;再次,数据强制许可需要由第三方开发者自行申请,而不能由有关部门主动做出决定;最后,第三方开发者必须向该占有数据的开发者支付合理报酬,合理报酬的标准应当由统一的机构对数据价值进行评估后制定。另外还应当注意的是,数据强制许可的客体只能是一般开发数据,而不能是个人信息数据,因为个人信息数据涉及人格权,而个人隐私保护应优先于市场效率。同时其客体也不能是商业秘密数据,因为商业秘密数据涉及智能无人系统的核心算法,如果对其强制许可会严重打击开发者的积极性,对市场造成负面后果。

(2)完善用户授权规则。由于个人信息数据与人格权密不可分,所以个人信息数据的所有权理应永久归属于用户。在此情况下,开发者想要对个人信息数据进行收集,必须取得用户的合法授权[17]。因此,在智能无人系统的开发中,我国应当完善用户授权规则。首先,应通过立法对用户授权程序作出规范。即开发者必须对数据收集的理由、用途、具体使用者、可能存在的风险等内容做出披露,经过用户明示授权,方可对其个人信息数据进行收集。未经披露或虚假披露的,授权自始不发生效力;其次,应赋予用户对授权的无条件撤销权。鉴于用户在数据收集中的弱势地位,有必要对其进行特殊保护。因此应规定在任何时间、任何情况下,用户均可以行使撤销权,开发者应无条件予以配合;再次,针对开发者的数据侵权行为应适用无过错责任的追责原则。即在直接侵权和第三者侵权中,经营者若不能证明自身已取得合法、有效授权,且已尽到授权协议中载明之义务,则需要承担赔偿责任或连带赔偿责任;最后,应明确数据侵权的赔偿标准。开发者的数据侵权分为两种情况,第一种是其未经授权擅自侵害用户个人信息数据,在此情况中,由于单个用户的数据价值不高,若按《侵权责任法》之赔偿标准进行赔偿,难以对开发者起到威慑作用,因此应当借鉴《消费者保护法》之规定,设计惩罚性赔偿规则,对开发者处以3倍赔偿,赔偿金额不足500元的按500元赔偿;第二种情况是开发者违反用户授权协议,对用户个人信息数据进行侵害。此时开发者将构成违约责任与侵权责任的竞合,用户可以根据具体情况择一要求赔偿。通过对上述两种规则进行构建和完善,有助于促进智能无人系统开发中数据共享与人格保护的协调,从而保证数据的顺畅流通,实现数据的有效利用。

(二)制定产品安全标准与算法技术标准

制定智能无人系统开发与应用中的产品安全标准与算法技术标准,应当采用“软硬结合”的方式进行:

(1)制定产品安全标准。由于智能无人系统产品相比一般产品具有更大的安全风险,因此应当参照《中华人民共和国食品安全法》制定《智能无人系统安全法》,采用民主立法、科学立法的方式对智能无人系统产品安全标准作出强制性规定。首先,智能无人系统的产品安全标准应当具体。即产品安全标准中必须包含适用范围、相关认证要求、关键零部件要求、测试要求、对与产品安全有关的信息提供的要求、对与产品安全有关的质量要求等内容,使其具备现实可操作性;其次,智能无人系统的产品安全标准应当适度。即通过对智能无人系统产品的安全性进行专业的风险评估,得出相应的评估结果,并根据评估结果对不同产品按照其社会危险性的大小进行分级,使不同级别的产品可以适用不同的安全标准,避免一刀切情况的发生[18];再次,智能无人系统的产品安全标准应当科学。即制定产品安全标准时应当充分参考相关产品的国际安全标准及国际安全风险评估结果,使其与国际相接轨,以确保智能无人系统产品最大程度的安全[19];最后,智能无人系统的产品安全标准应当合理。即制定好智能无人系统产品安全标准草案后必须及时向社会公布,并广泛听取、认真评估各方主体的意见,发现问题及时修正,以尽可能弥补其中之疏漏。通过制定具体、适度、科学、合理的产品安全标准,杜绝具有安全隐患的智能无人系统产品流向市场,以满足公民保护与社会保护之一般需要。

(2)制定算法技术标准。由于算法未应用于智能无人系统产品时不具备直接的安全风险,因此不宜采用国家立法的形式对其进行强制性规制,而应当采用软法治理的方式引导其发展[20]。即由标准化组织、行业协会等社会中间层组织商议和制定算法的测试方式和技术标准。社会中间层组织在其所在领域往往具备更丰富的专业知识及更强的社会影响力,所制定之软法通常更符合实际且易于推行。许多国际组织在这一方面已经走在了前列,如电气和电子工程协会(IEEE)已成立了IEEEP7000标准工作组,设立了伦理、透明、算法、隐私等10大标准工作组。国际电工委员会(ISO/IEC)也成立了人工智能可信研究组,对算法的透明度、可验证性、可解释性、可控性等问题进行研究。因此,我国社会中间层组织应当以此为鉴,积极推动智能无人系统算法标准的制定,以构建完善的算法标准软法体系,实现对开发者的有效引导与约束,使开发者在注重自身经济效益的同时,强化社会责任意识,在设计算法时更加自律、负责,避免算法“后门”的出现,确保算法设计的安全可控。通过硬法规范与软法规范相结合的方式,可以充分发挥二者的优势,既对开发者的算法设计进行了约束,又避免因规制过于死板而限制开发者的创造力,同时确保了智能无人系统产品使用者及相对方的安全。

(三)加重开发者的信息披露与解释说明义务

加重智能无人系统开发者的信息披露和解释说明义务,应当结合算法的特点,从以下两方面入手:

(1)加重开发者信息披露义务。由于算法具有不透明性,使得除开发者以外的主体很难获知与算法有关的信息,导致了“算法黑箱”的产生。为了破解“算法黑箱”,在智能无人系统的开发中,国家有必要通过立法加大开发者的信息披露义务,强制要求其公开披露算法的部分信息。首先,强制披露义务的界限范围应当清晰。由于算法具有很高的商业价值,可能构成商业秘密。因此对算法进行强制披露的范围应当以与消费者利益或社会公众利益密切相关为限,以保证智能无人系统开发者的生产积极性;其次,强制披露义务的内容应当全面。不仅要对算法的认证结果、功能效果,基本架构进行披露,还要对算法的已知缺陷、运行中可能存在的风险及应对措施进行披露,以保障智能无人系统中他方主体的充分知情权;再次,强制披露义务的过程应具有持续性。由于算法具有动态性,一直处于不断升级的状态中,特别是未来发展到强人工智能阶段,其将具有更强的自主学习和深度学习能力,甚至可以进行自我完善。因此,智能无人系统的开发者在履行信息披露义务时并非一劳永逸,而应根据算法版本的更新不断进行信息披露,以保障他方主体可以对算法进行持续了解和监督;最后,强制披露义务履行不当的责任承担机制应当明确。即规定智能无人系统的开发者未履行或未适当履行信息披露义务的,应当按照《消费者权益保护法》之规定以欺诈行为论处,消费者可以要求其承担3倍赔偿责任,同时监管机构应给予其相应的行政处罚,以督促开发者负责任的履行信息披露义务。

(2)加重开发者解释说明义务。由于算法具有一定主观性,其运行中往往体现着某种价值判断,使开发者获得了天然的算法权力,导致了“算法霸权”的产生。为了预防“算法霸权”,在智能无人系统的开发中,国家有必要通过立法加重开发者的解释说明义务,强制要求其对他方主体存在异议的算法运行逻辑进行解释说明。首先,解释说明义务应设置相应的前置条件。与信息披露义务不同,解释说明义务在具体操作中会产生较高的商业成本且存在泄露商业秘密的风险,故而对其适用需要加以严格限制。因此,开发者承担解释说明义务必须以他方主体对算法运行逻辑存在合理怀疑为前提,只有当算法作出的决策未满足合理预期时,他方主体才可以请求开发者对算法运行逻辑进行解释,以防止社会资源的不当浪费;其次,解释说明义务的内容限于算法运行逻辑。即开发者需要将算法的运行逻辑以一种简化的、平均的、易懂的方式提供给其他主体,使其他主体可以不依靠专家讲解和算法相关的专业知识就足以理解其原理,以加强其他主体对智能无人系统的认知[21];最后,解释说明义务的履行应当受到监管。即国家应当设立专门机构,一方面对他方主体的请求进行审查,判断其是否合理[22]。另一方面对开发者的解释说明进行监督,判断其能否为公众所理解以及算法运行逻辑是否符合社会的价值取向。如果算法运行逻辑出现重大的价值取向争议,应当举行听证会,由选举出的人民代表对其进行判断,以确保算法的价值取向与人民的价值观保持一致。通过加重开发者的信息披露义务和解释说明义务,不仅可以有效维护智能无人系统中各方主体的知情权,还可以促进各方主体共享算法权力,促进民主在人工智能时代的发展。

(四)建立产品责任追溯与产品责任分担机制

在智能无人系统开发与应用中建立产品责任追溯和产品责任分担机制,应当遵循“探究责任发生的原因——根据原因划分责任”的思路,设计并完善以下机制:

(1)建立产品责任追溯机制。由于智能无人系统发生产品责任事故的原因多种多样,导致各方主体在事故中的责任大小难以判断。因此,国家应当建立智能无人系统产品责任追溯机制。一方面,由于智能无人系统的开发者具有隐蔽性,应当通过立法强制要求开发者在智能无人系统产品的包装上及使用说明书中标记自身标识,使开发者的身份信息可以直观的被各方主体所认识,便于使其承担责任。若开发者未适当标记自身标识,考虑到智能无人系统的生产者在产品制造时就应当对开发者的身份有明确认识。因此,应由生产者承担督促开发者明确自身标识的义务。生产者未履行督促义务的,应承担连带赔偿责任,被侵权人可以直接向其索赔,其赔偿后可以向开发者进行追偿,以保护被侵权人的权益;另一方面,为获取产品责任事故的相关信息,应当通过立法强制开发者在智能无人系统中嵌入类似“黑匣子”的可追溯构件,并对其性能做出具体要求。通过对可追溯构件中记录的相关信息进行分析,进而判断智能无人系统发生产品责任事故时是否存在缺陷、缺陷的形成原因以及使用人、被侵权人在事故中是否有过错。以便于之后以此为依据对各方主体的责任进行划分。若开发者未适当设计可追溯构件的,除开发者提供证据证明其他主体存在过错的,由开发者承担全部责任,以确保事故责任得以明确划分。

(2)明确产品责任承担机制。智能无人系统产品与其他产品并无本质不同,因此应当遵从《中华人民共和国产品质量法》之规定,对其适用“以无过错责任为一般,以公平责任为例外”的产品责任承担机制[23]。通常情况下,应根据智能无人系统产品责任事故追溯中得出的结论对责任进行分担。缺陷由一方造成的,由其单独承担责任,缺陷由多方主体共同造成的,按具体情况由各方主体承担连带责任或按份责任。同时,为了避免使用者恶意使用产品或被侵权人恶意欺诈,应规定若使用者或被侵权人在产品事故责任中有过错的,可以根据过错程度不同减轻或免除开发者、制造者、销售者的产品责任,以维护各方主体间的诚实信用。特殊情况下,如果根据可追溯构件未发现智能无人系统产品存在缺陷或发现的缺陷在产品最后一次投入流通时的科技水平下难以被避免的,将无法适用无过错责任。此时为了平衡各方主体间的利益关系,应考虑在智能无人系统产品责任事故中,开发者、制造者、销售者和使用者相对被侵权人而言更具优势地位。因此,可以根据联合国教科文组织和世界科学知识与技术伦理委员报告中的建议,由开发者、制造者、销售者和使用者共同承担公平责任,以确保被侵害人能够得到及时赔偿[24]。通过建立智能无人系统的责任追溯和责任分担机制,可以激励各方主体加强责任意识和伦理底线意识,减少产品损害的发生,使智能无人系统产品可以迅速被社会公众所接受[25]。

(五)健全相关社会保障与公民发展制度

健全智能无人系统开发与应用中的相关社会保障与公民发展制度,应当充分发挥国家的作用,通过积极的国家干预解决智能无人系统开发与应用所带来的社会问题,具体方式如下:

(1)完善相关社会保障制度。现阶段智能无人系统所取代的工作岗位主要是重复性体力劳动岗位,涉及的劳动者通常是底层劳动者。这些劳动者对风险的抵御能力较弱,一旦失业将可能难以维持正常生活,所以当务之急是保障他们的生存权。因此,国家应当完善与智能无人系统开发与应用相关的社会保障制度。一方面,国家应当完善财政和税收立法,通过调整个人所得税免征额、提高高收入群体的个人所得税税率、增强政府转移支付力度等方式,对人工智能时代的社会财富分配模式进行调整,提高社会财富二次分配的合理性与精准性,以减少贫富差距,缓和社会矛盾;另一方面,作为剥夺失业劳动者工作机会的补偿,国家应当完善社会保障立法,通过扩大社会保险范围,提高社会福利待遇,增加社会救济力度等方式,健全我国的社会保障制度,使底层劳动者具备更强的抗风险能力,即便失业也可以维持必要之生计。

(2)健全相关公民发展制度。国家应当健全与智能无人系统开发与应用相关的公民发展制度,保障公民的发展权。首先,国家应当健全人才再培养制度。即通过实施各种财政政策和税收政策,对被智能无人系统所替代的失业劳动者进行政策扶持,鼓励其参加教育和技能培训,引导其终身学习,提高个人素质,增强自身适应新技术的能力;其次,国家应当健全就业服务制度。即通过完善劳动力要素市场的相关立法,加强对人才市场、人力资源管理服务企业、猎头公司等就业服务机构的专门引导和有效利用,进而拓宽失业劳动者的再就业渠道,使失业劳动者能快速找到新的工作岗位,实现再就业;最后,国家应当健全就业督促制度。基于部分西方发达国家近年来发展过程中的惨痛教训,国家应当谨慎平衡社会保护与社会促进间的关系,预防“福利陷阱”。因此,对待失业劳动者,国家不仅要采取正向手段对其进行激励,还要采取相应的逆向手段对其进行约束。对仍然具备劳动能力而逃避劳动的失业劳动者,应当通过完善失业保险期限,加强社区教育等方式,督促其重新投入劳动。以防止小部分失业劳动者不思进取,失去个人发展之动力,只想搭他人之“便车”,成为社会发展的阻碍。通过健全智能无人系统开发与应用中的相关社会保障和公民发展制度,不仅能为智能无人系统的发展解除后顾之忧,更有助于使其惠及并赋权最大可能的多数人,促进社会公平在人工智能时代的实现。

结语

正如卢梭指出,“人性的首要法则,是要维护自身的生存,人性的首要关怀,是对于其自身所应有的关怀”[26]。阿西洛马人工智能23条原则也提出,“人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能”。因此,智能无人系统的开发与应用也应当坚持“以人为本”和“科技为民”。在智能无人系统的发展过程中,我们要避免舍本逐末,防止将物化的产品作为最高理想予以追求,而应当将人性之光辉在人工智能时代予以发扬,把科技创新与改善民生福祉相结合,发挥科技创新在提高人民生活水平、增强全民科学文化素质和健康素质、促进高质量就业创业、扶贫脱贫、建设资源节约型环境友好型社会中的重要作用,让更多创新成果由人民共享,提升民众获得感。本文所提出之法律规制原则及对策,皆为促进人与智能无人系统的和谐统一及共同发展。总之,无论本文之建议能否对智能无人系统问题的解决有所裨益,但求其观点能起到开拓思路,抛砖引玉之作用。

参考文献:

[1]张守文.人工智能产业发展的经济法规制[J].政治与法律,2019(1):2-10.

[2]牛喜堃.数据垄断的反垄断法规制[J].经济法论丛,2018(2):370-394.

[3]汪庆华.人工智能的法律规制路径:一个框架性讨论[J].现代法学,2019,41(2):54-63.

[4]尤瓦尔·赫拉利.未来简史[M].林俊宏,译.北京:中信出版社,2017:296.

[5]姜野.算法的规训与规训的算法:人工智能时代算法的法律规制[J].河北法学,2018,36(12):142-153.

[6]王利明.人工智能时代对民法学的新挑战[J].东方法学,2018(3):4-9.

[7]胡元聪,李明康.自动驾驶汽车对《道路交通安全法》的挑战及应对[J].上海交通大学学报:哲学社会科学版,2019,27(1):44-62.

[8]张耀铭,张路曦.人工智能:人类命运的天使抑或魔鬼——兼论新技术与青年发展[J].中国青年社会科学,2019,38(1):1-23.

[9]张敏,李倩.人工智能应用的安全风险及法律防控[J].西北工业大学学报:社会科学版,2018(3):108-115.

[10]陈鹏.算法的权力:应用与规制[J].浙江社会科学,2019(4):52-157.

[11]郑智航,徐昭曦.大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例[J].比较法研究,2019(4):111-122.

[12]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(5):128-136.

[13]季卫东.人工智能开发的理念、法律以及政策[J].东方法学,2019(5):4-13.

[14]王成.人工智能法律规制的正当性、进路与原则[J].江西社会科学,2019,39(2):5-254.

[15]李昌麒.经济法学[M].北京:法律出版社,2016:58.

[16]朱新力,周许阳.大数据时代个人数据利用与保护的均衡——“资源准入模式”之提出[J].浙江大学学报:人文社会科学版,2018,48(1):18-34.

[17]王利明.数据共享与个人信息保护[J].现代法学,2019,41(1):45-57.

[18]孙建丽.算法自动化决策风险的法律规制研究[J].法治研究,2019(4):108-117.

[19]胡元聪.我国人工智能产品责任之发展风险抗辩制度构建研究[J].湖湘论坛,2020,33(1):70-89.

[20]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019,36(4):63-75.

[21]张恩典.大数据时代的算法解释权:背景、逻辑与构造[J].法学论坛,2019,34(4):152-160.

[22]刘友华.算法偏见及其规制路径研究[J].法学杂志,2019,40(6):55-66.

[23]刘小璇,张虎.论人工智能的侵权责任[J].南京社会科学,2018(9):105-149.

[24]岳彩申,耿志强.人工智能开发的法律规制对象、目标及措施[J].人工智能法学研究,2018(1):133-232.

[25]袁曾.权利视阈下的人工智能法律主体地位[J].上海政法学院学报(法治论丛),2019,34(4):89-98.

[26]卢梭.社会契约论[M].何兆武,译.北京:商务印书馆,2001:9.

智能无人系统开发与应用的法律规制-科技论文认证作者,无人机行业知名站长,知乎无人机专栏创作者。
认证作者 大毛无人机 所有文章 | 网站

如若转载,请注明出处:http://www.woiwrj.com/wurenjibaike/djiwurenzhishi/11599/

更多专业的无人机知识欢迎入群,关注本站公众号精彩不容错过

发表评论

登录后才能评论