RSS订阅
又一个WordPress站点
傅洁娴
menu
首页
全部文章
你现在的位置:
网站首页
/
全部文章
/ 正文内容
西安老年大学人工智能时代,法与人的边界-一法网
275
全部文章
| 2016年06月15日
人工智能时代,法与人的边界-一法网
一法 ·有价值的法律新媒体
导 言
在人工智能技术日新月异的时代变革中,人类/机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。
智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:
1、机器人法律资格的民事主体问题
随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。
是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。
机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别丁嘉力。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。
从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释亚坦尼斯。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”变种女狼。
法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”
从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。
基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处金鸡湖花园。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。
在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位跳楼英雄。
2、人工智能生成作品的著作权问题
人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。
在机器人时代,某些作品就是人工智能的生成内容。据美国Narrative Science的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。
有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。
关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的狼之口。”
这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。
这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。
3、智能系统致人损害的侵权法问题
智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。
机器人致人损害有两种情形:
一、是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;
二、是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。
上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。
关于智能系统致人损害责任的认定,有两种责任方式可供选择:
一、是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。
上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看霹雳天启,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。
二、是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则象腿树。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。
在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。
4.人类隐私保护的人格权问题
网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。
个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。
面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:
一、是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我们本身就是隐私的泄密者:智能手机安装了太多而不甚使用的APP,社交网络讲了太多而不适宜公开发表的言论,都可能造成隐私泄露;还有各种电子产品,从带有GPS的照相机到与WIFE相连的智能电器,都精细地记录私人的行踪和生活信息。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心;
二、是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。在欧盟和美国,根据政府要求,也出于用户主张,服务条款应特别声明从用户获得的数据属于用户本人,如对个人数据有不当处置,应承担责任。这不仅是合同规定的违约责任,也是违反法律的侵权责任。
三、是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。
例如,美国1974年制定《联邦隐私权法》,是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。
欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。
5.智能驾驶系统的交通法问题
人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。
无人驾驶汽车可能带来的法律问题,主要有:
一、是法律规制对象的转变骆力炜。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;
二、是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。
三、是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。
6.机器“工人群体”的劳动法问题
人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:
一、是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”
二、是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。
欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。
法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。
法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。
“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题非洲肺鱼,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:
1.以安全为核心的多元价值目标
人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。
人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。
安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律” 。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现迈可丽儿。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。
人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。
创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:
(1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;
(2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;
(3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。
和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。
在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。
2.以伦理为先导的社会规范调控体系
人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。
钟若涵
从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。
对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。
在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。
此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。
概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。
3.以技术和法律为主导的风险控制机制
人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。
法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制小蜜蜂寻亲记。
技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。
防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。
中国正在走向人工智能时代。世界新一轮科学革命、产业变革与我国转变经济发展方式形成历史性交汇。对人工智能的发展和规制进行制度安排,是时代新潮流,也是国际大趋势,更是本土创新发展的内在要求。笔者认为,在制度构建方面,目前有三项重点任务:
一、是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。从国际层面看,美、德、英、日等国加快人工智能顶层战略设计,从国家层面统筹人工智能发展。在我国,《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》,对人工智能发展做出重要表述。但总体而言,我国人工智能政策还没有上升到国家战略高度,人工智能的战略地位凸显不足,人工智能发展的统筹协调部门未予明确,政府、社会以及企业的责任分工尚未厘清。
国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景以及引发的相关社会变革,尽快作出相应的战略政策部署;
二、是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。在一些发达国家,对人工智能的伦理研究早于法律研究,诸如《机器人伦理宪章》、《机器人伦理学路线图》等,都是将安全评估和风险防范作为人工智能伦理规范的重要内容。
我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范,其要义包括:设计伦理框架,为机器人预设道德准则;强化科技专家的社会责任,为人工智能研发、应用提供道德指引;引导公众接纳人工智能,为调整人—机关系规定道德模式;
三、是适时进行机器人专门立法,以此作为人工智能法律的基本规范。人工智能技术对传统法律制度带来巨大挑战,以至现有的法律理念与规则在“高技术核”面前几乎无所适从。在这种情况下西安老年大学,法律制度需要创新变革自不待言,而寻求一个调整人类与智能机器相互关系的专门法将是一个最终的选择。
对此,欧盟的立法行动最快。据报道,欧洲议会已正式向委员会提出议案,拟制定“人类与人工智能/机器人互动的全面规则”,这或将是首个涉及机器人的立法草案。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。
结 语
未来时代已经到来。这是一个创新的时代,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。
智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。
一 法 网
助力企业及企业法律人实施依法管理
传播法治价值的法律新媒体
长按扫描二维码,进入“一法网”
上一篇:西游记续集片头曲人心相换(深度好文)-慈怀读书会
下一篇:防暑降温费发放标准人生百味方知真味如是......-三中教科
文章归档
2020年11月 (61)
2020年10月 (310)
2020年9月 (304)
2020年8月 (316)
2020年7月 (328)
2020年6月 (299)
2020年5月 (320)
2020年4月 (310)
2020年3月 (319)
2020年2月 (287)
2020年1月 (313)
2019年12月 (313)
2019年11月 (194)
2019年10月 (240)
2019年9月 (290)
2019年8月 (221)
2019年7月 (106)
2019年6月 (95)
2019年5月 (80)
2019年4月 (1586)
2019年3月 (2195)
2019年2月 (353)
2019年1月 (381)
2018年12月 (212)
2018年11月 (300)
2018年10月 (315)
2018年9月 (318)
2018年8月 (322)
2018年7月 (315)
2018年6月 (306)
2018年5月 (310)
2018年4月 (301)
2018年3月 (311)
2018年2月 (269)
2018年1月 (311)
2017年12月 (301)
2017年11月 (305)
2017年10月 (309)
2017年9月 (300)
2017年8月 (319)
2017年7月 (152)
2017年6月 (104)
2017年5月 (85)
2017年4月 (89)
2017年3月 (86)
2017年2月 (86)
2017年1月 (106)
2016年12月 (96)
2016年11月 (86)
2016年10月 (91)
2016年9月 (100)
2016年8月 (110)
2016年7月 (97)
2016年6月 (90)
2016年5月 (89)
2016年4月 (86)
2016年3月 (97)
2016年2月 (89)
2016年1月 (91)
2015年12月 (88)
2015年11月 (89)
2015年10月 (97)
2015年9月 (87)
2015年8月 (105)
2015年7月 (98)
2015年6月 (101)
2015年5月 (96)
2015年4月 (94)
2015年3月 (94)
2015年2月 (95)
2015年1月 (102)
2014年12月 (88)
2014年11月 (95)
2014年10月 (86)
2014年9月 (91)
2014年8月 (102)
2014年7月 (99)
2014年6月 (86)
2014年5月 (95)
2014年4月 (62)