人工智能是当今社会的热点。 从年初“阿法狗”席卷全球顶级棋手开始,到最近“阿法元”以100比0战胜“阿法狗”,到最近世界第一批机器人公民诞生,人工智能以迅猛的发展势头不断冲击着人们的日常生活,也给法律带来了全新的挑战。 面对新的问题和挑战,法律能否提供恰当的处理方案? 最近,北京大学法学院刑事法治研究中心主办了题为“法律如何应对人工智能”的沙龙,学术界、法律界、公司界的专家、学者对此进行了探讨。
图片来源:视觉中国
上海交通大学凯原法学院教授郑戈:
人工智能是现代工业文明快速发展的必然产物其快速发展过程总是伴随着工业文明的快速发展 与人工智能的迅速发展相反,以农业社会为发端、以有限理性人为规制对象的法律体系天然具有的滞后现象。
人工智能大幅强化人类能力的时候,现有的法律制度是有限的。 以美国电子取证、诉讼管理、合同起草和审查为例,人工智能目前正在法律职业中应用,这类技术全面宣传后,许多法律职业被人工智能取代,人工智能也有可能导致法律思维和法律应用方法的根本性变革。
但是,人工智能给法律带来的根本冲击是人工智能会引发极化社会。 人工智能比技术和经济的快速发展使法律落后,给掌握先机的人带来更大的边际收益。 同时,由于数据是人工智能时代最重要的资源,个人隐私和自由变得非常脆弱。 而且,掌握了大量市民数据的公司可以利用这些新闻对市民进行秘密引导,从而“自愿”服从无形的力量。 最后,如果人工智能应用于充满不确定性的金融市场,还可能带来各种灾难性的后果。
面对这一系列困难局面,一个应对思路是赋予人工智能法律人格。 但是,无论机器人以何种方式承担责任,最终的责任承担者都是人,不需要其法律人格。
在自动驾驶汽车行业,人工智能与法律的冲突更为突出。 为此,德国和美国提出了两种截然相反的应对方案。 德国侧重于自上而下的规则设计,美国采用了“领域自治+政府关闭”的公法模式。 另外,第三种规制思路对算法设计者提出伦理约束,要求始终以人的生命为先。
法律如何更“智能”地应对人工智能?
首先,法律专家必须学习人工智能知识,以使人工智能的基础操作系统符合人类伦理和法律。 第二,政府必须增加人工智能投资,吸收越来越多的人工智能人才参与立法、行政、司法工作。 第三,与上述德国模式相比,美国模式更值得提倡。 也就是说,相应的技术标准、安全标准、个人数据保护标准,应该基本综合考虑领域自身快速发展的标准和公共优势、个人权利保护。 最后,必须制定关联规则约束算法设计者的行为,提倡和加强算法伦理。
最高法院司修订计划处处长何帆:
必须承认的是,尽管人工智能现在开始取代低端法律职业的一部分,但受制于人工智能被广泛使用的诸多前提要求,人工智能无法在短期内淘汰法律专家。
目前,一些法院已经开始以语音识别、图像识别、证据导向、知识图谱为媒介初步运用人工智能。 但是,这个过程也面临着各种各样的制约和障碍,例如,一些法官对人工智能的深度运用表示怀疑,认为人工智能没有减轻其业务负担的人工智能的深度应用要求开设检察机关法律事务平台,但却要求建立平台。
法律工作者要积极参与技术研发,为人工智能的深度应用提供场景,提炼规则,绘制各种证据指南和知识图谱,推进机器的深度学习。 总之,投入多少人工才能有多少智能呢?
京东集团法务部高级总监丁道勤:
人工智能的应用行业非常广泛,图像识别和语音识别只是其中的一个小分支。
人工智能的三个核心要素是场景、数据和计算力,但人工智能并不一定意味着大数据。 以鹦鹉模式和乌鸦模式为例,与只会模仿的鹦鹉相比,更推荐能够自主感知、推理、学习、执行的乌鸦式人工智能。
目前,人工智能已开始应用于法律行业,但与商业行业相比,人工智能的法律实践还处于起步阶段。 人工智能的法律影响包括主体论即机器人的法律主体资格问题,应用论包括知识产权保护、侵权责任、隐私保护、劳动法和伦理问题两个方面。
腾讯研究院法律研究中心副主任蔡雄山:
人工智能带来了下一个产业浪潮,基础研究行业的进步,全球网络公司正在积极进行战术转换。 从产业界的角度来看,人工智能可能会带来以下法律问题。
其一,个人数据保护问题。 在人工智能时代,数据具有很大的商业价值。 因为,如何保护数据,以及如何赋予数据所有权,都值得思考。
其二,算法歧视问题。 例如,在利用大数据判断个人特征信息时,由于系统设计的主观性和数据本身的不完备性,得到的结论可能不客观。
其三,监管及其引发的责任分配问题。 一个典型的例子是自动驾驶汽车在事故后的责任问题。 特别是在参加机器学习之后,这种困境将更加凸显。
其四,人工智能作品的知识产权归属问题。 这个问题已经在中国发生了。
其五,机器人的法律人格问题。 这不仅涉及法律,还涉及伦理。
面对人工智能带来的这一系列问题,中国和西方目前站在同一起跑线上。 在这个特殊的历史阶段如何做出我们独特的贡献,现在还需要深入探讨。
图片来源:视觉中国
华宇元典企业副社长黄琳娜:
人工智能解决民间借贷案件中“签名伪造答辩”可能面临的语言识别障碍,证明法律ai无法复制围棋成功。 “阿法狗”成功的原因是围棋边界关闭,规则清晰,机器可以自制数据了。 但是,法律世界纷繁混乱,常常没有确定的对错之分,法律实践必须吸取人类的知识,法律ai无法从人类的经验中积累数据。 另外,法律中存在着“较大金额”和“较大金额”、“抢劫”和“抢劫”等文案非常相似,但法律含义上有明确差异的概念,以及人类基于“时效”等特定目的而建立的概念和制度,这对于机器的无监督学习来说是很大的困难
在目前的研发中,专业律师在积累带标签数据的同时,监督学习和强化学习相结合,机器首先通过小规模的培训样本得到初步模型,然后在律师持续反馈下扩展样本规模,通过数据循环最终建立优秀模型。 在这个过程中,法律专家进行的数据标注很重要。
人工智能的迅速发展不会导致法律人的失业,但有可能会改变法律人的工作形态。 将来,法律知识工程师可能会成为新的就业方向。 法律工程师的工作是绘制法律知识地图,将人类知识转化为机器可以理解的形态。 因为与围棋不同,法律人工智能领域是强人工干预的知识驱动领域,需要探索独特的快速发展路径。
北京大学法学院副教授车浩:
人工智能可能会带来三个现实的法律问题:
一个是自动驾驶问题。 自动驾驶车的出现,将逐渐消灭以人类为中心确立的各种法律规则和概念体系。 自动驾驶车进入市场后,自动驾驶车和非自动驾驶车将在一定时期内并存于交通行业,挑战交通行业观察义务的设置和过错责任的认定。 同时,观察义务规则的凝聚和自动驾驶车必须遵循的是大体现地的实际交通状况。 也就是说,自动驾驶行业的法律和技术必须本地化,不能移植借鉴。 并且,在自动驾驶全面普及,交通行业完全被人工智能控制的日子到来之前,法律必须限制和禁止人的驾驶,以便人工智能能够经常做出正确的评价。 此时,支配交通行业的不是规则,而是算法。 人类生活的基本行业会被机器侵蚀。
二是人工智能的人格问题。 这是基于立法和学术研究立场而产生的思考。 一般来说,法律规制的对象是社会常规合理的成年人,对未达到这一合理标准的儿童、精神疾病患者等群体,法律另行制定规则,予以特别保护。 但是,当人工智能开始普及,社会上出现比通常理性的成年人能力更高的“超人”时,以前流传下来的法律制度和规范就无从下手。 有必要考虑为这种人制定特别的法律规则。
三是人的退化问题。 如果人类将脑力活动全部交给机器,人类生活的所有行业都被机器取代,人类的智力必然会因入退而退化。 到了那个时候,也许也可以有法律。
北大英华科技有限公司总经理赵晓海: [/s2/]
人工智能不仅影响法律职业,还推动法学教育的变革。 比起知识的传播,创新、实践能力、评价力的形成才是未来法学院的第一培养方向。 法学院今后必须成立人工智能研究院,以理性和积极的态度应对人工智能及其带来的新挑战。
(资料来源:经济参考报陈尔彦)
来源:经济之声
心灵鸡汤:
标题:“当AI遇到法律 专家:法律要“智能”地应对人工智能”
地址:http://www.jyqsh.com/jjrd/1891.html