从语音识别到人脸识别,从阿尔法狗到索菲亚,从自动驾驶汽车到智能机器人,短短几年,人工智能从大家津津乐道的一个个炫酷科技,变成了社会共识,上升为国家战略。在上海举行的2019世界人工智能大会,聚集了人工智能领域的顶级大脑。大家关注到,人工智能为整个社会所带来的绝不仅仅是一场产业革命,随之而产生的就业危机、算法歧视、伦理风险、隐私滥用、社会失序等问题,都需要法治的规制和保障。在人工智能发展与法治的关系上,应当坚持既要“让子弹飞一会儿”,但同时又要寄好法治的“安全带”,真正使人类享受到智能社会的最大福祉。
为人工智能发展创造“创新友好型”法治环境
习近平总书记指出:“创新决胜未来,改革关乎国运。”在2019世界人工智能大会开幕式上,上海市委书记李强用“开放、创新、包容”三个关键词描绘了未来上海人工智能发展的主要方向。一个地区的创新能力取决于其创新生态,其中法律、政策、激励或限制措施往往成为影响创新成功的决定因素。硅谷之所以能够在历次技术革命中都居于世界领先地位,关键就在于其开放包容的制度文化对技术创新过程所伴随的叛逆、失败、多元融合、追求卓越、竞争政策、产权保护等起到了充分的激励和保障作用。本世纪初,华裔经济学家杨小凯曾经引用美国经济学家沃森提出的“后发劣势”理论,来告诫后发国家在模仿发达国家的技术时,必须要关注自身的制度建设。从某种意义上而言,当今的国际竞争已经转变为先进技术、创新生态的竞争,谁拥有开放包容的创新生态,就会在新一轮的竞争大潮中立于不败之地。
在创新与规制的关系上,往往存在着双重困境:一是节奏不同步,创新往往是以声速在发展,可以随时随地发生,而监管者往往会受到法律稳定性和滞后性的限制;二是信息不对称,新技术往往挑战现有的监管制度,而监管者对新技术往往缺乏了解,在技术知识和潜在影响方面都存在明显的信息不对称。创新本身面临着技术可行性、商业价值、相关技术和配套生态、体制文化影响等多重不确定性,90%以上的创新往往都是失败的,在这种情况下,打造一种“创新友好型”的法治环境对人工智能的发展就至关重要。我们需要认识到,法律不仅承担着调节行为、解决冲突、公共治理等功能,而且也负有促进社会发展、引导社会进步的重要使命。对人工智能的良法善治应当既能充分调动社会主体的创造热情,促进技术转化、增进社会财富,又能够充分防范和化解市场和社会风险。
值得注意的是,我们所倡导的“创新友好型”法治环境并不是要“先发展,后治理”,人工智能对未来社会可能产生的威胁和风险必须被充分预测和防范。我们需要在法律规制和创新之间实现平衡,既能最大效率地促进创新,又能避免规制过度对创新产生的“寒蝉效应”;让法律规则成为人工智能发展河流的堤岸,而不是阻碍和高墙。
用“底线思维”创设人工智能发展的法律边界
一浪接一浪的人工智能技术进步在推动社会发展的同时,也给法学界抛出了一个又一个困惑和难题:人工智能时代隐私权该如何保护?是否应该赋予机器人法律人格?机器人违法造成的损失由谁来承担?无人驾驶汽车出了事故该如何追责?商家利用算法规则诱导消费是否公平?无论是马斯克提到的“我越来越倾向于认为,应该在国家和国际层面上进行监管,以确保我们不会做出非常愚蠢的事情”,还是马云倡议“中国应该制定一部《数字经济法》”,都说明了法治对于技术发展重要的引领和保障作用。在人工智能发展的道路上,我们同样需要树立“底线思维”,防范和化解人工智能带来的重大风险。
1942年,科幻小说家艾萨克·阿西莫夫提出了“机器人三定律”:第一,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二,在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;第三,在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己;后来他又加入了“第零法则”:机器人不得伤害整体人类,或坐视整体人类受到伤害。在人工智能时代,这些不仅是机器人设计中应当遵循的基本原则,更应该是所有人工智能产品设计研发使用中所应坚持的“底线”。所谓“底线”,就是人工智能发展不容突破的人类安全和道德的刚性要求,需要全社会共同来监督和维护。对人工智能的发展“不设上限设底线”,是我们应该坚持的发展原则。
值得欣喜的是,国际和国内在这方面都已经做出了有益的探索。欧盟于今年4月8日发布了《人工智能伦理准则》,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。本届人工智能大会法治论坛也发布了国内首个人工智能安全发展的导则——《人工智能安全与法治导则(2019)》,从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的安全风险作出科学预判,提出人工智能安全与法治应对策略,守卫人工智能发展的“安全基因”。面对以人工智能为代表的飞速发展的现代科学技术,人类必须高度关注技术对社会关系和社会观念所带来的巨大冲击,用法律的底线引导技术和社会的健康发展。
“多元共治”应成为人工智能治理的重要方式
今年8月,刘鹤副总理在重庆召开的智博会上呼吁,智能技术需要展现科技向善力量,维护伦理道德底线,形成行业和企业的伦理自律准则。当今世界新技术日新月异,人工智能产品飞速迭代,无论对于设计者、制造者还是监管者,新技术新产品所带来的潜在隐患和社会风险都无法预测。尤其是监管者,对新技术的社会效果往往处于“后知后觉”的状态。因此,对于人工智能的治理,应该坚持“政府引导、社会协同、行业自律、企业自治”的多元主体共同参与的治理结构。
人工智能的发展规律决定了行业自律、企业自治往往能够起到从源头防控风险、保障产品和社会安全的重要作用。如纽约市议会通过的《算法问责法案》就要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组,专门监督自动决策算法的公平和透明问题。很多科技公司也对人工智能的发展确立了自治准则,如微软的人工智能准则有六项:公平,可靠和安全,隐私和保障,包容,透明和责任。微软内部成立了人工智能伦理道德委员会,由工程师、科学家、律师和公司领导组成,负责对微软内部与人工智能伦理道德相关事宜进行探讨和评估。
同时,人工智能的应用为企业自治提供了高效方便的技术平台,使监管“他律”到“自律”的转变成为可能。以5G为例,其速度和能力远远超出运营商网络的驾驭能力,当前以人工的方式优化4G网络已困难重重,因此,为了优化5G网络,就必须引入人工智能。通过大量数据的训练,人工智能可能将原本消耗数十天的工作降低为秒级。人工智能为产品的完善、技术的自治创造了可能。然而,需要注意的是,人工智能不是天生就具备这种能力的,人工智能的设计者依然是人,只有人在设计之初坚持保护人类生命和财产安全、维护社会秩序、促进人类整体福祉的理念,在产品设计、制造过程中有意识地趋利避害,才能真正让人工智能产品造福于整个社会。即便对于何为“人类福祉”,人们的争论也一直没有停止,例如,在智能社会中,是否真如扎克伯格所说“用户不在乎隐私,愿意拿它去换取便利和舒适?”人工智能与个人隐私权的保护、人工智能与法律伦理困境等问题也一直伴随着人工智能的发展而持续进行,但毫无疑问,多元共治将成为人工智能社会发展的重要治理方式。
霍金曾经说过:“成功创造人工智能是人类有史以来最重大的事情;然而,不幸的是,这也可能是最后一次,除非我们学会如何避免危险。”科学技术是一把双刃剑。技术发达的社会,同时也应该是一个法治发达的社会,技术风险只能通过法治的完善来防范和化解。我们要充分利用法律的引导、规制和促进功能,将人工智能的发展纳入法治轨道,从根本上保证其发展的安全性、可靠性与可控性,在释放人工智能创造力和规制人工智能安全发展之间保持平衡,实现法律与技术进步的良性互动。
(作者单位:中国浦东干部学院)
转载请注明来源“上观新闻”,违者将依法追究责任。
本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com
本文链接:http://whs.tttmy.cn/news/1341.html