前言:以深度学习等关键技术为核心,以云计算、生物识别等数据及计算能力为基础支撑的人工智能产业,在历经60年的轮回后,在2016年呈现井喷式爆发并大放异彩,迎来第三次浪潮。如今,人工智能在很多方面都有了突破性进展,全球人工智能的发展趋势已经势如破竹,这也为人类探索未知世界之路开启了“无穷大”之门。人工智能的发展水平正在呈指数增长的同时,也带来众多不可忽视的问题。在此基础上,本文对人工智能的发展进行了一定程度地思考与分析。
一、全球人工智能发展趋势
(一)第三次人工智能浪潮来临
2016年人工智能呈现井喷式爆发并大放异彩,这距人工智能概念的首次提出仅过去60年。
1956年,在美国达特茅斯大学召开的学术会议上与会专家学者共同提出人工智能的概念,多年后这场会议被认定为全球人工智能诞生的标志。[1]1956年至今,人工智能的发展可谓起起落落,历经两次从爆发到寒冬的革命性浪潮。第一次浪潮出现于20世纪60年代,在算法方面出现很多世界级的发明,但先天的缺陷导致人工智能在早期发展过程中遇到瓶颈,1974年到1980年人工智能迎来第一次冬天;第二次浪潮出现在20世纪80年代,这段时期人工智能在数学模型方面取得众多突破,但1987年到1993年由于个人电脑的出现,人工智能再次步入寒冬阶段。[2]2016年正值人工智能发展的60年节点,AlphaGo战胜人类顶级围棋高手李世石,成为人工智能迎来第三次浪潮的里程碑事件。第三次浪潮,以大计算能力和深度学习为助推力,人工智能在很多方面都有了突破性进展,为人类探索未知世界之路开启了“无穷大”之门。
(二)通往强人工智能
人工智能可以划分为“弱人工智能”、“强人工智能”以及“超人工智能”。“弱人工智能”只专注于完成某个特别设定的任务,例如语音识别、图像识别和翻译,也包括近年来出现的IBM的Watson和谷歌的AlphaGo,它们是优秀的信息处理者,但却无法真正理解信息。而“强人工智能”系统包括了学习、语言、认知、推理、创造和计划,目标是使人工智能在非监督学习情况下处理前所未见的细节,并同时与人类开展交互式学习。[3]“超人工智能”是指通过模拟人类的智慧,人工智能开始具备自主思维意识,形成新的智能群体,能够像人类一样独自地进行思维。
从当前的人工智能发展水平来看,“强人工智能”尚未实现,但通往“强人工智能”的道路也许并不遥远。近年来,多国先后提出“脑计划”,期望通过计算机技术模拟大脑以探索大脑工作机制。其中,欧盟于2013年提出了全球范围内最重要的人类大脑研究项目-人脑计划(HumanBrainProject,HBP)。该计划耗资近12亿欧元,项目周期为10年,旨在通过计算机技术模拟大脑,建立一套全新的、革命性的生成、分析、整合、模拟数据的信息通信技术平台。人脑计划通过模拟大脑模型来探究大脑的生物构造与其具备的功能性之间的关系,揭示大脑的各个区域如何高效协作形成统一的、多层次功能结构体系。计划在2024年项目的最终阶段,设计出能够模拟人脑运作原理的超级计算机,并促进研究成果的应用性转化。[4]
此外,深度学习海啸正在构建起人工智能的递归循环。作为机器学习的分支,起源于人工神经网络的深度学习,如今不仅仅是具备多层架构的感知器,而是一系列能够用来构建可组合可微分的体系结构技术和方法。具体来说,通过深度学习算法,程序利用数据模型分析大量数据不断地自主学习,并逐渐变的更加强大。当前的深度学习虽然是人类向终极智能探索的一小步,但也许这一小步可能会成为人工智能大爆炸的奇点。基于脑计划的推进以及深度学习的深入开展,人工智能的发展水平正在呈指数增长。可以预见,“强人工智能”就在离我们不远的未来,人工智能的真正威力也将在此展现。“超人工智能”现在看来,似乎遥不可及。但源于未来的无法预知性,对于“超人工智能”更多的人持有恐惧和悲观的心理,担忧比人类更强大的智能群体出现,会导致整个世界的失控甚至人类的毁灭。但也许,实现“超人工智能”后,人类会至此步入一个新纪元也未可知。无论如何,不可否认的一点是,由于科技越发达,科技本身的发展速度就会越快。故而从时间和效率上来看,人工智能的发展速度,一定会远远高于人类自身的进化速度。
(三)进入“人工智能+”时代
社会正在从“互联网+”向“人工智能+”转型。“人工智能+”指让人工智能融入各个传统行业,对行业进行改造,在旧领域创造新业态。“人工智能+”时代,以深度学习等关键技术为核心,以云计算、生物识别等数据或计算能力为基础支撑,推动人工智能在金融、医疗、自动驾驶、安防、家居以及营销等领域将应用场景落地生根,创造出巨大价值。如今,互联网已经发展到了万物互联的阶段,爆发式增长数据引发人们对信息进行有效筛选并合理分配资源的需求。在这种万物皆互联,无处不计算的时代下要进行精准生活,“人工智能+”时代成为必然趋势。未来的人工智能将从专业性较强的领域逐步拓展到生活的各个领域,转变成为通用智能进而推动新一轮的产业革命。
二、人工智能带来的挑战
(一)法律层面
1.产品责任问题
由于科技技术的不完全可靠性以及智能系统存在的先天设计缺陷,产品责任的归责问题伴随人工智能的发展而来,尤其是感知智能领域的产品责任问题。2016年,联合国教科文组织与世界科学知识与技术伦理委员会联合发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的伤害,很大一部分可由民法中产品责任的相关法律进行调整。从这个角度看,机器人造成的伤害很大一部分被归责于机器人制造者和零售商的“过失”、“产品警告的缺失”、“没有尽到合理的注意义务”。[5]
我国《产品质量法》第四十三条规定,因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。但该归责原则可能仅能适用于“弱人工智能”产品。当未来的人工智能出现自主意识和决策能力后,例如自动驾驶汽车做出独立智能决策导致损害发生,应当如何确定侵权主体,由谁来承担侵权责任。甚至于未来会出现以下问题:当机器人具备自主意识后是否会成为民事主体?何为生命?“人”的定义是否会发生变化?“人”与“非人”的界限到底在哪里?这是在此意义上,“人机关系”具备了丰富的内容层次,值得我们进一步去深思去完善立法。
2.隐私保护问题
当万物互联、大数据和机器学习三者叠加后,个人隐私将会成为“奢侈品”,人们或许将不再有隐私可言。人工智能的发展有赖于利用数据训练算法,在这个过程中需要收集、分析和使用大量的数据,数据的价值日益凸显。人工智能时代,用户使用各种应用产品时,本身就是主动的隐私泄密者,任何技术手段的“匿名”或“去身份化”可能都会因为大数据的分析而重新获得“身份”。
智能产品的产业链上有开发商、平台提供商、操作系统和终端制造商、其他第三方等多个参与主体,这些主体均具备访问、上传、共享、修改、交易以及利用用户提供的数据的能力。如何合法合规地收集和使用数据是智能应用产业链上的每个主体要面对的重要问题。但如今用户数据日益聚集在大型互联网或数据处理公司手中,基于商业利益的考虑,这些公司保护用户个人隐私的意愿并不强烈。当前对大数据的利用依然处于“裸露”状态,用户对于数据被非法利用的情况往往是不知情的,导致与数据处理和使用者之间签订的协议成为了“君子协定”,丧失了真正保护用户权益的功能。[6]
值得一提的是,基于当前个人隐私保护的态势,苹果引入了差分隐私的概念,该种算法通过加入虚拟数据,避免数据与特定主体之间建立联系。差分隐私的目标在保护用户身份和数据详情的同时,仍能提炼出一些基本信息用于机器学习,但该算法尚未得到重视,并未大规模的应用到人工智能领域。为了保护用户的隐私权,应当重视新技术新业务领域的个人信息保护问题。在立法层面,明确个人对其信息享有的基本权利,规范企业收集和使用个人信息的行为。
(二)伦理层面
人工智能的发展与普及应用,对于传统社会伦理造成巨大冲击。如果不够谨慎地处理人工智能所带来的伦理问题,将会对未来社会造成严重的伤害。随着人工智能与人类社会的距离越来越近,伦理问题在不断的凸显也愈发尖锐,世界上的主要国家以及相关国际组织对伦理问题高度关注。例如,美国《国家人工智能研究和发展战略计划》中提出,要通过设计提高公平性、透明度和可追责性。要构建人工智能伦理,研究者需要研究出新的算法确保人工智能做出的决策与现有的法律、社会伦理一致。
未来,人工智能伦理框架的构建,可能包括下属的多体系、多层次的判断,例如匹配规则的迅速回应、接收用户信任的社会信号、遵守文化准则等。[7]联合国发布的《关于机器人伦理的研究报告》、标准制定组织IEEE发布的《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》等文件都对人工智能带来的伦理问题进行了深刻地分析。研究者需要研究出新的算法确保人工智能做出的决策与现有的法律、社会伦理一致,这是一项具有挑战性的任务。伦理问题因各国文化、宗教和信仰等的不同而存在差别。伦理难题需要首先解决的是如何将伦理难题准确的翻译为人工智能可以识别的语言,将人的道德和伦理观念嵌入在人工智能中,使其服从甚至具备人的伦理观念。另一个难题是,当面临道德困境时,人工智能如何进行决策。我们需要构建一个可以被广泛接受的伦理框架来指导人工智能系统进行推理和决策。需要强调的是,人工智能的伦理问题本质上是一个哲学问题。人类在研究人工智能的伦理问题时并不是在研究机器的道德和伦理,而是一个借由该问题对人类进行自我探索,对人性进行深度剖析的过程。这一过程是对人类道德的呼唤,是对人性的召唤,更是对“人”的意义和价值的呐喊。
三、人工智能发展建议
(一)人工智能技术标准化
人工智能技术必须满足客观的标准从而保证对安全性、可信赖性、可追溯性、隐私保护等方面的要求。为了更有效的评估人工智能技术,相关的测试方法必须标准化,并创建人工智能技术基准。技术基准包括测试和评价,为标准的制定提供定量测量的要求,同时评估标准的遵守情况。标准的测试方法应该描述人工智能技术评估、比较、管理的方法和程序,包括但不限于:准确性、复杂性、信任和能力、风险和不确定性、可解释性、与人类行为的比较以及经济影响等。我国在发展机器人等相关人工智能产业的同时,可以积极参与国际交流与合作,提升在国际标准制定中的话语权。
(二)加强法律与道德基础建设
随着人工智能技术的快速发展,应当及早建立对法律、伦理问题的早期认识,及时采取相应的立法行动和社会互动行为,确保系统的设计者在合规以及道德的指导下,发展人工智能技术,并建立公众信任机制,推动新市场的开发。故而,人工智能相关产业在发展的过程中应加强跨学科教育和法律与道德的基础建设。在进行基础建设的过程中,不仅应考虑国内法和国际法的规定,还要顾及不同的伦理和文化观点的差异性,以及社会期望等因素。
(三)政府监管人工智能技术的发展
考虑到人工智可能带来的潜在破坏性影响,如果政府能够准确及时地监控和预测人工智能技术的发展,尤其是人工智能技术的里程碑式突破,便可让人工智能系统不间断地处于人类监管干预模式之下,防止人工智能技术出现失控性的发展情况,保障人工智能技术为人类所用。此外,人工智能相关行业应该和政府合作,及时向政府反馈行业的最新发展动态,包括近期可能在技术上取得的重大突破。
参考文献(略)
作者简介
杨婕,中国信息通信研究院互联网法律研究中心助理研究员。