[导读] 当AI越来越懂人类时,大家担心,自己会不会变成“透明人”?AI能为人类创建一个安全可信的智能未来吗?未来,AI会掌控世界吗?当AI掀起一波又一波的热潮,对于AI带来的不安全性、不稳定性以及威胁性,人们也越来越关注。

当AI越来越懂人类时,大家担心,自己会不会变成“透明人”?AI能为人类创建一个安全可信的智能未来吗?未来,AI会掌控世界吗?当AI掀起一波又一波的热潮,对于AI带来的不安全性、不稳定性以及威胁性,人们也越来越关注。在2018世界人工智能大会安全高端对话论坛上,一系列关于AI安全的问题被抛出,而在论坛上正式发布的《人工智能安全发展上海倡议》中,也提出了应对人工智能安全风险应对和未来发展的建议。人工智能是一把双刃剑,要用新的“游戏规则”让新技术与人类文明形成良性互动。

Part.1

应对智能机器的权利进行限制

不可否认,AI极大地解放了社会生产力,从各个角度为生活带来更多的便利。但同时,也因为AI技术的不成熟和管理模式的不完善,人工智能安全事件频发,衍生出一系列伦理、法律和安全难题,这是人工智能发展过程中无法回避的问题。一方面,人类在不断设计出一代又一代更为先进的“智能”,另一方面,却又小心翼翼地警惕着人工智能的“背叛”。

人类的规范、道德和AI是一对“矛盾体”,在众多专家看来,在人工智能研发全过程中,需要优先设计安全与伦理问题,将人类规范和道德价值嵌入人工智能系统,最大限度的消除人工智能不利影响,为人类创建一个安全可信的智能未来。

爱因斯坦、达芬奇等都是高智商的代表,而有了智能的机器人,IQ值会远远超出人类,据预测,随着计算机智能程度的不断提高,20年后人工智能的IQ将达到10000,而且在数量上也将全面赶超人类。

未来如果人工智能拥有和人类相似的感知,是否也应当和人类一样拥有一定的权利?百度CEO李彦宏在本届世界人工智能大会上表示,AI伦理必须坚持四个原则:AI的最高原则是安全可控;AI的创新愿景是促进人类更平等地获取技术和能力;AI的存在价值是教人学习,让人成长,而非超越、替代人;AI的终极理想是为人类带来更多自由与可能。

人工智能也许不具有人类的价值观和情感,但AI仍需构建自己的伦理体系。峰桥集团总裁陈实表示,各国都应重视对人工智能安全伦理规范的思考,将技术发展与社会伦理置于相同的环境下充分思考,减小人工智能带来的伦理冲击,保证人工智能在全世界共同的伦理规范内健康发展。“人类赋予智能机器某些权利是合理的,智能机器应该拥有得到尊重的道德权利。不过,在赋予智能机器某些权利的同时,我们更应该对智能机器的权利进行限制,以确保人工智能机器对人类是友好的。”

Part.2

AI造就“透明人”

华东政法大学人工智能与大数据指数研究院院长高奇琦曾提出“透明人”的概念,他说未来的人都是透明人,这是无法阻挡的趋势。“如果有心人专门去搜集你在微信朋友圈、微博及其他社交工具上留下的信息和痕迹,很容易就得到个人隐私数据。”高奇琦告诉记者。

近年来,关于数据泄露的报道时有发生,比如最近发生的华住酒店泄露用户隐私、脸书5000万用户的个人信息被英国剑桥分析公司窃取等,在大数据面前,人类几无隐私可言。但是,大数据的应用又和人工智能紧密关联,因此,谁拥有大数据的所有权、使用权、由谁来负责大数据的监管以保证其被合理合法使用、如何保护隐私和信息安全等就成为人工智能时代极其棘手的问题。

碁震KEEN公司创始人王琦表示,在人工智能时代,使用数据是不可避免的,而且信息泄露也并非是人工智能时代独有的问题。“但如果到了人工智能时代不加以约束的话,后果要严重得多。”王琦表示,他自己非常介意在使用各种智能设备时要开启摄像头等各种权限,但是不赋予权限就没法使用,物联网可能使个人随时处在智能设备的监控之下。

如何解决这个问题?需要从法律层面和技术层面共同解决。“法律能让厂商在研发过程中更注重安全,也能提高违法成本。用法律的手段让人工智能行业的从业者加强自律,保持敬畏之心。”王琦说,上海优刻得信息科技公司CEO季昕华表示,需要技术手段对人工智能进行约束,“让AI可以分析数据,但是不获取数据,这应该是技术层面努力的方向”。

对此,王琦认为,其公司在进行漏洞攻击时,经常需要采集各种数据,采集之后会对数据进行脱敏处理,“但是如果用人工智能的‘眼光’审视这些脱敏数据,就真的安全吗?人工智能就一定不会从脱敏数据中推测出关键性的结论吗?现在还很难判断。”

Part.3

用AI打击黑产

人工智能时代,网络安全形势更加严峻和复杂,但人工智能技术也能在网络安全漏洞检测、恶意软件识别、不良信息智能审核、防范网络犯罪等方面发挥独特作用。可以说,人工智能也在赋能网络安全。

当下的新型网络安全态势感知的基本原理是利用数据融合、数据挖掘、智能分析和可视化等技术,实时直观地显示网络安全状态,并对网络安全趋势做出预测,为网络安全威胁预警和防护提供参考。“人工智能在安全态势感知系统的运用主要分为五个步骤,第一步是提取网络中的安全设备(如防火墙)、网络设备(如路由器、交换机)、服务和应用(数据库、应用程序)的数据,对数据进行标准化和修订以及标注事件基本特征等;第二步是对在传感器采集环境中获取的数据做去噪、杂质过滤等预处理;第三步融合不同来源的数据;第四步选择人工智能算法进行态势识别、态势理解和态势预测;最后一步完成关联分析和态势分析,形成的态势评估结果以分析报告和综合网络态势图呈现,辅助决策。” 腾讯安全管理部高级总监毛晟斌说。

以腾讯守护者计划为例,其基于AI人工智能和神经网络的分析能力,引入多维度的动态验证机制对抗相关黑产。去年,守护者计划安全团队利用上述技术协助警方打击“快啊答题”“光速打码”这两个国内最大的使用人工智能神经网络破解识别验证码的打码平台黑产团伙。

Part.4

“应给人工智能配刹车”

正如中科院院士何积丰所说,技术是中性的,“人工智能能对恶意代码进行预测和破解,但是也能成为开发工具的漏洞,此外,人工智能算法具有不确定性,通常我们不知道人工智能怎么工作、怎么得出结果。”

虽然人工智能在各个领域如同声传译、写新闻稿、协助医生看病、战胜围棋世界冠军等让人类刮目相看,但在何积丰看来,如果把人工智能分为弱人工智能、通用人工智能和强人工智能,当下勉强可以算得上是通用人工智能。

中国信息通信研究院发布的《人工智能安全白皮书》显示,在人工智能相关的政策法规、标准规范上,目前各国大多处于建设初期或研究阶段。

中国信息通信研究院安全研究所高级工程师牛金行介绍说,以无人驾驶为例,美国、德国都将安全作为自动驾驶第一准则,但均未形成统一的安全评测标准体系和方法。同时,各国政府目前多数靠约束企业自身开展测试验证工作,缺乏独立的第三方评测认证机构。除了要解决人工智能使用中基本的安全问题外,使用者与服务提供者的责任界定也应予以明确界定。

去年7月,国务院在印发的《新一代人工智能发展规划》中提出,到2020年,我国人工智能核心产业规模超过1500亿元,带动相关产业规模超过1万亿元。此外,人工智能的“独角兽”不断涌现。

人工智能能为保障国家网络安全等提供新手段和新途径,但在应用落地过程中,因为技术的不确定性,会产生诸多的挑战。在上海国际问题研究院全球治理研究所副研究员鲁传颖看来,应该给人工智能配刹车,让产业更快更稳。

免责声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场。若有侵权或异议请联系我们处理。

相关推荐