在马斯克担心终结者的时候我们到底该如何用

清洗/清理设备2019年10月01日

  来源:界面作者:田思奇

  图片来源:视觉中国

  人工智能(ai)技术的快速更新正为各行各业带来天翻地覆的变化,战争和武器也不例外。每一项技术革新仿佛都伴随着道德窘境的出现,而创造出人工智能的人类,也必须抓紧时间斟酌如何规范其使用。

  7月18日, 钢铁侠 埃隆·马斯克、谷歌旗下人工智能企业deepmind的创始人等多位科技界大佬在一场人工智能联合会议上作出承诺,宣布 不参与、不支持开发、制造、交易或使用致命性自主武器 。签署者一致认为,剥夺人类生命的决定不可能拜托给1台机器。

  在这场会议举行前,许多美国科技公司也由于向政府或军方提供了人工智能技术支持而受到抨击。这些案例包括谷歌帮助美国国防部分析无人机画面、亚马逊与执法机构分享人脸识别技术、微软正在为移民和海关执法局(ice)提供服务等等。

  美国国防部所在地五角大楼

  会议主办方生命未来研究所(future of life institute)认为,这份协议意味着有关人工智能安全性的讨论终于落到实处。研究所主席泰格马克(max tegmark)在声明中表示:

  能够自主决定杀人的人工智能武器就和生物武器一样令人作呕且不够稳定,当然要以一样的方式处理掉。

  事实上,人工智能 或者所谓的自动化技术已和人类共存了很长时间。哈佛大学《人工智能与国家安全》研究报告的作者格里高利·艾伦近日在第七届世界和平论坛上介绍说,最早的飞机自动驾驶技术在19 0年代就开发出来了。到目前为止,所谓的自动化已经有了近100年的历史。

  同时,自动化从诞生起就被应用到军事行动中。最早正是美军在二战期间使用自动驾驶技术来完成调剂试用,用于诺登投弹瞄准器 一种可以自动飞行并投掷炸弹的自动驾驶系统。

  在当代社会,人工智能概念最显著的更新是纳入了机器学习因素。艾伦介绍说,之前的计算机自动化技术是由人类手工编程的逻辑指令,而人工智能可以根据机器学习的算法和训练数据自主编程。当先进的算法、海量的数据和先进的算力这三者结合起来,自动化系统便会威力倍增。

  经过几十年的信息技术发展,第三次工业革命解决了连接的问题 包括人与信息的连接、人与商品的连接、人与人的连接。而人工智能的出现进一步解决了连接后的根本性问题。

  科大讯飞高级副总裁江涛在世界和平论坛上举例说,协和医院最好的医生可以很方便地跟世界各地的患者连接在一起。但这依然没有解决根本的看病问题,连接以后的处理还要靠人的大脑,即专家的知识和经验。​但人工智能的出现进一步帮助人类处理后续问题,比如人工智能系统去年已通过国家医师资格考试,可以作出辅助诊断,提高医生的劳动生产率。

  2017年通过国家执业医师考试的 智医助理

  犹如电子技术一样,人工智能技术具有跨行业的性质,在多个领域为人类生活作出极大的改良。另一方面,电子技术除带来电报和等发明,电引信也在战争中发挥了重要作用。类似地,对人工智能来讲,其本身正暴露出巨大的安全隐患,也并非所有运用都在道德上为人所接受。

  从其本身来看, 60集团副总裁贺劲松指出,人工智能所依赖的各类传感器、训练数据、深度学习模型和软件,都存在着一定的安全隐患。给它一组数据,它就可以引发安全问题,比如安全研究人员在试验环境下干扰特斯拉的无线感应器,使得特斯拉直接撞上了前方50厘米的障碍物;利用被污染过的图片就能轻易地就让人工智能学习系统把一条狗辨认成一只猪等等。

  作为一个全新的安全博弈舞台,人工智能在给生活带来便捷的同时,也给国际安全带来了新的威逼,贺劲松举例说,人工智能极大地增强了络情报的分析搜集能力,使络间谍活动更加精准有效,同时下降了络武器的制作本钱。目前,人工智能还能用于络的歹意删帖、刷帖,合成虚假的音视频,影响人类正常的生活秩序。

  人工智能初创公司地平线创始人余凯警告称:

  算法可以控制人的思想,这是史无前例的事情。我们本来应当是宇宙当中的超级气力,我们可以控制其他的东西,而不会说被机器控制。而现在算法就已在操纵,乃至是洗脑我们人类 根本的威逼在于,算法会自行来决策。它们如此之聪明我们怎样控制他们呢?

  但另一方面,倘若要从技术层面思考规避风险的措施,首先还要认识到人工智能技术的局限性。

  余凯也进一步澄清说,人工智能还处在非常初期的阶段,神经络和深度学习也极为初步:

  (人工智能)跟婴儿相比都是很蠢的。比如我的儿子在1岁的时候就很容易地分辨出米老鼠和其他不同的动物。但如果想要训练神经络去学习猫的种别,可能就需要很多万个数据去训练系统。

  科大讯飞高级副总裁江涛也表示:

  它会计算,但不会算计,它没有全局观、没有世界观、没有自主意识,在当前的演进路线上,我们还是看不到未来机器具有自主意识的这种可能性,除非将来对脑科学和神经科学上获得重大突破以后(才能实现),但是什么时候能做到,现在根本没有人能预测。

  贺劲松认为,安全应当贯穿到人工智能发展的全链条、全流程,鼓励推出人工智能安全的公共服务平台,展开人工智能的恶意滥用与体系对抗的评估研究,并加强人工智能海量数据的安全防护,避免用户隐私的信息泄漏。

  现在的人工智能系统愈来愈多地使用了用户的指纹、声纹、脸部特点甚至行迹轨迹等个人信息展开学习和训练,人工智能越来越聪明,就使我们的个人信息如同 裸奔 。而人工智能的发展不能以牺牲用户的隐私权为代价,它的搜集要实现知情,选择权在用户,使用则严格受到保护,这应该是人工智能时期隐私安全的重要的基本原则。

  针对能否识别络攻击来源的问题,贺劲松认为,区分黑客攻击和国家攻击是有可能的,由于有组织的或有预谋的攻击更多的是延续的攻击,而黑客的攻击很多是偶然性、偶发性的,通过溯源基本可以分清是组织攻击还是国家攻击。

  艾伦也指出,类似的追溯能力在过去5年得到了很大的提高。不过人工智能在监管方面确实比其他技术更困难。制定国际规则时要考虑技术、本钱、监测的难度和手段,以及商业和军用技术之间的异同。例如昂贵的技术只有国家或非常高素质的人才能用,那末就比较容易分辨,但人工智能人材都在企业,标准化产品用起来也便宜,所以规制人工智能,尤其是在战争中的使用,从技术角度来讲可以实现,但挑战重重。

  因此,艾伦认为,人们要汲取之前技术革命的经验教训,在发展人工智能的同时更好地实现世界和平。比如冷战时期的卫生侦查就是一个正面实例。《禁止生物武器公约》也是如此 既要发展,同时又能够缓解生物技术的威逼,这便是国际社会对人工智能发展可以汲取的先例。

  而清华大学计算机教授张钹的观点是,人工智能安全问题存在过度政治化。

  实际上在人工智能安全问题上有很多人类共同的利益。当前最大的安全问题就是人工智能系统非常脆弱,而且攻击的代价很低,防守起来很困难 全世界都要团结起来共同来解决这个问题,由于这个问题不解决,对任何一个国家都是不安全的 而不是想利用这个安全问题来攻击哪个国家。

  科大讯飞高级副总裁江涛还指出,当前的重点是让大众了解人工智能时代中人和机器的关系,让普通大众和政府都认识到人工智能和人类该如何协同,避免因为恐惧和不了解而致使过分的保守。

  在江涛个人看来,欧盟在今年5月开始实行的《一般数据保护条例》(gdpr)就显得过于守旧,一定程度上阻碍了人工智能的发展。他表示:

  未来人工智能时代的人机关系会是什么样的?我觉得一定是人机协同的:人类有情感、有智慧、有 ;机器算得快,能够快速统计、分析、计算。这些结合起来就能为人类带来巨大的进步。未来的人工智能时期,比人类更强大的不是人工智能,而是掌握人工智能的人类。

九个月宝宝吸收不好怎么办
幼儿厌食怎么办
小儿厌食挑食不吃饭怎么办
相关阅读
湖北:武穴良嫂跳江轻生,女选手给女子买房开店,3个孩子令人心疼

同甘易于共约苦枉,相知易于相守枉 不知道大家发现没人有,一辈子都很平...

2024-07-23
Polycom宝利通soundstation2基本型/标准型/引入型八爪鱼会议电话简要说明书

近期杭州利旺智能科技合资集团浙江视频决议网易收到苏州市一企业客户咨询...

2023-11-12
情感之公事,合则双利

最后往往都是爱得最深的那个人中枪,因为太爱,所以会疼。爱一个人久了,...

2023-10-23
佩服!他文革时开始环游世界,自驾中东欧9个国家,50多年一直在路上

这是停下来吧网络推送至的第250个与众不同的旅者故事 本期来宾:宋显露宋...

2023-10-21
评论丨启功书法赝品印上北大学生证,一个尴尬的隐喻

批评家丨德馨鉴赏真品标明清华会员卡,一个惊愕的意涵 清华的这本会员...

2023-10-19
乌鲁木齐小学将眼健康科普搬进课堂:常态呵护孩童“心灵的窗户”

6月初,榆林市七里河学校教育集团“海马生活品质人口为120人军事设施”破...

2023-10-07
友情链接