在马斯克担心终结者的时候我们到底该如何用好人工智能烧结网

2019-10-09 02:09

来源:界面新闻作者:田思奇

图片来源:视觉中国

人工智能(ai)技术的快速更新正为各行各业带来翻天覆地的变化,战争和武器也不例外。每一项技术革新似乎都伴随着道德困境的出现,而创造出人工智能的人类,也必须抓紧时间考虑如何规范其使用。

7月18日,“钢铁侠”埃隆·马斯克、谷歌旗下人工智能企业deepmind的创始人等多位科技界大佬在一场人工智能联合会议上作出承诺,宣布“不参与、不支持开发、制造、交易或使用致命性自主武器”。签署者一致认为,剥夺人类生命的决定不可能委托给一台机器。

在这场会议举行前,许多美国科技公司也因为向政府或军方提供了人工智能技术支持而受到抨击。这些案例包括谷歌帮助美国国防部分析无人机画面、亚马逊与执法机构分享人脸识别技术、微软正在为移民和海关执法局(ice)提供服务等等。

美国国防部所在地五角大楼

会议主办方生命未来研究所(future of life institute)认为,这份协议意味着有关人工智能安全性的讨论终于落到实处。研究所主席泰格马克(max tegmark)在声明中表示:

能够自主决定杀人的人工智能武器就和生物武器一样令人作呕且不够稳定,当然要以同样的方式处理掉。

事实上,人工智能——或者所谓的自动化技术已经和人类共存了很长时间。哈佛大学《人工智能与国家安全》研究报告的作者格里高利·艾伦近日在第七届世界和平论坛上介绍说,最早的飞机自动驾驶技术在1930年代就开发出来了。到目前为止,所谓的自动化已经有了近100年的历史。

同时,自动化从诞生起就被应用到军事行动中。最早正是美军在二战期间使用自动驾驶技术来完成调整试用,用于诺登投弹瞄准器——一种可以自动飞行并投掷炸弹的自动驾驶系统。

在当代社会,人工智能概念最显著的更新是纳入了机器学习因素。艾伦介绍说,之前的计算机自动化技术是由人类手工编程的逻辑指令,而人工智能可以根据机器学习的算法和训练数据自主编程。当先进的算法、海量的数据和先进的算力这三者结合起来,自动化系统便会威力倍增。

经过几十年的信息技术发展,第三次工业革命解决了连接的问题——包括人与信息的连接、人与商品的连接、人与人的连接。而人工智能的出现进一步解决了连接后的根本性问题。

科大讯飞高级副总裁江涛在世界和平论坛上举例说,协和医院最好的医生可以很方便地跟世界各地的患者连接在一起。但这仍然没有解决根本的看病问题,连接以后的处理还要靠人的大脑,即专家的知识和经验。?但人工智能的出现进一步帮助人类处理后续问题,比如人工智能系统去年已经通过国家医师资格考试,可以作出辅助诊断,提高医生的劳动生产率。

2017年通过国家执业医师考试的“智医助理”

如同电子技术一样,人工智能技术具备跨行业的性质,在多个领域为人类生活作出极大的改善。另一方面,电子技术除了带来电报和电话等发明,电引信也在战争中发挥了重要作用。类似地,对于人工智能来说,其本身正暴露出巨大的安全隐患,也并非所有应用都在道德上为人所接受。

从其本身来看,360集团副总裁贺劲松指出,人工智能所依赖的各类传感器、训练数据、深度学习模型和软件,都存在着一定的安全隐患。给它一组数据,它就可以引发安全问题,比如安全研究人员在试验环境下干扰特斯拉的无线感应器,使得特斯拉直接撞上了前方50厘米的障碍物;利用被污染过的图片就能轻易地就让人工智能学习系统把一条狗识别成一只猪等等。

作为一个全新的安全博弈舞台,人工智能在给生活带来便捷的同时,也给国际安全带来了新的威胁,贺劲松举例说,人工智能极大地增强了网络情报的分析收集能力,使网络间谍活动更加精准有效,同时降低了网络武器的制作成本。目前,人工智能还能用于网络的恶意删帖、刷帖,合成虚假的音视频,影响人类正常的生活秩序。

人工智能初创公司地平线创始人余凯警告称:

算法可以控制人的思想,这是前所未有的事情。我们本来应当是宇宙当中的超级力量,我们可以控制其他的东西,而不会说被机器控制。而现在算法就已经在操纵,甚至是洗脑我们人类……根本的威胁在于,算法会自行来决策。它们如此之聪明我们怎么控制他们呢?

但另一方面,倘若要从技术层面思考规避风险的措施,首先还要认识到人工智能技术的局限性。

余凯也进一步澄清说,人工智能还处在非常早期的阶段,神经网络和深度学习也极为初步:

(人工智能)跟婴儿相比都是很蠢的。比如我的儿子在一岁的时候就很容易地分辨出米老鼠和其他不同的动物。但如果想要训练神经网络去学习猫的类别,可能就需要很多万个数据去训练系统。

科大讯飞高级副总裁江涛也表示:

它会计算,但不会算计,它没有全局观、没有世界观、没有自主意识,在当前的演进路线上,我们还是看不到未来机器具备自主意识的这种可能性,除非将来对于脑科学和神经科学上取得重大突破之后(才能实现),但是什么时候能做到,现在根本没有人能预测。

贺劲松认为,安全应该贯穿到人工智能发展的全链条、全流程,鼓励推出人工智能安全的公共服务平台,开展人工智能的恶意滥用与体系对抗的评估研究,并加强人工智能海量数据的安全防护,防止用户隐私的信息泄露。

现在的人工智能系统越来越多地使用了用户的指纹、声纹、面部特征甚至行踪轨迹等个人信息开展学习和训练,人工智能越来越聪明,就使我们的个人信息如同“裸奔”。而人工智能的发展不能以牺牲用户的隐私权为代价,它的收集要实现知情,选择权在用户,使用则严格受到保护,这应该是人工智能时代隐私安全的重要的基本原则。

针对能否识别网络攻击来源的问题,贺劲松认为,区分黑客攻击和国家攻击是有可能的,因为有组织的或者有预谋的攻击更多的是持续的攻击,而黑客的攻击很多是偶然性、偶发性的,通过溯源基本可以分清是组织攻击还是国家攻击。

艾伦也指出,类似的追溯能力在过去五年得到了很大的提高。不过人工智能在监管方面确实比其他技术更困难。制定国际规则时要考虑技术、成本、监测的难度和手段,以及商业和军用技术之间的异同。例如昂贵的技术只有国家或者非常高素质的人才能用,那么就比较容易分辨,但人工智能人才都在企业,标准化产品用起来也便宜,所以规制人工智能,尤其是在战争中的使用,从技术角度来说可以实现,但挑战重重。

因此,艾伦认为,人们要汲取之前技术革命的经验教训,在发展人工智能的同时更好地实现世界和平。比如冷战时期的卫生侦查就是一个正面实例。《禁止生物武器公约》也是如此——既要发展,同时又能够缓解生物技术的威胁,这便是国际社会对于人工智能发展可以汲取的先例。

而清华大学计算机教授张钹的观点是,人工智能安全问题存在过度政治化。

实际上在人工智能安全问题上有很多人类共同的利益。当前最大的安全问题就是人工智能系统非常脆弱,而且攻击的代价很低,防守起来很困难……全世界都要团结起来共同来解决这个问题,因为这个问题不解决,对任何一个国家都是不安全的……而不是想利用这个安全问题来攻击哪个国家。

科大讯飞高级副总裁江涛还指出,当前的重点是让大众了解人工智能时代中人和机器的关系,让普通大众和政府都认识到人工智能和人类该如何协同,避免因为恐惧和不了解而导致过分的保守。

在江涛个人看来,欧盟在今年5月开始实行的《一般数据保护条例》(gdpr)就显得过于保守,一定程度上阻碍了人工智能的发展。他表示:

未来人工智能时代的人机关系会是什么样的?我觉得一定是人机协同的:人类有情感、有智慧、有激情;机器算得快,能够快速统计、分析、计算。这些结合起来就能为人类带来巨大的进步。未来的人工智能时代,比人类更强大的不是人工智能,而是掌握人工智能的人类。

云浮厂服定制

珠海T恤定做

南雄工装定做

雷州职业装厂

相关阅读
挂在电线杆上的共享单车成了最疯狂的行为艺术酒版

挂在电线杆上的共享单车,成了最疯狂的行为艺术2018-12-27 11:30来源:差评//原标题:挂在电线杆上的共享单车,成了最疯狂的行为艺术欢迎关注我就在国内的共享单车开始一批一批相继倒下之时,美国的共享电滑板却像是一批凛冬

2020-07-10 18:36
隐形冠军有一双隐形的翅膀带工程机械飞向美好远方洗衣机

【慧聪网原创报道】现在已近2018年9月了,在前八个月的时间里,已经出炉了各种各样的工程机械行业评选榜单,我们不难发现,就世界范围内的工程机械企业,排名靠前的无外乎是我们耳熟能详的那些企业,像彼勒、小松、日立

2020-07-10 18:29
低场核磁共振国产仪器发展纽迈分析高层及嘉宾群访录筛滤器

仪器信息网讯作为一家国产科学仪器企业,苏州纽迈分析仪器股份有限公司(以下简称:纽迈分析),始终聚焦低场核磁共振技术及相关应用解决方案的研究,致力于国产低场核磁共振科学仪器事业的发展。从艰难的创业之初,到目

2020-07-10 18:25
机械手对于塑料机械行业影响深远套装

实现工业4.0,实现中国制造2025是中国工业发展的重要方略,而传统的制造业也正在向工业自动化发展,在很多繁琐、危险的工作环境中,自动机器人已经开始顶替人工进行操作,而则是机械化、自动化生产进程中的一种新的装置

2020-07-10 18:20
国家安监总局徐绍川一行到陕汽调研驱动板

6月13日,国家安监总局党组成员、副局长徐绍川,国家安监总局一司副司长刘瑾一行到陕汽商用车产业园调研。陕汽控股党委副书记、总经理王延宏,副总经理朱春雷等领导在公司董事会会议室与到访人员座谈交流。王延宏首先

2020-07-10 18:17
中国重汽成都王牌产品销量同比增长23彩印机

中国重汽成都王牌公司2017年产销目标5.33万辆,截止4月底中重卡、轻卡自卸、轻卡载货、专用车、微卡、新能源车、出口销售同比增长23%,高于行业增幅4.2个百分点。重汽王牌公司2016年以“精品创造未来”的品牌主张,深耕市场

2020-07-10 18:17
友情链接