AI能干什么坏事?全球14家机构专家发百页报告:警惕人工智能(附全文下载)

-回复 -浏览
楼主 2019-04-12 06:51:41
举报 只看此人 收藏本贴 楼主


 小编微信:13621300467   欢迎投稿:13621300467@139.com


【免责声明】:本公众号对转载、分享的内容、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示的保证,仅供读者参考,并请承担全部责任!

【版权声明】:图文转载于网络,版权归原作者所有,仅供学习参考之用,禁止用于商业用途,如有异议,请联系本公众号删除。

 

转自:新软件 ccidsaism

任何事物都存在两面性,AI也不例外。


AI技术迅速发展的同时,也会像其他强大技术一样,成为一柄双刃剑。无人车、无人机、视频生成……这些AI应用在让人类社会激动万分的同时,也有可能带来前所未有的灾难。比如,AI合成声音电话雷索;比如,无人车被恶意操控……这并不是危言耸听。


2月20日,26位来自牛津大学、剑桥大学、OpenAI、电子前沿基金会(一个非营利数字版权组织)、新美国安全中心(一家美国智库)等多个研究机构的研究人员发布了一份AI预警报告《人工智能的恶意使用:预测、预防和缓解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),他们认为,这项技术可能在未来5到10年催生新型网络犯罪、实体攻击和政治颠覆。(返回上一级后台回复数字“0016”即可下载报告PDF全文

报告写道:“随着人工智能越来越强大,越来越普及,我们预计人工智能系统的广泛应用将导致现有威胁的扩大,还会引发新的威胁,甚至改变典型的威胁特征。”他们还警告称,由于人工智能可以扩大规模,并减轻人类的负担,所以攻击成本也会大幅降低。类似地,由于可以借助这种系统来完成人类通常难以完成的任务,所以也有可能出现新的攻击。


在这份101页的报告中,研究人员描述了不少假想的未来场景,虽说是假想,但我们距离这些危险,只有一步之遥。

投其所好的钓鱼攻击

其实,在网络世界中威胁早已无处不在,有了AI的帮助,这些威胁会以更隐蔽、更“个性化”的方式出现。比如,未来黑客偷走你重要用户名、密码的方式,可能会非常“用户友好”。  

  报告里,描述了这样一个假想场景:有一位大厦安全系统管理员Jackie,上班的时候嘛,谁都难免刷刷微信上上微博,歪果仁嘛,就难免要看几眼facebook。刷着刷着,Jackie眼前一亮,一套火车模型的广告出现在信息流中,还附带使用手册。迷恋火车几十载,怎么能错过这样的好东西!下载、打开,只需要一分钟。而这背后,可能就是黑客精心设的局了。AI能够从她日常发布的点点滴滴动态、照片中分析出她的喜好,知道她和谢耳朵一样为火车痴狂。为她设计这样一个小册子,再投个feed流广告,可以说是投其所好、水到渠成……地拿到了她管理大厦安全系统的用户名和密码。防不胜防。

更聪明的自动化病毒

去年春天WannaCry病毒席卷全球,它能够自我复制、主动传播,向10万多台电脑发出了勒索。未来的自动化病毒,会比WannaCry难对付得多。WannaCry的传播方式,是寻找网络中开放的445端口,也就是说,它的自动化传播依靠人类制定出来的规则。如果病毒能够自主发现各类软件的漏洞,那么后果可想而知。自主发现软件漏洞的技术,其实已经存在了,不少大公司、政府机构都利用这类技术来维护自身软件系统的安全。  

于是,就有东欧黑客集团利用类似的技术,搞出了一个WannaLaugh,后果会比WannaCry惨烈得多:WannaLaugh激活之后,一边利用已知漏洞感染计算机,一边源源不断地发现着新漏洞。当然,防御完善的计算机可以幸免于难,但这毕竟只是少数,稍微旧一点的手机、电脑、智能设备通过各种新老漏洞,逐一被病毒控制。这一次,被勒索的肯定不止10万台。

你身边的机器人,都是武器

商用无人机、无人车、机器人普及,毫无疑问会带来很大便利。不过,这种便利是我们的,也是犯罪分子的。比如说,以后的暗杀可能根本不需要出动人类。  

报告中这一假想场景的主要受害人是德国财政部长:某年,一台SweepBot清扫机器人悄悄潜入了德国财政部地下车库,等待着同类的接近。财政部每天清扫办公室,用的正是这个品牌的机器人。两台财政部自己的SweepBot清扫车库时,外来的潜伏者抓住了机会,跟在它们后边,大摇大摆地进了电梯,混进了杂物间的一大群SweepBot之中。潜入进来的清扫机器人和往常一样,打扫着财政部的办公楼。这时,财政部长从它身边走过。SweepBot附带的人脸识别系统一下子就认出了它,也激活了接下来的任务。扑向他,引爆内置的炸弹。清扫机器人销量巨大,它背后的人类主使是谁几乎无处可查。当然,如果黑进无人出租车搞一次类似的事件,也是一样的天衣无缝。只要机器人改装完毕、程序设定完成,何时启动、如何完成任务,就再也不需要人类来操心了。

为了缓解这些威胁,该报告给出了5点建议:

● 人工智能和机器学习研究人员应该承认其研究成果是双刃剑。

● 政策制定者应该与技术人员密切合作,调查、预防和缓解人工智能可能的恶意使用方式。

● 应该向电脑安全等其他高风险技术领域学习一些方法,将其应用于人工智能领域。

● 应该在这些领域优先形成规范和道德框架。

● 讨论这些挑战时所涵盖的利益相关者和专家范围应该扩大。


除此之外,报告研究者还认为,应该“重新思考”网络安全,并对制度化和技术性解决方案展开投资。他们还表示,开发者应该形成“责任文化”,考虑数据共享和开放性所带来的力量。


不过,也有人认为报告夸大了我们面临的威胁。网络安全公司High-Tech Bridge CEO伊拉·克罗琴科(Ilia Kolochenko)认为应该明确区分强人工智能和日常所说的人工智能,前者的确可以取代人类大脑。他表示,犯罪分子已经使用简单的机器学习算法来提升攻击效率,但这些措施之所以能够成功,是因为基础安全性不足以及组织内部的疏忽所致。机器学习只是扮演了“辅助加速器”的角色。


他还补充道,人工智能还可以用于更加高效地对抗网络攻击。另外,人工智能技术的发展往往需要展开长期的高额投入,这是“黑帽黑客”通常无法承担的。因此,他不认为数字领域会因此面临实质性的风险和革命——至少5年内不会。




我要推荐
转发到