参考消息网9月7日报导英媒文章称之为,人工智能技术的军事化,正在让世界更加危险性。英国《经济学人》周刊9月7日公布的为题《人工智能与战争》的文章称之为,世界大国之间的竞争牵涉到很多方面,最令人担忧、但人们最不理解的一个方面是,用于人工智能的战争。大国都在对军事化的人工智能投放巨资,从自动化机器人到在战争白热化时为将领们获取较慢战术建议的软件,任何一方都不期望落在后面。
正如五角大楼人工智能事务负责人上个月所说:“我不期望看见的是,未来我们潜在的输掉享有一支几乎构建人工智能的部队,而我们却没。”文章指出,不具备人工智能的武器可以获取超人的速度和精确度,但它们也有可能超越力量均衡。为了取得军事优势,军队不仅将用于它们引荐决策,而且还让它们需要发布命令命令。
这可能会产生令人担忧的后果。需要以比人类更慢的速度思维的人工智能指挥系统可能会促成导弹以没时间展开外交活动的节奏对航母和空军基地展开压制,而且其方式会几乎被操作者人员所理解。最重要的是,人工智能系统可能会被黑客侵略,并被数据操控。
在20世纪,世界最后寻找了掌控军事技术方式改变——即核弹的经常出现——的方法。全球灾难是通过三种办法的后用才以求防止的:威慑、军备掌控和安全措施。
许多人正在为人工智能找寻这样一个模板。意外的是,它的用途受限——而且某种程度是因为这项技术是新技术。
未来人工智能技术军事化应用于示意图(美国国防部网站)威慑的基础是一种共识,即如果动用核弹,将对双方包含灾难性风险。但人工智能包含的威胁不那么可怕,也不那么明晰。它可能会协助突袭或惨败它们,丧生人数有可能从零到数百万平均。某种程度,世界大战时期的军备掌控依赖透明度,也就是有一定信心地告诉对方究竟在干什么的能力。
与导弹升空井有所不同,无法通过卫星来监控软件。敌人可以探察到核弹头,但它们的威力会被巩固。不过,向外界展出一种算法却有可能毁坏软件的有效性。
双方可能会竭力误导对方。领导美国与苏联世界大战时期军控希望的亨利·基辛格说道:“输掉对人工智能研发配备的幼稚将沦为战略优势。
”这就只剩最后的掌控——安全措施。核武库牵涉到简单的系统,再次发生事故的风险很高。
早已制订了一些协议,以保证武器在予以许可的情况下是无法用于的,比如自动防护装置,这意味著炸弹如果被过早投入,就会爆炸。必须更加多思维类似于的措施如何限于于人工智能系统,特别是在是那些代为在恐慌和前景不明朗的战场上指挥官军队的人。英媒评论称之为,这些规则必需反映的原则是直截了当的。
人工智能必需体现人类价值观,比如公平,并且需要灵活性应付奇袭之计。至关重要的是,要想要确保安全,人工智能武器必需尽量明晰清了,这样人类才能明白它们是如何决策的。
在世界大国之间的对付中,欲望将是为了继续的利益而走捷径。到目前为止,完全没迹象指出这些危险性获得了充足推崇——尽管五角大楼的人工智能中心正在雇佣一名伦理学家。把战争留下计算机将使世界显得更为危险性。
本文来源:jbo竞博-www.r6stats.cn
Copyright © 2002-2024 www.r6stats.cn. jbo竞博科技 版权所有 备案号:ICP备81781073号-8