战场杀人用机器人?太可怕!

2018-05-30来源:中青在线 作者:吴敏文

  主播君的话:现在人工智能已经在应用在很多领域,但是,如果把它应用到军事武器上会怎么样?你能想象一场没有人参与的战争会是什么样子的吗?

  随着人工智能技术不断进步,它在军事领域的运用也越来越广泛。无人机、无人战车、无人舰船、无人潜艇等大量涌现,而且智能化程度和自主性水平越来越高。有人断言,机器人战争、智能化战争的大幕已经拉开,这引发了科学家和研发人员的高度忧虑。

  机器人战争,智能化战争?真的有这么严重吗?

  这还真不是杞人忧天,不信来看看这个两个例子。

  01韩国研发“杀人机器人”

  近日,来自30个国家和地区的50多名人工智能和机器人专家称,由于韩国科学技术院大学与军工企业“韩华Systems”合作研发的自主武器,可在无人控制的情况下搜索并消除目标,如果研发成功,“可能使战争恶化并造成无法挽回的后果”。科学家们表示:韩方如果不停止此项研发,即与之断绝任何合作。

  为此,4月,联合国《特定常规武器公约》专家小组在日内瓦召开会议,专项讨论“杀人机器人”可能带来的影响,涉及韩国科学技术院大学计划开发的“杀人机器人”。

  02美国:Maven项目

  2017年4月,美国军方提出Maven项目,要完成的任务是帮助美国国防部处理来自全球各地的海量视频资料。国防部希望能利用人工智能技术来分析这些视频。

  由于仅靠军方无力完成,国防部于是转向寻求与学界和业界人工智能专家合作,组成所谓“算法战争跨功能团队”,其中就包括在人工智能研发方面具有顶级水平的谷歌公司。

  自主武器系统的发展现状和未来预期

  原来这么可怕,那现在人工智能在军事领域到底发展到什么程度了呢?

  其实,美军很早就在战场上使用机器人了。

  阿富汗战争中,美军用“捕食者”无人机摧毁撤退中的塔利班指挥机构,并且还曾使用无人机在阿富汗、伊拉克、也门、巴基斯坦等地对恐怖分子头目进行定点清除。

  伊拉克战场上,美军曾投入近5000个陆上机器人。

  但是,无人机都只是用作侦察搜索和导弹发射平台,“开火”指令始终操控在后方控制人员手中。而且路上机器人也只是用作巡逻队行进前探路、引爆路边炸弹、危险区域作业等。

  目前,智能指挥控制系统的发展,处于辅助人工决策阶段,即利用人工智能技术,提高情报侦察、预警探测、通信联络、战场管理等系统的智能水平,替代指挥员某些常规性思维,最高级形式是为指挥员提供辅助决策方案,供指挥员决策参考,但最后的决策权仍然在指挥员手中。

  实际上,真正的自主武器或军用自主智能系统包括两类:一是具有自主决策权的指挥控制系统,即“自主指挥控制系统”;二是自主武器系统,即具有战场“射杀权”的智能机器人,也就是科学家所称的“杀人机器人”。

  在自主武器系统方面,目前并没有达到可以将“射杀权”或“开火权”交托给智能武器系统的程度。

  自主武器系统面临无法解决的技术难题

  智能机器人作为情报收集、处理、融合和信息传递、武器运载平台的功能,已非常成熟。之所以不能将“射杀权”交给智能机器人,是因为这一权利事关生死,同时它还面临诸多技术难题。

  03美军:“利剑”不听使唤

  在伊拉克反恐作战的后续地面稳定作战阶段,2007年10月,美军第三机步师的一个小分队执行进攻一个反美武装据点的任务。

  为了应对恐怖分子可能的极端反击手段和执行危险区域排险任务,小分队携带了3台装载了武器的“利剑”智能机器人,以便在危急和需要的情况下,通过遥控下令“利剑”开火摧毁目标。

  但不知是遥控指令受到干扰还是“利剑”的程序运行紊乱所致,一台“利剑”竟然调转枪口指向操作者,操作者反复发出“行动取消”的指令,失控的“利剑”仍是置若罔闻。

  为了避免伤及己方,分队指挥员只得当机立断,下令队友用火箭筒将失控的“利剑”摧毁才化险为夷。

  这一事例说明,不仅将“射杀权”交给智能机器人是危险的,甚至将其装备武器而不授权其自主开火,都有可能导致意想不到的危险。

  虽然,人工智能在某些方面已经超过人类,比如:“深蓝”战胜国际象棋大师和“阿法狗”战胜世界一流棋手李世石和柯洁。但这不能说明智能机器人已经在思维上超越人类。

  在战场上作出“开火”的决定,是综合衡量大量复杂因素的结果。现有技术甚至连作出这个决定时人的思维所要考虑的因素,都无法全面罗列出来,更不用说构建相应的数学模型,进行逻辑严谨的模拟演示。

  例如,《日内瓦公约》规定,不得射杀伤兵、医护兵、跳伞飞行员及失去抵抗能力的士兵,智能机器人怎样分辨出这些人,以及怎样判断对方是否已经失去抵抗能力,这些至少在当前还是难以逾越的技术障碍。

  “杀人机器人”的最终出现或难避免

  尽管如此,自主武器系统的出现可能很难被阻止。

  04美军:人工智能具有超过优秀军人的潜力

  2016年美国空军举行的一次模拟空中对抗赛中,人工智能系统以其灵活、迅捷的动作,击败了具备更强武器系统的退役战斗机飞行员。这和国际象棋大师输给“深蓝”,李世石、柯洁输给“阿法狗”一样,显示了人工智能在特定军事领域具有超过优秀军事人员的潜力。

  在军事强权依然具有国际主导作用的时代,这样的诱惑,对于具备科研条件的国家和军队是难以抵御的。韩国国防部的“韩华Systems”项目和美国国防部的Maven项目就是明证。

  随着人工智能技术的不断完善并在军事上广泛应用,情报、决策与作战一体化将取得快速进展。也就是说,韩国科研机构研制在无人控制的情况下搜索并消除目标的自主武器,已是当前人工智能军事化进展的代表方向。

  自主武器系统加入未来战争不会有太大悬念。但到底是人与机器人之间作战,还是机器人与机器人之间作战,取决于一定的战争主体在这场人工智能军事机器人研制赛跑中是领先还是落后。也就是说,在是否将射杀权交给智能机器人问题上,关键不在“能不能”,而在“该不该”。

  在2017年人工智能国际会议上,特斯拉首席执行官马斯克、苹果联合创始人沃兹、研发“阿法狗”的深度思维公司哈萨比斯等人签署公开信,呼吁联合国像禁止生化武器一样,禁止在战争中使用致命的自主武器即“杀手机器人”。“杀人机器人”的研发招致众多科学家的反对和抵制,也许,“避免潜在风险”的唯一办法就是永远不将“射杀权”交给智能机器人。

  作者|吴敏文

  编辑|杨宝光

  校审|陈凤莉

【编辑:李师荀】

相关阅读
H5频道
图片阅读
今日热点
今日头条速览