悄然兴起的智能化武器装备
自主武器几十年前就已出现,但数量较少,而且基本上都是用于防御性目的。最近,军事供应商开发出了被认为是进攻型的自主武器。以色列航空工 业公司的Harpy和Harop无人机,能朝着敌方防空系统发出的无线电波飞去,撞毁它们。公司称,这种无人机已广泛向全世界出售。 韩国国防承包商DoDAAM Systems公司也开发出了一种警卫机器人“超级aEgis II”,装备有机枪,能利用计算机视觉自动探测射击3公里内的目标。据韩国 军方报告,已经在临朝鲜边界的非武装地区对这些装备了机器人的武器进行测试。DoDAAM Systems公司称,他们已经售出超过30套这种系统,有些 买家在中东。目前,这种自动系统的数量大大超过机器人武器。
有些分析师认为,未来几年,武器的自主程度将变得越来越高。位于华盛顿特区的一个无党派研究机构“新美国”的机器人战争专家彼得·辛格说: “战争将会变得完全不同,自动化将发挥重要作用,速度成为关键。”他预测,未来战争的场景就像无人机之间的混战,或机器人战舰和敌方潜艇之间的遭遇战,能 提供刹那间优势的武器将决定战争的胜负。“可能是高密度的直接对抗,对人类来说根本来不及介入,因为只在几秒钟内一切就已发生了。”
美国军方在一份无人系统路线图中,对这种新型战争列出了一些详细计划,但它在武器化方面的意图仍含糊不清。国防部长罗伯特·沃克去年3月曾在一次论坛中强调,要在AI和机器人方面投资,并称在战场上出现越来越多的自动化系统是不可避免的。
问及关于自主武器时,沃克坚持美国军方“不会把做致命决定的权利授权给一台机器。”但他也补充说,如果“竞争对手”更愿意把这样的权利交给机器的话,我们也不得不决定,怎样才能最好地竞争。
在开发陆海空无人战斗系统方面,俄罗斯也遵循同样策略,但至少现在还依靠人类操作。俄罗斯的M平台是一种小型遥控机器人,装备有卡拉什尼科 夫步枪和榴弹发射器,类似美国“魔爪SWORDS”系统(配备M16及其它武器的地面机器人)。俄罗斯还造了一个更大的无人战车Uran-9,配备30毫 米机关炮和反坦克导弹,去年还演示了一个人形战士机器人。
联合国一直坚持讨论致命自主机器人已近5年,但其成员国还未能起草一份协议。2013年,联合国人权问题特别报告员克里斯·海恩斯写了一份有影响的报告指出,世界各国有一个难得的机会,在自主武器大规模发展之前讨论它们的风险。
今年12月,联合国“特定常规武器公约”将召开5年审查会议,致命性自主机器人的话题将提上日程,但要在会议上通过禁令是不可能的。这一决策需要所有参会国一致同意,在如何处理未来可能出现的泛自主武器问题上,各国仍存在根本分歧。
最终,“杀手机器人”的辩论似乎更关乎人类自身而不是机器人,自主武器也和其他任何技术一样,至少在第一次使用时,应该更加谨慎,否则会是 混乱和灾难性的。像“自主作战机器人是个好主意吗?”这样的提问可能不太合适,更好的应该是“我们确信自己能充分信任机器人并和它们生活在一起吗?”
兼顾逻辑与道德的无人驾驶车
设想一下,将来的某个夜晚,一个醉醺醺的行人突然在一辆无人驾驶汽车前面摔倒,结果当场被撞死。如果车里有人,这会被认为是一次事故,因为 行人显然有错,理性的司机也难以及时躲避。但到了本世纪20年代,随着无人驾驶汽车日益普及,车祸发生的概率会减少90%,对应司机过失的“理性人”的法 律标准也会消失,对应的标准是给“理性机器人”。
死者家属会把汽车制造商告上法庭,指称汽车虽然来不及刹车,但它应该躲避周围行人,越过双黄线,撞上旁边车道上那辆空空的无人驾驶车。而根据该汽车的传感器数据分析,再现撞人场景也确实如此。原告律师会质问汽车头部软件设计师:“为什么汽车不会转弯?”
但法庭绝不会质问一个司机,为什么即将撞车前他不采取某个紧急措施,因为这是毫无意义的——司机惊慌失措无法思考,只能凭本能做事。但如果司机是个机器人,问“为什么”就变得合理了。
在人类的道德标准、有瑕疵的法典案例、各种各样工程师想不到的假设情况中,最重要的假设是:一个有着良好判断能力的人知道何时应不顾文字上的法律条规,真正维护法律精神的至高无上。现在工程师必须做的是,把一些基本的判断因素教给自动驾驶汽车和其他机器人。
目前,在英国部分地区、德国、日本、美国4个州和哥伦比亚特区,法律已明确允许对完全自动化车辆进行测试,但车里还要有一个测试司机。谷歌、日产、福特及其他公司也表示,他们预计在今后5到10年内实现真正的无人驾驶操作。