人类历史上首次的“AI战争”正在中东爆发。
虽然速度前所未有地加快了,但这一速度带来的结果却出乎意料。

2月28日,美国和以色列同时对伊朗发动空袭。行动名为“史诗愤怒”。在最初的24小时内,约1,000个军事目标被摧毁。与2003年伊拉克战争期间的“震惊与敬畏”行动相比,速度几乎翻了一番。
使这种速度成为可能的是AI基础的目标选择系统“梅文”系统。由美国国防工业公司Palantir构建,该系统能够同时接收分析卫星图像、无人机拍摄的视频、通信拦截资料、雷达数据,并自动生成攻击目标列表。它甚至推荐使用什么武器。
简单来说,以前几十名信息分析师需要熬夜多日审查地图和照片来选择目标。现在AI在几秒钟内完成这个过程。
美国中央司令部指挥官布拉德·库珀海军上将正式表示,“由于AI,以前需要数小时,有时甚至几天的工作现在可以在几秒钟内完成。”AI改变了战争本身的速度。
然而,在战争的第一天,美国的战斧导弹落在伊朗南部米纳布的一所小学。据伊朗当局称,超过170人死亡,大多数是正在上课的学生和教职员工。
美国军队并不是故意瞄准这所小学。实际上,目标是学校旁边的伊朗革命卫队(IRGC)海军基地。问题在于,原本位于基地内的那所校舍在2013年至2016年间被围墙分离出去变成了一所小学。然而,美国军事目标数据库并未更新此变更,该建筑仍被分类为军事设施。

《纽约时报》、CNN、BBC等多家媒体通过卫星图像分析和专家意见,确认了这次袭击是美国战斧导弹造成的。美国国防部的初步调查也暂时得出结论,认为美国负有很大责任。美国国会中有超过120名议员正式质询“梅文系统是否参与识别目标,是否有人检查过”,国防部尚未作出答复。
最终,这次事故的核心是AI的运行错误,而不是陈旧的数据。即使系统判断再快,如果判断的基础信息不能反映现实,结果也必定会出错。

在这场战争中,还引发了另一个值得关注的场景。AI公司围绕其技术的军事应用范围与美国政府发生了正面冲突。
开发克洛德AI模型的Anthropic公司是梅文系统的一部分,为实际军事作战提供了技术。战争前夕,Anthropic首席执行官达里奥·阿莫代伊表示,不会允许克洛德用于完全自主武器或大规模本国民众监视。理由很明确:“AI尚未达到可以被信赖用于此类用途的程度。”
国防部对此不予接受。国防部长马克·埃斯珀将Anthropic列为“供应链风险企业”,特朗普总统命令政府机构停止使用克洛德。Anthropic提出了诉讼。
上月26日,旧金山联邦法院法官丽塔·林支持了Anthropic。她认为“因公开提出AI安全问题而惩罚企业是违法的。”这是AI开发商在技术的军事使用范围上,首次与政府对抗的法律案例。
这项战争提出的根本性问题是责任问题。当机器推荐而人类批准时,错误结果的责任应该归谁?是制造AI的企业、运作系统的军队,还是批准作战的指挥官?目前尚无可回答这些问题的法律或制度框架。
核武器出现时,国际社会最终制定了核不扩散条约(NPT)。化学武器则有禁止化学武器公约(CWC)。AI武器尚未有这样的国际规范。

这项战争提出的根本性问题是责任问题。联合国去年12月通过相关决议,并在今年6月预告了多边对话,但仍停留在无约束力的建议层面。各国在进行AI军备竞争时,制定规则的速度赶不上技术发展的速度。
最终,现在需要的不是全面禁止AI,亦或是不加限制的允许AI,而是明确划分某些阶段必须由人类卷入。
重要的是,这是一个技术问题,而是一个人类的选择。在战争中使用AI是无法避免的。但我们可以防止AI决定战争。
AI军事技术竞争不仅仅是大国之间的故事。韩国是全球火力指数排名世界第五的军事强国,也是AI技术的拥有国。
国防部已经加快了无人、自动武器的开发,包括无人机机器人战斗系统、AI基础的监视系统等。在韩朝对峙的情况下,快速的反应能力与生存息息相关,因此对AI的引入压力比任何国家都大。
但正因为如此,规则是必要的。设计成AI自动应对敌人挑衅的系统,一旦发生运营错误或误判,其结果可能颠覆整个朝鲜半岛。在速度保障生存的环境中,不正确的速度造成的灾难也将会同样巨大。
韩国在这一讨论中需要发声。作为AI武器国际规范创建过程中,技术拥有国以及位于争端危险地区的当事国,韩国拥有独特的立場。
在强国按照自身利益设计規則之前,中等国家有责任先提出基本原则。AI应用于战争的时代已经到来。谁来制定这一时代的规则,这才是现在韩国应该关注的真正问题。