近日有美国媒体披露称,发生在2月28日、造成160多人死亡的伊朗女子小学遭遇袭击事件,很可能是美军“情报错误”叠加“AI技术滥用”共同酿成的悲剧。
实际上,美军在这次针对伊朗,以及今年年初针对委内瑞拉的军事行动中,都大量使用了AI工具。美军这种让AI影响战争决策、让算法掌控生杀大权的做法,犹如打开了“潘多拉魔盒”,引发了国际社会深刻担忧。□长江新闻号
美媒:伊朗小学遇袭或与AI工具有关
据新华社报道,美国《纽约时报》披露的初步调查结果显示,美军原计划攻击这所小学邻近的一处伊朗伊斯兰革命卫队海军基地,结果“目标定位错误”。
《华盛顿邮报》随后也援引知情人士的说法报道,初步调查认为,美军可能由于“情报错误”而将这所小学误认为一座武器库或工厂,或者仅仅因为导弹“打错”了地方。
有分析认为,如果说将学校误判为军事基地是酿成悲剧的第一步;那么美军对AI技术的单纯依赖,很可能进一步加速了这场惨剧的发生。
美军承认在对伊军事行动中使用AI工具
值得注意的是,美方连日来接连多次谈及在军事行动中使用AI工具。
美国防长赫格塞思上周表示,希望将人工智能置于美军作战行动的核心位置。
美国中央司令部司令布拉德·库珀上周也公开承认,美军在对伊朗的军事打击行动中,动用了“多种先进AI工具”。布拉德·库珀大肆夸赞这套系统的效能,声称其能在数秒内筛选海量情报数据,帮助美方决策者快速理清信息、比敌方更快做出决策。他还特意强调,AI能将原本耗时数小时乃至数天的战略制定流程压缩至几秒。
美军曾在对委行动中使用AI模型
事实上,这并非美军首次在对外军事行动中使用AI工具。今年2月,曾有多家美国媒体援引知情人士消息报道称,美军在今年1月3日强行控制委内瑞拉总统马杜罗并移送出境的行动中,使用了美国一家公司推出的AI模型“克劳德”。
据称,“克劳德”被部分嵌入了美国帕兰蒂尔公司的“梅文智能系统”战场情报平台,美以军方均使用了该平台。它可以从监控设备、物流设施、传感器和情报部门收集数据并生成指令建议,供指挥官的决策参考。如果与AI模型“克劳德”配合,该系统可以将原本耗时数周策划的作战任务变成“即时处理”行动。
对此,军事评论员张学峰分析认为,目前,美国的人工智能系统在军事领域的应用主要集中在3个方面。第一个方面是情报分析。比如通过卫星系统获得对方目标附近的光学成像情报后,通过人工智能系统分析出对方的军事目标以及一些关键人物的行踪。第二个方面是辅助决策甚至是主导决策。第三个方面就是用于一些武器装备的自动识别和自主攻击。
张学峰指出,美军近年来非常重视人工智能技术的应用,一个重要原因就是它在传统领域已经不再具备绝对优势。比如说,传统作战非常依赖空中优势,空中优势的核心则是先进的战斗机,但现在美军第六代战斗机的研发已经落后于他眼中的“竞争对手”。在高超音速导弹等一些新型武器装备的发展上,美国的优势也已经不复存在。为了弥补这些劣势,美国现在想把一些比较先进的人工智能技术应用于军事领域,试图“换赛道”,谋求军事霸权。
施压不成就封杀 五角大楼“拉黑”AI新锐
五角大楼对AI技术的无限度军事化需求,引发了美国科技企业的“分裂”。开发AI模型“克劳德”的安特罗匹克公司,被认为是美国AI技术领域的新锐力量,它曾在与五角大楼的合同中划出两条“红线”,反对人工智能被用于对美国人的大规模监控,以及被部署到完全没有人类参与的自主武器中。
然而,美国防长赫格塞思却要求该公司取消这些限制。在遭到企业拒绝后,五角大楼于2月27日将安特罗匹克公司列入“国家安全供应链风险”实体名单。
美国总统特朗普同一天还宣布,他已下令所有联邦机构立即停止使用安特罗匹克公司的技术。第二天,美军就对伊朗发动了打击,而使用的AI工具正是被“封杀”的“克劳德”。
五角大楼正加速推进AI的军事化应用
外界也注意到,安特罗匹克公司刚被踢出局,他的竞争对手就立刻补上了空缺。特朗普2月27日发布“封杀令”几小时后,美国人工智能公司OpenAI就与五角大楼达成协议,开始向机密系统提供AI技术。
事实上,在过去一年中,美国总务管理局已经与多家美国科技企业签署协议,为政府机构提供低成本AI模型,其中就包括OpenAI、Meta等科技巨头。与此同时,美国政府已经任命前美国政府效率部员工加文·克莱林为国防部新的首席数据官,负责统筹所有AI与数据项目。
业内普遍认为,这表明五角大楼正加速推进AI的军事化应用。张学峰表示,在军事领域,如果滥用或者过度依赖人工智能技术,会带来很多风险。第一,容易出现更多的误打误伤,造成更多的平民伤亡。例如,当下人工智能技术经常为导弹和无人机提供识别支持,但技术尚不成熟。美以打击伊朗时,就曾出现过伊朗地面装备绘画骗过美军无人机的情况。第二,会突破规则底线。此前美国曾进行过人工智能空战实验,由人工智能体驾驶的战机获胜,关键在于其突破了部分空战规则。如果未来在战场上出现突破战争规则底线的情况,将引发更大人道主义灾难。第三,武器装备或作战系统如果过度依赖甚至完全由人工智能系统掌控,可能催生其产生自主意识,最终反噬人类。因此,对于人工智能技术在军事领域的应用,我们必须加强风险预防和管控。