护栏
来源:ml米兰体育平台 发布时间:2026-04-04 11:40:18
· 1月3日,美国特种部队超低空潜入加拉加斯,三小时内抓捕委内瑞拉总统马杜罗 。
· 2月28日,美以联军对伊朗发动精确空袭,包括最高领袖哈梅内伊在内的约40名核心高层身亡 。
这两场行动震惊世界的原因,不仅在于地理政治学的剧变,更在于一个共同的幕后推手——人工智能。
当《华尔街日报》披露,那款刚刚被特朗普政府封杀的Claude大模型,早已深度接入美军机密网络,在此次行动中完成了情报评估、目标识别与作战场景模拟时 ,一个根本性的问题浮出水面:战争的底牌,是不是已经悄然从人类手中,转移到了算法手里?
要理解这场变革的深刻性,必须先看懂一个军事理论的核心理念:OODA环——观察、调整、决策、行动。
过去一百多年,战争拼的是谁的“环”转得快。侦察机拍照、送回总部、分析员研判、指挥官决策、飞行员出击,这样的一个过程少则几小时,多则几天 。但在2026年2月28日的打击中,这个环消失了。取而代之的是美军所说的 “端到端推理” 。
数千个卫星传感器、截获的加密通信、开源情报数据,像洪水一样涌入AI模型。模型不是在“处理”这一些数据,而是在进行“补全”——在它看来,摧毁某个防空雷达,不是一个需要道德权衡的军事命令,而是解决“如何以最小成本达成目标”这个概率问题后,给出的一个必然的Token输出 。
早在2024年,美国陆军的“Scarlet Dragon”系列演习中,Maven智能系统就已经能做到用20人的团队,完成2003年伊拉克战争时需要2000人才能完成的目标识别任务,目标识别和打击时间从12小时之后压缩到1分钟以内 。到2026年,这套系统已不再只是识别目标,而是生成决策。
一个关键的问题随之而来:当AI在几分钟内完成了态势感知、目标识别、路径规划、效果评估,人类指挥官手里那个“最终开火权”,还剩多少实际意义?
美军始终强调人类掌握最终决策权 。但美陆军最新推出的 “新半人马”模型,试图通过分层设计来回答这个难题:在战略层面,AI承担数据整合与趋势预测,但政策判断由人类完成;在战役层面,保留明确的人工决策节点;在战术层面,允许有限的“人在决策环外”的快速决策 。
然而,这种设计的背后,隐含着对人机协同失控风险的深刻担忧。在紧迫的时间压力下,人类在潜移默化中将判断权逐步“外包”给机器,从“人主导、机辅助”的“半人马”模式,滑向“机主导、人执行”的盲从状态 。这种风险在心理学上被称为 “自动化偏置”倾向——当机器表现稳定时,即便生成的内容缺乏充分验证,人们也更倾向于信任它 。
如果说决策权的让渡是“大脑”的变革,那么作战形态的重塑就是“手脚”的革命。
在德克萨斯州胡德堡基地,美国陆军第36工兵旅正在进行一场可能改变未来地面战争的训练 。工兵们与自主机器人协同作业,这些机器人车辆能够执行侦察、破障、施放烟雾等高风险任务 。
对于一线士兵而言,这不是演习,而是生死攸关的改变。 combat engineer(战斗工兵)詹姆斯·查布坦言:“作为战斗工兵,我在突破作战中的预期存活率约为8%。使用这样的系统,我可以待在装甲车内,用电脑远程控制,这在某种程度上预示着我完全不用进入突破区。”
36工兵旅旅长贾斯汀·普里查德上校说得很直白:“自主技术放大了陆军最重要的作战优势——我们的士兵。我们有责任利用技术突破致命障碍,从而保全我们的战士,让他们在需要判断力和勇气的决定性行动中发挥作用。”
这种“机器人冲在最前面”的作战理念,正在全世界内落地。韩国已将K21步兵战车改造为K-CEV无人工程车,用于排雷和清障,排雷速度提升一倍,且无需让士兵暴露在雷区 。洛克希德·马丁的 “小米”计划(Have Remy),则让AI能够在侦测到来袭导弹的瞬间,自主控制战机在飞行包络线极限内执行规避机动,无需飞行员介入 。这个以《料理鼠王》中那只躲在厨师帽里指挥烹饪的小老鼠命名的项目,精准隐喻了AI与人类的关系:它躲在背后,却在关键时刻操控一切 。
未来的战场不仅是看得见的硝烟,更是看不见的频谱对抗。而在这里,AI正在把战争推向人类认知的边界之外。
2026年3月,L3Harris与Shield AI完成了一项里程碑式的测试:首次将自主电子战战斗管理与AI驱动的任务软件集成,让无人系统能够在无人干预的情况下,实时探测、分析并响应电磁威胁 。
这意味着什么?意味着电子战的速度已经超越了人类反应极限。Shield AI高管克里斯蒂安·古铁雷斯直言:“电子战以机器速度运行,作战优势取决于自主性。”
更令人震撼的是在2月28日行动中展现的 “逻辑过载”攻击——一种被网络安全专家称为“物理层提示词注入”的新型作战方式 。
美军的AI Agent通过一系列分析伊朗防空系统的算法识别指纹,生成了数万个“逻辑完美”的虚假目标。这些目标在对方雷达眼中,全部符合真实战机的飞行物理特征——飞行轨迹、尾焰红外信号、雷达散射截面,一切都天衣无缝。唯一的区别是:它们在物理世界不存在。
伊朗的防御系统在几秒钟内陷入了无限递归的计算,无法分假,最终因计算资源耗尽而直接宕机 。
这不再是单纯的信号干扰,而是一场算法层面的深度催眠。正如《连线》杂志所评论的:“在算法面前,传统的钢铁洪流变得像透明人一样脆弱。你以为你在防御,其实你只是在对方的提示词里打转。”
技术越先进,伦理的困境就越尖锐。2026年2月的最后一周,一场因AI军事化而爆发的权力博弈,在华盛顿与硅谷之间达到了高潮 。
故事的主角是AI公司Anthropic——一家以对AI安全问题的严肃态度著称的企业,由其首席执行官达里奥·阿莫代领导。Anthropic在其模型使用协议中明确设置了两条不可逾越的红线:禁止将Claude用于对美国公民的大规模监控;禁止用于无需人类干预的完全自主致命武器 。
2月24日,美国国防部长皮特·赫格塞思向阿莫代发出最后通牒:周五下午5点01分之前,必须同意解除Claude在军事网络上的安全限制,否则将被列为“供应链风险”,强制终止合作 。
2月28日,Anthropic拒绝妥协。几小时后,特朗普总统要求所有联邦机构“立马停止”使用Anthropic的技术,五角大楼将其列为“国家安全供应链风险” 。
赫格塞思在X平台上的表态毫不留情:“服务条款永远不能凌驾于战场上美军的安全、战备状态与生命之上。他们企图攫取对美军作战决策的否决权,这是不可接受的。”
一边是企业的道德护栏,一边是国家暴力的排他性要求。 在这场不对等的博弈中,结局早已注定。
更值得警惕的是,硅谷内部正在发生深刻的政治演变。彼得·蒂尔、埃隆·马斯克等人领导的 “技术加速主义” 思潮,正在取代过去“不作恶”的科技乌托邦理念 。马克·安德森甚至宣称:“任何放缓人工智能的行为都会付出生命代价。因人工智能被阻止而本可避免的死亡,就是一种谋杀。”
在这种思潮的推动下,Palantir、Anduril等与军方深度绑定的公司迅速崛起。在俄乌冲突中,Palantir的AIP平台直接承接了乌克兰防务体系的算法中枢,用算法缩短决策周期,没有陷入“是否应该允许AI开火”的伦理内耗 。
一个新的概念正在形成:主权推理权 。为什么美以能在这场对抗中维持压倒性优势?不仅仅是因为武器先进,更因为他们的国防AI直接跑在全球最先进的超大规模计算集群上。
战争已经变成了一场赤裸裸的算力消耗战。 每一发干扰信号、每一次轨迹预测,都在消耗昂贵的算力 。
这意味着什么?意味着贫穷的国家将彻底失去战争的参与权。如果你没有吉瓦级的能源供应,没有最顶尖的推理卡阵列,你在算法战争面前,连成为对手的资格都没有 。
更令人不安的是,这种算力霸权正在向私人巨头集中。当SpaceX与xAI合并、试图构建天基算力主权时,基础设施权力以前所未有的速度向私人公司转移 。中国国防部发言人姜斌的警告值得深思:“不加限制地推进人工智能军事化,将AI作为侵犯他国主权的工具,让人工智能过度影响战争决策,让算法掌控人的生杀大权,不仅侵蚀战争的伦理与责任约束,还可能会引起技术失控,甚至使美国电影《终结者》里的灾难场景成为现实。”
未来的战争,可能不再需要宣战。当一个国家的金融系统、能源网络、通信基础设施都运行在AI调度之上,对方只需要一次精准的算法计算,就能让整个国家在几分钟内陷入瘫痪。而你甚至不知道是谁动的手 。
我们见证的不是一场中东冲突,而是第一场关键环节由AI决定的战争 。从决策压缩到作战自主,从频谱对抗到算力霸权,战争的每一个维度都在被AI重塑。
但最核心的问题依然悬而未决:当智能系统的决策逻辑呈现“黑箱化”特征,人类无法解释其工作原理,若发生误击事故,责任是开发者的、操作者的、还是算法本身的?
我们正在把人类文明最后的底线——关于剥夺生命的最终决定权——交给一个连我们自己都解释不清楚的统计模型。
正如美陆军“新半人马”模型所警示的:如果体系的设计能保证AI模型只提供速度与算力优势,不触碰最终决策权,AI将极大提升指挥决策质量;反之,若人机责任边界模糊,效率越高,隐藏风险反而越大 。
在军事智能化浪潮席卷而来的今天,如何守住决策责任的底线,不仅关乎战争的胜负,更关乎人类文明的未来。