| 即时 | 热点 | 图片 | 时事 | 军情 | 国际 | 评论 |
| 兵器 | 史海 | 体育 | 户外 | 论坛 | 博客 | 文学 |
| 世界论坛网 > 兵器知识 > 正文 | ||||||||
| 乌克兰囤2.5万台机器人 战争逻辑正在改变 | ||||||||
| wforum.com 2026-04-23 14:25 有界 | ||||||||
近日,乌克兰国防部宣布,将在2026年上半年订购25,000套地面机器人综合体 (GRC)。相当于2025年全年需求的2倍。乌克兰国防采购署已与制造商签署了19份合同,总价值达110亿格里夫纳,计划实现后勤完全自动化。 这可不是我们想象的,一群人形一样的机甲战士,在战场上相互厮打。乌克兰采购的,是一类履带式、轮式的小型地面机器人,它们的核心能力不是“自主作战”,而是通过稳定通信,实现人类的远程操控。 也就是说,乌克兰采购的机器人,虽然被投入战场,但是替代的是人类“执行”的环节,并非“决策”环节。 但随着AI不断提升机器人的智能化水平,未来更高自主性的机器人进入战场,已是一种可以预见的趋势。当机器人在战场不仅只做“执行”,还可以参与做“决策”的时候,如何保证机器人不会“滥伤无辜”? 乌克兰成机器人战争“试炼场”具体来看,乌克兰采购的地面机器人综合体 (GRC)不是单一的机器人,而是一整套可用于地面作战的无人机器人系统,它可以用来替人上前线完成高风险任务,比如运送弹药、医疗物资甚至拖运伤员。 它分为三个部分: 第一部分,是无人地面载体(UGV),也就是机器人本体,主要的形态是履带式和轮式,其中履带式最常见,适合泥地、战壕等不平整的地面行驶。UGV主要用于运送弹药和物资,做一些排雷的工程作业。 第二部分,是控制与通信系统,这套系统的核心是实现即便人类不在现场,也能远程看见并遥控机器人,包括遥控终端、加密通信链路、视频回传系统等。 第三部分,是任务模块,它主要决定机器人能做什么,比如武器模块、排雷设备、侦查传感器等。 之所以在这个时间点,用上亿美金采购机器人设备,有两层原因。 一是现实压力。长期战争消耗下,乌克兰面临的是人力的持续流失,尤其是前线所需的年轻劳动力越来越紧缺。在这种情况下,用机器替代人进入高风险环节,不再是选择,而是必然。 二是战场反馈。乌克兰方面近期披露的一次行动,进一步强化了这一判断。 4月中旬,乌克兰总统泽连斯基宣布,乌军在一次战斗中,仅依靠地面机器人和空中无人机攻占了俄军阵地,未投入步兵力量。按照官方说法,“俄罗斯士兵在面对无人车辆时投降,乌克兰方面没有损失”。
尽管这一战的细节尚未完全公开,也缺乏更多独立验证,但至少说明一点: 机器人已经开始进入“替人上前线”的阶段。 据总统称,过去三个月里,乌克兰地面机器人已在前线执行了超过22000次任务。意味着,它们不再是试验性装备,而是被反复调用的前线工具。 在资金层面,这一体系具备现实基础。 欧美以军事和财政支持形式进入乌克兰国家预算,间接支撑国防开支;政府再通过采购体系转化为具体订单。与此同时,像Come Back Alive等民间组织通过众筹补充无人机等前线需求,形成一种以国家资金为主、民间补充的混合供给结构。 乌克兰的意义不在于“第一次使用无人装备”,而在于第一次把无人系统打成规模化、体系化的战争能力。乌克兰战场就是现代各类装备的试炼场。战争持续打下去,很有可能成为机器人最先成熟的应用场景。 当未来机器人替代战场上的士兵之时,战争的瓶颈,也就从“拼人命”变成“拼产能”。 那么,当机器人替代人力,战争或许变成一场生产竞赛。 AI和机器人,边界应该在哪里?说起机器人上战场,让我想起我们前几天一篇关于人形机器人马拉松(《人形机器人跑半马,得了第一,又能怎样?》)的文章。 当时评论区有网友提出过一个问题:“机器人要它跑这么快干什么?追求速度的话,完全可以买辆车。” 另一个网友开玩笑道:上战场! 当然,这件事情也并不是完全开玩笑,毕竟前几年很火的四足机器狗,如今已经在很多部队实现了列装,那么,人形机器人,未来也有可能走上战场吗? 相信很多人心里都是有答案的。 这也让我想起一部2015年发布的阿根廷动画短片《Uncanny Valley(2015)》(中文:恐怖谷),其大概意思一群人沉迷于高度拟真的VR射击游戏:在游戏中,他们在废墟战场中执行任务、消灭“怪物”,一切看起来不过是刺激的娱乐。 ▲ 图片来自电影《恐怖谷》 但随着游戏出现故障,画面细节逐渐失真,主角逐渐意识到,他们所处的并非虚拟世界,而是通过远程操控人形机器人的方式,参与一场真实的战争。因此,那些被击杀的也并不是怪物,而是另一个国家的普通人——有女人、有孩子、有保卫家人的男人...... 他发现,所谓“游戏”,其实是一场被包装过的入侵与屠杀。 在这个短片末尾,主角接受不了这个事情,通过在游戏中自杀的方式回到了现实,但等待他的,是一队荷枪实弹的人形机器人...... 结合今天技术发展现状来看,这部短片最重要的一个启示其实是,技术应该有边界。 如今,AI大模型早已经被用到了军事领域。 据华尔街日报报道,美军中央司令部明确表示,在美伊战争中,AI“每天都在用”,主要用于处理海量情报、加快决策。 这里就不得不提到最近发生的另外一件事情。 今年(2026年)二月份,美国军方将Anthropic纳入“供应链风险”名单,原因是Anthropic拒绝接受五角大楼提出的条款:涉密环境下,AI模型应可用于“所有合法用途”,不得被“政策约束”限制军事应用空间。 而Anthropic却始终坚持两条“红线”: 第一,AI模型不得用于美国国内大规模监控;第二,AI模型不得用于完全自主武器系统(即无需人类授权即可开火的武器)。 在这件事情中,Anthropic因为拒绝五角大楼而被美国军方“封杀”,但也获得了美国民众的大力支持;与Anthropic相反,在Anthropic与美国军方谈判破裂后,仅仅几个小时,OpenAI就与五角大楼达成了协议,当然,相应的,OpenAI也收到了美国民众的抵制。 所以,其实到今天,我们应该如何给AI、给机器人的使用设定一个界限,已经是一个重要且迫在眉睫的问题。 现在国际社会针对这一点的讨论也十分尖锐,世界上不同立场的人们也都有自己的主张。 这里面,最著名的反对派是现任联合国秘书长古特雷斯,他认为:“在没有人类控制的情况下,机器拥有决定人类生死的权力,在政治上不可接受、在道德上令人厌恶,而且应该被国际法禁止。” 红十字国际委员会主席斯波利亚里奇的观点要温和一些,她主张通过国际法来规范致命自主武器系统,核心是保留人类对武力使用的控制。即重点不是抽象的反AI,而是保住人类的“控制权”。 在欧洲,欧盟的观点一直比较谨慎,他们认为国际法完全适用于这类系统,而且在可能的发展和使用过程中,必须有适当的人类控制。 核心就是,发展可以,但是要先立规矩。事实上,欧盟也是世界上最早推出《人工智能法案》的地方,这项法案已在2024年8月生效。
作为对比,美国在这方面的观点更加开放。 他们担心,过度的监管限制AI的发展。比如现任美国副总统万斯就在2025年巴黎AI峰会上的表态:如果用繁重监管去限制AI发展,不仅会不公平地利好既有巨头,还会让最有前景的技术之一陷入瘫痪。 但在美国军方,特别是作为AI在战争场景中的实际使用者,他们的态度还是相对克制,他们虽然主张不能“一刀切”限制AI,也应该保留“人类判断”和坚持“负责任使用”。 美国国防部3000.09指令[1]写得也很清楚:自主和半自主武器系统要让指挥官和操作员对武力使用保持“适当水平的人类判断”,还要经过测试、验证和高级别审查。 但问题恰恰也在这里。 无论是联合国、欧盟,还是美国军方现有的表述,本质上都还停留在“如何管理技术使用”的层面:哪些场景能用、谁来授权、出了问题谁负责。 可当机器人和AI越来越深地进入战争系统,仅靠流程、审查和指令,或许还不足以回答那个更根本的问题——我们究竟应不应该把“决定伤害谁、杀死谁”的权力,一步步交给机器。
也正因为如此,人类今天面对的,已经不只是治理问题,而是一个更古老的伦理问题。 早在20世纪40年代,美国著名科幻作家就提出了机器人三定律:
那么今天,当机器人距离人类的生活已经近在咫尺,我们有给AI、给机器人设定这样的“三定律”吗? 谁又掌握着这个潘多拉盒子的钥匙呢? |
||||||||
|
|
||||||||
| 0%(0) | ||||||||
| 全部评论 | ||||||||
| 暂无评论 | ||||||||
| ||||||||
| 相关新闻: | |
| “乌克兰战争” |
| 48小时新闻: | |
| 广告:webads@creaders.net | ||||||||
| 电话:604-438-6008,604-438-6080 | ||||||||
| 投稿:webeditor@creaders.net | ||||||||
|
| ||||||||