随着人工智能发展,像 ChatGPT、DeepSeek 这样的**大语言模型(LLM)**在军事领域的潜力引起广泛讨论。它们是否可能真正参与战争规划、甚至指挥?公开资料显示,答案是:LLM可以成为军事决策辅助工具,但绝不应成为独立指挥者。
一、LLM在军事中的潜在用途决策支持与快速方案生成 LLM可以快速分析大量资料、生成多种作战方案,并提供优缺点对比,辅助指挥官做决策。 战争演练与红方模拟 LLM可模拟对手行动或测试多种“假设场景”,加速战争演练和战术评估。 情报汇总与异常分析 对海量传感器和信息流,LLM可帮助撰写简报、整理情报并标记异常数据,但输出仍需人工验证。 人机协作 LLM可协调无人机、后勤、支援系统等多种模块,实现“忠诚翼伴”的协作,但必须在人类监督下运作。
二、LLM不能独立指挥的原因信息幻觉与错误 LLM可能生成自信但错误的建议,若直接用于指挥,将带来严重风险。 脆弱性与对抗风险 模型可被对抗性输入或篡改数据误导。 可解释性不足 很难证明模型为什么做出某个方案,难以追责。 升级与误判风险 自动化决策可能导致冲突升级,增加不可控风险。
三、各国实践与政策
四、关键保障措施人类在环/在控:关键决策必须有人类批准。 严格测试与红队演练:确保模型在各种压力环境下可靠。 数据与训练安全:防止训练数据或传感器数据被篡改。 可追溯性与审计:所有输出必须有解释、日志记录以备审查。 权限与边界控制:模型不能擅自建议超出权限的行动。 国际规范与透明:减少误判和冲突风险。
五、战略风险
六、总结LLM将改变军事规划和思维方式:加速分析、自动化生成方案、丰富模拟与演练。 但在关键指挥、致命行动和冲突升级决策上,LLM仍不能独立作主。正确的方向是:让大语言模型辅助人类指挥官决策,并配合严格治理、测试和国际规范。
|