五角大楼正在制定一项计划,允许 AI 公司在涉密数据上训练模型。这个消息来自 MIT Technology Review 对国防部官员的采访。
表面上看,这是 OpenAI 的一个大单。但背后的博弈远不止商业合作那么简单。
为什么五角大楼需要 AI 公司?
美军的 AI 需求已经非常迫切。从无人机群控制到情报分析,从后勤预测到网络防御,每个环节都在喊"我们要 AI"。
但美军有个硬约束:涉密数据不能流出。AI 公司的模型只能在公开数据上训练,对军方的特殊需求理解有限。
这次计划的核心,就是让 AI 公司能接触涉密数据,在安全环境中训练出"懂军方"的模型。
技术上怎么实现?
最可能的方案是"安全飞地"——在军方控制的设施内部署训练集群,AI 公司的工程师可以远程参与,但数据从不离开围墙。
Google、Microsoft、Amazon 都有类似的安全云服务。OpenAI 如果要参与,得接受严格的安全审查,人员也要过保密资质。
这不是简单的商业合作,更像是一场信任赌博。军方要相信 AI 公司不会泄密,AI 公司要相信军方不会把他们的技术吃干抹净。
伦理争议在哪里?
最大的争议在于:军用 AI 到底能干什么?
如果模型被用于"分析战场态势",大多数人能接受。但如果被用于"自主打击决策",那就是另一回事了。
OpenAI 之前承诺过不会让模型参与武器开发。但五角大楼的需求往往游走在灰色地带。情报分析、目标识别、作战模拟——这些到底是"防御性"还是"攻击性",界限很模糊。
对 AI 行业的影响
从商业角度看,这是 AI 公司的"登堂入室"时刻。
拿到了军方的合同,意味着技术得到最高级别的认可,也意味着稳定的大额收入。但同时也意味着被绑上战车——未来的每一次军事行动,公众都会追问"AI 在其中扮演了什么角色"。
Google 员工抗议 Project Maven 的场景,可能会在更多公司重演。
我的判断
这个计划大概率会推进,但不会一帆风顺。
军方需要 AI,AI 公司需要大客户,这是双向奔赴。但安全审查、伦理红线、舆论压力,每一个环节都可能踩雷。
对普通人来说,最值得关心的是:军用 AI 的边界在哪里?我们是否需要公开讨论和立法?
技术没有善恶,但技术的使用方式有。让 AI 更好地保护安全,还是让 AI 更高效地制造武器,这是人类社会必须回答的问题。
