<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>国防AI on 赛博工具站</title>
    <link>https://haodaohang.top/tags/%E5%9B%BD%E9%98%B2ai/</link>
    <description>Recent content in 国防AI on 赛博工具站</description>
    <image>
      <title>赛博工具站</title>
      <url>https://haodaohang.top/images/cover.png</url>
      <link>https://haodaohang.top/images/cover.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Thu, 26 Mar 2026 16:00:00 +0800</lastBuildDate>
    <atom:link href="https://haodaohang.top/tags/%E5%9B%BD%E9%98%B2ai/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>五角大楼计划让AI公司在机密数据上训练，这意味着什么？</title>
      <link>https://haodaohang.top/posts/2026-03-26-pentagon-ai-classified-training/</link>
      <pubDate>Thu, 26 Mar 2026 16:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-26-pentagon-ai-classified-training/</guid>
      <description>&lt;p&gt;MIT Technology Review上周爆出一条大料：美国国防部正在和OpenAI、Anthropic等AI公司讨论，计划建立安全环境，允许这些公司直接在机密数据上训练定制模型。&lt;/p&gt;
&lt;p&gt;这条新闻出来后，圈内讨论挺热烈的。有人说这是AI军事化的里程碑，有人担心安全风险hold不住。我们来拆解一下这件事到底意味着什么。&lt;/p&gt;
&lt;h2 id=&#34;现状ai已经进了机密环境但还不能学习&#34;&gt;现状：AI已经进了机密环境，但还不能&amp;quot;学习&amp;quot;&lt;/h2&gt;
&lt;p&gt;现在的情况其实你可能没想到：GPT和Claude这类商用模型早就用在五角大楼了。比如Anthropic的Claude Gov已经在帮美军分析伊朗目标的情报了。&lt;/p&gt;
&lt;p&gt;但目前有个关键限制：&lt;strong&gt;模型只能用机密数据回答问题，不能从这些数据中学习&lt;/strong&gt;。也就是说，你可以把机密文档喂给模型让它总结，但训练过程还是只能在非机密数据上做。&lt;/p&gt;
&lt;p&gt;这次讨论的就是要打破这个限制——允许模型直接在机密数据上做微调甚至全参数训练。&lt;/p&gt;
&lt;h2 id=&#34;为什么现在要这么做&#34;&gt;为什么现在要这么做？&lt;/h2&gt;
&lt;p&gt;原因其实很直接：需求摆在那了。&lt;/p&gt;
&lt;p&gt;美军喊出&amp;quot;AI优先&amp;quot;的作战转型口号后，对更强大模型的需求越来越迫切。现在模型虽然能用，但在特定任务上准确率不够——比如识别特殊地形的目标，解读密语编码的情报，这些都得用真实数据训练才能提上来。&lt;/p&gt;
&lt;p&gt;一位匿名的国防官员确认，OpenAI和xAI都已经拿到合同，模型都进了机密环境，现在就差训练这一步。做成了，特定任务的准确率会提升非常明显。&lt;/p&gt;
&lt;p&gt;打个比方，美军无人机一天能拍几十万张照片，靠人根本看不完。AI能帮忙找目标，但模型要是没见过真实战区长什么样，误报率就下不来。用真实数据训练一遍，误报能少一大截。&lt;/p&gt;
&lt;h2 id=&#34;最大的争议模型会记住机密吗&#34;&gt;最大的争议：模型会&amp;quot;记住&amp;quot;机密吗？&lt;/h2&gt;
&lt;p&gt;这件事最大的风险谁都能想到：&lt;strong&gt;模型训练的时候会不会把敏感数据记住，然后在别的对话中一不小心泄露出来？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;说实话，这个问题现在没有完美答案。&lt;/p&gt;
&lt;p&gt;比如训练数据里有一份情报人员的报告，模型把这个信息学进参数里了。后来别的部门用这个模型问答，问到相关问题，模型直接就说漏嘴了。不同密级部门要是共用模型，这种风险真的防不胜防。&lt;/p&gt;
&lt;p&gt;按照现在透出来的方案，训练会在认证过的安全数据中心里做，数据还是国防部的。只有极少数AI公司人员拿到安全许可才能接触数据。但就算这样，训练完模型后数据会不会在参数里&amp;quot;残留&amp;quot;，现在谁也说不准。&lt;/p&gt;
&lt;p&gt;这本来就是大模型技术的原生问题：你没法精准控制模型记住了什么，没记住什么。脱敏处理能挡一些简单的提取攻击，但没法保证100%干净。&lt;/p&gt;
&lt;h2 id=&#34;这不是第一次也不会是最后一次&#34;&gt;这不是第一次，也不会是最后一次&lt;/h2&gt;
&lt;p&gt;其实美军用AI训练机密数据早就有先例了。比如国家地理空间情报局（NGA）之前就给创业公司发了7.08亿美元的合同，让他们用卫星影像训练计算机视觉模型，帮着找目标。&lt;/p&gt;
&lt;p&gt;但那次都是传统CV模型，不是现在这种大语言模型。传统CV模型训练完了，推理的时候参数里不太容易还原出原始训练数据——而大语言模型不一样，现在已经有很多研究证明，你可以通过提示工程从模型参数里榨出训练数据里的原文。&lt;/p&gt;
&lt;p&gt;所以风险等级完全不一样。之前是图像数据训练，现在是文字情报、对话记录、甚至人员信息训练，后果严重多了。&lt;/p&gt;
&lt;h2 id=&#34;技术走到这一步平衡在哪里&#34;&gt;技术走到这一步，平衡在哪里？&lt;/h2&gt;
&lt;p&gt;我看到很多评论说这就是&amp;quot;AI军事化&amp;quot;，要出大事了。但换个角度看，技术发展到现在，这一步其实早晚要走。&lt;/p&gt;
&lt;p&gt;AI在情报分析、目标识别这些场景确实能大幅提升效率。美军现在前线的情报处理压力很大，人手不够，不用AI真顶不住。但要让AI好用，就必须给它看真实数据——这是绕不开的逻辑。&lt;/p&gt;
&lt;p&gt;问题就是安全和能力怎么平衡。现在来看，可能的方向是：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;隔离训练&lt;/strong&gt;：在完全物理隔离的环境里训练，训练完了模型也不出去，就在机密内网用&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;分级授权&lt;/strong&gt;：不同密级数据训练不同模型，低密级不能用高密级训练出来的模型&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;持续监测&lt;/strong&gt;：对模型输出做审计，发现异常输出就紧急撤回&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;但这些都是管理手段，技术上的根本风险还是存在。现在谁也给不出打包票的解决方案——整个行业都还在摸索。&lt;/p&gt;
&lt;h2 id=&#34;对我们有什么影响&#34;&gt;对我们有什么影响？&lt;/h2&gt;
&lt;p&gt;这事说到底是美军自己的转型，但对整个AI行业都有影响。&lt;/p&gt;
&lt;p&gt;OpenAI、Anthropic能拿到国防部合同，接触机密数据，意味着这些公司和政府的绑定会越来越深。以后所谓纯商业公司的技术中立性，恐怕会越来越让人怀疑。&lt;/p&gt;
&lt;p&gt;更重要的是，这事给所有做行业大模型的人敲了个警钟：&lt;strong&gt;数据隐私和模型安全，真的是悬在头上的一把剑&lt;/strong&gt;。你帮企业训练定制模型，要是敏感数据从模型里漏出去了，这个责任谁扛得住？&lt;/p&gt;
&lt;p&gt;现在很多企业都在把私有数据喂给大模型做微调，训自己的定制模型。大部分人其实没想明白：如果模型记住了敏感数据，怎么防提取？怎么防泄露？&lt;/p&gt;
&lt;p&gt;五角大楼这事把这个问题直接摆到台面上了。技术跑得太快，规则和安全技术还没跟上——这就是我们现在的处境。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&#34;&gt;The Pentagon is planning for AI companies to train on classified data&lt;/a&gt;, MIT Technology Review&lt;/em&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
