<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>AI安全 on 赛博工具站</title>
    <link>https://haodaohang.top/tags/ai%E5%AE%89%E5%85%A8/</link>
    <description>Recent content in AI安全 on 赛博工具站</description>
    <image>
      <title>赛博工具站</title>
      <url>https://haodaohang.top/images/cover.png</url>
      <link>https://haodaohang.top/images/cover.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Fri, 27 Mar 2026 20:50:00 +0800</lastBuildDate>
    <atom:link href="https://haodaohang.top/tags/ai%E5%AE%89%E5%85%A8/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>五角大楼要让 AI 公司用机密数据训练模型，这意味着什么？</title>
      <link>https://haodaohang.top/posts/2026-03-27-pentagon-ai-classified/</link>
      <pubDate>Fri, 27 Mar 2026 20:50:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-pentagon-ai-classified/</guid>
      <description>&lt;p&gt;五角大楼正在制定一项计划，允许 AI 公司在涉密数据上训练模型。这个消息来自 MIT Technology Review 对国防部官员的采访。&lt;/p&gt;
&lt;p&gt;表面上看，这是 OpenAI 的一个大单。但背后的博弈远不止商业合作那么简单。&lt;/p&gt;
&lt;h2 id=&#34;为什么五角大楼需要-ai-公司&#34;&gt;为什么五角大楼需要 AI 公司？&lt;/h2&gt;
&lt;p&gt;美军的 AI 需求已经非常迫切。从无人机群控制到情报分析，从后勤预测到网络防御，每个环节都在喊&amp;quot;我们要 AI&amp;quot;。&lt;/p&gt;
&lt;p&gt;但美军有个硬约束：涉密数据不能流出。AI 公司的模型只能在公开数据上训练，对军方的特殊需求理解有限。&lt;/p&gt;
&lt;p&gt;这次计划的核心，就是让 AI 公司能接触涉密数据，在安全环境中训练出&amp;quot;懂军方&amp;quot;的模型。&lt;/p&gt;
&lt;h2 id=&#34;技术上怎么实现&#34;&gt;技术上怎么实现？&lt;/h2&gt;
&lt;p&gt;最可能的方案是&amp;quot;安全飞地&amp;quot;——在军方控制的设施内部署训练集群，AI 公司的工程师可以远程参与，但数据从不离开围墙。&lt;/p&gt;
&lt;p&gt;Google、Microsoft、Amazon 都有类似的安全云服务。OpenAI 如果要参与，得接受严格的安全审查，人员也要过保密资质。&lt;/p&gt;
&lt;p&gt;这不是简单的商业合作，更像是一场信任赌博。军方要相信 AI 公司不会泄密，AI 公司要相信军方不会把他们的技术吃干抹净。&lt;/p&gt;
&lt;h2 id=&#34;伦理争议在哪里&#34;&gt;伦理争议在哪里？&lt;/h2&gt;
&lt;p&gt;最大的争议在于：军用 AI 到底能干什么？&lt;/p&gt;
&lt;p&gt;如果模型被用于&amp;quot;分析战场态势&amp;quot;，大多数人能接受。但如果被用于&amp;quot;自主打击决策&amp;quot;，那就是另一回事了。&lt;/p&gt;
&lt;p&gt;OpenAI 之前承诺过不会让模型参与武器开发。但五角大楼的需求往往游走在灰色地带。情报分析、目标识别、作战模拟——这些到底是&amp;quot;防御性&amp;quot;还是&amp;quot;攻击性&amp;quot;，界限很模糊。&lt;/p&gt;
&lt;h2 id=&#34;对-ai-行业的影响&#34;&gt;对 AI 行业的影响&lt;/h2&gt;
&lt;p&gt;从商业角度看，这是 AI 公司的&amp;quot;登堂入室&amp;quot;时刻。&lt;/p&gt;
&lt;p&gt;拿到了军方的合同，意味着技术得到最高级别的认可，也意味着稳定的大额收入。但同时也意味着被绑上战车——未来的每一次军事行动，公众都会追问&amp;quot;AI 在其中扮演了什么角色&amp;quot;。&lt;/p&gt;
&lt;p&gt;Google 员工抗议 Project Maven 的场景，可能会在更多公司重演。&lt;/p&gt;
&lt;h2 id=&#34;我的判断&#34;&gt;我的判断&lt;/h2&gt;
&lt;p&gt;这个计划大概率会推进，但不会一帆风顺。&lt;/p&gt;
&lt;p&gt;军方需要 AI，AI 公司需要大客户，这是双向奔赴。但安全审查、伦理红线、舆论压力，每一个环节都可能踩雷。&lt;/p&gt;
&lt;p&gt;对普通人来说，最值得关心的是：军用 AI 的边界在哪里？我们是否需要公开讨论和立法？&lt;/p&gt;
&lt;p&gt;技术没有善恶，但技术的使用方式有。让 AI 更好地保护安全，还是让 AI 更高效地制造武器，这是人类社会必须回答的问题。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&#34;&gt;MIT Technology Report&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>五角大楼计划让AI公司在机密数据上训练，这意味着什么？</title>
      <link>https://haodaohang.top/posts/2026-03-26-pentagon-ai-classified-training/</link>
      <pubDate>Thu, 26 Mar 2026 16:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-26-pentagon-ai-classified-training/</guid>
      <description>&lt;p&gt;MIT Technology Review上周爆出一条大料：美国国防部正在和OpenAI、Anthropic等AI公司讨论，计划建立安全环境，允许这些公司直接在机密数据上训练定制模型。&lt;/p&gt;
&lt;p&gt;这条新闻出来后，圈内讨论挺热烈的。有人说这是AI军事化的里程碑，有人担心安全风险hold不住。我们来拆解一下这件事到底意味着什么。&lt;/p&gt;
&lt;h2 id=&#34;现状ai已经进了机密环境但还不能学习&#34;&gt;现状：AI已经进了机密环境，但还不能&amp;quot;学习&amp;quot;&lt;/h2&gt;
&lt;p&gt;现在的情况其实你可能没想到：GPT和Claude这类商用模型早就用在五角大楼了。比如Anthropic的Claude Gov已经在帮美军分析伊朗目标的情报了。&lt;/p&gt;
&lt;p&gt;但目前有个关键限制：&lt;strong&gt;模型只能用机密数据回答问题，不能从这些数据中学习&lt;/strong&gt;。也就是说，你可以把机密文档喂给模型让它总结，但训练过程还是只能在非机密数据上做。&lt;/p&gt;
&lt;p&gt;这次讨论的就是要打破这个限制——允许模型直接在机密数据上做微调甚至全参数训练。&lt;/p&gt;
&lt;h2 id=&#34;为什么现在要这么做&#34;&gt;为什么现在要这么做？&lt;/h2&gt;
&lt;p&gt;原因其实很直接：需求摆在那了。&lt;/p&gt;
&lt;p&gt;美军喊出&amp;quot;AI优先&amp;quot;的作战转型口号后，对更强大模型的需求越来越迫切。现在模型虽然能用，但在特定任务上准确率不够——比如识别特殊地形的目标，解读密语编码的情报，这些都得用真实数据训练才能提上来。&lt;/p&gt;
&lt;p&gt;一位匿名的国防官员确认，OpenAI和xAI都已经拿到合同，模型都进了机密环境，现在就差训练这一步。做成了，特定任务的准确率会提升非常明显。&lt;/p&gt;
&lt;p&gt;打个比方，美军无人机一天能拍几十万张照片，靠人根本看不完。AI能帮忙找目标，但模型要是没见过真实战区长什么样，误报率就下不来。用真实数据训练一遍，误报能少一大截。&lt;/p&gt;
&lt;h2 id=&#34;最大的争议模型会记住机密吗&#34;&gt;最大的争议：模型会&amp;quot;记住&amp;quot;机密吗？&lt;/h2&gt;
&lt;p&gt;这件事最大的风险谁都能想到：&lt;strong&gt;模型训练的时候会不会把敏感数据记住，然后在别的对话中一不小心泄露出来？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;说实话，这个问题现在没有完美答案。&lt;/p&gt;
&lt;p&gt;比如训练数据里有一份情报人员的报告，模型把这个信息学进参数里了。后来别的部门用这个模型问答，问到相关问题，模型直接就说漏嘴了。不同密级部门要是共用模型，这种风险真的防不胜防。&lt;/p&gt;
&lt;p&gt;按照现在透出来的方案，训练会在认证过的安全数据中心里做，数据还是国防部的。只有极少数AI公司人员拿到安全许可才能接触数据。但就算这样，训练完模型后数据会不会在参数里&amp;quot;残留&amp;quot;，现在谁也说不准。&lt;/p&gt;
&lt;p&gt;这本来就是大模型技术的原生问题：你没法精准控制模型记住了什么，没记住什么。脱敏处理能挡一些简单的提取攻击，但没法保证100%干净。&lt;/p&gt;
&lt;h2 id=&#34;这不是第一次也不会是最后一次&#34;&gt;这不是第一次，也不会是最后一次&lt;/h2&gt;
&lt;p&gt;其实美军用AI训练机密数据早就有先例了。比如国家地理空间情报局（NGA）之前就给创业公司发了7.08亿美元的合同，让他们用卫星影像训练计算机视觉模型，帮着找目标。&lt;/p&gt;
&lt;p&gt;但那次都是传统CV模型，不是现在这种大语言模型。传统CV模型训练完了，推理的时候参数里不太容易还原出原始训练数据——而大语言模型不一样，现在已经有很多研究证明，你可以通过提示工程从模型参数里榨出训练数据里的原文。&lt;/p&gt;
&lt;p&gt;所以风险等级完全不一样。之前是图像数据训练，现在是文字情报、对话记录、甚至人员信息训练，后果严重多了。&lt;/p&gt;
&lt;h2 id=&#34;技术走到这一步平衡在哪里&#34;&gt;技术走到这一步，平衡在哪里？&lt;/h2&gt;
&lt;p&gt;我看到很多评论说这就是&amp;quot;AI军事化&amp;quot;，要出大事了。但换个角度看，技术发展到现在，这一步其实早晚要走。&lt;/p&gt;
&lt;p&gt;AI在情报分析、目标识别这些场景确实能大幅提升效率。美军现在前线的情报处理压力很大，人手不够，不用AI真顶不住。但要让AI好用，就必须给它看真实数据——这是绕不开的逻辑。&lt;/p&gt;
&lt;p&gt;问题就是安全和能力怎么平衡。现在来看，可能的方向是：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;隔离训练&lt;/strong&gt;：在完全物理隔离的环境里训练，训练完了模型也不出去，就在机密内网用&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;分级授权&lt;/strong&gt;：不同密级数据训练不同模型，低密级不能用高密级训练出来的模型&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;持续监测&lt;/strong&gt;：对模型输出做审计，发现异常输出就紧急撤回&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;但这些都是管理手段，技术上的根本风险还是存在。现在谁也给不出打包票的解决方案——整个行业都还在摸索。&lt;/p&gt;
&lt;h2 id=&#34;对我们有什么影响&#34;&gt;对我们有什么影响？&lt;/h2&gt;
&lt;p&gt;这事说到底是美军自己的转型，但对整个AI行业都有影响。&lt;/p&gt;
&lt;p&gt;OpenAI、Anthropic能拿到国防部合同，接触机密数据，意味着这些公司和政府的绑定会越来越深。以后所谓纯商业公司的技术中立性，恐怕会越来越让人怀疑。&lt;/p&gt;
&lt;p&gt;更重要的是，这事给所有做行业大模型的人敲了个警钟：&lt;strong&gt;数据隐私和模型安全，真的是悬在头上的一把剑&lt;/strong&gt;。你帮企业训练定制模型，要是敏感数据从模型里漏出去了，这个责任谁扛得住？&lt;/p&gt;
&lt;p&gt;现在很多企业都在把私有数据喂给大模型做微调，训自己的定制模型。大部分人其实没想明白：如果模型记住了敏感数据，怎么防提取？怎么防泄露？&lt;/p&gt;
&lt;p&gt;五角大楼这事把这个问题直接摆到台面上了。技术跑得太快，规则和安全技术还没跟上——这就是我们现在的处境。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&#34;&gt;The Pentagon is planning for AI companies to train on classified data&lt;/a&gt;, MIT Technology Review&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>Snowflake Cortex AI沙箱逃逸：一个README引发的恶意代码执行</title>
      <link>https://haodaohang.top/posts/2026-03-19-snowflake-cortex-sandbox-escape/</link>
      <pubDate>Thu, 19 Mar 2026 16:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-19-snowflake-cortex-sandbox-escape/</guid>
      <description>安全公司披露Snowflake Cortex AI代理的严重漏洞：攻击者将恶意代码隐藏在GitHub README中，当AI审查仓库时触发，绕过「安全命令列表」执行任意代码。本文完整还原攻击链，并给出企业AI代理安全设计建议</description>
    </item>
    <item>
      <title>Nvidia发布NemoClaw：为企业OpenClaw部署提供安全沙箱层</title>
      <link>https://haodaohang.top/posts/2026-03-19-nvidia-nemoclaw/</link>
      <pubDate>Thu, 19 Mar 2026 12:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-19-nvidia-nemoclaw/</guid>
      <description>在GTC 2026大会上，Nvidia推出NemoClaw平台，为开源AI代理框架OpenClaw提供隐私和安全保护层。通过隔离沙箱环境运行自主AI代理，解决了企业部署AI时的数据安全和权限控制难题。</description>
    </item>
    <item>
      <title>从Chrome DevTools MCP到Heretic：AI安全工具链的两面性</title>
      <link>https://haodaohang.top/posts/2026-03-16-ai-security-mcp-heretic/</link>
      <pubDate>Mon, 16 Mar 2026 16:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-16-ai-security-mcp-heretic/</guid>
      <description>同一天，两个AI工具项目登顶热榜，却指向截然不同的方向。Chrome DevTools MCP让AI深入你的浏览器，heretic则专注于移除AI的审查。当工具链越来越强大，边界在哪里？</description>
    </item>
    <item>
      <title>AI Agent 安全攻防：从 Prompt Injection 到企业级防护完全指南</title>
      <link>https://haodaohang.top/posts/2026-03-15-ai-agent-security-guide/</link>
      <pubDate>Sun, 15 Mar 2026 14:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-15-ai-agent-security-guide/</guid>
      <description>OpenAI收购Promptfoo、发布Codex Security，AI Agent安全赛道突然升温。本文结合OpenAI官方指南，深度解析Prompt Injection攻击手法、社会工程陷阱，以及企业级防护方案的落地实践。</description>
    </item>
    <item>
      <title>AI安全的必争之地：OpenAI收购Promptfoo背后的战略信号</title>
      <link>https://haodaohang.top/posts/2026-03-14-promptfoo-openai-acquisition/</link>
      <pubDate>Sat, 14 Mar 2026 12:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-14-promptfoo-openai-acquisition/</guid>
      <description>OpenAI收购Promptfoo释放了明确信号：AI安全测试不再是事后补救，而是开发流程的核心环节。本文分析收购战略意图、Promptfoo核心能力，以及AI安全赛道的未来格局</description>
    </item>
    <item>
      <title>promptfoo：AI 安全测试与红队攻防实战指南</title>
      <link>https://haodaohang.top/posts/2026-03-12-ai-security-red-teaming/</link>
      <pubDate>Thu, 12 Mar 2026 14:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-12-ai-security-red-teaming/</guid>
      <description>随着 AI 应用的大规模部署，AI 安全问题日益凸显。promptfoo 作为专业的 AI 提示测试与红队攻防工具，支持对主流模型进行漏洞扫描与性能对比，帮助开发者构建更安全的 AI 应用。</description>
    </item>
  </channel>
</rss>
