<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>GPT-5.4 on 赛博工具站</title>
    <link>https://haodaohang.top/tags/gpt-5.4/</link>
    <description>Recent content in GPT-5.4 on 赛博工具站</description>
    <image>
      <title>赛博工具站</title>
      <url>https://haodaohang.top/images/cover.png</url>
      <link>https://haodaohang.top/images/cover.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Fri, 27 Mar 2026 20:45:00 +0800</lastBuildDate>
    <atom:link href="https://haodaohang.top/tags/gpt-5.4/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>GPT-5.4 mini/nano 发布：小模型价格战杀疯了</title>
      <link>https://haodaohang.top/posts/2026-03-27-gpt-mini-price-war/</link>
      <pubDate>Fri, 27 Mar 2026 20:45:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-gpt-mini-price-war/</guid>
      <description>&lt;p&gt;OpenAI 这次是真把价格打下来了。&lt;/p&gt;
&lt;p&gt;GPT-5.4 mini 和 nano 两款小模型刚发布，官方给的数据是：标注 76,000 张图片只要 52 美元。折算下来，单张图片成本 0.00068 美元，也就是不到一厘钱。&lt;/p&gt;
&lt;p&gt;这个价格意味着什么？&lt;/p&gt;
&lt;h2 id=&#34;小模型到底便宜在哪&#34;&gt;小模型到底便宜在哪？&lt;/h2&gt;
&lt;p&gt;先看参数规模。mini 和 nano 是 GPT-5.4 的&amp;quot;瘦身版&amp;quot;，参数量分别是原版的 1/10 和 1/50。参数少，推理成本就低，延迟也更快。&lt;/p&gt;
&lt;p&gt;便宜的不只是图像理解。文本生成、代码补全，这两款小模型的定价都在行业低位。OpenAI 的算盘很清楚：用低价抢占长尾市场，让开发者习惯他们的生态。&lt;/p&gt;
&lt;h2 id=&#34;对创业公司意味着什么&#34;&gt;对创业公司意味着什么？&lt;/h2&gt;
&lt;p&gt;好消息是：依赖视觉 API 的创业公司成本压力会小很多。之前用 GPT-4 Vision 做图片分析，跑几万张图就得心疼钱包。现在用 nano，成本能压到原来的几分之一。&lt;/p&gt;
&lt;p&gt;坏消息是：大厂都在卷小模型。Google 的 Gemini Flash、Anthropic 的 Claude Haiku、Mistral 的 Ministral，价格一路往下探。创业公司如果只做&amp;quot;调用 API 做应用&amp;quot;，护城河会越来越浅。&lt;/p&gt;
&lt;h2 id=&#34;真的能替代大模型吗&#34;&gt;真的能替代大模型吗？&lt;/h2&gt;
&lt;p&gt;不能。&lt;/p&gt;
&lt;p&gt;小模型的短板很明显：复杂推理能力弱，长上下文处理吃力，对专业领域的理解也有限。如果你要写一篇深度分析文章，或者让模型理解一份 100 页的技术文档，mini 和 nano 都扛不住。&lt;/p&gt;
&lt;p&gt;它们更适合的场景是：批量处理、简单问答、实时交互。比如给电商网站的商品图自动打标签，或者给客服机器人做第一轮筛选。&lt;/p&gt;
&lt;h2 id=&#34;小模型价格战会持续多久&#34;&gt;小模型价格战会持续多久？&lt;/h2&gt;
&lt;p&gt;至少还要打一年。&lt;/p&gt;
&lt;p&gt;现在各家都在赌小模型会成为 AI 应用的&amp;quot;水电煤&amp;quot;——无处不在，价格低到用户不敏感。谁能先把成本压到极致，谁就能占据更大的市场份额。&lt;/p&gt;
&lt;p&gt;但对开发者来说，这不是坏事。以前跑不起的实验，现在可以跑了。以前只能用开源模型的场景，现在也能用商业 API 了。&lt;/p&gt;
&lt;h2 id=&#34;我的判断&#34;&gt;我的判断&lt;/h2&gt;
&lt;p&gt;小模型会越来越便宜，性能也会越来越好。但&amp;quot;最便宜&amp;quot;不等于&amp;quot;最好用&amp;quot;。&lt;/p&gt;
&lt;p&gt;选模型还是要看场景。如果你做的是高精度医疗影像分析，别省那点钱，用最好的大模型。如果你做的是社交媒体图片分类，nano 可能就够用了。&lt;/p&gt;
&lt;p&gt;这次 OpenAI 的定价，本质上是把&amp;quot;能用的门槛&amp;quot;降低了。至于&amp;quot;好用的门槛&amp;quot;，还是要靠模型能力说话。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://simonwillison.net/2026/Mar/17/mini-and-nano/#atom-everything&#34;&gt;Simon Willison 的分析&lt;/a&gt;、&lt;a href=&#34;https://openai.com/index/introducing-gpt-5-4-mini-and-nano&#34;&gt;OpenAI 官方公告&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>AI 领域早报 - 2026年3月27日</title>
      <link>https://haodaohang.top/posts/2026-03-27-ai-tech-digest/</link>
      <pubDate>Fri, 27 Mar 2026 08:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-ai-tech-digest/</guid>
      <description>&lt;p&gt;OpenAI 放了两个小模型出来，五角大楼在规划让 AI 公司用机密数据训练，NVIDIA 也在 GTC 2026 上放了不少新品。整理了今天值得关注的几条消息。&lt;/p&gt;
&lt;h2 id=&#34;llm--大模型&#34;&gt;LLM / 大模型&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;GPT-5.4 mini 和 GPT-5.4 nano 刚发布，成本只要 52 美元就能标注 76,000 张照片
&lt;a href=&#34;https://simonwillison.net/2026/Mar/17/mini-and-nano/#atom-everything&#34;&gt;https://simonwillison.net/2026/Mar/17/mini-and-nano/#atom-everything&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;NVIDIA RTX 加速电脑现在可以直连苹果 Vision Pro 了
&lt;a href=&#34;https://blogs.nvidia.com/blog/nvidia-cloudxr-apple-vision-pro/&#34;&gt;https://blogs.nvidia.com/blog/nvidia-cloudxr-apple-vision-pro/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;NVIDIA 和运营商一起搞了 AI 网格，用来优化分布式网络上的推理
&lt;a href=&#34;https://blogs.nvidia.com/blog/telecom-ai-grids-inference/&#34;&gt;https://blogs.nvidia.com/blog/telecom-ai-grids-inference/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;GTC 看点：RTX PC 和 DGX Spark 都能本地跑最新的开源模型和 AI 智能体
&lt;a href=&#34;https://blogs.nvidia.com/blog/rtx-ai-garage-gtc-2026-nemoclaw/&#34;&gt;https://blogs.nvidia.com/blog/rtx-ai-garage-gtc-2026-nemoclaw/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;五角大楼正在计划，允许 AI 公司在涉密数据上训练模型
&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&#34;&gt;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;这周要闻：OpenAI 拿到美军合同，xAI 的 Grok 被起诉传播儿童色情内容
&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134322/the-download-openi-us-military-deal-grok-xai-csam-lawsuit/&#34;&gt;https://www.technologyreview.com/2026/03/17/1134322/the-download-openi-us-military-deal-grok-xai-csam-lawsuit/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;ai-智能体&#34;&gt;AI 智能体&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;OpenAI 官方正式发布 GPT-5.4 mini 和 nano 两个小模型
&lt;a href=&#34;https://openai.com/index/introducing-gpt-5-4-mini-and-nano&#34;&gt;https://openai.com/index/introducing-gpt-5-4-mini-and-nano&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;OpenAI 做了个薪酬洞察工具，帮员工看看自己工资在市场上是什么水平
&lt;a href=&#34;https://openai.com/index/equipping-workers-with-insights-about-compensation&#34;&gt;https://openai.com/index/equipping-workers-with-insights-about-compensation&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;OpenAI 的技术有可能接下来进入伊朗市场
&lt;a href=&#34;https://www.technologyreview.com/2026/03/16/1134315/where-openais-technology-could-show-up-in-iran/&#34;&gt;https://www.technologyreview.com/2026/03/16/1134315/where-openais-technology-could-show-up-in-iran/&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;前沿技术&#34;&gt;前沿技术&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;一篇有意思的论文：为什么 AI 系统其实不会真正&amp;quot;学习&amp;quot;？从认知科学角度讨论自主学习
&lt;a href=&#34;https://arxiv.org/abs/2603.15381&#34;&gt;https://arxiv.org/abs/2603.15381&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Mistral AI 出了 Forge 开发平台
&lt;a href=&#34;https://mistral.ai/news/forge&#34;&gt;https://mistral.ai/news/forge&lt;/a&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>GPT-5.4 vs Claude Sonnet 4.6：两大前沿模型对决，开发者怎么选？</title>
      <link>https://haodaohang.top/posts/2026-03-15-gpt54-vs-claude46/</link>
      <pubDate>Sun, 15 Mar 2026 12:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-15-gpt54-vs-claude46/</guid>
      <description>2026年3月，OpenAI发布GPT-5.4，Anthropic同期推出Claude Sonnet 4.6。两大前沿模型在coding、agent能力、上下文长度等维度展开激烈竞争。本文从开发者视角全面对比两款模型的技术特性、API定价和实际表现。</description>
    </item>
    <item>
      <title>100万token的诅咒：Agent上下文膨胀与压缩解法</title>
      <link>https://haodaohang.top/posts/2026-03-14-agent-context-compression/</link>
      <pubDate>Sat, 14 Mar 2026 14:00:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-14-agent-context-compression/</guid>
      <description>GPT-5.4支持100万token上下文，但测试显示准确率从32k的97.2%暴跌到1M的36.6%。本文探讨Agent上下文管理的核心矛盾与智能压缩解法</description>
    </item>
  </channel>
</rss>
