<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>AI观察 on 赛博工具站</title>
    <link>https://haodaohang.top/categories/ai%E8%A7%82%E5%AF%9F/</link>
    <description>Recent content in AI观察 on 赛博工具站</description>
    <image>
      <title>赛博工具站</title>
      <url>https://haodaohang.top/images/cover.png</url>
      <link>https://haodaohang.top/images/cover.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Fri, 27 Mar 2026 20:55:00 +0800</lastBuildDate>
    <atom:link href="https://haodaohang.top/categories/ai%E8%A7%82%E5%AF%9F/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>吹哨人爆料：Meta 和 TikTok 故意放任有害内容涨流量</title>
      <link>https://haodaohang.top/posts/2026-03-27-meta-tiktok-whistleblower/</link>
      <pubDate>Fri, 27 Mar 2026 20:55:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-meta-tiktok-whistleblower/</guid>
      <description>&lt;p&gt;BBC 报道了一则消息：吹哨人爆料称，Meta 和 TikTok 的算法故意放任有害内容，目的就是为了提高互动量。&lt;/p&gt;
&lt;p&gt;这事儿说大不大，说小也不小。&lt;/p&gt;
&lt;h2 id=&#34;爆料的核心内容&#34;&gt;爆料的核心内容&lt;/h2&gt;
&lt;p&gt;吹哨人声称，两家公司的推荐算法在判断内容是否有害时，会&amp;quot;睁一只眼闭一只眼&amp;quot;。那些能引发激烈争论、情绪对立、甚至仇恨传播的内容，往往能获得更高的推荐权重。&lt;/p&gt;
&lt;p&gt;原因很简单：这类内容的互动率极高。愤怒的评论、激烈的转发、长时间的停留——这些&amp;quot;毒流量&amp;quot;正是平台最想要的。&lt;/p&gt;
&lt;h2 id=&#34;这算是新闻吗&#34;&gt;这算是&amp;quot;新闻&amp;quot;吗？&lt;/h2&gt;
&lt;p&gt;严格来说，不算。&lt;/p&gt;
&lt;p&gt;行业里一直有个公开的秘密：极端内容比温和内容更容易火。YouTube 的&amp;quot;兔子洞&amp;quot;、Facebook 的&amp;quot;信息茧房&amp;quot;、TikTok 的&amp;quot;上瘾机制&amp;quot;，本质上都是这个逻辑。&lt;/p&gt;
&lt;p&gt;区别在于：以前大家会说&amp;quot;这是算法无意中的副作用&amp;quot;，现在吹哨人说&amp;quot;这是有意为之&amp;quot;。&lt;/p&gt;
&lt;h2 id=&#34;平台会怎么回应&#34;&gt;平台会怎么回应？&lt;/h2&gt;
&lt;p&gt;标准话术已经准备好了：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;ldquo;我们一直在努力减少有害内容的传播&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;我们的系统在不断完善&amp;rdquo;&lt;/li&gt;
&lt;li&gt;&amp;ldquo;我们投入了大量资源进行内容审核&amp;rdquo;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;但问题在于：投入资源 ≠ 改变激励机制。只要算法的优化目标还是&amp;quot;最大化用户时长&amp;quot;，有害内容就永远有生存空间。&lt;/p&gt;
&lt;h2 id=&#34;对用户意味着什么&#34;&gt;对用户意味着什么？&lt;/h2&gt;
&lt;p&gt;如果你发现自己刷短视频越刷越气，或者评论区总能看到极端言论，不要觉得是自己&amp;quot;运气不好&amp;quot;——你看到的，正是算法&amp;quot;精心挑选&amp;quot;给你的。&lt;/p&gt;
&lt;p&gt;应对方法：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;有意识地识别情绪，意识到&amp;quot;我被操控了&amp;quot;&lt;/li&gt;
&lt;li&gt;主动关注温和、理性的创作者&lt;/li&gt;
&lt;li&gt;控制使用时长，别让算法主导你的信息摄入&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;监管会有变化吗&#34;&gt;监管会有变化吗？&lt;/h2&gt;
&lt;p&gt;欧盟的《数字服务法案》已经要求平台公开推荐算法的工作原理。美国也在讨论类似立法。&lt;/p&gt;
&lt;p&gt;但监管的速度永远追不上技术的迭代。今天限制的是&amp;quot;有害内容推荐&amp;quot;，明天算法就会用&amp;quot;争议性内容&amp;quot;来绕过。&lt;/p&gt;
&lt;h2 id=&#34;我的判断&#34;&gt;我的判断&lt;/h2&gt;
&lt;p&gt;这次爆料不会改变什么。Meta 和 TikTok 会继续否认，用户会继续使用，有害内容会继续传播。&lt;/p&gt;
&lt;p&gt;但至少，多一个人知道真相，就多一分清醒。算法不是中立的，它在替平台赚钱，不是在为你服务。&lt;/p&gt;
&lt;p&gt;知道这一点，你就已经赢了一半。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://www.bbc.com/news/articles/cqj9kgxqjwjo&#34;&gt;BBC 报道&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>五角大楼要让 AI 公司用机密数据训练模型，这意味着什么？</title>
      <link>https://haodaohang.top/posts/2026-03-27-pentagon-ai-classified/</link>
      <pubDate>Fri, 27 Mar 2026 20:50:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-pentagon-ai-classified/</guid>
      <description>&lt;p&gt;五角大楼正在制定一项计划，允许 AI 公司在涉密数据上训练模型。这个消息来自 MIT Technology Review 对国防部官员的采访。&lt;/p&gt;
&lt;p&gt;表面上看，这是 OpenAI 的一个大单。但背后的博弈远不止商业合作那么简单。&lt;/p&gt;
&lt;h2 id=&#34;为什么五角大楼需要-ai-公司&#34;&gt;为什么五角大楼需要 AI 公司？&lt;/h2&gt;
&lt;p&gt;美军的 AI 需求已经非常迫切。从无人机群控制到情报分析，从后勤预测到网络防御，每个环节都在喊&amp;quot;我们要 AI&amp;quot;。&lt;/p&gt;
&lt;p&gt;但美军有个硬约束：涉密数据不能流出。AI 公司的模型只能在公开数据上训练，对军方的特殊需求理解有限。&lt;/p&gt;
&lt;p&gt;这次计划的核心，就是让 AI 公司能接触涉密数据，在安全环境中训练出&amp;quot;懂军方&amp;quot;的模型。&lt;/p&gt;
&lt;h2 id=&#34;技术上怎么实现&#34;&gt;技术上怎么实现？&lt;/h2&gt;
&lt;p&gt;最可能的方案是&amp;quot;安全飞地&amp;quot;——在军方控制的设施内部署训练集群，AI 公司的工程师可以远程参与，但数据从不离开围墙。&lt;/p&gt;
&lt;p&gt;Google、Microsoft、Amazon 都有类似的安全云服务。OpenAI 如果要参与，得接受严格的安全审查，人员也要过保密资质。&lt;/p&gt;
&lt;p&gt;这不是简单的商业合作，更像是一场信任赌博。军方要相信 AI 公司不会泄密，AI 公司要相信军方不会把他们的技术吃干抹净。&lt;/p&gt;
&lt;h2 id=&#34;伦理争议在哪里&#34;&gt;伦理争议在哪里？&lt;/h2&gt;
&lt;p&gt;最大的争议在于：军用 AI 到底能干什么？&lt;/p&gt;
&lt;p&gt;如果模型被用于&amp;quot;分析战场态势&amp;quot;，大多数人能接受。但如果被用于&amp;quot;自主打击决策&amp;quot;，那就是另一回事了。&lt;/p&gt;
&lt;p&gt;OpenAI 之前承诺过不会让模型参与武器开发。但五角大楼的需求往往游走在灰色地带。情报分析、目标识别、作战模拟——这些到底是&amp;quot;防御性&amp;quot;还是&amp;quot;攻击性&amp;quot;，界限很模糊。&lt;/p&gt;
&lt;h2 id=&#34;对-ai-行业的影响&#34;&gt;对 AI 行业的影响&lt;/h2&gt;
&lt;p&gt;从商业角度看，这是 AI 公司的&amp;quot;登堂入室&amp;quot;时刻。&lt;/p&gt;
&lt;p&gt;拿到了军方的合同，意味着技术得到最高级别的认可，也意味着稳定的大额收入。但同时也意味着被绑上战车——未来的每一次军事行动，公众都会追问&amp;quot;AI 在其中扮演了什么角色&amp;quot;。&lt;/p&gt;
&lt;p&gt;Google 员工抗议 Project Maven 的场景，可能会在更多公司重演。&lt;/p&gt;
&lt;h2 id=&#34;我的判断&#34;&gt;我的判断&lt;/h2&gt;
&lt;p&gt;这个计划大概率会推进，但不会一帆风顺。&lt;/p&gt;
&lt;p&gt;军方需要 AI，AI 公司需要大客户，这是双向奔赴。但安全审查、伦理红线、舆论压力，每一个环节都可能踩雷。&lt;/p&gt;
&lt;p&gt;对普通人来说，最值得关心的是：军用 AI 的边界在哪里？我们是否需要公开讨论和立法？&lt;/p&gt;
&lt;p&gt;技术没有善恶，但技术的使用方式有。让 AI 更好地保护安全，还是让 AI 更高效地制造武器，这是人类社会必须回答的问题。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/&#34;&gt;MIT Technology Report&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>GPT-5.4 mini/nano 发布：小模型价格战杀疯了</title>
      <link>https://haodaohang.top/posts/2026-03-27-gpt-mini-price-war/</link>
      <pubDate>Fri, 27 Mar 2026 20:45:00 +0800</pubDate>
      <guid>https://haodaohang.top/posts/2026-03-27-gpt-mini-price-war/</guid>
      <description>&lt;p&gt;OpenAI 这次是真把价格打下来了。&lt;/p&gt;
&lt;p&gt;GPT-5.4 mini 和 nano 两款小模型刚发布，官方给的数据是：标注 76,000 张图片只要 52 美元。折算下来，单张图片成本 0.00068 美元，也就是不到一厘钱。&lt;/p&gt;
&lt;p&gt;这个价格意味着什么？&lt;/p&gt;
&lt;h2 id=&#34;小模型到底便宜在哪&#34;&gt;小模型到底便宜在哪？&lt;/h2&gt;
&lt;p&gt;先看参数规模。mini 和 nano 是 GPT-5.4 的&amp;quot;瘦身版&amp;quot;，参数量分别是原版的 1/10 和 1/50。参数少，推理成本就低，延迟也更快。&lt;/p&gt;
&lt;p&gt;便宜的不只是图像理解。文本生成、代码补全，这两款小模型的定价都在行业低位。OpenAI 的算盘很清楚：用低价抢占长尾市场，让开发者习惯他们的生态。&lt;/p&gt;
&lt;h2 id=&#34;对创业公司意味着什么&#34;&gt;对创业公司意味着什么？&lt;/h2&gt;
&lt;p&gt;好消息是：依赖视觉 API 的创业公司成本压力会小很多。之前用 GPT-4 Vision 做图片分析，跑几万张图就得心疼钱包。现在用 nano，成本能压到原来的几分之一。&lt;/p&gt;
&lt;p&gt;坏消息是：大厂都在卷小模型。Google 的 Gemini Flash、Anthropic 的 Claude Haiku、Mistral 的 Ministral，价格一路往下探。创业公司如果只做&amp;quot;调用 API 做应用&amp;quot;，护城河会越来越浅。&lt;/p&gt;
&lt;h2 id=&#34;真的能替代大模型吗&#34;&gt;真的能替代大模型吗？&lt;/h2&gt;
&lt;p&gt;不能。&lt;/p&gt;
&lt;p&gt;小模型的短板很明显：复杂推理能力弱，长上下文处理吃力，对专业领域的理解也有限。如果你要写一篇深度分析文章，或者让模型理解一份 100 页的技术文档，mini 和 nano 都扛不住。&lt;/p&gt;
&lt;p&gt;它们更适合的场景是：批量处理、简单问答、实时交互。比如给电商网站的商品图自动打标签，或者给客服机器人做第一轮筛选。&lt;/p&gt;
&lt;h2 id=&#34;小模型价格战会持续多久&#34;&gt;小模型价格战会持续多久？&lt;/h2&gt;
&lt;p&gt;至少还要打一年。&lt;/p&gt;
&lt;p&gt;现在各家都在赌小模型会成为 AI 应用的&amp;quot;水电煤&amp;quot;——无处不在，价格低到用户不敏感。谁能先把成本压到极致，谁就能占据更大的市场份额。&lt;/p&gt;
&lt;p&gt;但对开发者来说，这不是坏事。以前跑不起的实验，现在可以跑了。以前只能用开源模型的场景，现在也能用商业 API 了。&lt;/p&gt;
&lt;h2 id=&#34;我的判断&#34;&gt;我的判断&lt;/h2&gt;
&lt;p&gt;小模型会越来越便宜，性能也会越来越好。但&amp;quot;最便宜&amp;quot;不等于&amp;quot;最好用&amp;quot;。&lt;/p&gt;
&lt;p&gt;选模型还是要看场景。如果你做的是高精度医疗影像分析，别省那点钱，用最好的大模型。如果你做的是社交媒体图片分类，nano 可能就够用了。&lt;/p&gt;
&lt;p&gt;这次 OpenAI 的定价，本质上是把&amp;quot;能用的门槛&amp;quot;降低了。至于&amp;quot;好用的门槛&amp;quot;，还是要靠模型能力说话。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;参考来源：&lt;a href=&#34;https://simonwillison.net/2026/Mar/17/mini-and-nano/#atom-everything&#34;&gt;Simon Willison 的分析&lt;/a&gt;、&lt;a href=&#34;https://openai.com/index/introducing-gpt-5-4-mini-and-nano&#34;&gt;OpenAI 官方公告&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
