BBC 报道了一则消息:吹哨人爆料称,Meta 和 TikTok 的算法故意放任有害内容,目的就是为了提高互动量。

这事儿说大不大,说小也不小。

爆料的核心内容

吹哨人声称,两家公司的推荐算法在判断内容是否有害时,会"睁一只眼闭一只眼"。那些能引发激烈争论、情绪对立、甚至仇恨传播的内容,往往能获得更高的推荐权重。

原因很简单:这类内容的互动率极高。愤怒的评论、激烈的转发、长时间的停留——这些"毒流量"正是平台最想要的。

这算是"新闻"吗?

严格来说,不算。

行业里一直有个公开的秘密:极端内容比温和内容更容易火。YouTube 的"兔子洞"、Facebook 的"信息茧房"、TikTok 的"上瘾机制",本质上都是这个逻辑。

区别在于:以前大家会说"这是算法无意中的副作用",现在吹哨人说"这是有意为之"。

平台会怎么回应?

标准话术已经准备好了:

  • “我们一直在努力减少有害内容的传播”
  • “我们的系统在不断完善”
  • “我们投入了大量资源进行内容审核”

但问题在于:投入资源 ≠ 改变激励机制。只要算法的优化目标还是"最大化用户时长",有害内容就永远有生存空间。

对用户意味着什么?

如果你发现自己刷短视频越刷越气,或者评论区总能看到极端言论,不要觉得是自己"运气不好"——你看到的,正是算法"精心挑选"给你的。

应对方法:

  1. 有意识地识别情绪,意识到"我被操控了"
  2. 主动关注温和、理性的创作者
  3. 控制使用时长,别让算法主导你的信息摄入

监管会有变化吗?

欧盟的《数字服务法案》已经要求平台公开推荐算法的工作原理。美国也在讨论类似立法。

但监管的速度永远追不上技术的迭代。今天限制的是"有害内容推荐",明天算法就会用"争议性内容"来绕过。

我的判断

这次爆料不会改变什么。Meta 和 TikTok 会继续否认,用户会继续使用,有害内容会继续传播。

但至少,多一个人知道真相,就多一分清醒。算法不是中立的,它在替平台赚钱,不是在为你服务。

知道这一点,你就已经赢了一半。


参考来源:BBC 报道