BBC 报道了一则消息:吹哨人爆料称,Meta 和 TikTok 的算法故意放任有害内容,目的就是为了提高互动量。
这事儿说大不大,说小也不小。
爆料的核心内容
吹哨人声称,两家公司的推荐算法在判断内容是否有害时,会"睁一只眼闭一只眼"。那些能引发激烈争论、情绪对立、甚至仇恨传播的内容,往往能获得更高的推荐权重。
原因很简单:这类内容的互动率极高。愤怒的评论、激烈的转发、长时间的停留——这些"毒流量"正是平台最想要的。
这算是"新闻"吗?
严格来说,不算。
行业里一直有个公开的秘密:极端内容比温和内容更容易火。YouTube 的"兔子洞"、Facebook 的"信息茧房"、TikTok 的"上瘾机制",本质上都是这个逻辑。
区别在于:以前大家会说"这是算法无意中的副作用",现在吹哨人说"这是有意为之"。
平台会怎么回应?
标准话术已经准备好了:
- “我们一直在努力减少有害内容的传播”
- “我们的系统在不断完善”
- “我们投入了大量资源进行内容审核”
但问题在于:投入资源 ≠ 改变激励机制。只要算法的优化目标还是"最大化用户时长",有害内容就永远有生存空间。
对用户意味着什么?
如果你发现自己刷短视频越刷越气,或者评论区总能看到极端言论,不要觉得是自己"运气不好"——你看到的,正是算法"精心挑选"给你的。
应对方法:
- 有意识地识别情绪,意识到"我被操控了"
- 主动关注温和、理性的创作者
- 控制使用时长,别让算法主导你的信息摄入
监管会有变化吗?
欧盟的《数字服务法案》已经要求平台公开推荐算法的工作原理。美国也在讨论类似立法。
但监管的速度永远追不上技术的迭代。今天限制的是"有害内容推荐",明天算法就会用"争议性内容"来绕过。
我的判断
这次爆料不会改变什么。Meta 和 TikTok 会继续否认,用户会继续使用,有害内容会继续传播。
但至少,多一个人知道真相,就多一分清醒。算法不是中立的,它在替平台赚钱,不是在为你服务。
知道这一点,你就已经赢了一半。
参考来源:BBC 报道
