
马斯克(Elon Musk)于 5 月 15 日在 X 上宣布,最新版 X 算法已发布至 GitHub。根据 xAI 在 GitHub 上公开的 xai-org/x-algorithm repository,这次释出的内容主轴,是驱动 X 平台「For You」资讯流的核心推荐系统。该系统结合使用者已追踪帐号的站内内容,以及由机器学习从全球内容库中挖掘出的站外内容,最后再交由基于 Grok 架构的 transformer 模型进行排序。
该项目采 Apache 2.0 授权,主要以 Rust 与 Python 写成;截至查询时,GitHub 显示已有约 2.1 万个 stars、3,800 个 forks。
For You 推荐架构:Thunder 找追踪内容,Phoenix 挖站外内容
根据 repository 说明文件,X 的 For You 资讯流主要由两种候选内容来源组成。
第一是站内内容,由 Thunder 模组负责。Thunder 是一个记忆体内贴文储存区与即时资料摄取管线,会从 Kafka 消费贴文建立与删除事件,追踪所有使用者的近期贴文,并向请求者提供来自其追踪帐号的内容候选。文件强调,Thunder 可在不查询外部资料库的情况下,提供站内内容候选的次毫秒级查询。
第二是站外内容,由 Phoenix Retrieval 负责。Phoenix 会从全球内容库中找出使用者可能感兴趣、但并非来自追踪帐号的贴文。其检索阶段采用双塔模型(Two-Tower Model):User Tower 将使用者特征与互动历史编码成向量,Candidate Tower 将候选贴文编码成向量,再透过点积相似度找出最相关的内容。
这些候选内容会进入 Home Mixer,也就是 For You 资讯流的协调层。Home Mixer 会负责查询使用者上下文、取得候选内容、补齐贴文与作者资料、过滤不合格内容、呼叫排序模型、套用分数调整,最后选出要显示在使用者 For You 页面的贴文。文件也指出,Home Mixer 对外提供 ScoredPostsService 这个 gRPC 端点,用来为特定使用者回传已排序贴文。
Grok 架构成为推荐系统核心
这次最受关注的地方,是 X 推荐系统明确导入 Grok 架构。
GitHub README 指出,For You feed 的内容会由 Phoenix 进行排序,而 Phoenix 是一个基于 Grok 的 transformer 模型,会预测每篇贴文可能引发的互动机率,最后再将这些预测值加权组合成最终分数。文件也注明,这份 repository 中的 transformer 实作,是移植自 xAI 开源的 Grok-1,并针对推荐系统使用情境调整,例如加入自订输入嵌入与候选隔离用的 attention mask。
但这并不等于 X 把完整生产环境模型全部公开。Phoenix README 明确写道,这次释出的是 mini version,production 使用的是更大模型,具备更多层数与更宽的 embeddings;同时,公开版 checkpoint 是从连续训练流程中冻结出来的一个时间点快照,而生产环境 Phoenix 则会持续依照即时资料训练。
5 月 15 日更新:可执行端到端推论、迷你 Phoenix 模型、广告混合系统
根据 GitHub 更新说明,5 月 15 日版本新增了多个关键元件。
首先是端到端推论流程。新的 phoenix/run_pipeline.py 取代原本分开的 run_ranker.py 与 run_retrieval.py,可用单一入口串接「检索 → 排序」流程,并以 exported checkpoints 执行,模拟生产环境中两个阶段如何组合。
其次是预训练模型 artifact。这次释出的 mini Phoenix model 透过 Git LFS 发布,文件称其包含 256 维 embeddings、4 个 attention heads、2 层 transformer,约 3GB,可让开发者不必自行训练模型也能进行 out-of-the-box inference。Phoenix README 另指出,公开的 demo corpus 是一个约 53.7 万笔、来自 6 小时视窗的运动主题贴文资料集,用于展示 retrieval 阶段。
此外,repository 也新增 Grox content-understanding pipeline,用于 spam detection、post-category classification、PTOS policy enforcement 等内容理解任务;同时新增 Home Mixer 的广告混合系统,负责资讯流中的广告插入与位置安排,并纳入品牌安全追踪。
排序模型一次预测 15 种互动,不只是单一「相关性」分数
Phoenix 的排序模型并不是只输出一个抽象的相关性分数,而是同时预测多种互动行为的发生机率。
根据文件,模型会预测包括 favorite、reply、repost、quote、click、profile click、video view、photo expand、share、dwell、follow author,以及 not interested、block author、mute author、report 等 15 种行为。
接着 Weighted Scorer 会将这些互动机率加权组合成最终分数,正向行为如按赞、转发、分享给予正权重,负向行为如封锁、静音、检举则给予负权重,把使用者可能不喜欢的内容往下压。
完成模型分数后,系统还会再套用其他调整。例如 Author Diversity Scorer 会降低重复作者的分数,以维持资讯流多样性;OON Scorer 则会调整 out-of-network 内容,也就是非追踪帐号内容的分数。
这代表 X 的「For You」并不是单纯把最可能被按赞的贴文往上推,而是把多种互动行为拆开预测,再透过权重设计形成最终排序。这也意味着,算法真正的价值判断,并不只存在于模型本身,也存在于各种互动权重与后处理规则中。
候选隔离:贴文分数不应被同批其他贴文影响
这次文件中特别值得注意的是「候选隔离」(Candidate Isolation)。
Phoenix README 指出,在 ranking 阶段,候选贴文之间不能互相 attend,只能注意到使用者与其历史纪录。这项设计的目的,是确保单篇贴文的分数不会因为它和哪些其他贴文一起被放进 batch 而改变。换句话说,一篇贴文的分数应该取决于它和使用者之间的关系,而不是同批次中刚好有哪些竞争贴文。
这对创作者也有潜在意义。过去不少社群操作会推测,发文时间是否应避开热门事件或高互动贴文,以免在推荐池中被强势内容压过。但若候选隔离如文件所述落实,至少在模型推论层面,单篇贴文的分数不会因同批次出现其他强贴文而直接改变。
不过,这不代表发文时间完全不重要。因为前段候选召回、贴文新鲜度、使用者在线时段、已看过内容过滤、热门事件竞争注意力等因素,仍可能影响最终曝光。
「无人工特征」叙事仍有争议:模型排序之外,人工规则仍存在
xAI 在文件中宣称,系统已消除所有人工设计特征与大部分启发式规则,主要依靠 Grok-based transformer 从使用者互动序列中学习相关性。文件也列出五项核心设计,包括无人工设计特征、排序阶段候选隔离、杂凑式嵌入、多行为预测,以及可组合的 pipeline 架构。
但这个说法需要更精准解读。从同一份文件也能看到,For You feed 在进入排序前会先经过大量 pre-scoring filters,例如移除重复贴文、太旧贴文、使用者自己的贴文、被封锁或静音帐号、静音关键字、已看过或近期已出现过的内容,以及不符合资格的订阅内容。排序后还会经过删除、spam、暴力血腥内容与对话串重复分支等 post-selection filters。
因此,较准确的说法应该是:X 宣称「内容相关性的候选排序」主要由 Grok-based transformer 学习而来,不再依赖传统手工内容特征;但整个 For You 资讯流仍有大量产品规则、过滤器、权重与后处理机制。这些规则同样会形塑使用者最终看到的内容。
实战教学:如何利用 X 算法经营帐号
实战来看,创作者若想「顺着算法」经营 X 帐号,重点已不只是单纯追求按赞或转发,而是要理解 For You 系统会同时评估多种互动讯号。正向讯号包括停留时间、点击、回复、转发、追踪作者、观看影片与展开图片;负向讯号则包括不感兴趣、静音、封锁与检举。
这代表内容不能只靠耸动标题骗点击,因为若使用者点进来后快速滑走、按下不感兴趣,甚至封锁作者,反而可能拉低后续推荐表现。
对帐号经营者而言,较有效的策略是提高「互动品质」:开头要在前几秒抓住注意力,内文要能让人停留阅读,结尾则可设计让读者自然回复或分享的观点,而不是硬性诱导互动。同时,由于系统有作者多样性调整,短时间密集连发未必能线性放大曝光,反而可能被同作者降权稀释;更合理的做法是控制发文节奏,让每篇内容都有明确主题、足够资讯密度与可被转传的立场。
最后,站外内容推荐意味着帐号不必只依赖既有粉丝,只要内容能让陌生受众产生停留、点击与追踪行为,就有机会被推进更大的 For You 流量池;但前提是避免低品质农场文、重复内容与过度争议操作,因为这些行为一旦引发静音、封锁或检举,算法给的惩罚通常比短期流量红利更重。
本文链接地址:https://www.wwsww.cn/rgzn/38848.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。



