作为致力于将社交网络Bluesky与更广泛的fediverse(联邦宇宙,另一种开放社交网络,其中包括Mastodon等网站)进行对接的Bridgy Fed项目,已经成为新兴非营利组织A New Social孵化的首款应用。该组织于近期宣布,将召集一众开发人员、研究人员、初创企业及行业领导者,共同为开放社交网络构建基础设施。其中包括采用Bluesky AT协议以及ActivityPub等协议的社交平台,目前这些协议已经在为Mastodon、Meta的Threads以及联邦宇宙中的其他参与者提供支持。
这家非营利组织由CTO兼Bridgy Fed创始人Ryan Barrett以及工程负责人、现任A New Social CEO兼执行董事的Anuj Ahooja共同创立。
Ahooja一直积极参与涉及联邦宇宙的各类项目,之前就曾为一家希望通过付费订阅优质feed以资助联邦宇宙建设的服务商提供过咨询。由于缺乏资金,这项名为sub.club的服务以及Mastodon上的应用Mammoth已被关停。然而,在这信社交网络大爆发的新时代,人们尝试不同想法、快速失败、而后转向其他想法已经成为常态,所以此类实验性举措相信将持续涌现。
Barrett的思路是通过Bridgy Fed建立起一家非营利组织,进而帮助开放社交网络相关项目从个人业余课题成长为真正能够吸引广泛关注的重量级产品。他还希望Bridgy Fed能够在关于技术开发的激烈争论当中发挥调解作用。
随着他与各方持续交流自己在Bridgy Fed上构建的成果,他逐渐意识到这项工作将发展为更加成熟的基础设施,因此必然需要某种形式的组织结构和指导意见作为依托与前进方针。
Barrett表示,他愿意接受从风险投资公司筹集外部资金的想法,但也承认目前的Bridgy Fed还没有明确的业务定位。他坦言:“就其产品和服务而言,Bridgy Fed处于很奇怪的状态……我自己也不清楚它的具体商业模式。”
因此Barrett没有选择初创路线,而是与Ahooja携手合作——后者已经开始与A New Social接洽,在非营利组织之下,组织一系列公共事业。Ahooja看到了Barrett为Bridgy Fed发布的求助帖,立刻意识到双方有必要尽快谈谈。
Ahooja回忆称:“双方刚见面就一拍即合。我不仅知道Bridgy Fed当下在做什么,还很清楚他们提出的联合网络的意义以及可以用它做些什么。我觉得自己的想法立刻与Ryan的思维产生了共鸣。”
A New Social目前正在招募董事会成员来指导其工作。该组织最初将专注于Bridgy Fed,并通过众筹、赠款及行业合作伙伴投资等其他渠道筹措资金。(据了解,与行业合作伙伴的接洽已经在进行当中。)
该组织随后将发掘更多与Bridgy Fed类似的开放社交项目,物色那些希望构建开放社交网络、或者将目前彼此孤立的不同开放生态系统连通起来的技术成果。相信未来会有更多基于不同协议构建的项目加入进来,例如Farcaster、nostr等等。
这家非营利组织还将与领域内的现有领导者合作,包括Bluesky、Flipboard、Meta(其Threads应用程序已经集成ActivityPub协议)以及Mastodon等,合多方之力发掘合适的项目及其开发者。
Ahooja解释道:“在开始这项工作之前,我们需要确保先有平台加入进来。因为如果没有平台的支持,我们的存在将毫无意义。我认为这是A New Social组织之所以存在的重要理由,所以我们会围绕所有不同平台制定统一流程:让各方齐聚一堂,顺畅对话、百家争鸣。”
A New Social并不是近期唯一一家专注于开放社交网络的组织。前段时间,另一家新兴非营利组织社交网络基金会(SWF,由ActivityPub协议的共同作者Evan Prodromou参与创立)正式成立,专注于扩大联邦宇宙并优化用户的社交使用体验。随着A New Social的发展壮大,它也有计划与社交网络基金会及其他组织(包括专注于在线信任和安全问题的组织Independent Federated Trust & Safety,简称IFTAS)开展合作。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。