熟悉Redmi手机的一定知道,每次新机发布宣传都会铺下一个梗。继上次「最会保护自己的弹出式全面屏手机」Redmi K30 Pro后,这一次,Redmi又带着「最强王者」来了。
从星耀一打上王者需要多久,答案背后是单排玩家的心酸。但如果是大神上分,他的手机会告诉你,从星耀五上王者,只是3小时40分,51%电量,25连胜局而已。
这款手机就是Redmi 10X系列。
最新Redmi 10X系列包括三款机型,分别是Redmi 10X、Redmi 10X Pro、Redmi 10X 4G。
正如同名字X代表未知,你永远不知道这款手机的极限。全新推出的X系列是Redmi为全球年轻用户打造的“轻旗舰”手机,以比肩旗舰机的高性能处理器做基础,致力成为同级产品中的「性能王者」。
新X系列完善Redmi产品矩阵
2019年是Redmi品牌独立的第一年,Redmi推出了多款备受市场认可的产品。同时,Redmi也在不断完善自身产品线布局,以满足全球不同消费者的需求。
此次X系列是Redmi继性能旗舰K系列之后,推出的为全球年轻用户全新设计的“轻旗舰”。自此,Redmi拥有了更完善的产品矩阵:
数字系列定位「五星高品质入门机」,Note系列定位「潮流科技,先锋影像」,X系列定位「新锐科技,源于内“芯”」,K系列定位「极致科技,性能旗舰」,从千元至五千元的全价位段精细化布局,让Redmi有能力从各个维度满足全球用户的多样需求。
双5G待机,全球首发天玑820
天玑820处理器是Redmi这次在Redmi 10X系列上准备的“杀手锏”,其综合性能与去年高端旗舰骁龙855接近,安兔兔跑分超过41万,官方称其为5G手机处理器中的“中量级拳王”。
同时,Redmi 10X还是全球首批支持5G+5G的双5G待机,相比于当前主流的5G+4G双卡方案,Redmi 10 X的主副两张SIM卡可同时接入高速5G网络,根据网络环境在主副卡之间智能切换,配合360度防抱死天线设计,拥有超强5G信号,大幅改善高铁、高速、电梯、地库等复杂场景下的5G连接稳定性和速度,确保“Always-on 5G”的高速网络体验。
全系搭载4800万超清多摄相机,Redmi 10X Pro更是拥有OIS光学防抖变焦镜头,可实现最大3倍光学、30倍数码变焦。两款产品还配备同价位竞品中少有的三星AMOLED屏幕、线性马达和坚固的双面康宁GG5玻璃。
关于电量,Redmi 10X也十分自信,内置4520mAh大容量电池,Redmi 10X支持22.5W快充,Redmi 10X Pro升级为33W疾速闪充,并支持全功能NFC。毕竟从星耀V到王者,25连胜,用时3小时40分,还剩余电量49%,真的强悍。
而这样一款手机,价格也非常亲民,Redmi也将5G手机的门槛拉至1500元档,持续推动着5G的普及。
不过,Redmi也提供了相应的4G版机型——Redmi 10X 4G,全球首发Helio G85游戏处理器,标配128GB大存储,6.53英寸小孔全面屏,4800万全场景四摄,拥有指纹+人脸双重解锁,内置超大的5020mAh大电池,支持18W快充,同样适配MIUI12系统。
据悉,Redmi 10X将于6月1日发售,6GB+64GB版1599元,6GB+128GB版1799元,8GB+128GB版2099元,8GB+256GB版2399元;Redmi 10X Pro 6月5日发售,8GB+128GB版2299元,8GB+256GB版2599元;Redmi 10X 4G 5月26日发售,4GB+128GB版999元,6GB+128GB版1199元。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。