从《偶像练习生》、《创造101》,再到《乘风破浪的姐姐》、《创造营》和《青春有你》,这类选秀节目似乎从不缺少热度和话题,追捧的观众一茬接一茬,“C位出道”也成为非常有魔力的一个词汇。
正是看到了“年轻人”喜欢追求潮流、时尚的特质,中兴在昨日召开了“中兴S30系列线上发布会暨新品成团之夜”,并发布了专为年轻人打造的潮流手机——全新S30系列。
中兴终端总经理倪飞对“S”系列进行了解读,他表示,S是一个年轻的全新产品系列,S代表着Smart(智慧)、Special(特别)和Shine(闪耀)。该系列主打“你更闪耀”的slogan,定位“年轻人的潮流时尚手机”,凭借强劲性能、潮流设计,为年轻主流消费人群在5G时代提供了智能手机新选择。
中兴全新S30系列还特邀刘浩存代言,借助新生代力量的加盟,实现对年轻消费群体的精准触达。
本次活动上,中兴发布了全新S30系列的三款机型:中兴S30 Pro、中兴S30及中兴S30 SE,它们分别有各自的定位,靠着自身的优势来吸引更多“年轻人”的目光与青睐。
中兴S30系列:颜值与实力并存
中兴S30 Pro和S30机身采用星芒印象设计,通过十层微结构设计、AG光学镀膜、纳米级流光纹理等32道工序,将浩瀚宇宙中的星球和其闪耀的光芒汇聚在手机背部,打造幻彩机身。
说到“5G”,这可是中兴的拿手绝活。2021年2月,国际知名专利数据公司发布报告显示,中兴最新5G标准必要专利声明量位列全球前三。中兴S30系列还搭载5G超级天线3.0,采用精益智能天线系统,强场下,速度更快,弱场下,找网快,更稳定。同时还支持智能选网以及4G+5G+WiFi智能三通道加速。
全新智能手机操作系统MyOS 11也为中兴S30系列保驾护航,它是通过倾慕色彩、彰显个性的全新UI设计、操作便捷的智能化设计和全方位的安全隐私保护系统,为中兴S30系列用户带来倾心、贴心、安心的使用体验。
中兴S30 Pro:屏幕、自拍
中兴S30 Pro的定位是——同档位屏幕刷新率最高、自拍最清晰的5G智能手机。
先来看看屏幕,中兴S30 Pro配备了144Hz高刷新率AMOLED全高清大屏,能够智能识别33种应用场景,针对不同帧率的内容逐一精准匹配,以四档变速匹配60Hz-144Hz全场景,为用户带来更智能的流畅操作体验。
宣传自拍的手机,前置摄像头都有“玄机”。中兴S30 Pro搭载了4400万超清美颜前摄及全新自然美颜算法,能在自拍时为用户保留更多真实细节。除此之外,它还搭载了后置6400万高清四摄,人物、大场景、超微距,都能轻松驾驭。
除了这些优势,中兴S30 Pro还配备了55W超级快充、4200mAh大容量电池,让用户可以轻松化解手机电量危机。
中兴S30与中兴S30 SE:各有亮点
中兴S30配备了90Hz+高刷新率屏幕以及与S30 Pro相同的6400万像素AI全场景四摄,可以拍摄120度超广角视频,支持主摄、广角视频双路防抖,智能Vlog短视频,也能带给你优质的拍摄体验;中兴S30 SE则搭配了4800万像素AI三摄,6000mAh超大高密度电池,搭配AI智能省电,不仅实现超长续航,充电也快。
活动上,中兴还推出了全新生态产品智能手表ZTE Watch GT及中兴骐骥 AX5400 Wi-Fi 6增强版路由器等多款家庭智能终端,为消费者带来全场景无缝衔接的5G智能生活新方式。
中兴作为具备云、管、端综合通讯能力的科技大厂,拥有从底层到应用的自主产业链,对于核心技术的理解更加透彻。2021年,中兴将持续聚焦以手机为核心的“1+2+N”产品战略(1是智能手机,它是一个核心入口;2是个人数据产品和家庭数据产品;N是周边生态产品),降为用户带来更多极具竞争力和差异化的产品,布局属于中兴的生态圈,让每个中兴的用户都能畅享5G时代更贴心、舒适、便捷的智能新生活。
好文章,需要你的鼓励
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。