预期的 iPhone 17 系列设计模型基于 Majin Bu 最初分享的 CAD 图纸,并得到其他两位 Apple 爆料者的认可。
iPhone 17 产品线预期将推出四款机型,Plus 版本将被新的轻薄版 Air 机型取代:
iPhone 17 设计模型详情: 爆料者 Majin Bu 此前分享了全部四款机型的 CAD 图纸,现在他与 YouTube 频道 iDeviceHelp 合作展示了 3D 打印的模型。
视频仅展示了三款机型,因为 iPhone 17 Pro 和 Pro Max 的设计预计除尺寸外完全相同。
在这四款机型中,基础版 iPhone 17 最不引人注目,因为其设计似乎与 iPhone 16 完全相同。
iPhone 17 Air 预计将比其他机型更加纤薄,针对那些注重轻薄胜过功能性的用户,采用全新的横向单摄设计。
背面采用了全新的相机模组设计,让人联想到 Google Pixel 的相机设计 [...]
"让我们来测量一下这个设计的厚度,看看结果如何 - 哇,这里显示是 0.22 英寸。这将是有史以来最薄的 iPhone。需要注意的是,这款 iPhone 如此之薄,我认为可能无法支持 MagSafe 功能。"
虽然两款 Pro 机型保持了当前的三摄像头三角形排列,但预期的重大变化是凸起的相机模组区域将延伸至手机几乎整个宽度。
根据 CAD 测量数据,两款 Pro 机型今年将略微增加厚度。这与今天一份来自微博的新报告相吻合,报告称增加厚度是为了容纳更大容量的电池。
需要注意的是,这些粗糙的 3D 模型当然无法复制设备的实际表面处理效果,因此仅可作为整体设计的参考,而非实际外观。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。