至顶网个人商用频道 11月07日 北京消息(文/陶婧婕)一年前,AMD发布EPYC(霄龙)处理器,宣布重返服务器及数据中心市场。到目前为止,AMD已经推出了50多个服务器的平台,而且都是以量产的方式向市场进行销售的,AMD在全球、在各个细分领域中的系统的合作伙伴已经超过了15个。
今天,AMD发布代号为“Rome”的下一代EPYC(霄龙)处理器。在AMD NEXT HORIZON技术大会上,AMD总裁兼首席执行官苏姿丰博士(Dr. Lisa Su)表示,“Rome是全球第一个7nm数据中心处理器。”看得出来她对下一代EPYC(霄龙)处理器信心满满。
作为唯一能在服务器处理器市场与英特尔抗衡的公司,AMD回归服务器及数据中心市场后的步履稳健,而且新品迭出,给合作伙伴带来了一个又一个惊喜。
7nm工艺、Zen2核心的下一代EPYC(霄龙)处理器“Rome”
在给AMD服务器处理器命名时,AMD坚持“一路向北”,下一代EPYC(霄龙)处理器的芯片名称是Rome,接下来是Milan。(注:Naples、Rome、Milan都是意大利城市的名称,排序是从南到北)
ROME继承了现在的AMD EPYC(霄龙)服务器(Naples)的优良基因,拥有更高的性能以及性价比,能为用户带来更好的效益。
Rome是全球第一个7nm数据中心处理器,其拥有最多64个“Zen 2”核心(比Naples翻了一倍),拥有更高的每周期指令、I/O和内存带宽。与Naples相比,Rome每个插槽的计算性能提升为2倍,每个插槽的浮点性能则为Naples的4倍。在活动现场演示环节,单颗Rome的性能超过了Intel最顶级的双路Xeon服务器(两颗)。
另外,Rome支持PCIe 4.0 的x86服务器处理器,每通道带宽翻倍;Rome的插槽与Naples平台兼容,客户可以平滑过渡。
代号为“Rome”的下一代EPYC(霄龙)处理器已经给客户提供了样片,2019年会正式发布。
亚马逊AWS现已加入AMD EPYC“豪华套餐”
酒香不怕巷子深,亚马逊AWS看到了AMD EPYC(霄龙)处理器的潜力,也成为了AMD的合作伙伴。活动上,AMD和AWS宣布首批基于AMD EPYC(霄龙)处理器的Amazon Elastic Compute Cloud(EC2)云实例立即上线。
全新实例作为Amazon EC2内存优化和通用型系列实例的多种新型号上线。基于AMD的R5和M5实例今天在美国东部(俄亥俄州、北弗吉尼亚)、美国西部(俄勒冈州)、欧洲(爱尔兰)和亚太地区上线,可通过AWS Management Console或AWS Command Line Interface启用,并将很快在更多地区上线。基于AMD的T3实例将在未来几周上线。基于AMD的M5和R5实例提供了六种计算规模服务,最高配备了96个vCPU(虚拟CPU)以及高达768 GB内存。基于AMD的T3实例将提供七种计算规模服务,最高配备8个vCPU以及高达32 GB内存。全新实例可以通过按需、预订或现场实例的形式购买。
据Gartner发布全球公共云市场份额报告(2017年)显示,亚马逊AWS以市场占比54.1%,位居榜首。亚马逊AWS与AMD双方达成合作,也进一步证明了AMD EPYC(霄龙)处理器已经被市场所认可,未来可期。
面向数据中心的7nm GPU——AMD Radeon Instinct MI60和MI50
AMD Radeon Instinct MI60 and MI50是两款采用了7nm“Vega”架构的GPU(全球首款),也是专为机器学习以及人工智能而设计,可带来更高水平的浮点性能,更高的效率和适合数据中心部署的全新特性。
AMD Radeon Instinct MI60集成64个计算单元、4096个流处理器,提供的是32GB的HBM2 ECC显存,拥有14.7T的FP32性能,7.4T的FP64性能,其中浮点性能将会是Vega架构的MI25的2.8倍。
AMD Radeon Instinct MI50则集成60个计算单元、3840个流处理器,相比MI60性能方面略有降低。提供16GB的HBM2 ECC显存,拥有13.4T的FP32性能,6.7T的FP64性能。
MI60/MI50两者都支持PCI-E 4.0、双链路Infinity Fabric,提供1TB/s显存带宽,热设计功耗均为300W。AMD称MI60/50计算卡将会使用“无限带宽”的技术进行连接,提供200GB/S点对点带宽速度,是PCI-e 3.0的速度的6倍。
AMD还公布了ROCm 2.0,一款专为加速运算而生的开源软件平台的新版本,包括了新的数学库、更广泛的软件框架支持和优化的深度学习运行。
为未来布局:Zen2即将发布,Zen3、Zen4核心架构已提上日程
AMD意识到要回到服务器及数据中心市场就必须在新的CPU核心上进行长期的投资,Zen架构也奠定了AMD未来几年产品的路线图。这是AMD高级副总裁兼数据中心与嵌入式解决方案事业部总经理Forrest Norrod在去年Computex上说过的话。
即将推出的“Zen 2”高性能x86 CPU处理器核心,该模块化系统设计采用AMD Infinity Fabric互联的增强版本,在单个处理器封装内链接多片独立的硅晶片(“chiplets”)。
Zen2 CPU核心采用了7nm制程技术,而芯片的I/O部分则采用14nm制程技术,因为后者大部分都是模拟电路,7nm技术不会对其有明显改善,而且混合工艺模块组合的方式还节省了成本,性价比更高。这种混合工艺的全新设计方法,与台积电7nm制程技术相结合,带来了性能、电量消耗和密度的巨大提升。
另外,在前后端改进方面,Zen2有更优良的分支预测器,更出色的指令预取,重新优化的指令缓存和更大的运行缓存;在浮点方面,浮点宽度翻倍,增至256 bit,载入/存储带宽翻倍,增加了分发/收回带宽,所有模式都能够保持高吞吐量;在安全方面,硬件增强的Spectre(幽灵)漏洞修复,采用软件迁移并强化在设计中,同时增加了内存加密的灵活性。
多款7nm AMD产品目前正在推进中,包括Rome以及未发布的Ryzen等产品。此外,后续的基于7nm+的“Zen 3”(2020年)和“Zen 4”(设计中)x86核心架构也都按计划推进。
苏姿丰博士表示:“我们对数据中心硬件和软件路线图的多年投入, 推动我们的CPU与GPU被越来越多的云计算、企业计算和高性能计算客户采用。在接下来的季度里,随着具有业内领先的7nm制程技术的、业界最广泛、最强大的数据中心CPU与GPU产品组合的推出,我们相信这一趋势将加速。”
在数据中心市场,AMD依然是挑战者,集中资源,做好产品,之后再慢慢收复失去的市场份额(AMD曾占据x86服务器处理器市场25%的份额),这才是AMD当前最要紧的事儿。
好文章,需要你的鼓励
Anthropic发布了面向成本敏感用户的Claude Haiku 4.5大语言模型,定价为每百万输入令牌1美元,输出令牌5美元,比旗舰版Sonnet 4.5便宜三倍。该模型采用混合推理架构,可根据需求调整计算资源,支持多模态输入最多20万令牌。在八项基准测试中,性能仅比Sonnet 4.5低不到10%,但在编程和数学任务上超越了前代Sonnet 4。模型响应速度比Sonnet 4快两倍以上,适用于客服聊天机器人等低延迟应用场景。
上海AI实验室联合多家顶尖机构开发出全球首个科学推理大模型SciReasoner,该模型在2060亿科学数据上训练,支持103个科学任务,能够像科学家一样进行逻辑推理并展示思考过程。它实现了化学、生物学、材料科学等多领域知识整合,在分子设计、性质预测、文献分析等方面表现出色,为科学研究提供了强大的AI助手工具。
英国初创公司Nscale将为微软建设四个AI数据中心,总计部署约20万个GPU,合同价值高达240亿美元。首个数据中心将于明年在葡萄牙开建,配备1.26万个GPU。德州数据中心规模最大,将部署10.4万个GPU,容量从240兆瓦扩展至1.2吉瓦。所有设施将采用英伟达最新Blackwell Ultra显卡。
南洋理工大学研究团队开发出SHINE方法,这是一种无需额外训练就能实现高质量图像合成的新技术。该方法通过巧妙引导现有AI模型的潜能,能够在复杂光影条件下完美合成图像,包括准确的阴影生成和水面倒影效果。研究团队还创建了ComplexCompo基准测试集,验证了SHINE在各种挑战性场景中的卓越性能,为图像编辑技术的发展开辟了新方向。