至顶网商用办公频道 08月30日 北京消息(文/黄当当)在《复仇者联盟》这样的电影中,英雄似乎都不是一个人在战斗。回到现实社会,在以数据为中心的世界,让“数据石油”提炼并解锁价值信息的计算力,又何尝不是英雄?从CPU、GPU,到FPGA、ASIC,再到神经拟态计算、量子计算等技术出现,正印证多元时代,计算创新再不是单一芯片的“单打独斗”。
英特尔深知这一点,正所谓团战制敌,在AI芯片之役中,英特尔早已在硬件层面储备了不少杀手锏:至强处理器、Nervana NNP 芯片、Movidius视觉处理芯片、Mobileye车载芯片等,当然,这位AI“战术大师”手里还有一张核心牌——可编程的“万能芯片”FPGA。
别小瞧了这块芯片,它可以通过软件手段更改、配置器件内部连接结构和逻辑单元,完成既定设计功能的数字集成电路,也就是说通过编程FPGA可以实现任意芯片的逻辑功能,具备灵活高效、可重复编程特性,可实现定制性能、定制功耗、高吞吐量和低批量延迟。
正是这样一块“攻守兼得”的芯片,在人工智能、云服务、数据中心、5G、自动驾驶和视觉处理等领域有着广泛应用。
就在去年12月,FPGA圈内还发生了一件大事儿,英特尔把其全球最大的FPGA创新中心落户重庆,在这座中国西部的硅谷之城,英特尔赋予它全新的使命,一个枢纽,通过FPGA云接入平台及战略合作计划以联结中国广大生态合作伙伴。
如今,8个月过去了,这个创新中心进展如何,英特尔FPGA下一步计划是什么,生态又该如何建设,它又将赋予英特尔哪些能力?答案逐一揭晓。
全是FPGA应用,原来你是这样的大赛
所谓外行看热闹,内行看门道。
在2019智博会期间举办的FPGA智能创新国际大赛就是一波犀利的操作。因为来自11个国家400多支报名参赛的团队,全部应用FPGA技术,将天马行空的创意转化为落地实践应用。
而这场比赛,对于英特尔而言,更有着特殊意义,是时候展现真正的技术了。
“对我们来说,今天(FPGA智能创新国际大赛)是一次考试。”英特尔战略合作与创新业务部董事总经理李德胜表示,通过大赛吸引和发掘全球优秀FPGA智能创新人才及项目,这也是英特尔构建FPGA生态的重要一步,具有多重意义:
1)领域广泛推动应用落地:此次大赛的参赛项目,不仅在技术层面涉及自然语言处理、机器视觉、人工智能芯片、大数据、人脸识别、数据可视化等领域,更是在应用层面覆盖工业物联网、农业、金融、物流、健康、能源、交通等行业。
2)集聚生态资源加速创新:由英特尔技术专家、产学研专家及顶级创投机构组成权威的大赛评审团,从项目初筛、复筛到分赛区决赛层层把关,并与参赛团队进行全方位交流与专业指导,搭建平台为创新项目链接生态资源,加速创新项目与产业发展对接。
当然,任何一个生态的构建并非易事,因为FPGA自身所具备的灵活与多样性,因此在对待FPGA生态建设时,英特尔从广度(行业应用广泛)和深度(创新更复杂)两方面出发, 联动上下游产业的能力与经验,与各方合作伙伴一起做大FPGA“朋友圈”。
8个月的成绩单,要这样晒!
值得注意的是,这次决赛特别设在了英特尔FPGA中国创新中心举行,这也是英特尔全球最大的FPGA创新中心。
从去年12月建立至今,英特尔FPGA中国还在推动应用落地、生态建设、人才储备等多个层面取得实质进展,提交了一份漂亮的成绩单:
1)已有50多家企业及科研机构接入云加速平台,开展商业合作
2)已有来自全球100多个应用,对接产业的机会与桥梁
3)已与十几所高校合作,通过人才培养、机构设立共推FPGA教材
4)已开展20多场的人才培育讲座
之所以在人才培养方面“大刀阔斧”,其实这是另一个困扰FPGA发展的骨感现实了。
正是人才的缺失,如何化解这个尴尬的局面,打破FPGA的高门槛,英特尔已经着手准备了。
高门槛怎么破?“万人培养计划”全面逆袭
“中国的FPGA人才官方数据大概只有两三万人。”
更残酷的现实是,中国FPGA人才不及美国的十分之一。对此,李德胜表示,英特尔FPGA中国创新中心已做好规划:未来三年在中国培养1万名FPGA人才,并经过专业认证。
目前,英特尔正在“快马加鞭”,与产、学、研等相关机构合作,逐级建立FPGA人才标准体系与认证环节。
正所谓,有条不紊才是最好的节奏。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。