过去几年来,面对产业升级、成本增加、疫情等多重挑战,制造行业已经纷纷引进高新技术,智能制造已成为制造业转型的必然选择。但是向智能制造的转型并非易事,企业要如何在实现技术层面转型的同时,也能保障员工与管理层、经营者都能在思维模式上实现转型?在2023友达数位智能制造年度峰会上,也许能找到答案。这场峰会在4天的精彩活动后,随着最后一场大会 “融合共建· 生态合作伙伴大会” 的结束,已经于5月12日圆满落幕。
从5月9日开始,这场由友达光电(苏州)有限公司和友达数位及旗下子公司联合主办的盛会,得到了苏州政府及众多客户和生态伙伴的大力支持,多位与会嘉宾更是从全国各地远道而来。
苏州工业园区经济发展委员会王学军主任出席友达 Tech Forum 论坛并致词
苏州市工业和信息化局智能制造推进处吴年康处长出席客户大会并致辞
苏州工业园区经济发展委员会副主任王颀先生出席客户大会并致辞
苏州工业园区企业发展服务中心副主任吴小庆女士出席生态合作伙伴大会并致辞
本次峰会以 “永续智造 · 数位慧聚” 为主题,在“聚力前行 · 友达 Tech Forum 论坛”、“创新发展 · 友达数位智能装备大会”、“协同共赢 · 友达数位客户大会”、 “融合共建 · 生态合作伙伴大会” 四场大会中,来自各行业的重磅嘉宾共带来 37场不同的主题分享,既有顶级大咖专家介绍智能制造知识及智能制造技术的科技创新和成果转化,又有知名制造企业分享智能知识服务及智能制造技术的成功应用案例,还有工业软硬件和解决方案供应商进行技术和产品讲座,分享行业经验。
友达集团智慧服务事业群总经理杨正义先生
友达光电(苏州)有限公司总经理郭振明先生
友达数位科技服务(苏州)有限公司总经理赵丽娜女士做主题分享
中国人民大学 “杰出学者” 特聘教授、商学院原院长毛基业院长受邀出席峰会并做主题分享
凌华科技(中国)有限公司中国区技术总监潘登先生于智能装备大会做主题分享
贝迪科技 (厦门) 有限公司总经理苏京先生于客户大会做主题分享
长三角G60科创走廊联席会议办公室产业组组长、上海市松江区科创发展办公室副主任戴志明先生于生态合作伙伴大会做主题分享
峰会吸引了各领域精英,包括政府领导、行业专家、企业高管、协会、媒体等,共同激发灵感。峰会的线上直播,共有超过 5000 位线上线下的嘉宾参与。
除了主题分享,会场外还以展位和现场 demo 的形式展示了友达智汇、艾聚达、艾杰达、普格诺斯的产品及解决方案。“数字教练”、“三阶段六循环方法论”、“低代码开发训练营”等数字化人才培养解决方案、智能工厂蓝图规划咨询及建厂服务、MEGA MES、EPMS、数智化运营服务解决方案、Smart Camera、Smart AI、智训助手、“备轻松”、“数位单元”、全面工业物联网 AIoT 解决方案、智能搬运解决方案、EHS 智慧安全管理系统、AI 赋能工业坊等多维度、全方位的数字化解决方案吸引了众多客户的目光。
明星产品“智训助手” Demo 展台备受关注
值得一提的是,此次峰会友达光电股份有限公司董事长暨集团策略长彭双浪先生也特别来到客户大会现场并致辞。
友达数位智能制造年度峰会已经圆满落幕,但友达数位与客户和伙伴的合作共赢之旅才刚刚开始。友达数位深入智能制造领域,汇集各方先进力量,打造可持续发展智造生态,基于共享基因构建最具长期价值的工业互联平台,与政府、客户及生态伙伴共同开创智能制造新未来。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。