ChatGPT已经成为这波AI技术浪潮的核心,但谷歌旗下的研究实验室DeepMind表示不服,称其下一款大语言模型将可比肩OpenAI,甚至更胜一筹。
根据Wired网站发表的文章,DeepMind正使用AlphaGo(DeepMind原研的AI系统,曾首次在围棋中击败顶尖人类棋手)的技术开发名为Gemini的聊天机器人,矛头直指ChatGPT。
DeepMind CEO Demis Hassabis在接受Wired网站采访时表示,如果一切进展顺利,Gemini将具备规划、解决问题和分析文本内容的能力:
“从宏观层面看,Gemini继承了AlphaGo这类AI系统的独有优势,并与大语言模型那令人惊叹的语言能力相结合。我们还有其他一系列非常有趣的创新探索。”
Hassabis自信的态度,似乎代表今年5月谷歌I/O大会上一度遭受嘲讽的Gemini将凭借强化学习的创新方法,达成现有语言模型难以解决的复杂任务。强化学习的基本思路是“奖励”AI系统的某些行为及/或惩罚不当行为,借此“教导”系统在特定情况下做出特定的行为决策。
强化学习已经在语言模型领域取得了进展,也成为ChatGPT等系统在响应提示词时的主要方法。考虑到在强化学习方面拥有着丰富经验(AlphaGo就是最好的例子),DeepMind无疑渴望能将自己的优势应用到生成式AI领域。
值得注意的是,Gemini并不是DeepMind在语言模型领域的首次试水。去年,该公司推出了Sparrow聊天机器人。据称与其他语言模型相比,Sparrow对问题给出“不安全”或“不当”答案的几率要低得多。Hassabis在今年1月的另一次采访中提到,DeepMind正考虑在今年年内启动Sparrow内测,但目前不清楚这些计划是否仍在推进。
Gemini则更进一步,成为DeepMind迄今为止在该领域最雄心勃勃的研究成果。The Information网站今年3月报道称,Gemini的诞生源自谷歌聊天机器人项目Bard遭受的失败。为了紧跟ChatGPT的发展脚步,谷歌高层直接参与项目,包括公司最资深的AI研究主管Jeff Dean。
生成式AI领域的主导地位之争,也伴随着投资者和客户们的高度关注。Grand View Research公布的数据显示,到2030年,生成式AI(包括像Gemini这样的文本分析AI)的市场规模可能达到1093.7亿美元,体量增长达35.6%。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。