代码托管平台GitLab公布一项由AI驱动的安全功能,利用大型语言模型向开发人员解释潜在漏洞,不仅如此,GitLab还计划进一步扩展以运用AI技术自动修复这些漏洞。
本月早些时候,GitLab公司就公布过一款新型实验性工具,能够向开发者解释代码含义;另有一项实验性功能,可以自动总结问题评论。值得注意的是,GitLab还打造了一款代码补全工具,目前可供GitLab Ultimate和Premium用户使用,去年还推出过基于机器学习的审查建议功能。
新的“解释此漏洞”(explain this vulnerability)功能尝试帮助开发团队找到依据代码库上下文,以及对当前漏洞加以修复的最佳方法。考虑到具体上下文,这款工具能够将漏洞的基本信息同关于用户代码的特定见解结合起来,从而更轻松、更快速地修复这些问题。
GitLab将此番AI技术的全面入驻称为“带护栏的提速计划”,希望在其全栈DevSecOps平台之上建立AI代码生成与测试组合,确保AI输出的任何内容均可安全部署。
GitLab还强调,其全部AI功能的构建都充分考虑到了隐私需求。GitLab首席产品官David DeSanto强调:“在触及您的知识产权,也就是代码时,我们只会将其发送至GitLab或云架构的模型当中。这一点非常重要,我们将据此追溯企业DevSecOps以确保客户受到严格监管。我们的客户往往非常注重安全性和合规性,我们绝不会将代码发送至第三方AI来生成解决建议。”他同时指出,GitLab不会利用客户的私有数据来训练其模型。
DeSanto表示,GitLab AI计划的总体目标是将开发效率提高10倍——这里指的不仅是单一开发者的效率,更是整个开发生命周期的效率。在他看来,哪怕是单纯将开发人员的工作效率提高100倍,如果下游代码审查环节的效率跟不上,那么收益也会被极大抵消。
“如果说开发的比重占整个生命周期的20%,那么即使我们将效率提升50%,大家也不会有明显的感觉。现在,如果我们让安全团队、运营团队、合规团队的效率全方位提升,那么组织内的工作水平就会迎来直观可见的改进。”
例如,“解释此代码”功能不仅对开发者意义重大,对QA和安全团队也非常有用,他们可以更好地了解自己需要测试哪些部分。这也是GitLab将其进一步扩展为“解释此漏洞”的原因。从长远来看,GitLab希望构建AI功能以帮助各团队自动生成单元测试和安全审查,再将其集成到整个GitLab平台当中。
根据GitLab最新发布的DevSecOps报告,65%的开发人员已经在测试工作中用到了AI和机器学习,或者计划在未来三年内加以尝试。目前已经有36%的团队在代码审查步骤之前,先用AI或机器学习工具,提前对代码做自动化检查。
GitLab的Dave Steer在此次公告中写道:“考虑到DevSecOps团队往往面临着严重的资源限制,自动化和AI已经成为一种重要的战略资源。我们的DevSecOps平台能够帮助团队填补关键空白,同时自动执行策略、应用合规性框架、配合GitLab的自动化功能执行安全测试并提供AI辅助建议,最终帮助开发者释放出更多宝贵资源。”
好文章,需要你的鼓励
能源初创公司联邦聚变系统宣布与谷歌DeepMind合作,利用AI技术优化其即将建成的Sparc反应堆运行。双方将使用DeepMind的Torax软件模拟反应堆内等离子体,并结合AI模型帮助实现聚变发电。聚变发电有望提供零排放的大量电力,AI公司看好聚变作为数据中心电源。谷歌此前已投资多家聚变公司,并计划从CFS首个商业电站采购200兆瓦电力。
上海AI实验室联合多家顶尖机构开发出全球首个科学推理大模型SciReasoner,该模型在2060亿科学数据上训练,支持103个科学任务,能够像科学家一样进行逻辑推理并展示思考过程。它实现了化学、生物学、材料科学等多领域知识整合,在分子设计、性质预测、文献分析等方面表现出色,为科学研究提供了强大的AI助手工具。
Omdia最新研究显示,以AWS、微软和谷歌云为首的超大规模云市场企业软件销售额预计将从2024年的300亿美元激增至2030年的1630亿美元。这一增长反映了企业对市场采购模式的日益采用和智能AI销售的急剧上升。2025-2030年复合年增长率预计达29.1%。基础设施软件、DevOps和商业应用将占总支出的63%,而智能AI和网络安全成为高增长领域。
南洋理工大学研究团队开发出SHINE方法,这是一种无需额外训练就能实现高质量图像合成的新技术。该方法通过巧妙引导现有AI模型的潜能,能够在复杂光影条件下完美合成图像,包括准确的阴影生成和水面倒影效果。研究团队还创建了ComplexCompo基准测试集,验证了SHINE在各种挑战性场景中的卓越性能,为图像编辑技术的发展开辟了新方向。