现如今,生成式AI的探索和实施工作已经不可避免地同安全问题交织在一起。根据近期的一份数据报告,49%的企业领导者认为安全风险已经成为首要问题,38%的企业领导者则将因不了解如何使用GPT工具而引发的人为错误/人为数据泄露列为头号挑战。
尽管这些担忧各有道理,但早期采用者所获得的好处将远远超过这些阻碍探索的潜在后果。
在本文中,我们将帮助各位团队成员和客户了解为何不能把安全视为事后因素,而应将其作为AI与业务相集成的先决条件,同时探讨这方面工作中的一系列最佳实践。
以安全策略为起点
企业已经感受到由AI应用所带来的新兴安全风险与现实紧迫性。事实上,根据之前提到的统计报告,81%的企业领导者表示他们的公司已经实施、或者正在制定围绕生成式AI建立的用户政策。
然而,由于该项技术的发展速度极快、新兴应用与用例时刻都在涌现,因此政策内容也必须不断更新以应对随时出现的风险和挑战。
为了在加快探索的同时最大限度降低安全风险,我们自然有必要为测试和学习工作设置“护栏”。而且相关政策的制定也绝不应孤立推进,而应从企业内各个部门的代表处充分征集意见,思考不同职能单位如何使用/是否可以使用生成式AI应对各自面临的安全风险。
总而言之,各部门对于AI技术的探索不应被粗暴禁止。如果单纯出于恐惧而在企业范围内全面封禁,那么大家也不必担心竞争对手吞噬自己的市场份额了——您本身就是在自毁长城。
以一线人员为核心
为了确保能够以安全的方式使用生成式AI,我们首先应为普通开发人员提供许可,例如允许他们全面使用大语言学习模型Insight GPT的私有实例。这一方面有助于发现潜在用例,同时也能根据输出开展压力测试,对生成式AI服务做出持续改进。
我们很快发现,一位仓库团队成员找到了一种提高订单配送效率的方法。在这种非凡的用例中,该成员要求Insight GPT在SAP中编写一份脚本,用以自动处理部分工作负载。虽然效果很棒,但如果没有设置适当的护栏,这种尝试也极易引发事故。比如说,一旦工作人员粗心之下执行了一笔订单中并不存在的交易,那么后续的自动环节将无法中断。
所以在促进民间探索并尽可能限制风险的过程中,我们需要:
审查委员会应制定明确的指导方针,开展风险评估并加强AI系统的透明度。
进行适当培训,教育员工如何以负责任的方式将AI纳入工作场景,特别是应当阐明对于道德标准、偏见、人类监督和数据隐私等关键问题的处理方式。
开设内部论坛,鼓励团队成员在公司创新者群组内分享自己的发现和教训。
减少“幻觉”的风险
生成式AI之所以存在风险,一个重要原因就是它偶尔会产生“幻觉”。根据Insight报告,企业领导者最关心的一个共同主题,就是幻觉会如何引发错误的商业决策。然而,由幻觉导致的风险往往各不相同,有时问题不大、有时后果严重,具体影响往往因场景而异。
虽然GPT工具必然会输出某些与客观现实不符的结果,但我们很快意识到这种错误回答往往属于措辞层面的混淆。例如,在早期测试当中,我们询问Insight GPT埃迪·范·海伦曾与埃迪·范·海伦合作过哪首作品。正确答案是“Beat It”,但它的回答却是“Thriller”。可从另一角度讲,“Beat It”确实是“Thriller”专辑中的一首作品,所以它的回答也并非毫无道理。
这就完美诠释了“幻觉”问题造成的不同风险,特别是在处理各种主观性较强的工作负载时。要想在安全角度上解决这类问题,我们就必须建立并执行相关政策,将所有AI生成的内容都纳入人工监督范畴之内。此外,所有由AI辅助生成的内容都必须进行明确标记。当这些内容穿行在内部及外部各价值链时,也应始终附带标记并接受监督。
当下,生成式AI行业仍处于萌芽阶段,谁能摸索出负责任且安全的应用方式,同时减少数据泄露、信息错误、偏见及其他风险所引发的潜在威胁,谁就能建立起明确的技术优势。企业需要保证自己的AI政策与行业的变化持续保持同步,在维护合规性、缓解幻觉问题的同时逐步建立起用户信任。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。