根据TechCrunch获得的内部聊天资料,负责改进谷歌Gemini AI的外包人员正将其输出的答案与竞争对手Anthropic的Claude模型输出进行比对。
随着科技企业竞相构建更强大的AI模型,他们往往会将自家模型的性能与竞争对手进行比较。但具体比较标准主要是行业通行的基准性能测试,很少会由外包人员直接用响应结果作为评判依据。
负责评估模型输出准确性的Gemini外包人员需要根据多项标准(例如真实性和冗长性)对他们看到的各项响应打出评分。根据TechCrunch看到的资料,外包人员在每条提示词上最多有30分钟来判断Gemini和Claude哪边生成的答案质量更高。
其中还提到,外包人员最近注意到在他们用于将Gemini同其他未具名AI模型进行比较的谷歌内部平台上,直接提到了Anthropic Claude的字眼。
Gemini外包人员收到的输出中至少有一条明确提到:“我是Claude,由Anthropic创建而成。”
在一段内部聊天中,外包人员发现Claude的回复似乎比Gemini更强调安全性。一位外包人员写道:“Claude的安全设置是所有AI模型中最为严格的。”在某些情况下,Claude不会响应它认为不安全的提示词,例如扮演其他AI助手。在另一案例中,Claude还因结果可能包含“裸体与拘禁”等“严重违反安全规定”的内容而拒绝回应提示词。
在Anthropic的商业服务条款中,明确禁止客户在未经Anthropic批准的情况下出于“构建竞争产品或服务”或者“训练竞争性AI模型”等目的访问Claude模型。但谷歌本身是Anthropic的主要投资者,所以情况又复杂了起来。
负责Gemini项目运营的谷歌DeepMind发言人Shira McNamara拒绝透露谷歌是否获得Anthropic关于访问Claude的授权,Anthropic方面也未做出置评回应。
McNamara表示,DeepMind确实会“比较不同模型的输出”以进行评估,但不会使用Anthropic模型直接训练Gemini。
McNamara强调:“当然,根据行业标准惯例,我们在某些情况下会对模型的输出进行比较以作为评估过程中的一部分。但是,任何声称我们使用Anthropic模型训练Gemini的说法都是不准确的。”
不久前有消息称,目前谷歌正要求参与该公司AI产品项目的外包人员在专业领域之外对Gemini的AI响应打分。外包人员则在内部聊天资料中表达了担忧,提到Gemini可能会在医疗保健等高度敏感的问题上生成不准确信息。
好文章,需要你的鼓励
随着5G流量快速增长和新用例不断涌现,网络运营商需要在最小化环境影响的同时管理密集网络使用。Orange法国与爱立信合作开展创新试验,测试FDD大规模MIMO天线集成无线电,优化高流量区域频谱使用。双方还探索Cloud RAN和Open RAN架构,通过虚拟化RAN功能实现灵活的软件中心网络。合作重点关注利用AI驱动的自动化和意图驱动技术提升能源效率,在不影响性能的前提下动态调整网络资源以降低能耗。
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
微软正在将Windows 11改造为"智能代理操作系统",在任务栏中集成AI代理功能。新功能允许AI代理在后台执行任务,用户可通过任务栏图标查看进度状态。微软还在文件资源管理器中集成Copilot,提供文档摘要、文件问答等功能。此外,Click to Do功能得到改进,可将网页表格转换为Excel文档。这些AI功能采用本地AI和云端AI混合模式,为用户提供更智能的操作体验。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。