根据TechCrunch获得的内部聊天资料,负责改进谷歌Gemini AI的外包人员正将其输出的答案与竞争对手Anthropic的Claude模型输出进行比对。
随着科技企业竞相构建更强大的AI模型,他们往往会将自家模型的性能与竞争对手进行比较。但具体比较标准主要是行业通行的基准性能测试,很少会由外包人员直接用响应结果作为评判依据。
负责评估模型输出准确性的Gemini外包人员需要根据多项标准(例如真实性和冗长性)对他们看到的各项响应打出评分。根据TechCrunch看到的资料,外包人员在每条提示词上最多有30分钟来判断Gemini和Claude哪边生成的答案质量更高。
其中还提到,外包人员最近注意到在他们用于将Gemini同其他未具名AI模型进行比较的谷歌内部平台上,直接提到了Anthropic Claude的字眼。
Gemini外包人员收到的输出中至少有一条明确提到:“我是Claude,由Anthropic创建而成。”
在一段内部聊天中,外包人员发现Claude的回复似乎比Gemini更强调安全性。一位外包人员写道:“Claude的安全设置是所有AI模型中最为严格的。”在某些情况下,Claude不会响应它认为不安全的提示词,例如扮演其他AI助手。在另一案例中,Claude还因结果可能包含“裸体与拘禁”等“严重违反安全规定”的内容而拒绝回应提示词。
在Anthropic的商业服务条款中,明确禁止客户在未经Anthropic批准的情况下出于“构建竞争产品或服务”或者“训练竞争性AI模型”等目的访问Claude模型。但谷歌本身是Anthropic的主要投资者,所以情况又复杂了起来。
负责Gemini项目运营的谷歌DeepMind发言人Shira McNamara拒绝透露谷歌是否获得Anthropic关于访问Claude的授权,Anthropic方面也未做出置评回应。
McNamara表示,DeepMind确实会“比较不同模型的输出”以进行评估,但不会使用Anthropic模型直接训练Gemini。
McNamara强调:“当然,根据行业标准惯例,我们在某些情况下会对模型的输出进行比较以作为评估过程中的一部分。但是,任何声称我们使用Anthropic模型训练Gemini的说法都是不准确的。”
不久前有消息称,目前谷歌正要求参与该公司AI产品项目的外包人员在专业领域之外对Gemini的AI响应打分。外包人员则在内部聊天资料中表达了担忧,提到Gemini可能会在医疗保健等高度敏感的问题上生成不准确信息。
好文章,需要你的鼓励
OpenAI 推出专为政府机构定制的 ChatGPT Gov 版本,通过 Azure 云平台提供更高安全标准的服务环境。该版本保留了 ChatGPT Enterprise 的核心功能,同时确保政府数据的安全性和隐私保护,目前已获得多个联邦机构的采用,体现了 OpenAI 深化与美国政府合作的战略意图。
博通推出新一代 Emulex 安全主机总线适配器 (HBA),集成后量子加密算法和零信任架构,为存储区域网络 (SAN) 传输中的数据提供高级安全保护。这项创新旨在应对未来量子计算带来的安全挑战,同时满足各国政府对数据加密和网络安全的最新监管要求。
根据Gartner调查,2025年IT产品和服务成本预计平均上涨8.9%,全球IT支出预计增长9.8%至5.62万亿美元。价格上涨和AI投资推动支出增加,但部分CIO预算停滞,面临艰难抉择。云计算、AI功能和GPU需求是主要成本增长点。CIO需在创新投资和控制成本间寻求平衡。
Enlightenment 作为 Linux 最古老的桌面环境之一,近日发布了 0.27 版本。这次更新带来了大量修复和一些新功能,同时伴随着 EFL 1.28 的发布。Enlightenment 虽然不再是主流选择,但凭借其轻量级特性和独特风格,仍在不断发展,为用户提供了一个有趣的桌面替代方案。