根据TechCrunch获得的内部聊天资料,负责改进谷歌Gemini AI的外包人员正将其输出的答案与竞争对手Anthropic的Claude模型输出进行比对。
随着科技企业竞相构建更强大的AI模型,他们往往会将自家模型的性能与竞争对手进行比较。但具体比较标准主要是行业通行的基准性能测试,很少会由外包人员直接用响应结果作为评判依据。
负责评估模型输出准确性的Gemini外包人员需要根据多项标准(例如真实性和冗长性)对他们看到的各项响应打出评分。根据TechCrunch看到的资料,外包人员在每条提示词上最多有30分钟来判断Gemini和Claude哪边生成的答案质量更高。
其中还提到,外包人员最近注意到在他们用于将Gemini同其他未具名AI模型进行比较的谷歌内部平台上,直接提到了Anthropic Claude的字眼。
Gemini外包人员收到的输出中至少有一条明确提到:“我是Claude,由Anthropic创建而成。”
在一段内部聊天中,外包人员发现Claude的回复似乎比Gemini更强调安全性。一位外包人员写道:“Claude的安全设置是所有AI模型中最为严格的。”在某些情况下,Claude不会响应它认为不安全的提示词,例如扮演其他AI助手。在另一案例中,Claude还因结果可能包含“裸体与拘禁”等“严重违反安全规定”的内容而拒绝回应提示词。
在Anthropic的商业服务条款中,明确禁止客户在未经Anthropic批准的情况下出于“构建竞争产品或服务”或者“训练竞争性AI模型”等目的访问Claude模型。但谷歌本身是Anthropic的主要投资者,所以情况又复杂了起来。
负责Gemini项目运营的谷歌DeepMind发言人Shira McNamara拒绝透露谷歌是否获得Anthropic关于访问Claude的授权,Anthropic方面也未做出置评回应。
McNamara表示,DeepMind确实会“比较不同模型的输出”以进行评估,但不会使用Anthropic模型直接训练Gemini。
McNamara强调:“当然,根据行业标准惯例,我们在某些情况下会对模型的输出进行比较以作为评估过程中的一部分。但是,任何声称我们使用Anthropic模型训练Gemini的说法都是不准确的。”
不久前有消息称,目前谷歌正要求参与该公司AI产品项目的外包人员在专业领域之外对Gemini的AI响应打分。外包人员则在内部聊天资料中表达了担忧,提到Gemini可能会在医疗保健等高度敏感的问题上生成不准确信息。
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。