英特尔实验室和康奈尔大学的研究人员展示了英特尔神经形态研究芯片Loihi独特的能力:仅根据气味就能识别多种有害化学物质。
研究人员说,Loihi可以根据测试样品的气味识别出每种化学物质,而不会颠覆此前学习到的气味记忆。不仅如此,与任何传统的识别系统(包括深度学习系统)相比,Loihi芯片还显示出更高的准确性,而深度学习系统则需要大约3000倍的训练样本,才能达到相同的准确性。
英特尔实验室高级研究科学家Nabil Imam说:“我们正在基于Loihi开发神经算法,以模仿人类闻到气味后大脑的反应。这项工作是在神经科学和人工智能交叉领域进行当代研究的一个典范,证明了Loihi具有重要的传感潜力,可以让各行各业从中受益。”
Loihi芯片是一种旨在模仿人脑处理和解决问题方式的硬件。该芯片于2017年9月首次发布,当时英特尔称,Loihi具有“令人难以置信的”学习速度。Loihi芯片的独特之处在于,它可以利用已有知识来推断新数据,从而随着时间的推移,以指数速度加快学习过程。
Loihi芯片基于“神经形态计算”架构,该架构的灵感来自科学家对人脑及人脑解决问题的最新理解。
今天发表在《自然机器智能》杂志上的这项最新研究,描述了英特尔实验室和康奈尔大学研究团队如何基于人脑嗅觉回路的结构和动力学,从零开始开发神经算法。Loihi芯片可以学习并识别10种不同危险化学品的气味。
要了解Loihi是如何做到这一点的,将进一步有助于了解人脑如何感知不同气味。例如,当一个人拿起葡萄柚闻气味的时候,水果中的分子会刺激鼻子的嗅觉细胞,由嗅觉细胞发送给大脑。然后,在相互连接的神经元组中的电脉冲产生对该气味的独特感知。
英特尔研究人员解释说:“无论你闻的是葡萄柚、玫瑰还是有害的气体,大脑中的神经元网络都会产生该物体特定的感觉。类似地,你的视觉和听觉、记忆、情绪、决策都有各自的神经网络,以特定的方式进行计算。”
英特尔团队在最新研究中采用的数据集中,包含了大脑对72种已知化学物质的感官活动以及响应每种化学物质气味的方式。这些数据被用于配置英特尔研究团队开发Loihi芯片的“生物嗅觉电路图”。这样一来,Loihi芯片就可以识别每种气味的神经表示,并识别每种气味。
Moor Insights&Strategy分析师Patrick Moorhead表示,英特尔的这项研究表明,确定各种有害化学物质的气味,是神经形态计算的一个很好的用例。
Moorhead称:“神经运动计算就像人类大脑一样进行训练和推断,因此,很高兴看到英特尔在这一研究领域开辟了一条道路。”
Imam在博客文章中表示,可以将Loihi的嗅觉能力作为帮助医生诊断疾病的新型“电子鼻系统”,其他用途还包括开发更高效的烟雾和一氧化碳探测器,或者是在机场探测武器和爆炸物。
“下一步是将这种方法推广到解决更广泛的问题,从感官场景分析(理解你观察到的物体之间的关系)到抽象问题,例如计划和决策。了解大脑神经回路如何解决这些复杂的计算问题,将为设计高效而强大的机器智能提供重要的线索。”
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。