世界移动大会(MWC)上总会展出不少稀奇古怪的成果。比如这家名叫“Hyodol”的韩国公司成功拿下最疯狂奖,他们自豪地展示了一款观感相当诡异、支持ChatGPT的陪伴型玩偶,专门针对老年群体。这款卖到1800美元的AI娃娃特别像我们在闹鬼的阁楼上无意间翻出来的东西,但它的实际定位却是为那些长期独居、或者在护理机构中缺少沟通的人们提供数字交互服务。
由于这款娃娃内置有大语言模型,Hyodol公司宣称其能够与主人进行顺畅对话并提供健康建议,例如发出服药或进餐提醒。它的联网水平也跟大家想象的差不多,附有配套的应用软件和网络监控平台,还允许管理者远程监控设备及其用户。
Hyodol
它的意义在于缓解孤独感的蔓延,这种心理问题正影响着从疗养院中的老年人到年轻大学生的几乎所有群体。美国国家老龄化研究所项目主管Elizabeth Necka表示,这项技术确实非常有用,而且特别适合目前普遍人手不足的疗养院场景。
Necka解释称:“这种以低成本方式缓解孤独感的思路极具吸引力。无论ChatGPT能不能真正带来理想的沟通感受,至少对我来说这似乎还为时过早,但此类尝试本身确实具有重大意义。”
这类设备也将建立起相应的产业。在日本等东亚国家,主打可爱的社交机器人市场已经相当活跃。像Lovot和Qoobo这样的公司纷纷打造出惹人喜爱的可爱型陪伴机器人。这些设备在西方国家也受到一定好评,只是文化接纳度和受众规模要低得多。不过随着对话式大模型浪潮的迅速普及,目前各行各业都纷纷将生成式AI应用于一切场景当中,陪伴型机器人当然也不会例外。
不列颠哥伦比亚大学护理学院高级护理学助理教授兼研究主任Lilian Hung表示:“我认为该行业仍在探索市场。虽然尚处于起步阶段,但其腾飞之势已经初见端倪。”
Jibo
但市场此前就曾经做过类似的尝试。Jobi是一款社交机器人室友,它利用AI配合可爱的手势与主人建立联系。但在推出几年后,项目就被无情砍掉,如今江湖上只剩下它的传说。另一方面,美国本土产品Moxie倒是保持着活力,这是一款用于帮助培育儿童的AI机器人。
面对这样的设备,我们很难不对其种种糟糕的后果产生担忧。科技本身就具有令人不安的一面,而AI支持下的机器人居然开始扮演人类角色,这种“亵渎”性的行为可能会激怒一部分群体。毕竟我们都看过那种专门讨论AI技术的小说,不少情节提到AI发生了严重错误并给人类带来灾难。回到Hydol的例子,他们这款产品让我直接想到的就是2023年的恐怖电影《梅根》,讲述的就是一台有着可怕杀戮本性的AI陪伴型玩偶。
但除了令人胆寒的娃娃之外,社交机器人还有其他多种形式。它们可以是助手、是宠物、是零售客服,但也经常词不达意、在公共场合下让语音控制者们觉得自己像个白痴。除此之外,它们也可能是武器、间谍和警察。人们有充分的理由对这些机器人表示怀疑,其危险性是再可爱的外皮也掩藏不了的。
澳大利亚亚格里菲斯大学护理与助产学院教授Wendy Moyle一直致力于治疗痴呆症患者。她表示自己在社交机器人方面的工作就激怒了人们,有观点认为给老年人送机器人娃娃是种非常愚蠢的行为。
Moyle指出:“在第一次开始使用机器人时,我收到了很多的负面反馈,甚至有来自员工的批评。我在会议上发言时,有人直接朝我扔东西,因为他们觉得这种行为有违人伦。”
然而,最近一段时间人们对辅助型机器人的态度有所缓和,它们也被应用于许多积极的用例当中。陪伴型机器人能够为痴呆症患者带来欢乐。在新冠疫情爆发期间,看护人员也尝试使用Paro等陪伴型机器人帮助老年患者缓解孤独感。Paro是一款形似海豚的小型机器人。至于Hyodol推出的微笑娃娃,无论大家认为这是诡异还是可爱,至少它们确实在努力表达友好的态度。
Paro
Hyodol并不是唯一一家为老年人提供AI伴侣的公司。ElliQ就是以色列厂商Intuition Robotics生产的AI产品,目前已被纳入纽约的老年人试验项目。ElliQ跟可爱不沾边,它类似于一只灯泡,可以放在床头柜上。Hyodol希望把AI功能跟Paro海豹那种毛茸茸、憨态可掬的形象联系起来,而ElliQ则强调AI技术与人类的距离感。
ElliQ
即使没有AI的加持,这些貌似具有感知的玩偶还是引起了人们的担忧。Moyle曾经协助监督这些设备在老年人护理方面的表现,并表示在某些情况下,接受护理的对象可能会变得过度依赖这些娃娃。
Moyle解释道:“我们必须直面的一大负面影响,就是某些用户太过喜欢自己的娃娃,甚至把娃娃当作婴儿一般对待。他们把机器人看成是能够随身携带的婴儿,少数人还表现出过度的感情,将其作为自己日常生活中的一部分。我们被迫减少了他们与娃娃相处的时间。”
而将语言能力纳入陪伴型娃娃,特别是像ChatGPT这种容易产生幻觉的模型与诡异玩偶间的结合,往往会在AI层面形成恐怖谷效应。此外,批评者还担心AI与娃娃的结合只是第一步,后续这项技术会被融入其他一切可能的场景。生成式AI确实会产生幻觉、散布虚假信息,而且存在各种潜在的安全隐患,更不用说由ChatGPT整合的所有数据都会被发回OpenAI处。那边充斥着种种隐私和安全问题,可能导致这些设备成为大公司监视个人、共享数据的普遍性终端。哪怕是功能层面也有潜在风险,比如护理人员过度依赖机器人来提醒患者服药等。
Hung表示:“为了保障机器人的对话安全,还有很多工作需要处理。它不能引导人们做任何不道德的事情,不应收集任何信息,比如机器人不能要求老人提供信用卡的支付密码。”
当人们在最脆弱的时候求助于商业产品时,以上几点就是最直接的现实风险。但对这个问题,Moyle认为也需要分两个角度来看。
“如果我们向某人提供与AI交流的机会,那是不是意味着同时抹杀了其与其他人正常交流的机会?比如说家人是不是不再需要前来探望?工作人员是不是也不必定期与其交谈?”这些都是切实的风险因素,但Moyle结合自己的实践经验,坦言护理机构中的许多老年人往往大部分日日夜夜都是独自一人对着窗户发呆。“所以只要能让他们快乐一点,给他们些陪伴总比什么都不给要好得多。”
当然,这些设备与人类之间仍存在着本质区别。大语言模型无法理解它们是在与人交互,它们只是特别擅长以预测性方式给出看似不错的回应。具体来讲,它们明显不知道要如何深入理解一个人的情绪或者精神状态。
Moyle评论称:“有时候,人们可能会表现出相当激进且强烈的情绪,而AI是无法识别出这些情绪的。随着AI技术变得更加复杂,情况当然有可能逐渐好转,但至少目前还看不到这样的迹象。”她停顿了一下,随后笑着补充说:“但其实很多人自己也不擅长正确评估情绪,所以嘛……”
对于很多人来说,机器人能不能回应他们表达的爱并不重要。也正因为如此,我们才会为机器人的损坏和退役表达哀悼,甚至为机器狗举行葬礼。也同样因为如此,我们才希望自己的情趣机器人也能具有个性,希望它们能回应我们最深切的情感和愿望。当人类与机器人互动时,最重要的并不在于机器人能否回报我们的爱,而是人们在将自己的感情倾注到他人或他物的过程中,本身就能创造出巨大的价值。
Hung最后总结道:“小猫和婴儿之所以可爱,就是因为他们无时无刻不在表达对爱的需要,而我们生而为人就是拥有付出爱的本能。”这也解释了为什么有人喜欢跟可爱的机器人互动,其中投射出的也是相同的心理期待。“我们购买这些机器人,就是为了向它们表达自己的爱——我们会真切感受到机器人需要自己的爱,这种被需求的感觉就是最大的意义。人类的本性如此,我们的行为也是如此。”
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。