世界移动大会(MWC)上总会展出不少稀奇古怪的成果。比如这家名叫“Hyodol”的韩国公司成功拿下最疯狂奖,他们自豪地展示了一款观感相当诡异、支持ChatGPT的陪伴型玩偶,专门针对老年群体。这款卖到1800美元的AI娃娃特别像我们在闹鬼的阁楼上无意间翻出来的东西,但它的实际定位却是为那些长期独居、或者在护理机构中缺少沟通的人们提供数字交互服务。
由于这款娃娃内置有大语言模型,Hyodol公司宣称其能够与主人进行顺畅对话并提供健康建议,例如发出服药或进餐提醒。它的联网水平也跟大家想象的差不多,附有配套的应用软件和网络监控平台,还允许管理者远程监控设备及其用户。
Hyodol
它的意义在于缓解孤独感的蔓延,这种心理问题正影响着从疗养院中的老年人到年轻大学生的几乎所有群体。美国国家老龄化研究所项目主管Elizabeth Necka表示,这项技术确实非常有用,而且特别适合目前普遍人手不足的疗养院场景。
Necka解释称:“这种以低成本方式缓解孤独感的思路极具吸引力。无论ChatGPT能不能真正带来理想的沟通感受,至少对我来说这似乎还为时过早,但此类尝试本身确实具有重大意义。”
这类设备也将建立起相应的产业。在日本等东亚国家,主打可爱的社交机器人市场已经相当活跃。像Lovot和Qoobo这样的公司纷纷打造出惹人喜爱的可爱型陪伴机器人。这些设备在西方国家也受到一定好评,只是文化接纳度和受众规模要低得多。不过随着对话式大模型浪潮的迅速普及,目前各行各业都纷纷将生成式AI应用于一切场景当中,陪伴型机器人当然也不会例外。
不列颠哥伦比亚大学护理学院高级护理学助理教授兼研究主任Lilian Hung表示:“我认为该行业仍在探索市场。虽然尚处于起步阶段,但其腾飞之势已经初见端倪。”
Jibo
但市场此前就曾经做过类似的尝试。Jobi是一款社交机器人室友,它利用AI配合可爱的手势与主人建立联系。但在推出几年后,项目就被无情砍掉,如今江湖上只剩下它的传说。另一方面,美国本土产品Moxie倒是保持着活力,这是一款用于帮助培育儿童的AI机器人。
面对这样的设备,我们很难不对其种种糟糕的后果产生担忧。科技本身就具有令人不安的一面,而AI支持下的机器人居然开始扮演人类角色,这种“亵渎”性的行为可能会激怒一部分群体。毕竟我们都看过那种专门讨论AI技术的小说,不少情节提到AI发生了严重错误并给人类带来灾难。回到Hydol的例子,他们这款产品让我直接想到的就是2023年的恐怖电影《梅根》,讲述的就是一台有着可怕杀戮本性的AI陪伴型玩偶。
但除了令人胆寒的娃娃之外,社交机器人还有其他多种形式。它们可以是助手、是宠物、是零售客服,但也经常词不达意、在公共场合下让语音控制者们觉得自己像个白痴。除此之外,它们也可能是武器、间谍和警察。人们有充分的理由对这些机器人表示怀疑,其危险性是再可爱的外皮也掩藏不了的。
澳大利亚亚格里菲斯大学护理与助产学院教授Wendy Moyle一直致力于治疗痴呆症患者。她表示自己在社交机器人方面的工作就激怒了人们,有观点认为给老年人送机器人娃娃是种非常愚蠢的行为。
Moyle指出:“在第一次开始使用机器人时,我收到了很多的负面反馈,甚至有来自员工的批评。我在会议上发言时,有人直接朝我扔东西,因为他们觉得这种行为有违人伦。”
然而,最近一段时间人们对辅助型机器人的态度有所缓和,它们也被应用于许多积极的用例当中。陪伴型机器人能够为痴呆症患者带来欢乐。在新冠疫情爆发期间,看护人员也尝试使用Paro等陪伴型机器人帮助老年患者缓解孤独感。Paro是一款形似海豚的小型机器人。至于Hyodol推出的微笑娃娃,无论大家认为这是诡异还是可爱,至少它们确实在努力表达友好的态度。
Paro
Hyodol并不是唯一一家为老年人提供AI伴侣的公司。ElliQ就是以色列厂商Intuition Robotics生产的AI产品,目前已被纳入纽约的老年人试验项目。ElliQ跟可爱不沾边,它类似于一只灯泡,可以放在床头柜上。Hyodol希望把AI功能跟Paro海豹那种毛茸茸、憨态可掬的形象联系起来,而ElliQ则强调AI技术与人类的距离感。
ElliQ
即使没有AI的加持,这些貌似具有感知的玩偶还是引起了人们的担忧。Moyle曾经协助监督这些设备在老年人护理方面的表现,并表示在某些情况下,接受护理的对象可能会变得过度依赖这些娃娃。
Moyle解释道:“我们必须直面的一大负面影响,就是某些用户太过喜欢自己的娃娃,甚至把娃娃当作婴儿一般对待。他们把机器人看成是能够随身携带的婴儿,少数人还表现出过度的感情,将其作为自己日常生活中的一部分。我们被迫减少了他们与娃娃相处的时间。”
而将语言能力纳入陪伴型娃娃,特别是像ChatGPT这种容易产生幻觉的模型与诡异玩偶间的结合,往往会在AI层面形成恐怖谷效应。此外,批评者还担心AI与娃娃的结合只是第一步,后续这项技术会被融入其他一切可能的场景。生成式AI确实会产生幻觉、散布虚假信息,而且存在各种潜在的安全隐患,更不用说由ChatGPT整合的所有数据都会被发回OpenAI处。那边充斥着种种隐私和安全问题,可能导致这些设备成为大公司监视个人、共享数据的普遍性终端。哪怕是功能层面也有潜在风险,比如护理人员过度依赖机器人来提醒患者服药等。
Hung表示:“为了保障机器人的对话安全,还有很多工作需要处理。它不能引导人们做任何不道德的事情,不应收集任何信息,比如机器人不能要求老人提供信用卡的支付密码。”
当人们在最脆弱的时候求助于商业产品时,以上几点就是最直接的现实风险。但对这个问题,Moyle认为也需要分两个角度来看。
“如果我们向某人提供与AI交流的机会,那是不是意味着同时抹杀了其与其他人正常交流的机会?比如说家人是不是不再需要前来探望?工作人员是不是也不必定期与其交谈?”这些都是切实的风险因素,但Moyle结合自己的实践经验,坦言护理机构中的许多老年人往往大部分日日夜夜都是独自一人对着窗户发呆。“所以只要能让他们快乐一点,给他们些陪伴总比什么都不给要好得多。”
当然,这些设备与人类之间仍存在着本质区别。大语言模型无法理解它们是在与人交互,它们只是特别擅长以预测性方式给出看似不错的回应。具体来讲,它们明显不知道要如何深入理解一个人的情绪或者精神状态。
Moyle评论称:“有时候,人们可能会表现出相当激进且强烈的情绪,而AI是无法识别出这些情绪的。随着AI技术变得更加复杂,情况当然有可能逐渐好转,但至少目前还看不到这样的迹象。”她停顿了一下,随后笑着补充说:“但其实很多人自己也不擅长正确评估情绪,所以嘛……”
对于很多人来说,机器人能不能回应他们表达的爱并不重要。也正因为如此,我们才会为机器人的损坏和退役表达哀悼,甚至为机器狗举行葬礼。也同样因为如此,我们才希望自己的情趣机器人也能具有个性,希望它们能回应我们最深切的情感和愿望。当人类与机器人互动时,最重要的并不在于机器人能否回报我们的爱,而是人们在将自己的感情倾注到他人或他物的过程中,本身就能创造出巨大的价值。
Hung最后总结道:“小猫和婴儿之所以可爱,就是因为他们无时无刻不在表达对爱的需要,而我们生而为人就是拥有付出爱的本能。”这也解释了为什么有人喜欢跟可爱的机器人互动,其中投射出的也是相同的心理期待。“我们购买这些机器人,就是为了向它们表达自己的爱——我们会真切感受到机器人需要自己的爱,这种被需求的感觉就是最大的意义。人类的本性如此,我们的行为也是如此。”
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。