多邻国(Duolingo)最近在TikTok上发布帖子,借该语言学习应用的绿色猫头鹰吉祥物之口,向天线宝宝的应援群组宣称已经申请了限制令,禁止天线宝宝“骚扰”自己。用户在评论区回复:“Duo……你们是在哪遇上天线宝宝的?”Duo立刻表示是在地下室里碰到的。
这种有几分荒诞、又有几分癫狂的风格,正是社交媒体上角色塑造的典型特征。Duo在互联网上的人气也呈现出爆发式增长:这只猫头鹰在TikTok上已经拥有近800万粉丝,这在很大程度上源自他们一直以幽默的口吻敦促、甚至“威胁”用户们在应用上保持学习习惯。
现在,用户正在举办以双人为主题的连胜派对,参与者分别扮演万圣节背景下的主题角色。最近,斯坦福巡游乐队的一名成员甚至在现场表演中直接妆扮成了一只猫头鹰。
志愿者、外展协调员Genesis Garcia表示:“我从2019年起就在使用这款应用。但直到疫情期间看到Duo在社交媒体上彻底‘放飞自我’之后,才真正开始保持稳定的使用习惯。”现在,她即将完成为期一年的每日西班牙语学习课程。在结业之后,她打算召开一场以双人对话为主题的派对,并要求参与者穿上绿色猫头鹰服饰,她表示:“我和女朋友会为活动制作一只以Duo为主题的蛋糕。”
Duo的病毒式传播颇有几分你来我往、见招拆招的意思——先是多邻国用户收到了官方发来的、有点“冒犯”性质的学习提醒,于是开始有人在社交媒体上拿这只讨厌的猫头鹰开玩笑。正是这种巧妙的手段,让Duo实现了品牌知名度的快速提升,也将更多年轻受众带入了这个平台。
多邻国公司营销总监Katherine Chan曾经在红牛、特斯拉和Meta公司工作过,目前在这边负责社交媒体上的管理工作。“我们的用户增长,很大一部分来自人们在TikTok上看到的相关内容。”2021年,23岁的社交媒体经理Zaria Parvez率先发布Duo的视频,并初步引发关注。Chan在加入公司之后,进一步扩大了关注者的整体规模。她补充称,通过TikTok接触Duo应用的用户往往更加年轻:“有人为我们的宣传视频制作了一个《我的世界》版本。老实讲,我猜测作者很可能是个14岁的孩子。”
该公司还着力围绕应用之上的其他角色开发内容,包括广受用户喜爱的高冷紫毛“拽姐”Lily。Chan表示:“我们正在为她创作一部90年代的情景喜剧,所有内容都将在社交媒体上播出。”她总结道,Duo和多邻国之间的关系,就类似于米老鼠之于迪士尼:“Duo特别有主角气质。”
多邻国社交团队也一直反应迅速,时刻紧跟TikTok上的趋势和潮流。“虽然有些重大活动还是需要跟制作公司合作几个月,但在大多数工作上,我们的速度都很快,有时候从灵感构思到视频发布可能只需要30分钟。”去年愚人节,他们就精心设计了一段恶搞人身伤害法律广告的视频,询问用户是否受到了这只疯狂绿色吉祥物的伤害。随着时间推移,Duo的个性也越来越丰富、充实。今年,这只吉祥物甚至公开向歌手Dua Lipa表达了倾慕之情。
极合Z世代胃口的宣传风格也获得了回报,早期帖子就如同飞轮般越转越快、越传越广。在此前风靡一时的《芭比》电影提及多邻国之后,这只猫头鹰吉祥物得以走上红毯,也由此催生出更多社交内容。多邻国公司还制作了一段30秒长的广告,在部分影院当作片前广告播放。
Duo不仅在美国大为流行,在国际市场上也符合了其打破语言隔阂、纵贯整个世界的定位。这只猫头鹰在日本、印度、德国和巴西等国家都设立了单独的社交媒体账户。尽管Duo自身的基本性格仍保持不变——混乱、冲动、“阴阳怪气”,但该公司也对某些方面进行了微调,借此吸引不同文化体系下的受众——“在日本,我们会模仿动漫风格让它变得更可爱一些;而在德国,我们制作了一段他想要混进传奇夜总会Berghain的视频。”
本月晚些时候,多邻国还将通过其线上商品商店发布一款Duo服饰。Chan表示:“这样,用户就能穿上它去督促那帮现实生活中没有坚持学习课程的朋友了。”
好文章,需要你的鼓励
Roig Arena 将于 2025 年 9 月在瓦伦西亚开业,借助 Extreme Networks 的 6GHz Wi-Fi 与数据分析技术,实现无缝运营与个性化观众体验,打造全天候活动中心。
这项研究首次系统研究了大语言模型在表达不确定性时的"忠实度"问题,发现它们往往在不确定时仍使用肯定语言,导致用户过度信任。研究团队提出了MetaFaith方法,通过激发模型的"元认知"能力,使其能更诚实地表达不确定性。在14种模型和10个数据集的测试中,MetaFaith将忠实度提升了高达61%,且83%的情况下被人类评为更可靠。这一突破对构建更值得信任的AI系统具有重要意义。
OpenMamba 是一款意大利独立滚动更新的 Linux 发行版,基于 Fedora 工具构建,提供 KDE Plasma 与 LXQt 桌面。它采用最新组件和标准打包工具,运行稳定且易用,适合规避主流系统限制的用户。
这项研究提出了强化蒸馏(REDI)框架,创新性地利用大型语言模型生成的正确和错误推理过程进行训练。传统方法仅使用正确样本,浪费了包含宝贵信息的错误样本。REDI采用两阶段方法:先用正确样本建立基础,再通过非对称加权的目标函数利用错误样本进一步优化。实验表明,仅用131k个公开数据样本训练的Qwen-REDI-1.5B模型在MATH-500等基准上达到83.1%准确率,与使用800k专有数据训练的同类模型相当或更优,为小型模型离线学习复杂推理能力提供了高效途径。