Instagram本周三推出了类似Snapchat的"Instagram地图"功能,允许美国用户选择性分享当前活跃位置并发现基于位置的内容。由于部分用户对该功能存在误解,Instagram负责人Adam Mosseri不得不出面澄清,强调位置信息仅在用户主动分享时才对他人可见。
尽管Meta明确表示位置分享功能默认关闭,但社交媒体上仍有大量帖子错误地声称该功能会自动开启,敦促用户关闭位置分享。
Mosseri在Threads上发帖解释:"我们正在仔细检查所有细节,但目前看来主要是用户产生了困惑。他们在打开地图时看到自己的位置,就误以为其他人也能看到他们。"他强调,该功能采用双重确认设计,用户需要明确表示同意后再次确认才能分享位置。
用户困惑的另一个原因是,地图会自动显示一些用户的位置信息。这是因为功能会自动提取最近发布的故事或短视频中的位置标签。值得注意的是,这并非新功能,Instagram此前就已在地图视图中显示位置标签,但新的Instagram地图功能让这些信息更容易获取。
Instagram地图的位置更新机制与Snapchat有所不同。在Instagram地图中,位置仅在用户打开应用或应用在后台运行时更新,不提供连续的实时位置更新。而Snapchat允许用户选择是仅在打开应用时更新位置还是实时更新。
如何访问Instagram地图
要使用这项新功能,用户需要进入私信页面,点击顶部新出现的"地图"选项。首次访问时,会看到介绍新地图功能的弹窗提示,告知用户在主动分享前,他人无法看到其位置信息,且可随时更改设置。
如何设置位置分享偏好
首次打开地图时,会看到"谁可以看到你的位置"页面。用户可选择与好友(相互关注的粉丝)、亲密好友列表、特定用户分享位置,或选择不与任何人分享。
要更改偏好设置,需要点击个人资料,选择右上角的设置选项,然后选择"故事、直播和位置"选项,再点击"位置分享"按钮进行设置调整。
需要注意的是,即使关闭了位置分享,其他人仍可与你分享他们的位置,这意味着你仍能在地图上看到他们。
如何使用Instagram地图
打开应用后,用户可以看到与其分享位置的好友位置,以及关注用户基于位置的故事和短视频内容。例如,如果朋友参加附近的音乐节并发布故事,该内容会出现在地图上。同样,如果关注的创作者发布关于城市新餐厅的短视频,用户也能通过Instagram地图发现这些内容。
即使关闭了位置分享,用户仍能在地图上看到基于位置的内容。
用户还可以在地图上留下简短的临时消息或"便签"供他人查看。Instagram便签是目前出现在私信动态顶部的短消息,随着Instagram地图的推出,这些带有位置信息的便签现在也会显示在地图上。
Q&A
Q1:Instagram地图功能会自动开启位置分享吗?
A:不会。Instagram地图功能的位置分享默认关闭,只有用户主动选择并经过双重确认后才会分享位置信息。用户在地图上看到自己的位置并不意味着其他人也能看到。
Q2:Instagram地图的位置更新频率是怎样的?
A:Instagram地图只在用户打开应用或应用在后台运行时更新位置,不提供连续的实时位置更新。这与Snapchat的实时位置更新选项有所不同。
Q3:关闭位置分享后还能使用Instagram地图功能吗?
A:可以。即使关闭位置分享,用户仍能看到其他人分享的位置、基于位置的故事和短视频内容,以及在地图上留下便签消息。只是其他人无法看到该用户的位置信息。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。