Chrome选项卡大师和书签囤积爱好者们,你们有福了!现在,大家可以通过地址栏中的「@」快捷方式快速搜索整个浏览器。在最新的桌面版Chrome 108上,这项功能将帮助大家简化操作,无需额外搜索网络即可直接进入之前曾经打开的选项卡。
相信很多朋友都会把大量重要的网址保存成书签。但随着书签数量的增加,实际管理和检索体验越来越麻烦,最后反而还是得靠搜索引擎重新寻找相应链接。如今,我们可以直接键入「@bookmarks」或键入「@」之后按空格键并单击「搜索书签」,即可通过关键词找到自己需要的书签内容。
同样的操作也适用于选项卡和历史记录。也许大家也曾经在十来个Chrome窗口里同时打开过几十个选项卡。要想再次将它们找出,只需输入「@」并按下空格键,之后单击「搜索选项卡」或「搜索历史」再输入关键字,就能很快找到当初的重要页面。
在旗下的服务中,Google从不掩饰自己对于「@」符号的喜爱。今年10月,Google刚刚为YouTube用户推出Twitter风格的全新「@」标头,还在Workspace/Google Docs产品中推出强大的全新开发者功能,可利用「@」标签调用外部文件和第三方应用程序。
这项新功能初步登陆于今年9月的ChromeOS 106测试版,之后逐步成为面向全体用户的正式功能。Google在博文中还提到一项现有Chrome功能,可供用户创建自己的自定义站点搜索快捷方式:
您是否有经常搜索的常用网站,例如YouTube或Google Drive?您可以激活自己的自定义站点搜索快捷方式,直接通过桌面版Chrome地址栏进行搜索。前往桌面版Chrome设置中的「管理搜索引擎和站点搜索」(chrome://settings/searchEngines)并激活。您也可以输入「customize site search」(自定义站点搜索)以直达该设置位置。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。