为了让摄控一体机获得更丰富的应用功能,佳能正式推出摄控一体机智能应用系统“Add-On应用系统”和“VAS应用系统”,可以让用户根据自身需求通过安装付费应用程序。Add-on应用系统包含佳能同步发布的自动追踪“RA-AT001”应用程序和自动巡视“RA-AL001”应用程序,VAS应用系统由自动追踪“RA-ST001”应用程序和图像增强“RA-IA001”应用程序构成,四款应用程序可广泛应用于纪录片、真人秀、媒体直播、电商直播等场景下的拍摄,也可以满足高端视频会议、远程教育等多样化场景需求,能够帮助用户更有效的提升拍摄效率。
自动追踪“RA-AT001”应用程序(左)与自动巡视“RA-AL001”应用程序(右)
进一步扩展摄控一体机自动化操作,有效提升拍摄效率
自动追踪“RA-AT001”应用程序和自动巡视“RA-AL001”应用程序,均是在摄控一体机内处理,所以硬件反应性能更为迅速、高效与稳定。目前,这两款应用程序可以配合佳能旗下面向中高端市场的室内4K摄控一体机CR-N700、CR-N500和CR-N300,以及户外4K摄控一体机CR-X300使用。未来,佳能将进一步扩大其兼容的摄控一体机型号,及其Add-On应用系统提供的应用程序阵容。
自动追踪“RA-AT001”应用程序能够使佳能摄控一体机在指定区域自动追踪拍摄对象。该应用程序拥有出色的追踪能力,并且具有灵活的视角,能够从全身、上半身、头像的视角进行拍摄。此外,该应用程序设有“构图设置”、“追踪灵敏度设置”、“优先显示区域”等丰富的调整功能,用户可以根据自身不同的使用场景进行更加精细化的设置,有效提升拍摄效率。
自动追踪“RA-AT001”应用程序的构图功能示意图
自动巡视“RA-AL001”应用程序可以自动重复执行摄影师设定的摄控一体机巡视位,并让摄控一体机精细的进行平移/俯仰/缩放(PTZ)的分段操作。除了可以根据需求选择两种“重复巡视”模式外,还可以在屏幕上直接调整巡视位和巡视路线以及确定每个巡视点位的停留时间,并在巡视路线中设定巡视移动的速度等参数,功能设置简单,操作清晰便利。此外,淡入淡出功能可以让摄控一体机在设定的两个巡视位之间平滑地执行移动开始和移动停止时的加减速,从而实现如同专业摄像人员一般的操控。
自动巡视“RA-AL001”应用程序的循环操作和往返操作示意图
自动巡视“RA-AL001”应用程序的淡入淡出功能示意图
为更好的适应中国市场,进一步扩大佳能4K摄控一体机应用领域
佳能推出适配旗下可应用于远程视频制作的4K摄控一体机CR-N700、CR-N500、CR-N300的自动追踪“RA-ST001”应用程序和图像增强“RA-IA001”应用程序。两款软件虽然外置,但是性能强大,用户只需将摄控一体机连接到已安装智能程序的终端上,就可以轻松实现对选定目标的自动追踪或图像增强。
自动追踪“RA-ST001”应用程序搭载AI人脸识别技术,对于戴口罩和背对摄控一体机的追踪目标,也能快速精准锁定,实现顺畅追踪效果,且多人识别时目标可锁定不易丢失,最多可同时连接四台摄控一体机,并允许用户根据需求在多台摄控一体机之间灵活切换。图像增强“RA-IA001”应用程序则可使设备对选定区域内的部分图像画质进行增强并将视频竖幅输出,且能够以4K高清的画面质量呈现,并通过HDMI直出和RTMP推流双路同时输出。
自动追踪“RA-ST001”应用程序(左)与图像增强“RA-IA001”应用程序(右)
提升性能与操作的便利性,佳能将为摄控一体机产品提供版本升级
2023年4月佳能对摄控一体机CR-N500、CR-N300、CR-X300以及RCCA应用软件进行版本升级。通过本次固件升级,三款设备将支持中文显示,且兼容性会有明显提升。开箱即用可直接通过SDI/HDMI输出视频,同时,CR-X300通过本次固件升级还将支持“SRT协议”与“free-d协议”。此外,Mac版RCCA应用软件将进行版本升级,用户可于7月在官网下载。
CR-N500、CR-N300、CR-X300 固件升级明细
自动追踪“RA-AT001”与自动巡视“RA-AL001”预计将在今年4月下旬上市,自动追踪“RA-ST001”预计今年5月上旬上市。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。