YouTube本周宣布,后续创作者需要向观众明确标注使用AI技术制作的视频内容。该平台在Creator Studio中引入了新工具,强调在可能被观众们误以为是真实人物、地点或事件的编辑/合成内容(包括由生成式AI输出的内容)处,创作者必须做出明确标记。
这项新规旨在防止用户受到蒙蔽,即误认为合成视频为真实素材,这是因为新的生成式AI工具已经让视频内容的真伪区别愈发困难。值此发布之际,专家们也再次警告称,AI与deepfakes深度伪造很可能在即将到来的美国总统大选期间掀起又一波误导风险。
此次发布的新规,也是YouTube继去年11月公布的大规模AI应用政策的延续与最新条款。
YouTube方面表示,新规并不要求创作者标记那些明显不太真实或者动画形式的内容,例如有人骑着独角兽穿越奇幻世界。新规也不要求创作者标明使用生成式AI进行辅助制作的内容,例如生成剧本或者自动字幕。
相反,YouTube的目标是帮助观众正确区分包含真实人物肖像的视频。例如,YouTube强调创作者必须披露自己在哪些部分对内容进行过数字编辑,包括“用其他人的面孔对当前人物进行换脸,或者用特定人物的合成音色为视频添加旁白。”
创作者还必须标明对真实事件或地点进行过编辑的镜头内容,例如用AI工具为一座真实建筑添加燃烧效果。同样受到限制的还有在真实场景下表现的重大虚构事件,例如龙卷风向真实存在的某处城镇移动。
YouTube表示,大多数视频只需要在扩展描述中添加“AI生成”标签。但对于涉及健康或新闻等较为敏感的主题视频,该公司要求创作者在视频画面处添加更显眼的标记提示。
未来几周内,观众将陆续在所有YouTube视频中看到这些标签信息。新规将首先登陆YouTube移动版应用,随后很快覆盖桌面及电视端视频。
YouTube还计划对坚持不添加标签的创作者采取强制措施。该公司表示,对于创作者没有自主添加标签的某些特定情况,YouTube会主动为其添加标签,特别是那些有可能混淆视听或误导人们认知的内容。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。