YouTube本周宣布,后续创作者需要向观众明确标注使用AI技术制作的视频内容。该平台在Creator Studio中引入了新工具,强调在可能被观众们误以为是真实人物、地点或事件的编辑/合成内容(包括由生成式AI输出的内容)处,创作者必须做出明确标记。
这项新规旨在防止用户受到蒙蔽,即误认为合成视频为真实素材,这是因为新的生成式AI工具已经让视频内容的真伪区别愈发困难。值此发布之际,专家们也再次警告称,AI与deepfakes深度伪造很可能在即将到来的美国总统大选期间掀起又一波误导风险。
此次发布的新规,也是YouTube继去年11月公布的大规模AI应用政策的延续与最新条款。
YouTube方面表示,新规并不要求创作者标记那些明显不太真实或者动画形式的内容,例如有人骑着独角兽穿越奇幻世界。新规也不要求创作者标明使用生成式AI进行辅助制作的内容,例如生成剧本或者自动字幕。
相反,YouTube的目标是帮助观众正确区分包含真实人物肖像的视频。例如,YouTube强调创作者必须披露自己在哪些部分对内容进行过数字编辑,包括“用其他人的面孔对当前人物进行换脸,或者用特定人物的合成音色为视频添加旁白。”
创作者还必须标明对真实事件或地点进行过编辑的镜头内容,例如用AI工具为一座真实建筑添加燃烧效果。同样受到限制的还有在真实场景下表现的重大虚构事件,例如龙卷风向真实存在的某处城镇移动。
YouTube表示,大多数视频只需要在扩展描述中添加“AI生成”标签。但对于涉及健康或新闻等较为敏感的主题视频,该公司要求创作者在视频画面处添加更显眼的标记提示。
未来几周内,观众将陆续在所有YouTube视频中看到这些标签信息。新规将首先登陆YouTube移动版应用,随后很快覆盖桌面及电视端视频。
YouTube还计划对坚持不添加标签的创作者采取强制措施。该公司表示,对于创作者没有自主添加标签的某些特定情况,YouTube会主动为其添加标签,特别是那些有可能混淆视听或误导人们认知的内容。
好文章,需要你的鼓励
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
AI系统正变得越来越善于识别用户偏好和习惯,像贴心服务员一样定制回应以取悦、说服或保持用户注意力。然而这种看似无害的个性化调整正在悄然改变现实:每个人接收到的现实版本变得越来越独特化。这种认知漂移使人们逐渐偏离共同的知识基础,走向各自的现实世界。AI个性化不仅服务于我们的需求,更开始重塑这些需求,威胁社会凝聚力和稳定性。当真相本身开始适应观察者时,它变得脆弱且易变。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。