已经有三位艺术家对AI艺术创作工具Stable Diffusion及Midjourney的开发商Stability AI和Midjourney提起诉讼;一同被卷入官司的,还有近期刚刚建立自家AI艺术创作工具DreamUp的艺术创作平台DeviantArt。
原告艺术家Sarah Andersen、Kelly McKernan和Karla Ortiz宣称,这些组织侵犯了“数百万艺术家”的权利。他们在“未经艺术家同意 ”的情况下,从网络上抓取50亿张由艺术家原创的图片来训练自己的AI工具。
该诉讼由律师兼字体设计师Matthew Butterick,以及专门从事反垄断及集体诉讼案件的Joseph Saveri律师事务所发起。Butterick和Saveri目前还在起诉微软、GitHub和OpenAI,矛头主要指向AI编程模型CoPilot,该模型所使用的代码训练素材同样收集自网络。
随着对剥削性AI媒体模型实践方式的深入理解,我意识到尚无法律先例用于保护这一权利。我们要改变这样的现实。
在宣布诉讼案的博文中,Butterick将此案描述为“推动AI遵循公平与道德原则的重要一步”。他解释道,像Stable Diffusion这样的AI艺术创作工具能够“用几乎无限数量的侵权图像训练自身,快速产出仿作并给市场、艺术品和艺术家造成永久性的损害。”
过去一年来,这些AI艺术创作工具确实大受欢迎,而艺术界对此反响强烈。有人认为这些工具确实很有用,跟之前几代革命性软件(例如Photoshop和Illustrators)差不多;但更多人反对把自己用以谋生的素材用于训练这些商业系统。生成式AI艺术创作模型依靠网络上收集的数十亿张图像进行训练,且整个过程通常未得到素材创作者的知情或同意。之后,AI艺术创作工具就能快速产出模仿特定艺术家风格的作品。
但这些系统到底有没有侵犯版权法,确实是个复杂的问题。专家表示这个问题恐怕得在法庭上讨论解决,而AI艺术创作工具的开发者们普遍认为,至少在美国,使用受版权保护的数据训练该软件完全符合《合理使用原则》中的要求。考虑到AI艺术创作工具中的种种复杂因素,即使是“合理使用”也需要接受诉讼的考验。包括这些工具背后的开发组织具体位于哪里(欧盟和美国对于数据抓取的法律许可有所区别),还要区分各机构的具体目的(例如,Stable Diffusion是在LAION数据集上训练而成,而该数据由德国人以非营利组织的名义收集,因此享受到了比普通企业更优惠的待遇)。
Butterick和Joseph Saveri律师事务所发起的诉讼,曾因涉及技术错误而受到抨击。例如,诉讼宣称AI艺术创作模型“存储[受版权保护的]训练图像的压缩副本”并加以“重组”,其作用类似于“21世纪的拼贴工具”。但AI艺术创作模型根本不存储图像,而只保存从这些图像中收集到的模式的数学表示。该软件也不是在以拼贴画的形式构建图像,而是根据数学表示从零开始自行创作。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。