很多朋友应该都在评论帖子或者社交媒体上见过这样的言论:“根本就没必要怕生成式AI,Photoshop我们不是都用了35年了吗?”
确实有无数种理由值得我们对AI图像编辑和生成工具造成的虚假信息传播感到担心,特别是自己可能怎样被这种盲目相信或者排斥所操纵。这当然不是好事,但已经在很大程度上成为了现实。但这里我们就提纲挈领,专挑最有份量的观点分析并加以驳斥,免得篇幅太长分散了咱们讨论的专注重点。
观点:“生成式AI的图像处理跟Photoshop是一回事”
如果缺乏在Adobe Photoshop等应用程序中手动处理图像的经验,你其实很容易轻信这样的说法。但我得提醒你,这是种过于简单粗暴的类比。这里假设有些卑鄙的家伙想要构陷某人,让对方看起来好像是在滥用违禁药品,那他们在Photoshop时代至少需要先做到以下几点:
• 购置(可能很昂贵的)桌面版本软件。没错,移动设备上也有图像编辑应用,但它们大多只能完成磨皮和色彩调节等小功能,并不适合做创造性的重度编辑。因此对于这项工作,我们至少需要一台电脑——而这本身就是笔专项投入。另外虽然某些桌面图像处理应用程序免费开放(比如Gimp和Photopea等),但大多数专业级工具都要收费。作为最受欢迎的此类软件之一,Adobe的Creative Cloud仅提供定期订阅(其中单Photoshop每年就需要263.88美元)而且取消操作非常繁琐。
• 找到合适的吸毒用具和图片。哪怕手头已经有素材,也不能随便把旧照片放进去就指望着搞出一幅足够以假乱真的新图像。我们必须考虑这些用具的光照、角度,毕竟如果把充满违和感的物体直接塞进另一张照片,结果只能是“五毛特效”、徒增笑耳。
• 了解并使用各种复杂的编辑工具。要想插入新物体,首先需要把它们从所处的背景中剪切出来,然后无缝融入到新环境当中。这可能涉及调整色彩平衡、色调和曝光度,进行边缘平滑或者添加新的阴影或者反射。这还仅仅是让结果看起来说得过去,更加自然的效果需要大量时间投入和经验积累。
Photoshop中新增的AI工具确实能够大大简化这个过程,比如自动选取对象并去除背景。但哪怕是使用这些功能,处理一张图片仍然需要耗费大量时间和精力。相比之下,下面看看The Verge编辑Chris Welch使用谷歌Pixel 9上的“Reimagine”功能实现相同效果所需要的步骤:
• 在智能手机上启动Google Photos应用。点击一个区域,要求程序添加一个“装满红色液体的医用注射器”、一些“碎粉笔末堆成的细线”,再加上酒瓶和橡胶管。
这就完成了。三星最新款手机也支持类似的简单操作流程。这不仅完全不涉及任何技术要求和时间投入,而且效果相当惊人。谷歌的工具还特别擅长把凭空生成的素材添加到图像当中:灯光、阴影、不透明度甚至是对焦位置都会被考虑在内。Photoshop本身现在也内置有AI图像生成器,可得到的结果往往还不及谷歌这款免费Android应用生成效果的一半。
图像处理技术及相关造假方法已经存在了将近200年——历史几乎跟摄影本身一样漫长。然而,正是由于篡改图像内容需要极高的技能水平和大量时间投入,所以我们在看到照片时才会默认采信、而非表示质疑。在摄影史的大部分时间里,篡改都是极其罕见的行为。但随着AI技术在智能手机上的普及,更低的操作门槛和庞大的覆盖范围使得任何笨蛋都能够以我们前所未见的频率和规模大量制作伪造图像,由此引发的危机相信每个人都能感受得到,也应当对此感到担忧。
观点:“这只是种新常态,人们总会习惯”
少数人有能力判断图像是否可信,并不代表每个人都能迅速且准确地加以识别。不是每个人都愿意长时间泡在技术论坛上(这里向长期关注技术动态的朋友们致敬),所以对于那些不知道该依靠哪些特征来识别真伪的朋友们来说,其实我们眼中非常典型的AI伪造痕迹在他们看来并没有那么明显。更别说随着技术进步,这种痕迹已经越来越轻微。AI生成自然顺畅图像的能力正在迅速提升,如今的成果已经很少出现扭曲的手指或者那种一眼假的逻辑错误。
没错,我们偶尔还是能轻易从眼前流过的内容中快速发现deepfake深度伪造的画面,但短短两年之间,这种虚假图像的产出规模已经发生了巨大变化。如今制作这些东西非常容易,甚至可以说是无处不在。我们正快速走向一个值得高度警惕的新时代——我们看到的每一张图片,其背后可能都对应着难以察觉的引导和阴谋,却令观看者毫不自知。
当一切画面都可能系伪造时,证明真实性将变得极其困难。这种怀疑论很容易被利用,最终为前总统特朗普这样的人物所利用。他们到处散布虚假指控,比如说哈里斯篡改了支持集会上人群的数量。
观点:“Photoshop同样是一项意义重大、降低操作门槛的技术——但我们仍然实现了平稳过渡”
的确如此:哪怕AI技术比Photoshop要易用得多,也不能否认这款图像编辑软件代表的技术革命,同样让人们开始面对一个全新的造假时代。只是很多人似乎没有意识到,Photoshop和其他前AI时代出现的编辑工具确实造成了社会问题,其中很多问题一直持续至今并且造成了重大危害。杂志和广告牌上的照片都可以随意篡改,导致男性和女性审美受到了引导和歪曲,其中女性受到的影响尤其严重。例如2003年,当时27岁的凯特·温斯莱特就在登上GQ杂志封面时被刻意修瘦了。来自这家英国杂志的编辑Dylan Jones则辩解称:“我们对其他封面明星同样会大修特修,她并不是个例。”
早期博客Jezebel曾经因发布未经修饰的名人照片而引发过重大丑闻,而且类似的过度修图行为至今仍普遍存在,只是很多朋友不关注也没听说过。法国甚至通过了一项法律,要求明确披露图片经过处理。只是随着Facetune等更易使用的工具在社交媒体平台上出现,这种画面美化正变得越来越难以察觉。
2020年的一项研究发现,71%的Instagram用户会在发布自拍照前使用Facetune进行编辑。另外一项研究发现,无论是否声明照片经过数字编辑,媒体刊登的图片都会刻意让成年和未成年女性的体态表现得更纤细。社交媒体的引导,直接塑造了现实生活中人们对于身材的焦虑和对整形手术的依赖,部分极端者甚至要求整形医师为其实现物理层面根本不可能达成的效果。同时男性也未能幸免——社交媒体对于男孩及其自我形象的认知同样产生了真实存在且可以量化的影响。
除了灌输不切实际的审美标准之外,摆拍照片与画面编辑还有可能误导观众,削弱人们对于新闻摄影的信任,甚至被恶意利用以左右民意。比如在1994年的一张照片插图中,引起全球关注的杀妻案主角OJ Simpson的面部就被调得实际上更黑。
生成式AI的图像编辑功能不仅进一步降低了门槛、加剧了此类问题,更重要的是它的误导性甚至可能没有明确方向。AI工具及相关应用常常被用于在未征得女性当事人同意之下,扩大胸部尺寸并为她们换上暴露的着装。于是不单是观众不敢相信自己看到的画面是否真实,就连摄影师也不敢相信自己手中的工具会不会悄悄“夹带私货”。
观点:“相信会有法律来保护我们”
首先需要明确一点,制定好的言论治理法其实是件极其困难的事情。立法者必须想办法对人们制作和发布经过编辑图像的行为进行划分,将有害用途跟大多数人认为有价值的用途准确区分开来——比如艺术二创、恶搞和模仿。立法者和监管者还必须遵循现有关于言论自由和信息获取方面的法律条款,包括美国的《宪法第一修正案》。
全球各科技巨头也在全速进军AI时代,而且似乎根本无暇考虑如何处理监管方面的事宜。全球各国政府则争先恐后出台法令,想要控制那些滥用生成式AI技术的家伙(包括开发此类技术的公司),可对真实照片与篡改照片进行识别的系统却发展速度缓慢、效果有限而且数量相当有限。
与此同时,已经有人在利用简单的AI工具操纵选民意志、利用数字技术生成儿童色情画面,甚至对Taylor Swift等名人进行恐怖的深度伪造。这些都是去年业已发生的实情,相信后续这项技术只会不断改进。
在最理想的情况下,我们必须抢在免费、防呆工具能够在几秒钟之内就在画面中添加极其逼真的炸弹、撞车或者其他令人反感的内容之前,就设置起足够强大的护栏。但这事真能做到吗?乐观和故意回避解决不了实际问题,我们甚至还不清楚到底该如何解决、或者说这个问题到底能不能得到解决。充满变数的时代下,一切皆在未定之天。
好文章,需要你的鼓励
Norma Group是一家工程连接技术制造商,拥有300台服务器、700TB数据和全球范围内的8000名员工,因此必须把所有这些整合到一起,就需要开放的倾听心态和敏锐的头脑。
英国气象局(Met Office)产品创新负责人Niall Robinson是一位经验丰富的高管,他将英国国家气象和气候服务部门的新颖想法转化为有价值的成果。他已经在这里工作了12年,但仍在寻找方法推动变革。
IT研究公司Gartner预测了2025年的十大技术趋势,其中包括代理AI技术的兴起、对虚假信息网络安全解决方案的需求、以及可以遵循人类指令的多功能机器人。
云计算最天才的核心构想,就是让一家掌握大量IT预算(每年可能高达数亿美元)且拥有一定专业知识的大企业,先建立起规模远超自身需求的IT部门,为此砸下数十亿美元(到如今的AI时代,投资额甚至可能高达数百亿美元),再将绝大部分容量出租给第三方客户。