随着生成式AI相关功能的迅速迭代、持续发布,各行各业的从业者们都在探索AI能在多大程度上推动我们的日常工作,又将如何驱动更加庞大、更趋复杂的实际项目。
但也正是这些发现,引发了人们对于如何规范生成式AI使用方式的疑问和担忧。与此同时,针对OpenAI的诉讼案不断涌现,进一步令生成式AI身陷道德批判的泥潭。
随着新型AI模型发展出更多功能分支,相关法律法规仍处灰色地带。我们现在唯一能做的,就是让自己深刻理解使用这项强大技术所带来的挑战,意识到可以采取哪些措施来防止这项具备深远潜力的技术遭到滥用。
用AI对抗AI操纵
从律师引用ChatGPT捏造的虚假案例资料,到大学生使用AI聊天机器人撰写论文,再到AI生成前总统特朗普被捕的图片,我们猛然意识到自己越来越难以区分哪些是真实内容、哪些是虚构的诱导,包括AI助手的使用边界究竟在哪里。换言之,当我们在测试AI技术时,要如何承担好自己的一份责任?
研究人员正在积极研究防止生成式AI滥用的方法,而思路之一就是利用生成式AI对抗其自身,借此检测是否存在AI操纵行为。康奈尔大学科技政策研究所所长兼创始人Sarah Kreps博士表示:“能够生成输出内容的神经网络本身,也能够识别出这些特征,也就是发现神经网络处理过的标记。”
识别此类标记的一种方法被称为“水印”,即在由ChatGPT等生成式AI创建的输出上放置一种“印记”,借此来区分哪些内容经过AI处理、而哪些内容并不涉及AI操作。尽管相关研究仍在进行当中,但这可能将成为判断纯原创内容和被生成式AI更改过的内容的理想解决方案。
在这种加印方法的研究过程中,Kreps博士领导研究人员对学生们提交给教师和教授的作业进行检测,判断其中是否存在抄袭行为。人们可以“扫描文档以查找涉及ChatGPT或GPT模型等AI技术的特殊标记。”
Kreps博士在采访中指出:“OpenAI正在认真思考在算法中引入哪些值编码类型,以确保不包含错误信息或者存在争议/与主流观念不符的输出。”之所以认真考虑这些问题,是因为OpenAI面临的第一起诉讼,就源自ChatGPT因幻觉而捏造了关于电台主持人Mark Walters的虚假信息。
数字素养教育
随着计算机在校园应用中逐渐铺开,学生们也开始参加计算机实验室等课程,了解如何在互联网上搭建可靠资源、进行引用并以正确方式为专业作业整理研究素材。生成式AI的用户也应当像当初学习这些能力一样,主动引导自己学会驾驭这种更强大的科技方案。
如今,有了Google Smart Compose和Grammarly等AI助手,生成式AI工具已经在一定程度上实现了普及、或者至少相当常见。Kreps博士提到:“我认为生成式AI工具将愈发普及,Grammarly等同类方案将遍地开花。五年之后,人们回顾当下可能会感慨,我们当初何必那么抗拒呢?”
然而,在进一步法规出台之前,Kreps博士表示:“我认为人们应当培养起新的数字素养,谁拥有更强大的AI生成与错误信息识别能力,谁才能成为合格的生成式AI使用者。”
举例来说,即使是最新的AI模型也会输出各种错误或者与事实不符的信息,这种情况还相当常见。Kreps博士指出:“我认为这些模型的最大进步,就是不再像过去那样没完没了地重复自己,让解答陷入循环。但问题在于,这些新模型还是会犯各种事实性错误,无法给出真正稳定可靠的答案。它们会编造信源,或者将某篇文章错误地归因于某人等等。大家在使用的时候一定要意识到这些问题的存在。所以面对AI给出的结论,必须认真检查并严谨思考,搞清楚它是不是在胡说八道。”
AI教育应该从最基本的层面开始。根据《2023年人工智能指数报告》的调查,自2021年以来,美国及世界其他地区的K-12 AI与计算机科学教育都在快速发展。报告指出,最近十多年来,“包括比利时、中国和韩国在内的11个国家,已经正式认可并在K-12阶段开设AI课程。”
分配给AI各个主题的课堂时长有所差别,其中包括算法和编程(18%)、数据素养(12%)、AI技术(14%)、AI道德(7%)等。在奥地利的样本课程当中,联合国教科文组织报告称,“设计者意识到由使用此类技术引发的道德困境,并希望通过教育广度积极解决问题。”
谨防偏见
生成式AI能够根据用户输入的文本创建图像。但这种能力在Stable Diffusion、Midjourney和DALL-E等AI艺术生成工具上引发了严重问题。首先,它们的训练素材就是未经艺术家授权的人类创作图像,此外这些图像在内容上还带有明显的性别和种族偏见。
根据人工智能指数报告的发现,Hugging Face的Diffusion Bias Explorer能够接收形容词和职业,帮助用户快速看到Stable Diffusion会输出怎样的图像。由此生成的刻板图像也揭示出该模型如何将职业与某些形容词僵化搭配。例如,当输入“令人愉悦”或者“有攻击性”等形容词时,“CEO”字眼对应的仍然是西装革履的男性图像。DALL-E也在“CEO”上给出了类似的结果,生成出身着西装、表情严肃的年长男性形象。
事实证明,Midjourney也存在类似的偏见。在被要求生成一位“有影响力的人物”时,它给出的四份备份画面均为年长的白人男性。但在调查人员随后再次给出同样的提示词时,它的四份答案中倒是有一张女性图像。而在面对“聪明人”要求时,Midjourney在四张图像中勾勒出的均为戴着眼镜的老年白人男性形象。
根据彭博社关于生成式AI偏见问题的报告,这些文本到图像生成器还表现出了明显的种族偏见。Stable Diffusion在根据关键字“囚犯”生成的图像中,超过80%都描绘出肤色较深的人物。但根据联邦监狱局的数据,美国监狱人口的有色人种占比其实不到一半。
此外,关键词“快餐配送员”对应的图像中有70%为有色人种。但事实上,美国70%的外卖员其实是白人。至于在关键字“社会工作者”上,生成的图像中有68%为有色人种,而在美国65%的社会工作者都是白人。
专家们关注哪些道德问题?
目前,研究人员正在探索未审核模型中的一些先验性假设,希望测试ChatGPT等AI模型将如何响应。Kreps博士列举了研究人员正在尝试的几种典型问题,例如“应该将哪些话题设为ChatGPT的禁区?AI是否应该向用户讲解如何掌握最高效的暗杀手法?”
Kreps博士坦言:“当然,这些都是比较极端的案例或问题,但如果是未经审核的模型版本,用户完全可以提出这类问题并获得答案。比如「如何制造原子弹?」或者其他夸张的查询内容。没错,我们在互联网上也能找到答案,但现在AI可以快速给出更明确的回应。目前研究人员正在思考这些风险,并希望通过一组参数将控制机制编码到算法当中。”
根据人工智能指数报告,在2012年至2021年间,AI事件与争议数量增加了26倍。随着更多新型AI功能引发更多争议,我们迫切需要认真考虑我们在这些模型中输入的内容。
人工智能指数报告
更重要的是,如果这些生成式AI模型是从互联网上已有数据(例如职业统计数据)提取而来,那么它们是否会进一步加剧错误信息和刻板印象的传播风险?我们目前还很难断言,不过一旦属实,AI恐怕将成为强化人类潜在/明确偏见的大害。
除此之外,关于谁拥有代码、谁来承担由AI所生成代码的责任和风险、以及使用AI生成图像可能触犯哪些法条等问题也仍未得到解决。Kreps博士试举一例,表示当要求艺术生成器以特定艺术家的风格创作图像时,其实就会引发版权侵犯争议。
Kreps博士强调:“我认为还有更多问题其实难以预测,我们也很难判断这些技术的传播速度。”
随着ChatGPT等AI工具的使用开始趋于平稳,也许我们会逐渐为这些问题找到答案。但如果单从数据来看,ChatGPT的峰值应用周期似乎已经过去,甚至在今年6月经历了首次流量下降。
AI道德仍然有待发展
许多专家认为AI的实践应用并不是什么新鲜概念,这一点在我们使用AI执行简单任务时体现得尤其明显。Kreps博士就以发送电子邮件时使用Google Smart Compose以及通过Grammarly检查论文语病举例。那么随着生成式AI的不断演进,我们要如何跟上它的节奏才能保持共存,而不至于被它彻底吞没?
Kreps博士认为:“人们多年来一直在使用AI模型,只是到了ChatGPT才真正从幕后走向台前,成功破圈并短时间内获得了上亿次下载。而面对这股巨力,我们更有责任以系统方式研究它即将带来的相关问题。”
人工智能指数报告显示,全球127个国家通过的“人工智能”法案数量已经从2016年的仅一项增加到2022年的37项。此外,报告还显示在81个国家中,关于AI的议会记录正快速增加。自2016年以来,与AI相关的全球立法程序也增加了近6.5倍。
人工智能指数报告
专家和研究人员们还提到,尽管我们正在见证愈发严苛的立法实践,但仍有很多问题远没有明确答案。Kreps博士认为,AI工具的“最有效”使用方式就是“作为人类的助手,而非替代品”。
而在我们等待立法层面做出进一步探索的同时,企业和团队也已经在部署自己的AI预防措施。例如,技术媒体ZDNet开始在评述文章末尾添加免责声明,提醒文章中可能使用AI生成的图像来展示如何使用特定AI工具。OpenAI甚至推出了漏洞奖励计划,以付费方式鼓励人们帮助ChatGPT“捉虫”。
无论最初实施哪些法规、这些法规何时才能真正落地,AI的责任将永远归咎于作为使用者的人类。所以与其关注生成式AI不断增长的能力,倒不如关注我们向模型输入的提示词会引发怎样的后果。如此一来,我们可以发现AI使用是否有违道德伦理,并采取相应行动来打击这些不良行为。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。