是时候探讨建立“无AI保护区”了

无AI保护区所强调的权利将促进AI技术的进步,同时保护全人类的认知和情感能力。

在丹·西蒙斯(Dan Simmons)发表于1989年的经典科幻作品《海伯利安》中,小说主人公永久接入了名为“数据空间”的AI网络。这套网络能够即时将信息传输进人们的大脑,导致的结果是,虽然知识唾手可得,但人们的自主思考能力已随之丧失。

如今距离这部小说出版已经过去30多年,AI对人类智力的影响也显露出来,小说中的情节,似乎已经照进现实。为了缓解这些风险,我想提出一个解决方案,尝试在AI进步与尊重/保护人类认知能力之间做出调和。

AI给人类带来的潜在福祉与助益已经相对明确,既包括促进社会正义、打击系统性种族主义、改进癌症检测,也涉及缓解环境危机和提高生产力等。

然而,AI的阴暗面也逐渐成为人们关注的焦点,包括由此激化的种族偏见、对社会经济差异的加深,乃至操纵人类情绪和行为的能力。

西方第一本AI规则手册?

尽管风险越来越大,但目前还没有具约束力的国家/国际制度尝试对AI做出规范。正因如此,欧盟委员会关于AI监管工作的提议才显得如此难能可贵。

欧盟委员会拟议的AI法案(不久前这份最新草案刚刚获得欧洲议会两个委员会的批准)审查了AI技术中固有的潜在风险,并将其划分为“不可接受”、“高”和“其他”三类。在“不可接受”分类当中,以下AI实践将被直接禁止:

• 以会或可能导致当前个人或他人身体或心理伤害的方式,操纵对方的行为。

• 利用特定人群(例如年龄、残疾)的弱势现实,利用AI扭曲这些人的行为并造成潜在损害。

• 对人进行评估和分类(例如社会评分)。

• 在公共场所使用实时人脸识别技术进行执法,但特定情况除外(例如应对恐怖袭击)。

在这份AI法案当中,“不可接受”的风险同危害概念密切相关。一系列重要步骤,共同揭示了保护特定活动与物理空间免受AI侵扰的必要性。我本人也与同事Caitlin Mulholland一道,表达了加强AI与人脸识别监管、保护隐私等基本人权的重要意义。

AI的最新发展,特别是在司法领域的自动裁判和在移动管理中的应用,尤其适合接受新法案的约束。此外,围绕ChatGPT与OpenAI的争论也引发了人们对于AI给人类智力所施加影响的深深忧虑。

不会被AI干扰的避难所

这些事实表明,人们在涉及权利、隐私和认知能力的场景下普遍反对部署AI成果。此外,还应明确定义哪些空间中的AI活动须接受严格监管。

我认为,这些保护区类似于古老的“避难所”概念。在一篇关于“监视资本主义”的文章中,作者Shoshana Zuboff极有先见地将这种避难权称为权力的解药。传统上的圣地、教堂和修道院曾经是受压迫社群的避难所。如今,数字层面的监视无处不在,Zuboff则坚称应建立强有力的数字监管措施以维护这种避难权,让人类得以享受“不可侵犯的避难空间”。

“远离AI的避难所”绝不意味着彻底禁绝AI系统,而是要对这类技术的实际应用开展更严格的监管。以欧盟的AI法案为例,其中就要求对损害的概念做出更精确的定义。但无论是在欧盟拟议的立法草案中,还是在各欧盟成员国层面,都没有可以操作的明确损害定义。关注技术立法的学者Suzanne Vergnolle教授认为,潜在的解决方案是在欧盟各成员国间建立共同标准,确切描述AI实践可能造成的危害类型,同时考虑可能在不同种族和社会经济背景下引发的集体损害。

为了建立无AI保护区,理应强制执行允许人类保护自身认知和精神健康状态的法规。可行的起点包括建立新一代人权——即“神经权”,确保在神经技术的快速进步下保护我们的认知自由。法学专家Roberto Andorno和AI伦理学者Marcello Ienca也认为,欧洲人权法院认定的精神完整权应当延伸至精神疾病范畴之外,涵盖包括AI系统侵入在内的其他未授权的意识侵入行为。

无AI保护区:建立宣言

在这里,我想粗略整理“无AI保护区”的基本权利宣言,具体包括以下临时条款:

• 选择退出的权利。所有人都有权在自己指定的时段内,选择脱离敏感领域的AI支持。即要求AI设备完全不干预或仅适度干预。

• 无负面影响。选择脱离AI支持永远不可引发任何经济或社会意义上的负面影响。

• 人类掌握决定权。所有人均享有由个人做出最终决定的权利。

• 敏感领域和人群。政府当局应与民间社会和私人行为者合作,确定因特别敏感而不应暴露/只能适应暴露在侵入性AI下的领域(如教育、卫生等)及人类/社会群体(如儿童)

在现实世界中建立无AI保护区

截至目前,从严格意义上的空间角度看,“无AI空间”的应用并不均衡。部分美国和欧洲学校开始在课堂上刻意避免使用电子屏幕——即所谓“低技术/无技术教育”运动。但仍有大量数字教育项目依赖于可能导致精神成瘾的设计,特别是公立和资金匮乏的学校往往更依赖于电子屏幕和数字工具,这无疑会加剧社会鸿沟。

即使是在教室等受控环境以外,AI的影响范围也在不断扩大。针对这一现实,在2019年至2021年期间,美国已经有十几个城市通过了限制和禁止将人脸识别技术用于执法目的的法律。但自2022年以来,不少城市因犯罪率上升而有所妥协。尽管欧盟委员会提出了立法建议,但法国仍决定在2024年的巴黎奥运会上采用AI监控摄像头。

另外,可能加剧不平等问题的人脸分析AI在求职面试中也时有出现。结合过往成功过关者的数据,AI可能会倾向选择那些拥有特权背景的候选人,同时排除具有弱势背景的人群。这种做法理应被禁止。

AI驱动的互联网搜索引擎也应被禁止,因为AI技术还没有做好在这个层面上广泛普及的准备。正如资深技术记者Melissa Heikkiläa在2023年《MIT技术评论》中发文所言:“AI生成的文本看似权威并提供原文来源,但讽刺的是它仍可能在胡说八道,精美包装下的胡言乱语在用户眼中反而可信。”而且由于“用户目前是在免费试用这项技术”,所以滥用和误用没有被视为严重问题。

允许进步,也要维护权利

无AI保护区所强调的权利将促进AI技术的进步,同时保护全人类的认知和情感能力。如果我们想要继续以自己的方式获取知识和经验,同时保持原有的道德判断能力,就必须拥有不使用AI这个重要选项。

在丹·西蒙斯的小说中,诗人济慈实现了“赛博”重生并与数据空间断开了连接,借此抵抗AI的侵蚀。这一点极具启发性,因为这揭示了AI可能对艺术、音乐、文学和文化产生的普遍影响。事实上,除了版权问题之外,这些人类活动也跟我们的想象力和创造力密切相关,也将成为我们抵御AI侵入、维持独立思考能力的基石。

来源:The Conversation

0赞

好文章,需要你的鼓励

2023

05/24

14:45

分享

点赞

邮件订阅