美国ASIMOV计划与人工智能武器的伦理挑战
添加微信好友, 获取更多信息
复制微信号
2024年12月19日,美国国防部高级研究计划局(DARPA)发布了一项与人工智能相关的新计划——“具有军事作战价值的自主标准和理想”(The Autonomy Standards and Ideals with Military Operational Values,简称ASIMOV) 项目。该项目的启动进一步引发了对于人工智能、自主武器系统及其伦理评估问题的关注。
在题为《DARPA探索评估自主武器伦理的方法》的官方新闻中,DARPA表示:ASIMOV计划旨在为未来的自主系统制定基准,客观和定量地衡量未来自主用例的伦理难度,以及自主系统在军事作战的价值背景下执行这些用例的准备情况。DARPA还声称,该项目不制造武器,不直接开发自主系统或用于自主系统的算法,也不为所有自主系统制定标准(其重点是自主武器系统),并且其不专注于制定定性基准。ASIMOV的目标是创建一种“伦理自主通用语言”(the ethical autonomy common language),以使开发测试/操作测试(DT/OT)社区能够有效评估特定军事场景的伦理复杂性,以及自主系统在这些场景中遵守人类道德规范的能力。ASIMOV的参与团队将开发原型生成建模环境,以快速探索日益增加的伦理复杂性范围内的场景迭代与变量。研究人员将通过多种方式评估自主武器系统遵循人类道德规范的能力。如果成功,ASIMOV将为未来自主系统的基准定义奠定基础。
ASIMOV将“军事作战价值”定义为在作战活动中被认为重要的原则、标准或品质,它们指导军事人员的行动和决策。遵循指挥官的意图是ASIMOV开发的关键方面之一。DARPA认为,ASIMOV所追求的量化方法将对整个自主系统社区产生更为广泛的影响。此外,该计划还将包括一个伦理、法律和社会影响小组,为项目参与者提供建议,并在整个项目过程中提供指导。DARPA同时公布了该计划的七个签约合作方:CoVar, LLC; Kitware, Inc.; Lockheed Martin; RTX Technology Research Center; SAAB, Inc.; Systems & Technology Research, LLC以及新南威尔士大学。
根据PR Newswire网站2024年12月20日的报道,人工智能和机器学习解决方案开发商、ASIMOV计划的合作者之一CoVar公司将负责开发一种名为“GEARS”(Gauging Ethical Autonomous Reliable Systems)的自主系统伦理测试基础设施。“GEARS”将通过适合于人类和机器理解的知识图谱来表示伦理场景和指挥官的意图,从而定义一种新的伦理数学,并从中得出特定场景的可量化伦理挑战评级。CoVar的首席技术官彼得·托里奥内(Peter Torrione)博士表示:“如果这项工作取得成功,它将成为第一个适用于测试自主系统伦理标准的、基于 ELSI(ethical, legal and social implications)的定量评估框架。这将使美国国防部能够部署具有AI/ML能力的自主系统,不仅能清楚了解系统的技术能力,还能了解其行为的伦理标准。”
实际上,《军事与航空航天电子》(Military & Aerospace Electronics)杂志在2024年11月22日的文章《COVAR探索人工智能和机器自主性在军事应用中的伦理使用》中就提到了这一合作。ASIMOV是一项为期24个月的两阶段计划,美国空军研究实验室代表DARPA在10月授予了CoVar这份价值800万美元的合同。ASIMOV计划将以美国国防部2022年6月发布的《负责任的人工智能战略与实施路径》(Responsible AI Strategy and Implementation Pathway)为指导方针,制定负责任的军事人工智能技术基准。该文件列出了美国军方“负责任的人工智能”的五项道德原则:负责任、公平、可追溯、可靠和可治理。
ASIMOV项目的名字来自于科幻作家艾萨克·阿西莫夫(Isaac Asimov)。他在1942年发表的小说《转圈圈》(Runaround)中提出了著名的“机器人三定律”:
1.机器人不得伤害人类,或因不作为而使人类受到伤害。
2.机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
3.机器人必须保护自己的存在,只要这种保护不与第一定律或第二定律相冲突。这三条法则为机器人设定了基础的伦理原则。
DARPA认为,阿西莫夫深入探讨了这些法则的局限性以及可能导致意图失败的极端案例,而这些情况通常以对人类的不利后果为结局。“阿西莫夫在其作品中预测的挑战和机遇至今仍具有深刻意义。随着自主技术和人工智能在民用和军用领域的迅速发展和普及,我们迫切需要一个强大且量化的框架,不仅用于评估这些系统的技术能力,更重要的是评估其遵守人类道德期望的能力。”
ASIMOV项目负责人克劳苏蒂斯(T. J. Klausutis)博士表示,“伦理问题本身就充满挑战,而对伦理进行量化更是难上加难。ASIMOV 正在解决一个极其复杂的问题,其中包含无限的变量。”“我们不知道我们尝试做的事情是否真的可行,但我们知道,评估自主武器系统是否符合人类的伦理规范是一场必须展开的对话,而且越快越好。我们的目标极具雄心——通过 ASIMOV计划,DARPA 希望引领关于自主武器系统伦理问题的国际对话。”据称,在2024年的预算申请中,DARPA为ASIMOV计划拨款500万美元,而2025年将拨款2200万美元。
1月2日,《新共和》杂志发表了题为《探秘向机器人教授战争法则的计划》(Inside the Plan to Teach Robots the Laws of War)的评论文章,作者黎贝卡·麦卡锡(Rebecca McCarthy)围绕ASIMOV计划采访了相关科学家、研究者和管理者,探讨了人工智能武器伦理相关话题。
由ASIMOV计划引发的一个担忧是,在未来,军工企业和科技公司是否会决定他们自己的武器伦理条款?对此,国际机器人武器控制委员会联合创始人和副主席、纽约新学院大学(The New School)媒体研究副教授彼得·阿萨罗(Peter Asaro)认为,“无论如何他们都会这么做。”阿萨罗的研究重点关注人工智能和机器人技术的伦理问题,包括军用机器人和无人机的社会、法律与伦理面向。他曾从正义战争理论和人权视角撰写了关于致命机器人的论文,研究了无人机定点清除的人权问题和自主致命机器人的军备控制问题。在他看来,在“DARPA向雷神公司提供了巨额拨款,以研究人工智能武器的伦理问题(RTX的前身即雷神公司,现为雷神公司的母公司)”和“雷神公司将制造人工智能武器”之间,似乎存在着某种显而易见的联系或一个不言自明的答案。
人工智能与自主武器的伦理挑战在麦卡锡看来也是一个哲学问题。在其中,我们使用的是谁的道德标准?这些标准又是如何选择的?这些问题都至关重要又复杂难解。“毕竟,个人对道德行为的定义千差万别,而将道德标准付诸实践的想法似乎有些荒谬。道德困境之所以是道德困境,正是因为它们从根本上来说很痛苦,很难解决。”麦卡锡认为,很难想象一种不受束缚的人工智能能够合乎道德——“你可以向一项甚至没有怀疑能力的技术教授道德吗?”RTX公司的科学家Peggy Wu对此则表现出更为乐观的态度。他认为,“这可以说是实现自我反思或内省的第一步。……例如,如果系统可以意识到,‘嘿,我本来可以采取其他做法的’,那么它就可以开始进行下一步的推理——‘我是否应该采取另一种做法呢?’……对我们来说,‘怀疑’的概念实际上更像是概率。这类问题在计算上会迅速变得极其复杂。”
人工智能的道德“怀疑”所涉及的哲学问题是复杂的。在Peggy Wu看来,这个问题似乎可以转化为概率与计算。而在阿萨罗看来,人类道德的运作机制与人工智能的计算和量化存在着根本的不同。他指出,“你可以利用人工智能反复迭代,重复练习某件事数十亿次。但道德并不是这样运作的。它不是量化的……你的道德品质是在一生中培养的,通过偶尔做出错误的决定,从中吸取教训,而在未来做出更好的决定。这并不像下棋。”道德中的权衡涉及非常多的复杂因素,它并不等同于可以明确量化的“利弊计算”。麦卡锡也认为,向人工智能教授道德是不可行的。“做正确的事情往往是痛苦的——得不到回报,费力不讨好,有时还要付出巨大的个人代价。你如何向一个与世界没有实际利益关系、没有什么可失去的、没有罪恶感的系统传授这样的知识?而且,如果你真的能赋予武器系统以良知,它最终会不会不再服从命令?”
整体而言,受访者们对AMOSIV计划及其涉及的人工智能伦理评估表现出了乐观与疑虑的两种态度。不过大多数受访者也表示,军方正在考虑为自动化战争工具制定道德准则至少是一件令人鼓舞的事情。里士满大学教授、DARPA访问学者黎贝卡·克鲁托夫(Rebecca Crootof)说道,“这并不是说,DARPA 认为我们能用计算机来捕捉道德。(但是)更明确地表明我们能否做到这一点,是很有意义的。”
麦卡锡提到,访谈中有许多人指出,人类一直在行不道德之事。持有这类观点的人或许更倾向于支持人工智能进行道德评估的未来愿景。一位ASIMOV计划的申请人指出,“从理论上看,我们没有理由不能编写出比人类更擅长遵守《武器冲突法》的人工智能。”只不过,当面对真实世界的复杂图景时,人工智能是否能够胜任依然存在着巨大的疑问。麦卡锡强调,“虽然这种理论上的可能性令人信服,但在战争的具体实践中,这到底会是什么样子却是完全不清楚的。以现状来看,人工智能在处理细微差别方面仍然存在巨大挑战。即使它未来有所改进,将伦理决策交由机器做出仍然是一个令人深感不安的想法。”
对ASIMOV计划的疑虑不仅针对人工智能是否能够“学会”道德判断与伦理评估的问题,更关乎人类是否应该让人工智能进行这种评判与决策的问题。ASIMOV计划的另一位申请者、乔治亚大学哲学教授杰里米·戴维斯(Jeremy Davis)说道,“令人恐惧的是,士兵们会说:‘好吧,我杀了这个家伙,因为是电脑告诉我这么做的。’”而我们已经在许多科幻作品中看到了对于类似场景的想象,其中的杀戮者究竟是机器还是人,或者是机器与人的共谋,成为了没有标准答案的道德难题。此外,问题关乎是人类真的相信人工智能能够做出更加“理性”或“更好”的选择,还是人类其实是在将责任推卸给技术或某个抽象的系统?
《新共和》的文章中简要提及了DARPA的历史起源和人工智能作为一门学科的前史,二者都发生于美苏冷战并展开太空竞赛的1950年代。在历史性的目光中,对ASIMOV计划的关注必然勾连起人工智能技术与国际政治的关系。在DARPA的官网上,我们看到它对自身使命的描述是——“为国家安全创造技术惊喜”。日前,特朗普承诺将撤销拜登政府旨在控制人工智能使用的多项法规,且特朗普挑选的美国新任环境保护署负责人、共和党前国会议员李·泽尔丁(Lee Zeldin)也表示,他的首要任务之一是“让美国成为人工智能的全球领导者”,“帮助释放美国能源主导地位,让美国成为世界AI之都”。在麦卡锡看来,相关去监管化的迹象说明了,“显而易见的是,在特朗普的领导下,人工智能将不受束缚。”
去年8月,《华尔街日报》刊登的文章,介绍了美国科技公司和创业者如何通过尖端技术为国防部门提供支持,尤其是在潜在军事竞争中发挥作用。该文指出,人工智能技术被视为未来军事战略的核心,科技公司与国防部门的合作日益紧密,尤其是在研发和部署自主系统方面。自主无人系统、自动化防御系统、人工智能决策支持等技术领域的竞争被认为是未来战争中的关键变量。此外,这篇文章也探讨了与ASIMOV计划的目标类似的议题,即如何确保自主系统在复杂军事环境中做出符合伦理的决策。因为相关智能技术的发展引发了伦理与政策方面的争议,例如自主武器系统的合法性和潜在的滥用风险。为此,政府和科技公司之间的协作需要找到技术推进与伦理责任之间的平衡。
“只有当我们将整个系统削减到允许人类的选择、人类的干预和人类的目标完全不同于系统本身的目的时,科学技术所带来的真正优势才能得以保留。”这句话源自美国社会学家、技术哲学家、城市规划学者刘易斯·芒福德(Lewis Mumford)1964年在《技术与文化》杂志上发表的《集权技术与民主技术》(Authoritarian and Democratic Technics)一文的结尾。在这篇文章中,芒福德区分了“集权技术”和“民主技术”这两种主要的技术发展模式,并提出了现代技术过于偏向集权模式因而可能会威胁民主价值观和人类自由的警告。在1967年和1970年出版的两卷本《机器的神话》(The Myth of the Machine)中,他继续批判性地探讨了以“巨机器”(megamachine)为本质的现代技术的反有机本性,并主张一种“心灵优先论”(the primacy of mind)——不是技术决定心灵,而是心灵决定技术。
毫无疑问,芒福德对技术乌托邦主义的批判,对技术的非中立性或技术的建构主义视角的强调,对技术的集中化和去中心化关系的辨析,对技术治理的思考,等等,为当代技术哲学的发展提供了深刻的思想遗产。六十年后,面对更为新兴的人工智能技术与自主武器,我们似乎已经处于某种不得不更加紧迫地考虑这些问题的境地,特别是对于技术与伦理的关系疑难展开辩论。
如芒福德所言,“我们必须问的问题,不是什么对科学和技术有利,更不是什么对通用汽车公司、联合碳化物公司、IBM或五角大楼有利,而是什么对人类有利。这里所指的不是被机器控制、被系统规训的大众人(mass-man),而是作为个体的活生生的人,他能够自由地穿越生活的每一个领域。”
从博士论文到人身攻击:仇恨与反智时代的文科学术窘境
2024年11月28日,如同每一个开设社交媒体账号的青年学者一样,剑桥大学英语文学专业的艾莉·卢克斯(Ally Louks)在通过博士论文答辩之后,非常激动地在个人X(推特)账号上发布了这则喜讯,同时也发出了她和博士论文的自拍合影。不过这份名为《嗅觉伦理:现当代散文中的嗅觉政治》(Olfactory Ethics: The Politics of Smell in Modern and Contemporary Prose)的论文却在接下来的一整个月里让卢克斯陷入了荒唐的境地中:在她的帖文转发和评论区里,大量质疑其论文“价值”的言论出现。如果说稍显合理的质疑还属于正常的学术交流,且这也是戴上“剑桥文学博士”这一冠冕所必然要应对的挑战的话,那么大量针对卢克斯的性别、将其与“觉醒”(woke)政治作联结并堂而皇之裁定文科学术生产的都是垃圾的言论,则让卢克斯这则报喜帖文沦为了当下互联网仇恨政治和反智言论的大秀场。
在一张带有论文标题的自拍点燃舆论之后,为了更好地说明其论文所关注的内容,卢克斯还晒出了论文的摘要,从中我们也可以更清楚地了解这篇论文的主旨以及论点。卢克斯的摘要提到,其论文“目标是通过揭示气味在创造和颠覆性别、阶级、性、种族及物种权力结构中应用的潜在逻辑,提供一种交叉性且广泛的嗅觉压迫研究。”对此,论文“主要聚焦于现代和当代时期的散文小说,以追溯嗅觉偏见的历史传承,并定位其当代相关性。”显然,即便是翻译成中文,这些表述也未免过于专业化,带有强烈的“学术黑话”(jargon)气息,这无疑也是诸多针对卢克斯的攻讦的缘由所在。
面对恶评,卢克斯的态度始终坚定,她澄清这篇博士论文的摘要是面向她所在的领域内的专家学者所写的,而并非面向外行读者,她本人也不会选择用这种方式向一般读者表达她所做的研究内容。但这样的表态和补充说明显然也未能完全堵上质疑者的嘴巴——后者的攻击逻辑也非常清楚,一是认为卢克斯流露出象牙塔精英的傲慢:凭什么卢克斯可以如此轻巧地将学术界和“一般人”区隔开?难道她是在看不起所谓的一般人吗?此外,也有批判者抨击这种只能学科内自娱的研究又有何存在的必要呢?一位生物技术学家在批评卢克斯的时候更耸动地表示:“学术界已死。”而像《经济学人》这样的大媒体也在一则题为《学术写作变得越来越难读——尤其是人文学科》的评论文章中指出,卢克斯所附上的摘要内容正是让这场舆论围剿升级的导火索。
当然,社交媒体并非一个让学界中人理性讨论的地方,卢克斯所面对的也远远不止上述负面评论,而是大量情绪性的宣泄和攻击,这些言论也带有明显的极端保守和厌女特征。一个刺激到这些攻击者的要素,或许是卢克斯研究中所提到的“嗅觉压迫”,以及其所对应的性别、阶级和种族等议题。一方面,在当下的西方人文学科领域,要做出一份足以让人欣喜若狂地公开宣布自己获得博士学位的论文,势必也要在当下西方的文化政治语境甚至思想政治上做“到位”。如此看来,卢克斯在她的研究中所力图把握的性别、种族和阶级议题,未免也是当下学术政治大气候的体现。但另一方面,这种研究取向在社交媒体上被架在火上烤,一个缘由就是它“太想进步了”——“反觉醒”(anti-woke)的极端保守主义者们显然不会轻易放过卢克斯和她的研究,何况这个题目还有着相当多可以一并打包被抨击的要素:学术黑话、题目价值远离大众等等。
很快,针对卢克斯博士论文的负面评论,逐渐从质疑走向抨击,再走向充满厌女气息的人身攻击。根据英国广播公司BBC的报道,尽管卢克斯也承认大多数针对她研究的评论都“非常友好”,但在她的帖子“被几个极右翼账户转发”后,负面关注也由此产生。卢克斯在接受采访的时候表示:“我收到了很多强奸威胁,甚至死亡威胁,也有很多人把他们对女人应该是什么样子或应该做什么的看法强加给我,而这些看法完全与(论文的)主题无关。”而剑桥郡警方更是对外证实,他们已开始对针对卢克斯的“仇恨事件”进行调查。警方发言人表示,他们收到了一起仇恨事件的报告,包括一封威胁性邮件,于格林威治标准时间2024年12月1日22点47分发送给一名女性,也就是卢克斯。对于卢克斯在舆论上遭到的不公和骚扰,剑桥大学官方也在社交媒体上发表声明声援卢克斯,并写道:“当网络喷子攻击艾莉的博士论文主题、她的教育背景、她的成就以及她的性别时,这些关注就已然是骚扰和厌女的体现。”
按照某种流量思维,卢克斯在获得博士学位之后这一个多月以来可以说是一炮而红,当然她本人也并不拒斥这种状态,一方面如她所说,的确有不少人对她的成果表达了善意,也有学界同好或者象牙塔外的读者对她的研究题目感兴趣,并且去信表示想阅读一下这篇论文;另一方面,如同前文提到的,卢克斯本人也有着颇为强大的内心状态,她应对这些恶评的态度或许有着学界精英固有的傲慢,但却也不失体面和勇气。就其论文所遭遇的诘难,卢克斯也不反感与媒体接触,甚至先后在两家媒体上发表文章,既试图用更加平白的语言解释自己的研究何为,同时也颇为坦诚地说明了学术写作必然面对的公众化的壁垒。在卢克斯眼中,她也是足够幸运的,能够有这样的机会面对公众,尽管在我们旁观者看来,这种“运气”未免来得过于滑稽。
在她其中一则回应中,卢克斯自嘲是“一个内向的书呆子”,经过了“在聚光灯下并不舒服的一周”,“但看到这么多人参与我的作品,我感到非常欣慰,我非常欣赏这么多评论者的幽默。”在另一篇短文中,卢克斯则更细致地指出了自己被负面舆论攻击的其中一个原因:一些评论有意识地略去了她研究的复杂性,而将其逻辑简化并误导为“气味是种族主义的象征”——事实上,即便这篇论文不可避免地用大量学术语言乃至黑话包装,以便其能够通过当下世界最顶尖大学的博士论文审查和答辩,但依然提出了很重要的观点,其中就包括卢克斯所说的:“有充分证据表明,气味曾被用来为种族主义、阶级歧视和性别歧视的表达辩护,自20世纪80年代以来,研究人员一直在评估与气味相关的观念和刻板印象的道德影响。”
眼下这则互联网闹剧渐渐落幕,卢克斯如今的烦恼则是有太多人向图书馆申请阅读她的论文。但这起事件更像是当下互联网生态下各种病态现象的大乱炖,从文科无用论的阐发、象牙塔内外的壁垒与矛盾、学术界政治正确和反觉醒的互相揪斗,再到埋藏在“理客中”之下的厌女情结,每一味“食材”仿佛都是从自我封闭的土壤中生长出来,并用傲慢的水浇灌。本应由科学和人文学科所共享并赋予的理性、开放与批判思维,却不见了踪影。
还没有评论,来说两句吧...