伦理、技术和利益,人工智能的不可能三角?

朱恬骅 总171期 2023年 5月号 特别策划

    《环球市长》杂志    GLOBAL MAYOR MAGAZINE

有“人工智能教父”之称的杰弗里·辛顿(Geoffrey E. Hinton)在这个周一宣布从谷歌公司离职,“以自由谈论人工智能的风险”。一些媒体称他的离开为“拯救”,另一些则渲染了辛顿对自己毕生从事的人工智能研究的“后悔”。不过,正如辛顿自己所说,“如果不是我,或许别的人也会做出同样的工作”:相比过去的事情,他更在意将进行的工作。

 

对自己的离职,辛顿在社交媒体上不愿将矛头指向老东家。他认为,这是一种普遍存在的问题:科技巨头研发先进的人工智能,这必须受到全世界监管,以避免“不负责任的利用产生意想不到的后果”。在这个意义上,与其说辛顿离开了某家公司,不如说他选择离开业界。

 

辛顿的主要工作完成于20世纪80年代。他和两位合作者共同完善了训练多层神经网络的反向传播算法,使之得到广泛应用。说它是当前人工智能技术的一块基石,也许不算过誉。2012年,辛顿和他的学生共同完成了使用深度卷积网络进行图像分类的工作,这在计算机视觉领域树立了里程碑。鉴于他的贡献,2018年,他同约书亚·本希奥(Yoshua Bengio)及杨立昆(Yann LeCun)一道获得图灵奖。

 

与辛顿的选择相对照,杨立昆仍在Meta任副总裁兼人工智能领域首席科学家,本希奥则通过初创公司的中介为微软提供咨询服务。人工智能领域这些著名研究者和公司之间的结盟,似乎是利奥塔在1973年的《后现代状况》中就已发现的那种情形的进一步延伸。“当科学几乎完全用于为公司提供专利和专有技术时,知识的计算机化不仅加快了知识转移的速度,而且改变了我们所认为的知识。”

 

但另一方面,这种结合往往不是长久之计。知名华裔人工智能专家吴恩达(Andrew Ng)曾于2011年参与创建“谷歌大脑”(Google Brain),2014年又加盟百度,任首席科学家。2017年从百度离职后,他创办了一系列人工智能领域的初创公司,同时经营着最早的“慕课”平台Coursera。其他相对不那么知名的高级技术人员,也频繁在业界与学界间跳转:离开科技巨头提供的优渥条件,许多研究事实上无法开展;陷于商业利益的掌控下,则很难在个人价值观和技术应用场景之间做出平衡。伦理、技术和利益似乎构成一种“不可能三角”,总有至少一个目标无法兼顾。

 

从知识的“计算机化”到计算机的“去知识化”

 

利奥塔断言,随着知识从任何特定的个体知识者中外化出来,学习知识的“教化”(Bildung)功能将消失,不仅“构成的知识体系中,任何不能翻译成计算机语言的东西都将被放弃”,而且“新研究的方向将由这种翻译的可能性决定”。

 

利奥塔写作《后现代状况》的时代,“知识的计算机化”的确是一个成立的技术议题。基于规则的专家系统,正声称能在社会各个部门发挥决策作用,作为其支撑的则是各种高度结构化的推理规则和知识库。因而,与对知识的关注相一致,利奥塔也特别强调了数据库的重要性。他将重建公共性的希望寄托在数据库的开放上:

 

“计算机可以成为控制和调节市场体系的‘梦幻’工具,扩展到包括知识本身,并完全由性能原则来管理。在这种情况下,它将不可避免地涉及使用恐怖手段。但它也可以帮助讨论元规定性(metaprescriptive)的群体,向他们提供他们通常缺乏的信息,以做出有知识的决定。要使计算机化走上这两条道路中的第二条,原则上是很简单的:让公众自由地访问存储器和数据库。”

 

在《哲学的误配》中,东浩纪质疑了利奥塔策略的有效性。他指出,今天的搜索引擎已构筑起一个巨大的数据库,每个人都可免费访问,因此利奥塔的前提得以成立,但其设想的结果却并未来临。东浩纪认为,这是由于利奥塔误解了他所援引的“语言游戏”所致。

 

相比东浩纪给出的诊断,更值得注意的是:搜索引擎之为“数据库”的性质,已与利奥塔时代经过精心筛选、构建的知识库有了很大区别。随着基于符号推理的技术路径被基于概率统计的数值运算所掩蔽,仔细筛选并编码的、结构化的“知识”表征,也为非结构化的全量收录所代替。此时的“数据库”,并不只包含设计者制定的规则和认定的“知识”;可以说,搜索引擎不提供“知识”,而是呈现“内容”。它不对内容本身的真实有效负责。无怪乎,利奥塔意向中提供有效“知识”以利人们作出决策的数据库,并没有随着搜索引擎出现而成为现实。

 

不仅如此,在当今人工智能技术条件下,计算机给出的可能只是一种偏见。设想,从网络社区语料中训练出的生成性语言模型,或将产生冒犯而有偏见的文本。今天的人们习惯以伦理要求来约束这样的语言模型和技术应用。

 

但是,这种在文本中浮现的冒犯或偏见,并不是模型无中生有的“发明”或“幻觉”,更不是技术的“本质属性”,而是它们的统计性质同冒犯与偏见在互联网上的实际盛行相遇的结果。阻止模型产生有偏见的内容,相比消除切实存在的偏见而言,是一种技术性的“解决”,但也无异于饮鸩止渴,是一种对现实存在的不公的粉饰。

 

在语言模型的偏见输出中所浮现的,正是东浩纪所说的“公意2.0”,就是“以统计学的方式从全体民众的话语和行动中产生”的“诸众的欲望”(desire of the masses)。不同于卢梭对“公意”的倚重,对这种新版本的“公意”,必须保持批判的态度:它只描绘“实然”,而应然仍需由观察者另行判断。在此,人工智能的作用在于,将原本就存在于人类社会的种种偏见与不公,再度呈现于世人面前。

 

人工智能所显现的伦理问题

 

于是我们发现,近半个世纪后的当下,利奥塔的问题意识仍然有效:知识与大公司之间的关系,以及更普遍意义上与社会的关系应当得到重新审视,以便从中寻求一条路径,能够“同时尊重对正义的渴望和对未知的渴望”。

 

除了上文提及的那类在人工智能模型中直接显现的伦理问题外,人工智能技术的发展和应用,也给伦理问题创造出新的登场机会。例如,时人一而再、再而三地谈论过计算机或人工智能能够“替代”何种职业,同资本市场对高度自动化未来的赌注,就足以说明这一问题:一个人对另一个人的“替代”,不能脱离“出卖自己的劳动力”的制度;而谈论人工智能对人的“替代”之所以有意义,条件同样在于一种将“人”仅视为完成某项任务的工具的系统性制度。

 

又如,全球范围内插画师群体对人工智能绘画模型广泛而持续的反对,就其一般的方面而言,固然和那种有关人工智能职业“替代”的观点一脉相承;但在其特殊语境中,还存在一系列围绕艺术身份和风格署名的论争。由此呈现的境况是,人工智能绘画模型的设计方,从未征询插画师的意见,就将他们的作品用于训练自己的模型。这在牵涉任何艺术上的观点与立场之前,首先显现的是业界成员对插画师的傲慢与相应的模式,其方法是将他们排除在人工智能模型的设计过程之外。

 

值得关注的是,这种未经许可即将他人作品或数据用于人工智能开发的行为,并非个例,也并不只在艺术相关领域中才有突出意义。事实上,英国版权局2022年6月发布的一项规定甚至已将其合法化,并称之为“创新者蓬勃发展的催化剂”和“突破性研发的强大推动力”,以“利于”英国在人工智能和数据挖掘领域取得进展。在此,伦理、技术和利益的取舍,不再是研究者个体一己的决定,而上升为一种公共决策。

 

在这一境况下,谈论人工智能模型在人面前可能的“伦理”地位,显得有些奢侈,因为应当着手处理的是,那些借“人工智能”之名而显现的真正的伦理问题,潜藏其中的“危险”当下就切实存在并起着作用,甚至也将决定我们是否必须面对那样一个不确定的“未来”。

 

回到利奥塔的问题,答案并不是显然的。现在所能给出的,毋宁说更接近一种愿望:技术知识作为社会的一部分,不是专属于技术专家或大公司的事物,从而没有人应当被预先排除出关于人工智能的讨论。每个人有自己理解和把握人工智能的方式,它不应任由专家、公司凭借经济与社会资本的权力来规定。只有这些意见充分地得到表达,处于公开的、理智的讨论之下,它才能凝结出应然的效力。

SHARE THIS ARTICLE 分享至