透明思考


Transparent Thoughts


智能技术的伦理风险

(旧文一篇,已发表于土逗公社

人工智能的风险已经不再是一个新话题。在过去几年中,很多研究者提及了人工智能(以及与之紧密相关的技术,尤其是机器学习和大数据技术)可能带来的危害与风险。值得注意的现象是:在公众话语空间中流行的关于智能技术伦理危害与风险的讨论,大多将“人类”整体视为潜在的被损害的对象。大量的叙事被构建为“机器 vs. 人类”的形式。而关于智能技术如何被当前社会的权力结构主导、并反过来强化当前社会的权力结构、加深对弱势边缘群体的压迫,这一方面的讨论数量较少,且较缺乏系统性。本文将介绍一些关于智能技术伦理危害与风险的讨论,并着重介绍一些智能技术强化社会与经济不公正的案例。

一些关于智能技术伦理危害与风险的讨论已经进入了流行文化空间,吸引了大众的兴趣。这类讨论通常呈现未来学的形式,试图推测人工智能技术成熟、尤其是具备了自我完善的能力之后可能的未来图景。如超级智能人工智能毁灭人类技术奇点等讨论吸引了大众对于智能技术的伦理问题的广泛关注。

比起这些事关人类存亡、略带科幻感的宏大叙事,另一些由智能技术带来的伦理危害与风险正在更加现实地发生。例如智能技术对就业的影响,是一个经常被提及的主题。Kevin Kelly认为,机器在工作中对人的取代是一个不可逆的过程,有一些工作暂时只有人类能做或做得比机器更好,但机器终将胜过人类,绝大多数人类在几十年后将不再需要从事生产工作。麦肯锡的一个研究则更具体地列出了各种职业被机器取代的可能性,其中生产线工作、准备食物、包装物品等“可预测的物理工作”是最容易被机器取代的。

除了造成大面积、结构性失业,对人工智能的常见担忧还包括赛博空间和物理空间的战争:控制了大量资源甚至自动化武器的人工智能是否会攻击它们本不应该攻击的对象?这种危险甚至不必以战争的形式出现:人工智能的错误行为、甚至只是不恰当的优化,考虑到它们已经在社会经济中扮演如此重要的角色,是否会造成极端恶劣的结果?

可以注意到,以上几类常见的关于智能技术伦理危害与风险的讨论总体上强调人工智能对人类整体的影响,并不凸显其对当前社会不同人群造成不同影响的情况。同样的趋势也出现在对智能技术的风险进行的分析当中。众多这类分析聚焦于技术层面,而并未将社会和政治层面的因素纳入考虑。例如一位斯坦福大学的研究者认为,通过机器学习尤其是深度学习得到的统计学模型具有以下特征,使得它们存有安全隐患:

  • 不透明:很难、甚至根本无法看懂其中的逻辑;
  • 整体不可分:无法通过局部分拆理解输入输出之间的关系;
  • 脆弱:输入的微小变化可能引起输出的重大且无法预测的变化;
  • 不被充分理解。

作为对比,《Weapons of Math Destruction》一书的作者Cathy O’Neil也提到了广泛影响人们日常工作与生活的众多智能算法工具的几个危险的特征

  1. 它们是秘密的,经常是某家公司的商业秘密;
  2. 它们是不透明的,被它们影响的人群不了解这些算法如何运行;
  3. 它们应用的范围很广;
  4. 它们对“成功”的定义值得置疑,被它们影响的人们未必赞同
  5. 它们制造了有害的反馈环。

相比前一组特征,O’Neil识别的这一组特征具有一个值得注意的要点:她在其中提及了特定的人群。尤其是在第4点中,O’Neil指出了一个极其重要、但绝非总是明显的问题:智能技术对人的影响是有区别的,同一个技术可能让一部分人受益、同时让另一部分人受损。她举了这样一个例子:2010年在伊利诺伊州开始实施的教师绩效评估算法引发了芝加哥教师的广泛反对乃至游行抗议。正如Linnet Taylor不无洞见地指出的,在进行伦理评估时,人们倾向于抽象地谈论智能技术可能造成的伤害,而具体地谈论它带来的收益,于是实在的收益总能压倒模糊未知的伤害,从而使项目通过评估。通过将社会和政治因素纳入讨论范围,O’Neil提出的对具体人群的关注给了我们一个重要的视角,来重新审视智能技术可能带来的损害和风险。

透过这个视角,我们首先可以注意到,智能技术对劳动力市场的影响并非均质。正如Erik Brynjolfsson和Andrew McAfee在《与机器赛跑》一书中指出的,教育程度较低、薪酬较低的劳动者更易被智能技术取代,同时也是这部分劳动者更难以获得新的职业技能,从而加重他们在结构性失业中受到的损害。正如Paul Krugman一针见血地指出的,全能且高效的工作机器人(workbot)的出现未必会让世界变得美好,因为没有能力拥有机器人的那些人的处境将非常悲惨。尽管这方面的研究还很少,但一些现有的研究显示:在高度自动化、智能化的工作环境下,教育和技能水平较低的劳动者正在面临劳动环境恶化、劳动强度增大、收入降低、缺乏劳动和社会保障等挑战。此种现象在“分享经济”形态中普遍可见。在一些极端的情况下,劳动者被异化成“数字机器上的幽灵”和“生产线上的奴隶”。

实际上,智能技术可能正在加深对社会弱势群体的偏见和歧视。正如Wendy Chun所说,“机器学习就像偏见的洗钱”。通过机器学习,偏见和歧视被包装成模型和算法,使不公正变得更加隐秘而影响深远。职场社交网站LinkedIn的搜索引擎更青睐男性求职者,Google的广告平台Adsense存在种族偏见,饱受争议的“预测性执法”(predictive policing)对非裔美国人和穆斯林形成结构性歧视,低收入人群会因为智能技术更难从贫困中逃脱。性别、种族、宗教信仰、收入……现实中的各种偏见与歧视,似乎都在智能技术中找到了落脚点。

智能技术不仅被用于实施对弱势群体的损害、歧视和隔离,而且被用于控制大众情绪。通过操控用户从新闻订阅渠道看到的信息,Facebook成功地调节了用户发帖的情绪,从而证明情绪可以在大量在线用户之间传染。一份曝光的材料显示,JTRIG(联合威胁研究智能小组,隶属于英国情报和国家安全机关政府通信总部)已经在通过Youtube、Facebook、Twitter、博客、论坛、电子邮件、短信、自建网站等渠道操纵大众情绪,从而消除“犯罪、安全和国防威胁”。当用于政治领域,正如Cathy O’Neil指出的,智能技术可以诱导选民做出片面的判断;当用于商业领域,邱林川则指出,智能技术可以向消费者灌输消费理念,使他们成为对不断更新换代的消费品上瘾的“被制造的奴隶”(manufactured slave)。

早在1980年代中期,研究者们就围绕“计算机伦理是否具有独特性”这一问题展开了讨论。Johnson认为,计算机伦理只是把标准的道德问题以新形式呈现,逼迫我们在新的领域中延续旧的道德规范,它本身不是一个独特的新题目。而Moor则认为,计算机会大幅度转化/强化现有的伦理问题,并且造成过去未曾出现过的新的伦理问题,因此计算机伦理本身就是一个独特的新题目。这两种观点对于我们全面认识智能技术的伦理问题有着重要的启发意义。我们既需要充分了解智能技术的独特性、及其对伦理问题带来的独特影响,又必须认清新技术背后潜藏的旧有的冲突、斗争和伦理准则,这样才能准确把握智能技术的伦理方向,使其向着对广大民众有益的方向发展。

(本文作者熊节是ThoughtWorks的总监咨询师)