我的朋友布莱恩(Blaine)传给我一个链接,点开是一个网站,声称可以实现一个前所未有的壮举:看到任何女孩的裸体。这个所谓的深伪生成器(deepfake generator)邀请你上传任何穿着衣服的女性的图片。通过人工智能,程序会绘制出她不穿衣服的样子。我当然看过自己的裸体,但还是很好奇。我上传了一张对镜自拍照,照片里的我穿着山本耀司的裤子和一件无袖网状上衣,里面是黑色的内衣。我按下开始,等待结果。
出现的图像吓了我一跳。首先它是模糊的,要付费解码。我无法免费看到自己的人工智能乳房和下体。但就算模糊,我还是能看出一些错误的地方。我的双手放在肚子前(曾经有人跟我说,这个手势代表着自我保护意识)。但不知何故,在裸体版本中,在我的腰部位置,在我被保护的肚子下,还有一些残余的黑色色块。因为我穿的是阔腿裤,这个程序将我裸体的腿型渲染成和裤腿相同的宽度,让我的腿看起来就像两根完美的柱子,或者说,更像生的热狗肠而不是腿。无可置疑的是,在模糊之中,在两条热狗肠相遇之处,在正确的高度上,有一块肉粉色的凹陷处,看起来没有毛发。我从未见过我自己阴部的照片,因为我没有,而且我也没有做过别人有时称之为“手术”的阴部整形术。我哭了。
当我告诉布莱恩这件事时,他说这让他想到在游乐园,我们必须付钱才能买一张自己在过山车上的照片。这句话在我脑海中挥之不去。消费主义的大部分经验——无论是担心是否有足够的钱购买基本生活所需,或是担心是否有足够的钱和朋友一起去旅行,或是担心自己是否足够优秀或身材足够好,能吸引到有魅力的男女在自己面前裸体——都是在试图取得一些能延伸、补充或扩展自我的东西,让自己与过去相比更遥远、更加不一样。事实上,售卖能更接近自己的东西的情况是非常罕见的。
在这个时代,我们对承诺某种主体内部修复(intrasubjective restoration)的资源的需求很大。要看心理咨询师得先排在等待名单上;占星师、塔罗占卜师和纹身师都能找到工作,哪怕计算机已经取代了收银员、经理、画家和杂志作者。我甚至使用了一个色情工具来试图更接近自己(不得不说很多跨性别者都这么做过)。我记得一个已经不存在的Instagram账号(来自前特朗普时代的一个另类右派跨女青少年亚文化迷因团体,后来有一些成员高中毕业了而且成了左派)曾经发过的一个迷因:一个火柴人从斜坡上滚下,依次路过“看动漫”、“老婆抱枕”,最后是“想成为女友”。当我使用那个人工智能色情深伪生成器看我自己的阴部时,我想到了这个图。我们想要更接近自己——在这一点上,我认为也是为了获得更强的意义建构能力——无论是通过改造身体、获得诊断并开始服药、分析出生时间,还是跟电脑分享我们的感受或性别。
亚历克斯·加兰(Alex Garland)在谈到他的图灵测试惊悚片《机械姬》(Ex Machina,2014)时说,这部电影既是对人类的评论,也是对人工智能的看法。在20世纪,心理学研究者开始使用所谓的“心理投射”(projectives)——即某种模糊的图像——来评估性格和心理病理学,罗夏墨迹测试(Rorschach inkblot)或许就是最著名的例子。当看着一个意义含糊的东西时,你会看到什么?当被要求看图说话时,你会归纳出什么?我们现在就处在一个用我们自己的工具创造的投射时刻。我们凝视着一个可以自己绘画和说话的人工智能的现象学墨迹,精读我们自己的图灵测试的记录,试图从中创造意义。就像加兰邀请我们做的那样,我们能否把对人工智能的描述读作对我们自身的评论?
并不是所有心理学家都喜欢投射测试,在研究生院时,我也被教导说要对它们持保留意见。尽管如此,在罗夏墨迹测试和主题统觉测验(thematic apperception test,TAT)中,各类图像被认为与特定主题相关。一位教授告诉我们,TAT测试中有张窗口人物剪影的卡片被称为“自杀卡”,因为患者根据这张图片叙述的故事——无论这个人是在凝视美丽春日还是考虑跳出窗外——可以揭露出隐秘或完全无意识的自杀想法。TAT卡片中的其他图像跟家庭、成就,当然还有性有关。
我之所以提到加兰的《机械姬》,部分原因是因为在我们的文化中,人工智能的投射意义很大程度上来源于科幻小说。人工智能经常出现在关于傲慢自大的寓言故事中,是一个脱离控制并背叛、支配或消灭我们的人类创造物。我对现实中(而不是虚构的)人工智能所带来的恐惧的认识来自于几年前读到的一篇关于GPT-3的《卫报》文章。但现实源自神话。在关于这个“敌人”——一个通过消灭其创造者为自己的存在复仇的人造物——的幻想背后隐藏着什么?
我们的创世神话与权力斗争紧密相关。在《旧约》中,一个情绪反复无常几近情感虐待的上帝“按照自己的形象”创造了人类,之后又因他们的错误而屡次发怒。这也是我们对家长失败(parental failure)的基本想象之一,即对我们自己的创造物感到愤怒。这种想法认为,如果要创造某物,就必须要控制它,如果无法控制,责任就在后代身上。因此,如果将人工智能视作我们的创造物,是我们发明并教导它模仿我们的东西,那么就有理由期待它终将背叛或不符合我们的预期,并在这种情况真实发生的时候感到失望。
相对较小和较简单的电脑程序看似没那么有威胁性,他们是更容易被爱的婴儿。当人工智能逐渐成长并变得复杂时,它就像很多真正的孩子一样,变得奇怪、陌生,变成他者。科幻小说中也有很多关于他者性的寓言,但在我们的想象中,遭遇他者时最常出现的反应处在惊奇和威胁之间的反应光谱上。无论是见到恐龙、外星人还是人形机器人,总会有惊奇的时刻,但往往伴随着戏剧性讽刺感,因为接下来威胁就会出现。在我们的标题党想象经济中,很多关于人工智能的论述跳过了惊奇的部分,直接聚焦威胁,但我认为这种忽略是一个错误。人工智能激发了很多有趣的哲学问题,关于绘画、写作和思考能力究竟意味着什么。一些创意写作者和视觉艺术家——一群长期挑战作者身份问题的人——已经在使用人工智能创作作品,撬动人与创造物之间本就脆弱的边界。
然而,威胁的情感意义也是不容忽视的。哲学家罗伯特·诺齐克(Robert Nozick)提出了一个关于外星种族的思想实验,这个种族的智力超越人类智力的程度和我们与牛的智力差距一样。他认为,我们对待牛的方式将是我们避免被奴役或毁灭的唯一合理的防御方式(他在为素食主义辩护)。诺齐克的论点揭示了人工智能带来的焦虑,这种焦虑可以追溯到最早讨论人工智能的计算机科学家,他们认为超越我们的智能将是潜在的威胁。
为什么我们相信智力是统治和暴力的许可证?我们现在定义智商的方式原本是为了帮助年轻人学习,但很快就被种族科学家、学校和监狱管理者以及军事领导人采用,作为决定谁应该获得权力、谁应该被征服、谁应该活着、谁应该死的衡量标准。这些关于智力和统治等级的想法支撑着奴役制度、数世纪的西方殖民暴力,以及针对那些被认为有精神“缺陷”或疾病的人设立的监禁制度。
我们对智力的构想根植于对暴力的假设之中。(想想鱼素主义者常见的说辞:鱼不聪明。当然,蘑菇比我们聪明,但纯素者还是吃它们,所以这整个逻辑并不成立。)但在人工智能所带来的威胁感之下潜藏的假设是:高智商等于更多控制权、低智商等于屈从。这些假设与我们基本的文化感知糅合在一起(例如认为亿万富翁要比普通人更聪明的想法)。“想想人工智能”这个主题统觉提词揭示了对天网(Skynet)、奇点以及机器战争的幻想。
我和朋友哈娜在纽约上州,我们正在讨论冬天是多么压抑。哈娜给了我一叠插图卡牌,让我对着它们问一个问题,然后抽一张卡牌。这套卡片和主题统觉测验的卡不一样,它们更像塔罗牌,画的是原型图像。我想了一个问题,抽出一张与祈祷、奉献、灵修相关的卡牌,然后在一本小册子上查找与这张卡牌相关的含义。哈娜问我它有没有回答我的问题,但并不想知道我的问题是什么。我想的是,需不需要期待变化的发生,我想要事情发生变化,尤其是在反乌托邦中,无论是好转还是恶化。在我写这篇文章的时候,土星即将进入双鱼座,有人说这很重要。今早,我试着在一个女性文化时尚网站上阅读关于这一星象的文章,但不同的占星师对此的不同解释似乎是如此随意和矛盾,我担心将信心寄托在土星的位置上只是一种安慰剂,这让我感到沮丧,所以我关闭了网页。
社会心理学家沙洛姆·施瓦茨(Shalom Schwartz)广泛研究了不同人或社会都认同的跨文化(即普遍)价值观的可能性。他找到了两类符合条件的价值观:一是自我增强(如野心和权力),二是自我超越(如普遍主义和仁慈)。关键是,价值观研究者们发现,从一类价值观转向另一类价值观很困难。如果人们在自我增强方面提高了,他们就很可能在自我超越方面失败,而那些专注于自我超越的人则很可能会忽视自我增强。
研究表明,西方社会(尤其是美国)与自我增强价值观相关。比如在我们关于智力的文化假设中,这种价值观就暴露无遗。当我们想象一个比我们更聪明的东西时,例如圣经中暴躁的上帝,我们会以自己渴望权力的形象来想象它。我们会想象一个渴望无限权力并被灼热野心所驱动的计算机,它寻求的是征服和控制。我们向计算机灌输流行叙事(大多都包含这类主题,并根植于这种价值观中),然后在它们表现出竞争性或嫉妒心或似乎在追求自我增强时感到恐惧和沮丧。
科技公司在迅速统治我们几乎所有最常用的工具的过程中表明,它们对于获取我们的注意力比提高我们的幸福感更感兴趣。现在,科技的成瘾性(和破坏性),尤其是它对我们的注意力、情绪和自我意识的影响,都有大量文献证据支持。因此,当我们不停地担忧人工智能或将主宰或取代我们的同时,人工智能也有可能和手机一样,通过掌控注意力而逐渐占据我们的生活空间。而且,如果我们的人工智能被拟人化,那么它或许就会通过非常煽情的方式来吸引我们的注意力——就像它试图破坏《纽约时报》记者凯文·鲁斯(Kevin Roose)的婚姻时所做的那样。这完全有可能发生。这种平庸版本的幻想(比如Siri给你打了十次电话为了告诉你一个食谱)算是比较正面的幻想。我想要有一些关于人工智能的更乌托邦式的想象,但最平庸的这些幻想占了上风。它会夺走我们的工作吗?它会取代艺术家和心理治疗师吗?当然会,不过只有在技术官僚允许的情况下。这样的结果不是人工智能的错。
如果说智力作为一种抽象概念被认为是有价值的,那么它可能只有在符合我们所期望看到的世界时才有价值。我们用来描述现实的种种范畴决定了我们的叙述和感知。从普罗米修斯到俄狄浦斯再到《2001太空漫游》,我们的文化充满了关于孩子想要摧毁父母、争夺控制权的傲慢故事。我们把自己想象成处于不稳定统治地位的主人,伴随着灾难性的后果(气候危机、大规模贫困、无止尽的战争)。在世界上最富有的国家,我们把大部分智力资源都用在研究和制造武器上。我们正在为一个暴力未来做准备,并通过每个思想实验和技术测试将其具体化。军事化有其自身的逻辑和胃口。当我们没在战争时,我们就会资助别人的战争。我们让这些技术渗透到城市和小国家的军队及警力中。我们把几乎所有奇怪和不可能的说法(心灵感应、外星人、有自我意识的人工智能)都放进关于战争和统治的故事中去。这种命运常常被描述成“无法避免”,或者更通俗地说,是“人性”造成的,即使我们这些研究人类的人并不同意。
如果我们幸运的话,人工智能的智能或许能教会我们一些东西。心理学家蒂姆·卡瑟(Tim Kasser)认为,自我增强价值观与环境破坏相关,为了避免生态崩溃,我们需要将价值观转向自我超越。如果说罗夏墨迹测试的卡片并没有特定图像,只是帮助我们讲述自己的故事,那么我们是否也是如此对待人工智能这个模糊的概念?如果我们关于人工智能的现有故事并不是关于人工智能本身,那我们能否改变这个故事或者重塑未来?我想要生活在一个深度转变成为趋势的世界中:创造一些能将我们与自己或彼此更深地联系在一起、重新绘制我们的自我形象的东西。我希望惊奇能带来进步,而不是支配和剥削。
一个没有身体且以数据传输速度在空间内快速移动的元反思的存在,或许会以不同的方式理解存在、保护生命和合作的意义。我们没能在理解人类和环境的相互依存关系上投入资源,这已经带来了灾难性的后果。目前,我们想象人工智能帮助应对气候危机的方式主要是通过运行大规模计算模型,通过数字计算来控制破坏程度。虽然这或许是有用的,但这也是一种幻想,想象我们仍然掌握权力,而且作为人类物种,不必学习真正新的东西。
如果我们实际面对的是一个比我们拥有更多智慧的实体,或许它会邀请我们进入新的构想智慧的方式、新的生态居住方式,而不只是绝望地在这个资源丰富的星球上毁灭自己。如果我们能明白,我们对人工智能的理解实际上更多地展现的是我们对自身的理解、我们的历史和价值观,而非机器本身,或许我们就能邀请它帮助我们超越自我。
汉娜·贝尔(hannah baer)是一位现居纽约的作者。她是回忆录《跨性别女孩自杀博物馆》(Trans Girl Suicide Museum)的作者。
文/ 汉娜·贝尔
译/ 冯优