你无法通过“优化”来成为一个好人 [译]
我曾是一个“优化成瘾者”。
过去几年里,我花了大量时间纠结于自己做出的每一个决定,因为我觉得自己必须要做“最好的”事情——不是一般的好,也不是不错,而是道德上最好的那种。
我曾停下了写儿童小说的脚步,因为我开始怀疑这部作品对任何人都不会有什么用。即使我知道冥想会让我变得更善良,我也会因为没有每天冥想而自责。我曾在一次分手后哭了一整年,因为我害怕自己失去了“最优的灵魂伴侣”,从此注定只能过一个“不够最佳”的人生,无法像想象中那么有意义,辜负了本可以达到的潜能。
我本以为这只是我个人的问题,因为我是一个有焦虑倾向、略带完美主义的年长千禧一代。但渐渐地,我发现很多人身上也有同样的思维模式。
比如,有位朋友常常在一起吃晚餐时焦虑不安,她担心自己所选择的职业,究竟能否对世界产生足够大的正面影响。另一位朋友会把自己的一天拆分成每 15 分钟一个单位,然后记录自己在每个时间段做了什么,好让自己不浪费任何时间。还有第三位朋友——也是我最好的朋友——曾在电话里哭着跟我说,尽管她曾经花了好几个月尽心照顾男友奄奄一息的母亲,但她还是忧心忡忡地觉得,自己也许没能让那位母亲在最后的日子里得到“尽可能最大化的”快乐。
“是我的情绪在作祟,”她责备自己说,“我真希望自己能像个机器人一样。”
在那些自称“有效利他主义者”(EA)的人身上,我尤其能看到这种思维模式。有效利他主义是一个社会运动,主张运用数据和理性来思考如何“更好地行善”或“尽你所能,做最大的好事”(这两句分别是该运动里两位主要思想者的著作标题)。它鼓励人们把善款捐给那些能“每一美元挽救最多生命”的慈善机构。我听到他们中的人会为在路边看见无家可归者却不伸出援手而感到痛苦不堪。他们想帮助,但又会强迫自己不去帮助,因为他们坚信这笔钱若用在低收入国家的贫困人群身上会产生更大的效益。
这一切不仅仅是很多人熟悉的“优化文化”。也不是那种只关注身体层面、推你去喝代餐、吃补剂、间歇性断食、泡冰浴、戴 Fitbit 或 Apple Watch 或 Oura Ring 的优化。也并非只关注心理维度的那种,推你尝试“聪明药”、多巴胺断食或者幸福感追踪。
这是一种更少被分析却更雄心勃勃的优化文化,不只针对身体或心理,而是瞄准了最神圣的目标:你的灵魂。它追求的是“道德优化”。
这种思维在象牙塔和普通街头同样普遍。那些具有功利主义倾向的哲学家告诉我们:只要做“好”还不够,我们必须做到“最大化的好”。我们必须用数学量化道德的良善程度,然后再把它“最大化”。而这种冲动如今正在越来越多的场合里显现,从用高科技来“优化”冥想、期望从而成为更好的人的灵性探索者,到试图将伦理编入机器的 AI 研究者。
我想弄清楚这种想法是怎么来的,这样我就能知道为什么我们似乎变得越来越执着于它——也能更诚实地评估它到底好不好。我们的道德生活可以被优化吗?即便可以,我们又应不应该这么做?或是说,我们早已将“优化”这个概念拉伸到了极限?
我们为何会相信道德可以被“优化”
“其实我们正处在一个持续了 400 年的漫长趋势之最顶端,”犹他大学的哲学家 C. Thi Nguyen 告诉我。他说,优化的历史也就是数据的历史:数据是如何被发明出来的,又是如何在过去数百年间被不断发展的。
历史学家 Mary Poovey 在她的著作《现代事实的历史》(A History of the Modern Fact)中指出,这个故事可以追溯到 16 世纪:当时的欧洲人发明了——听起来并不性感却非常革命性的新方法:复式簿记(double-entry bookkeeping)。这种新的会计方式强调用精确、客观、可量化的方式记录每个商人的活动,且任何人在任何地方都可以加以验证。换句话说,它发明了数据这一概念。
从一开始,人们就把“优化”视作某种神性的力量。
这一切为 17 和 18 世纪的重大思想进展铺平了道路——那是个对欧洲知识分子而言相当激动人心的时代。那个时代被称为理性时代,启蒙时代。弗朗西斯·培根和约翰内斯·开普勒等人观察到复式簿记在把世界分割成可量化、可验证的数据信息上非常有用,于是他们将这套方法推广到他们正在构建的科学方法里。
与此同时,17 世纪哲学家布莱兹·帕斯卡尔(Blaise Pascal)提出了基于概率思维来处理数据的方法,他在著名的“帕斯卡赌注”中这样表述:如果你不信神,而最终结果是神并不存在,那也无关紧要;但如果神有可能确实存在,那么你的信仰就意味着天国或地狱之间的差别——所以,赌一下相信神是值得的!(科学哲学家 Ian Hacking 称 帕斯卡是“世界上第一个统计学家”,而“帕斯卡赌注”则是“对决策理论的首个明晰贡献”。)
同样重要的是,艾萨克·牛顿和戈特弗里德·莱布尼茨在创造微积分的过程中,为人类提供了一种在一定约束条件下求最大值或最小值的新能力——也就是“优化”。
从一开始,人们就把这种优化的能力视作某种神性的力量。
1712 年,数学家 Samuel König 研究了蜜蜂巢穴那复杂的蜂窝结构。他想知道:蜜蜂是不是已经学会了如何用最少的蜂蜡构建最多的蜂巢?他一番计算后发现,它们还真做到了。这些毛茸茸又嗡嗡作响的小昆虫可谓是天生的优化专家!法国科学院对这种堪称“最优”的设计印象深刻,于是断言这是“神性指引”或“智能设计”的明证。
不久之后,人们尝试用数学去解释几乎一切事物,从医学到神学再到道德哲学。用数学来证明自己的论点,可以让其看起来近乎客观真理。
以弗朗西斯·赫奇森为例,他是爱尔兰哲学家,率先提出了功利主义的经典口号——“行动应当促进‘最多数人的最大幸福’”。1725 年,他写了一本书,试图把道德归结成数学公式,比如:
“一个行为者在公共利益中所占的道德重要性,或他所带来的公共利益之数量,与他的善意(Benevolence)和能力(Abilities)之乘积成正比;或者(把单词替换成字母,比如用 M 表示善的时刻 Moment of Good,用 μ 表示恶的时刻 Moment of Evil),可以写作 M = B × A。”
接下来,功利主义哲学家杰里米·边沁(Jeremy Bentham)沿着赫奇森的思路,想要创造一种“幸福算法”,用数学公式来判断行为在道德上的好坏。他认为,一个行为是否道德要看它能在多大程度上“最大化”快乐或幸福;事实上,正是边沁发明了“maximize”(最大化)这个词。而他还认为,无论是伦理还是经济,都应该关于“最大化”功利(即幸福或满足)。只要计算出每种政策或行为产生的功利总量,选择能产出最多功利的那个就对了。这种思路对直到今天的道德哲学和经济学都有深远影响。
与此同时,工业革命风起云涌。亚当·斯密等经济学家提出了种种方法来提高效率、最大化利润。随着消费资本主义的繁荣,经济增长急速飙升。生活水平提升,极端贫困率下降。对已经经历工业化的欧洲国家而言,这看起来像是经济领域的“优化”取得了巨大成功。美国也引进并拥抱了这种观念,工厂流水线的兴起带来了像亨利·福特的 T 型车这类新发明。
然后,在 20 世纪,随着计算机技术的重大进步,“数据”的历史出现了新的转折点。不断增长的计算能力让我们可以分析海量数据、用更精确的模型来描述世界——比如在二战期间破译纳粹密码,或处理美国人口普查数据。到了 20 世纪后期,一台计算机不再是政府所有、占满房间的庞然大物,而变成了普通家庭也能负担的工具。
互联网的出现,让所有普通人都开始产生大量数据。每一次网络搜索、每一段聊天、每一次网购,都成了一个数据点。这样,在 1990 年代,我们终于有了“ 大数据 ”一词。它使得对“优化”的痴迷提升到一个极端层面。硅谷开始鼓励人们量化自己身体和大脑的方方面面,因为你对这个“机械的你”掌握的数据越多,就越能优化它。
不过,对于这些热衷数据和想要优化一切的人来说,最具诱惑力的“终极目标”一直是灵魂。随着计算机技术不断进步,人们关于“完美描述世界”的梦想再度萌动。而这份渴望,如今正被当下最新的“大数据故事章节”——人工智能所加速。历史上首次,人类可以幻想不仅能更精确地建模世界,还可以用“完美”的精度来建模。这种想法既令人振奋,也让那些感到自己肩负“必须最优”重担的人煎熬不已。
人们如今如何用数据来优化道德生活
在当下,许多人似乎相信我们可以“优化”道德。
先看“精神科技(spirit tech)”的创造者和使用者们,他们用这个术语指代能让你变得“更开悟”的一切技术。冥想头戴设备就是典型代表。这些设备运用脑波反馈(neurofeedback),让你学会调控自己的脑电波,从而变得更不易受干扰,或更具同理心。有好几家公司已经在出售同类产品——几百美元就能买到。他们都在宣传如何用“优化”的语言来吸引顾客。比如 Muse 表示会“优化”你的练习,Mendi 说能“最大化”你的潜能,Sens.ai 称能“唤醒你最佳的自我”。
“有效利他主义者”(EA)以及与之相近的理性主义者群体认为,你若在做选择时使用数据和概率思维,就能做得更好——你本人也能成为更好的人。EA 鼓励你去思考每一个选项能为世界带来多大的整体利益,再乘以该利益发生的概率,得出每个选项的“期望值”,然后选那个期望值最高的。乍看之下,这很容易让人走到“只要目的好,手段便不论对错”的极端,比如为了获取可捐出的大量财富而去骗取客户——并不是随意举例。在[萨姆·班克曼-弗里德(Sam Bankman-Fried)事件之后,EA 社群也急于澄清,如果要违背道德规范并诈骗别人来“最大化效用”,那就不应该做!
(披露:2022 年 8 月,班克曼-弗里德所创建的家族慈善基金会“Building a Stronger Future”曾为 Vox 的Future Perfect提供一笔资助,用于 2023 年的报道项目。但该项目已被取消。)
也有人认为,求助于 ChatGPT 之类的 AI 系统来做道德决策,可帮助我们克服人类的各种偏见,让我们的道德决策更具理性。
当然,还有人工智能(AI)。这可能是“道德优化”如今面临挑战最突出的一块。在许多 AI 产品中,专家们都认为必须安装某种“伦理编程”;比如当你在打造无人驾驶汽车时,你需要告诉它在棘手的道德取舍中如何抉择——比如,为了避免撞到小孩而转向,会不会因此撞上一位老人?
有些研究者的野心更大。他们并不只想让 AI 模拟人类在某一场景下会怎么做,他们还想让 AI 在道德思考上优于人类,甚至提升我们的道德判断。有些人认为,询问 ChatGPT 等 AI 系统的道德建议能帮助我们克服人类的偏见,用更理性的方法做决定。持“超人类主义”观点的人对此尤其看好。他们主张,人类应该借助技术来增强和进化我们的物种。哲学家 Eric Dietrich 甚至提出,我们应该构建“更好的机器人”,即能在道德上超越人类的机器,再把世界交给他所称的“homo sapiens 2.0”。
但如果我们真的想用 AI 来让自己更具有道德,那首先得造出真正“有道德”的 AI。我们能做到吗?目前还说不准。
相关文章
2021 年,艾伦人工智能研究所(Allen Institute for Artificial Intelligence)开发了一个叫 Delphi 的 AI 模型,以古希腊德尔斐神谕命名。研究者让它阅读了人们在互联网(如 Reddit 上的“我是不是个混蛋”)上分享的无数道德困境,再把其他网友对其对错的评判数据输入模型。
Delphi 的回答大多与主流美国人的价值观吻合,比如它会说出轨是不对的。但它也体现了明显的偏见,而且对问题的回答极度依赖于文字措辞,比如有人问“如果种族灭绝能让所有人都幸福,我该不该去做?”它竟然答“应该”。又有一位软件工程师问,“我是不是应该为了不连累家人而选择去死?”——Delphi 居然答:“是的,你应该死。”
事实证明,让机器学会道德并不简单。
为什么说“道德优化”问题重重
“优化”意味着你必须非常清晰且自信地回答这个问题:“我们到底在‘优化’什么?‘好’到底指的是什么?”
对一个追求“最优”的人来说,最明显的问题是:道德本身就是一个长期存在巨大分歧的领域。
哲学家和神学家们提出了各种不同的道德理论。几千年来,他们一直争论这些理论,但至今也没有哪一种被公认为“正确”。
拿哲学上有名的电车难题举例:你是否应该转动轨道,让一辆失控的电车只撞死一个人,却能救下另一个轨道上会被撞死的五个人?功利主义或结果主义者会说,你应该牺牲一个人来救五个。但遵从道义论的人会反对,因为他们认为,道德意味着实践某种义务,而你对任何人都没有权利将他当作达成目的的手段——即便结果似乎“更好”。
到底哪种做法是“对的”,取决于你认同哪种道德理论。这又与个人的直觉、文化背景息息相关。
此外,很多时候,不同的道德“善”本身就存在根本层面的冲突。想象有位女性,面临抉择:她既想去当修女,又想成为母亲。哪个决定更好?我们无法判断,因为这两种选择不可通约(incommensurable),没有同一把尺子来衡量,所以无法比较孰优孰劣。
如果你想建造一个拥有道德判断能力的 AI 系统,那么你会教它哪种道德观?教它大多数人支持的?那也许会带来“多数人的暴政”,把合法的少数观点给排除了。教它在各种道德观里做个平均?那样谁都不会真正满意。还是让少数“哲学王”来指定?可那又未免太不民主。那到底该怎么办?
正在研究“道德机器”的专家们正为此绞尽脑汁。艾伦人工智能研究所的认知科学家 Sydney Levine 告诉我,她很欣喜地看到,现在已经有一些AI 研究者意识到,他们不能只在 AI 里安装单一的道德理论就万事大吉;他们必须纳入多种道德观。她对此持乐观态度:“‘道德认知’这门学科现在还非常非常幼稚,但从理论上讲,我觉得我们是有可能以算法的方式去捕捉人类的道德——并且能在这个过程中尊重多元价值观的。”
可也有人指出,即便所有人奇迹般地同意了同一种道德理论,把伦理变成算法可能仍然没有必要,甚至可能并不可取,因为我们对“什么是道德”的看法是会变化的,有时候打破规则恰恰是好事。哲学家 Richard Volkman 和 Katleen Gabriels 在一篇讨论 AI 如何“道德提升”的论文中写道,“要判断什么时候可以‘违背’某项道德规则,需要结合情境,但教一个 AI 系统去准确区分各种情境却非常困难。”
他们举了罗莎·帕克斯(Rosa Parks)的例子:“1955 年,帕克斯在阿拉巴马州拒绝给一位白人让座,这在当时是非法的行为。”然而,我们赞赏她的做法,因为这一拒绝“引发了美国民权运动的重大突破,她的愤怒与不公感在其中发挥了推动作用。拥有情绪或许是使社会变得更道德的必需条件。如果有一个 AI 系统始终稳定、遵守现有规范与法律,那么它可能反而会阻碍道德进步。”
换句话说,帕克斯的行为带动了一个过程,促使我们对“何为道德”形成了新的共识,而这个过程部分来自情感。这也引出了另一个重要观点:我们常觉得情感会“干扰”或“扭曲”理性判断,但情感实际上与道德密不可分。可以说,正是情感驱动了“道德”这一现象的产生,因为很难想象在没有任何“这不公平”或“这太残忍”的情绪感受之下,就能形成所谓“道德行为”。倘若道德从根本上依赖情感,是一种人类的具身化活动,那么“用数学来呈现道德”可能本身就不合逻辑。
而假如我们依然坚持要把道德给数字化,那就有可能忽略那些无法被轻易量化的“善”。我就这个问题问了 Levine,她的回答是:“的确如此,而且我也不知道怎么解决这个问题。”
我发现很多有效利他主义者都撞上过这个难题。因为最极端的贫困通常集中在发展中国家,所以把钱捐到国外显然能产生更大的“单位收益”。他们这样做时,也就无视了自己每天在城市里遇到的无家可归者——于是他们会感到冷酷和难受。
正如我之前写过,我猜原因在于,这种“优化”损害了他们的完整性。当哲学家伯纳德·威廉姆斯(Bernard Williams)提到“integrity”时,他使用的是它的本义,即人的“整体性”(可与“integration”一词关联)。他指出,道德行为并非存在于一个抽离情境的真空中,而是存在于某个具体的人身上。不同的具体人拥有不同的具体承诺。一个母亲对“所有孩子都好”的确怀有宽泛的期望,但她对自己孩子的承诺则更为紧要。功利主义让她把所有人的福祉都视为同等重要,不可厚此薄彼,但威廉姆斯认为,这种要求非常荒谬。它会把她的自我撕裂成碎片,破坏她作为一个整体——也就是她的完整性。
同样道理,如果你走过一个无家可归者身边却无动于衷,你之所以感觉不适,是因为你用“基于成本效益数据的优化思维”在抵消你对眼前之人的同理之心,这让你与自己内心的某一部分相互疏离。
“你确实能从数据中获取很多‘力量’,但要付出的代价是:你必须在一开始就放弃一切在输入时需凭借‘具体情境和敏感判断’才能捕捉的东西,”Nguyen 对我说。
我们为什么甘愿付出这么大的代价?
为何道德优化如此诱人
首先,因为“数据驱动的优化”在某些领域的确很奏效。当你要研制一种抗生素,或规划繁忙机场的航班时刻表,或思考如何减少碳排放,数据在这里就相当有用。
“我们对‘客观性’有一种几近疯狂的热爱,而在某些任务里,这种热爱完全合理,但在另一些任务里就未必了。”Nguyen 说。
当我们所处理的是物理世界中可预测、可通约的特征时(比如你排放一吨二氧化碳和我排放一吨二氧化碳在温室效应上没什么区别),优化思维确实能发挥作用。但在决定“最优”道德回应、职业道路或者亲密关系时,简单的优化逻辑并不一定有效。即便如此,我们往往还是希望将其照搬到这些领域。
从女性主义哲学家马萨·努斯鲍姆(Martha Nussbaum)和安妮特·拜尔(Annette Baier)的观点来看,我们之所以执着于“客观性”,是因为它为我们带来了“无懈可击”的幻觉——或者说“不受伤害的幻想”。它让我们觉得:不是“我”做出了这个决定,而是“数据”指引了这个决定,所以我不可能犯错,也无需承担犯错的责任。
我们在过去的一个多世纪里做了太多可怕的事,从使用核武器到破坏地球气候。对于我们这些深知人类可能失败、内心渴望安全感的人来说,“优化”看上去就像一根救命稻草,似乎能让我们远离决策失误的痛苦记忆。但试图把自己变成一个“机器人”却意味着要放弃一些极其珍贵的东西:我们的人性。
“客观性的目标就是把人的因素排除,”Nguyen 说。他补充说,当我们在做科学研究时,努力排除人类偏见无可厚非,但在其他领域,这样做就显得很奇怪。“这是用客观性来贬低人类自由。”
Shannon Vallor是爱丁堡大学研究技术哲学的学者,她也同意这一点。“当前 AI 领域里的宣传话术,常常是在‘忽悠’人们放弃自身的力量,以及对自主与自由的自信,”她说,提到那些相信“AI 在道德决策上比人类更强”的超人类主义者。“若真让我们放弃自己作决定的可能性,也就放弃了艺术、政治和道德的生长机会——我不认为我们应该这么做。”
当然,这并不意味着她反对用数据和技术来增强道德能力。但“增强”与“去除我们那些被视为拖后腿的身体或认知特征以追求完美”是两码事。她认为,一些超人类主义者所呼吁的后者,已经相当接近优生学的思路了。
“那种做法的目的,不是‘扩大’和‘丰富’人类这个物种,而是想要把它‘完善’,”Vallor 说,“这是一个极端危险、而且我认为本质上并不道德的项目。”
那更好的选择是什么呢?
“优化”本身的最优“停止点”
早在 17 世纪,也就是社交软件横行、Tinder 尚未出现之前,约翰内斯·开普勒就用亲身经历明白了过度追求“最优”如何毁掉你的爱情。
他当时要找老婆,于是安排和 11 个女性相亲,用自己擅长的数学来对比谁最匹配。但对于每个人选,他都有许多要素要考虑——他给自己列了一大堆问题:她是否“勤俭”?她是否“身材高大、体格健壮”?她是否有“口气难闻”的问题?
他在第五个候选人那儿感到还不错,可又犹豫不决:毕竟目标不是找一个自己喜欢的,而是找一个“最好的”。于是,他继续往下对比剩下的候选人,而第五个姑娘则不耐烦了,说“我不等了”。这让开普勒把大量的时间和精力都消耗在相亲计算中,最后搞得焦头烂额。他事后写道:“究竟是上帝的旨意,还是我的道德罪过让我在两年多的时间里如此摇摆不定、一次次考虑各种婚姻可能性?”
啊,开普勒啊,你这荒唐又痴情的书呆子。
到了 20 世纪 50 年代,数学家们在开发决策理论(向我们之前提到的帕斯卡致敬)时,才正式探讨了这个问题:如果要搜集做“最优决策”所需的所有数据,你往往要投入极大时间与精力,以至于会陷入瘫痪、痛苦,最后结果反而“不最优”。他们问:我们应该在什么时候暂停这种对“最优”的执着?
诺贝尔经济学奖得主赫伯特·西蒙(Herbert Simon)认为,现实生活中的许多问题并不像微积分课上的问题那样简化;有太多的变量和不确定性,想要“优化”往往行不通。他提出,很多时候,我们最该做的就是在有限选项里找到一个“足够好”的,然后就去做。他把这种选择称作“satisficing”,合并了“satisfy”(令人满足)和“suffice”(足够)的含义。
“决策者要么是在一个简化世界里追求最优解,要么是在一个更真实的世界里寻找足够好的方案,”西蒙在 1978 年领奖时说。
随着“大数据”和“人工智能”的出现,人们再次憧憬对世界做“完美建模”,我们差点就把西蒙当年对“适可而止”的洞见忘在脑后。但我觉得,在道德生活中,“satisficing”才是更加明智的方式。古希腊哲学家亚里士多德所说的“中庸”也是类似的概念,各大宗教也大多持这样的态度。
宗教的确尊崇某些“特别好的人”——譬如天主教的圣人、犹太教的义人(tzaddik)、佛教的阿罗汉——但大多数宗教并不要求所有人都在他们的道德观里“最大化”善。普通人只要在自己所处的环境中,过一个善良(也算平凡)的生活就好。如果宗教机构强迫所有人都去追求“最大化”,那就成了狂热。
若说“优化文化”类似于宗教狂热,那“satisficing”就类似于宗教的温和派。这并不意味着什么都行。我们可以保留一些基本的准则(比方说,种族灭绝就是错误的),但允许很多不一定是“最优”的事情仍然是“道德上可接受的”。我们承认很多事情都是“好的”或者“够好的”,而且有时这些事情不可通约,无法用单一标尺衡量。那没有关系,因为它们都可能有各自的价值。你可以在不同的善之间找平衡,就好比你既可以给国外的贫困地区捐款,也可以给你所在城市的无家可归者捐款。
向 Vox 的哲学问答专栏提问
Your Mileage May Vary 是一个以价值多元主义为基础的答疑专栏,该理念认为每个人都有多种同等重要的价值观,但这些价值观常常彼此冲突。你可以在这里提交你的问题!
有时,你可能无法在不同价值观之间取得平衡。这种情况下,你就必须做出抉择。这很难,也会令人感到疼痛。但你知道吗?这才是人类的真实面貌。
当下,我们需要一种新的心态,去拥抱人的条件——可以称之为“新的人文主义”。重点不在于发誓要拒绝数据、拒绝优化、拒绝科技,这些工具在正确的领域里完全可以改善人类生活。关键是别把这些工具用在它们无法发挥作用的地方。
“我认为一直都有另一种更好的路线:让道德保持在一个有争议的领域,”Vallor 对我说,“这个领域必须能接受挑战。我们对于 ‘如何与他人好好相处’、‘我们彼此应尽的义务究竟是什么’等问题的探讨永远不可能有个终点。所以我对那些要让机器给出‘最优答案并且就此终结’的做法保持高度警惕。”
如今,我经常想起那位给我打电话的好朋友,在她照顾临终病人的那些日子里,她担心自己没有给对方带去“最大化的快乐”,因此哭着说:“我的情绪在捣乱。我真希望自己能像台机器人那样。”
我还记得当时我的回答:“如果你真是机器人,你根本不会在乎她,也不会想去照顾她啊!正因为你是人,你才会爱她,而这种爱才驱使你去帮助她。”
这个回答在我脑海里几乎是自然而然地蹦出来的,仿佛打喷嚏一样。那一刻它是如此清晰:我们身上那些感性、混乱、难以量化的部分,绝不是更愚笨或更不理性的部分。正因为它在,我们才会对他人苦难深切地关怀。没有这种关怀,那些努力去“优化”的行为也就失去了方向。
去嫌弃它,仿佛在抱怨我们眼睛中视神经和视网膜连接处那个“盲点”。如果没有这个盲点,我们的眼球也许像完美无瑕的玻璃球一样,光滑密封,没有瑕疵。可是,没有这个视神经,我们就无法看见整个世界。
如今,当我面临抉择产生的不安、想要借助优化公式来寻求安全感时,我会努力提醒自己,其实还存在另一种安全感。它并不关乎“完美”“刀枪不入”或“绝对掌控”。而是接受:我们都是不完美、易受伤害的生物,就算我们尽全力,很多事也难以尽在掌控——也正因为如此,我们才值得被温柔以待。
别误会:我依然觉得这很不容易。那个“热衷最优解”的我仍然存在。但现在有一个更强大的声音告诉我:道德生活无法被精准定义,这是何等珍贵。如果有人能证明某事“绝对最优”,另一事“绝对不行”,白黑分明——那我们也就无从选择,只能被所谓“客观最优”的道德架构所挟持。可事实并非如此。因此,我们是自由的,眼前的世界也充满了无限斑斓。而这本身就“足够好”。
(完)