跳到主要内容

纽扣问题

· 阅读需 4 分钟

今天要介绍的是一个叫 William Newcomb 的人提出来的「哲学」问题,因此被称为纽康伯问题(Newcomb's Problem)。这是维基百科中文词条里的名字——我觉得除非这个译者在搞恶作剧,否则什么狗屁水平居然能翻出「伯」音来。

我兼顾信达雅,把它篡改成了「纽扣问题」,同时索性把题目表述也变成用纽扣好了。

纽扣问题

你被带进了一间屋子,面前的桌子上放着两粒纽扣。一粒看着是金色的,另一粒看着是银色的。

主持人告诉你一些规则:

  • 金色的那粒纽扣有可能是拼多多五毛特价货,也可能是真的 24K 纯金。
  • 银色的那粒纽扣是真的纯银。
  • 你可以选择只拿走金纽扣,或者两粒都拿走
  • 在你进入屋子之前,他们已经搜集了你社交媒体上的一切信息,输入了强大 ChatGPT ∞ 模型来预测你的选择。
    • 如果模型预测你只会拿金纽扣,那么桌子上就会放 24K 纯金的纽扣
    • 如果模型预测你会贪心地拿走两粒纽扣,那么金色的那粒就会被换成拼多多五毛特价货。
  • 这个 ChatGPT ∞ 已经给全部的其他人类都做过测试了,迄今没有发生过一次错误的预测。你也亲自验证了这个记录。

请问,你该选择拿走金纽扣,还是金银两粒都拿走?

根据学者 Robert Nozick 的论文1,这道题目比较有意思的地方在于「所有人似乎都觉得答案显而易见,但是却站成了两队,并且互相认为对方是傻X。」为什么一道哲学题居然能取得像美国政治一样的效果呢?

这个问题看似数学味道浓郁,哲学气息爆棚,其实在我看来这压根不是一道数学或哲学问题,而是一道挂羊头卖狗肉的「性格测试题」。

数学角度

这道题的数学角度非常容易解——你都站在两粒纽扣前面,无论你怎么选都不会改变眼前的事实了,还用顾忌什么「AI 预测」呀?当然是两粒都拿上啊!这都想不明白的话显然是傻X。

什么「AI 100% 神预测」在此刻都是干扰信息。你也许就是一个特殊体质,AI 就错在你一个人身上,也不是不可能。

哲学角度

无非就是要拖入「概率的本质」与「真正的自由意志」这类非常难搞的哲学话题里:如果真的出现了一个 AI 拥有不可思议的预测正确率,它是不是神?信息逆着时间传播的可能性是不是需要考虑一下?或者说,我们其实根本没有自由意志?

但在我看来,这是制造出一个不可能成立的前提(不存在这样的预测者),然后利用逻辑上的「假前提可以推出任何结论」这条引理,让人无谓地陷入两个对立结论的争论之中。

实用角度

好吧,假如今天我真的站在那个房间里,听见了那个主持人的说明,也亲自验证了 AI 预测全中记录的真实性,那么我会怎么选择呢?

当然是选择相信 AI 的预测啦!既然只有「AI 预测全中」结果是我亲自验证的,鬼晓得主持人是不是在撒谎,或者有没有什么高级视觉骗术。比起相信主持人的说辞,甚至是宇宙物理定律,我更相信自己只是一个很普通的统计样本点。

所以,这不就是个性格测试题吗?

你选对吗了吗?留言告诉我哦~

Footnotes

  1. 维基百科的词条里有引用,我不赘述了。