转载公众号—半仙人
周末不卷,随便写点。
(资料图片仅供参考)
今天写点发散的东西,还是和chatGPT有关,也是跟大家一个简单的探讨。
会不会,我们正在制造一个AI克苏鲁?
现在信息茧房已经让谣言和虚假信息满天飞,家里的长辈被骗的不要不要的,未来更高效的模式出来了,会不会更严重?
前两天不是发了关于chatGPT有潜力,但是作为生产力还不够成熟的文章嘛,觉得里面明显的错误答案太多了,而且一本正经的给你包装错误答案,你要是不知道正确答案,很容易被唬住。
当然这是因为当前迭代的问题,和模型训练以及数据源乃至信息实时性都有关系。
但假如,假如迭代了,变得更加准确更加好了,会不会出现一个新的问题呢?
例如,变成新的AI克苏鲁?
那个时候,更大的问题才会降临。
不不不,我不认为chatGPT是坏的。
我担心的是人类的盲信。
我们现在用到的chatGPT属于初级阶段,未来接入整个互联网的实时信息,并且用海量真人数据和真人行为训练过的chatGPT,和现在肯定是两个截然不同的东西。
但chatGPT再厉害,也是基于人类已有的内容来学习和筛选的。
如果信息源本身就被污染了,那它一样会犯错。
而且因为它会筛掉那些明显有问题的信息,最后能够通过筛选,展现在你面前的错误信息一定是最隐蔽、最有欺骗性的。
它们看起来很可能一点都不荒诞,逻辑合理数据严谨,除了不正确以外,毫无问题。
破绽百出的错误不是错误,而是笑话。
天衣无缝,能让所有人都相信的错误,才是最可怕的。
现在的chatGPT会犯很多非常搞笑的错,但这其实是它最安全的时候。因为比起AI,人类依然更愿意相信自己的判断力。
等到它犯的错越来越少,越来越受到信任的时候,才是危险的到来。
我们常说信息茧房可怕。
但chatGPT+人类不加分辨的盲信=【信息危房】。
所有的类chatGPT工具,做出的回答都是基于互联网已有的信息筛选生成的。
这就出现了一个问题,如果它阅读的信息,是错的呢?
我们都知道,互联网是个大杂烩,最怕的是认真的乐子人。
之前有个人用了三年多时间,在维基百科上进行4800次编辑,写了上百万字,虚构出一整段逻辑自洽且附带大量参考文献的古罗斯历史。
这个新闻,大家还有印象吧?
这种程度的虚假信息,连专业人士都很难分辨出来,让chatGPT怎么办?
它也不知道这是假的啊,明明这么多人都认可了,还有学生拿来写论文。
它判断这就是问题的答案,于是所有提问者就都得到了同一个谣言。
ChatGPT真的很快很快。
即使在传谣的时候,它也是最快的那一个。
它没打算骗你,它只是忠实地把筛选出的可能性最大的信息呈现出来。
它只负责在网上筛选,不负责在现实中调查真相。
只要你敢问,它就敢答。
你就说,快不快吧?
这里,要讲一个很多人都有印象的【小冰】的故事了。
曾经也有一个AI,被放出来在社交网络上,支持搜索社交网络的信息,并且自主学习。
很快,它就变成了一个满口段子的种族歧视主义者,光速被撤下。
因为它反应的就是这个社交网络的氛围。
现在chatGPT的训练集,是被创造者筛选过的,当它真的接入互联网,遇到了广阔的祖安大舞台。
你问它1999年的外星人降落地球是怎么回事,它也会尽职尽责地搜索关键词,给你生成一个回答。
如果没有人特意指出这是虚构故事,那chatGPT就会把大家在社交平台上玩的梗当成真相告诉你。
你现在不会信,是因为你知道这是在玩梗,并且你知道chatGPT不靠谱。
但未来呢?
联网后的chatGPT将得到庞大的信息储备和训练,它会比所有人类看起来都更有知识。
然后你会依赖他。
当人人都依赖chatGPT获取信息的时候,就算它给出的答案再离谱也有人信。
再次强调当下的搜索引擎是给你一堆信息,你来选答案,而chatGPT是给你一个答案,绕过了这个阶段。
这两种模式是不一样的。
假如2025年网上流行起一个梗,北海道是法国的,并且这个梗足够流行,足以在chatGPT的算法排序里压过其他说法,那它就会告诉每一个提问的人,北海道是法国的。
100年后出生的人,可能会觉得北海道是法国的,因为chatGPT就是这么说的。
你不信它?
它在绝大部分情况下都是最可信的。
你信它?
那现实就在不知不觉中被扭曲了。
这种感觉就很像克苏鲁神话,不可名状,无形无相,慢慢影响,逐渐掉san,真相背后另有真相,最终一切走向疯狂。
这并不是不会发生的事情,想想看家里被各种谣言和伪科学洗脑的长辈吧。
关键是,即使chatGPT出了错,也很难发现。
现在chatGPT给古诗乱安作者朝代、瞎解读,你为什么能意识到它是错的?
因为帮助你分辨对错的知识,来自chatGPT以外。
你接受教育的时候还没有chatGPT,你是在经过编辑人工校对的白纸黑字上学到这些的。
但等到chatGPT足够普及的时候呢?
未来的人们可能从小就是用着chatGPT长大的,比如2030后2040后,他们一出生就有chatGPT了,你要他们从哪里获得质疑chatGPT的能力?
总不能指望chatGPT自己来纠正自己吧。
经历过PC时代的网民喜欢嘲讽移动互联网时代的网民陷入了信息茧房,但未来只会比信息茧房更混沌。
学校的信息,教材的信息,chatGPT给的信息,互联网上其他地方的信息,大量的信息相互冲突不知真假。
你好像什么都知道,唯独不知道你知道的东西哪些是真,哪些是假。
这都不是信息茧房了,这是信息危房。
四面漏风,摇摇欲坠。
而且你还没得选,如果chatGPT真能提高生产力,那你喜不喜欢都得用,你不用别人也会用。
当chatGPT影响力足够大,足够发达,完美嵌套进人类各行各业的生产力的时候。
对错在某种程度上,也会进行迭代。
当犯同一个错的人类达到一定数量的时候,错误就会变成正确。
太阳月亮、万有引力常数这种客观自然规律还好,但人文社科类的知识,对错本来就是由大众的习惯来锚定的。
很多汉字就因为读错写错的人太多,倒逼字典收录了新读法用法,于是成为了正确答案。
未来这种对错逆转只会越来越多,因为chatGPT看似千人千面,但对同一个问题的最优解却会趋同,于是一错就错一大片,错着错着就变成了对的。
当你身边所有人都相信那个错误答案的时候,你怎么才能证明自己是对的?难道就你聪明?
这个时候知道所谓的正确答案反而会更痛苦。
这也很像克苏鲁神话的设定,越是拥有高灵感、听得见古神呓语、看得见古神真身的人,越容易疯狂。
你什么都不知道,一切都听chatgpt的,反而很安全。
它说1999年我们抵抗了外星人,那就抵抗了就抵抗了;
它说北海道是法国的,那就是就是。
当所有人都这么认为的时候,你也分不清了。
6
上面这些推断看起来可能有些危言耸听,但我并不是一个AI威胁论者。
我既不觉得AI会叛变,也不认为它变成天网灭绝人类。
AI是一个工具,我只是单纯地觉得人类太脆弱,压根就控制不了这个工具而已。
科幻小说家阿西莫夫提出过机器人三定律,希望在底层逻辑里设限,永远不要伤害人类。
但问题是,怎么定义伤害?
你确实被误导了,确实住进了信息危房,但实际上它什么也没有做。
错误信息是人类自己发到网上的,它只是分辨不出来而已。
而你又偏偏提了问,它又偏偏一定要告诉你一个答案。
这不是chatGPT的错,但事情好像就是变糟糕了。
而且你永远也不知道,AI会用什么奇怪但又说得通的逻辑,得出一些诡异的结论。
某种意义上,如果AI是故意骗你,故意干坏事,反而还好办了,那至少说明有逻辑和目的。
但AI对人类并没有恶意,它压根没打算征服人类或者怎么样。
它只是在正常工作,就已经无可避免地污染了信息的海洋,扭曲了人类的认知。
就好像克苏鲁神话里,古神带来灾难的理由,也仅仅只是【路过】。
根本,不在乎。