苏格拉底:大模型不知道自己不知道
来源|TIME
文|CARISSA VÉLIZ
(资料图片仅供参考)
编译|杨雪涵
如果说苏格拉底是古希腊最聪明的人,那么大语言模型就是当今现代社会中最为愚蠢的系统。
苏格拉底的谦逊智慧:认识知识的局限,保持真实谦和
在柏拉图所写的《申辩论》中,他讲述了苏格拉底的朋友凯勒丰前去德尔斐神示所拜访神谕的故事。凯勒丰询问牧师是否有人比苏格拉底更聪明,女祭司回答说没有:苏格拉底是他们当中最聪明的一个。
起初,苏格拉底感到困惑。当有那么多人以他们的知识和智慧而闻名,而苏格拉底自认为他两者皆为缺乏时,他怎么可能是最聪明的人呢?
他以解开这个谜团为己任四处询问政治家,诗人与哲学家。他最终发现了什么?苏格拉底的调查表明,那些声称自己博学的人要么并不知道他们认为自己知道的知识,要么知道的远远少于他们声称自己知晓的。
因此,苏格拉底是最聪明的人。因为他明白自己知识的局限性。他在保持真实的同时也做到了毫不张扬。
那么这个故事与ChatGPT 4等大语言模型之间又是如何加以比较的呢?
大语言模型的虚幻信心:统计猜测背后的真相
与苏格拉底相反,大语言模型是不知道人类在各自的知识体系中具体缺乏什么的。这些系统的构建目的并不是为了追求真相,它们所存在的基础也并非基于实践经验的证明或是逻辑,因此它们做出的统计猜想往往是错误的。
大语言模型不会告知用户它们正在进行统计猜测,他们以与陈述事实相同的信心提出错误的猜测。因此无论你问什么,它们都会给出一个令人信服的答案,而且永远都不会是“我不知道”,即使它应该是。如果您向ChatGPT 询问时事,它会告知您它仅限访问 2021年 9月前的信息,并且无法浏览互联网。对于几乎所有其他类型的问题,它都会冒险给出一个将事实与捏造混为一谈的回应。
富兰克福警示:大语言模型的废话威胁胜过谎言
哲学家哈里 ·戈登 ·富兰克福有句名言:废话是典型具有说服力的言论,但其脱离了对于真相的关注。同理可得,大语言模型是终极的废话者,因为它们被设计成了合理(因此令人信服)但不考虑真相的系统。废话不一定就是错误的,有时胡说八道的人会按原样描述事情,但如果他们不以真相为目的,那他们所说的仍是废话。
富兰克福警告说,胡说八道是危险的。废话对于真相的威胁比谎言更大。撒谎的人认为她知道真相是什么,因此实情往往更被关注。她可以受到质疑并承担责任,她的意图可以被推断出来。正如富兰克福所说,说真话的人和说谎者正站在同一场游戏的对立面上,胡说八道的人毫不在意。因此真理甚至没有被面对;它被忽略了;它变得无关紧要。
说服力的双刃剑:大语言模型废话的潜在危险
废话越有说服力就越危险,大语言模型在设计上有两个方面具备说服力。首先,它们分析了大量文本,这使它们能够根据给定的提示做出可能的反应进行统计猜测。换句话说,它模仿了它在所经历的文本中拾取的模式。其次,这些系统是通过从人为反馈( RLHF)中强化学习的过程来改进的。奖励模型是直接从人类反馈中训练出来的。人类教导它他们更喜欢怎样的反应。通过无数次迭代,系统逐渐学会了如何满足人类的喜好,从而变得越来越有说服力。
正如假新闻的泛滥所告诉我们的那样,人类并不总是喜欢真相。虚假往往比平淡无奇的真相更有吸引力。我们喜欢好的、令人兴奋的故事,远远超出我们对于真相的执念。大语言模型类似于噩梦般的学生、教授或记者;那些不承认自己知识的局限性,而是试图通过胡说八道来炫耀知识容量的人。
科技的道德试炼:从柏拉图到现实的人工智能监管之路
柏拉图的《申辩论》表明,我们理应将人工智能建设得更像苏格拉底,而不是像胡说八道的人。我们不应该期望科技公司出于自己的善意进行合乎道德的设计。硅谷以其胡说八道的能力而闻名,公司甚至会觉得胡说八道是完全有必要的,只有这样才能在这种环境中保持竞争力。在一个胡说八道的企业环境中工作的公司会创造出胡说八道的产品应该不足为奇。过去的二十年里所教会我们的一件事是,科技同其他行业一样需要监管,没有一个行业可以实现自我监管。我们监管食品、药品、电信、金融、运输;为什么技术就不能成为下一个呢?
人工智能领域垂直号黑智
了解更多AI产业资讯
返回搜狐,查看更多
关键词:
相关新闻