文章预览
在大语言模型问世之前,尤其是在ChatGPT出现之前,人们几乎没有认真讨论过“人工智能是否具备自我意识”这个话题。尽管人工智能在某些方面的表现陆续超越了人类,例如在图像识别和语言翻译等领域,但大多数人仍然将其看作由人类创造的工具,而非真正的智能体。然而,大语言模型的出现彻底颠覆了这一观点,因为从形式上看,这些模型表现出了许多人格化的特征。对于这一现象,不同的观点纷至沓来。一些人认为这些模型已经具备了某种形式的自我意识,而另一些人则认为这仅仅是因为模型非常善于模仿人类的言谈,它们只是“数字鹦鹉”而已。 电车难题 大语言模型在交流时,常常展现出人格化的特征,下面将讨论一个引人深思的例子。在伦理学中,存在一个被称为“电车难题”的思想实验,如图1-1上半部分所示。在这个场景中,一辆
………………………………