文章预览
编者荐语: 人工智能大语言模型经常会回答一些“不靠谱”的答案,这个现象引起了普通公众乃至学术圈的疑虑。尤其2022年底以来,随着ChatGPT的风靡,更加让人们疑惑——人工智能是否具有政治意识形态?因为ChatGPT的基础技术——大语言模型(LLM)——本身就是基于人类现实文本的海量迭代训练。而人类文本不可避免地带有意识形态的隐喻。这篇节选论文从模拟实验的方法入手,通过训练ChatGPT模仿美国民主党或者共和党等方面入手,验证ChatGPT的默认状态(default)的意识形态偏见,可以说,无论在研究问题的趣味性还是研究方法的创新性上,都值得阅读。 因公众号推送规则变更 点击标题下方蓝字 关注 + 星标 “Political理论志” 不错过社会科学前沿精彩信息哦 具体操作如右 → ChatGPT的政治偏见 摘要 : 本文研究了大语言模型ChatGPT的政治偏
………………………………