一场关于ChatGPT话语权的深度思考人
作者丨ElizabethWeil 译者丨ChatGPT 编辑丨孙溥茜ChatGPT之风愈演愈烈,华盛顿大学语言学家EmilyM.Bender公开反对让大模型(LLM)过度介入人们的生活。 谷歌和亚马逊在论文中提到,LLM已经具有了思维链条(ChainofThought,CoT),和自发性地结构涌现(Emergence),也就是说,LLM开始学会了人类的“慢思考”思维模式,学会了基于逻辑推理的回答,而不再是单单基于直觉的回答。 作为一名语言学家,Bender注意到了LLM“权力扩张”的危险性,已经开始有人相信——“我们应该放弃「人类」在「物种」上如此重要的想法”。 这种想法背后隐含着的,实际上是LLM高度发展可能带来的一个AI伦理问题:如果有一天,我们造出了人类无法分辨的聊天机器人,那么这个机器人是否享有“人权”? Bender对此表示深刻的担忧。虽然地球上的物质都很重要,但是从语言模型到存在危机的路程,实在太短。 地球上懂得核武器的人士少之又少,不同于核武器,LLM影响力巨大,却还没有人论证清楚,它将会给人类社会带来怎样的影响。 ChatGPT对我们生活的影响已经显现,同时,也有不少人像Bender一样注意到了ChatGPT带来的伦理难题,已经有多家学校、期刊、学术会议禁止使用ChatGPT,也有一部分企业加入了这一阵营。 Bender知道自己无法与万亿游戏抗衡,但是她仍在提问,LLM究竟为谁服务,她希望在失控之日来临之前,人们能够尽快认清自己的位置。 存在就是正义。 就像她说的,只要是人类,就应该得到道德上的尊重。 本文原载于Nymag. |
转载请注明地址:http://www.huashengduna.com/hsdhb/22808.html
- 上一篇文章: 不用钢缆没有桥墩,50万吨的混凝土桥,是
- 下一篇文章: USNEWS大洗牌,加州大学近15万申请