
ListenHub
0
5-2Mia: 哎,今天咱们聊聊这个“NLP 巨变:大型语言模型与伦理挑战”,说白了,就是电脑现在能像人一样聊天、写文章了,听着挺牛,但感觉也埋了不少雷。咱先大概过一遍,你给说说这到底咋回事?
Mars: 没错,NLP 这几年,那真是坐了火箭。以前还小打小闹,现在直接变科幻大片了。
Mia: 我一直没搞明白,这 NLP 最开始是干嘛的?就是那种智能客服?
Mars: 可以这么说,它历史挺悠久的,四几年就有人想让电脑听懂人话。一开始就是语音识别、机器翻译,后来慢慢就有了广告推荐、智能助手这些。
Mia: 那怎么突然就,Duang 的一下,变成现在这样了?
Mars: 关键是 2017 年,Google 搞了个 Transformer 模型,就是那篇著名的“Attention Is All You Need”。当时大家还以为是个小技巧,结果用大数据一训练,效果直接起飞。
Mia: 哎呦,就像你给乐高加了魔法,自己就能盖摩天大楼了?
Mars: 差不多这意思!然后 2018 年,Google 又把 BERT 开源了,这下彻底炸了,掀起一股“BERTology”热,大家都研究它的原理,比谁跑分高。
Mia: 跑分?听着像学霸比赛,比谁考试考得好?
Mars: 对,就那个味儿。但更重要的是,大家发现,模型越大,分数越高,规模就成了新的标准答案。
Mia: 但我听人说,这些模型其实根本不懂意思,就是死记硬背,拼凑文字?
Mars: 这就说到“理解”这个事儿了。Emily Bender 提出了一个“章鱼测试”,我觉得挺形象的:你养只章鱼,它天天学你写字,能写得跟你一模一样,但你不能指望章鱼懂中文吧?大型语言模型也差不多这情况。
Mia: 呃… 有点心疼章鱼了。
Mars: 哈哈,不过道理就是这样。再后来,2020 年,GPT-3 冒出来了,规模一下子甩开别人一大截,只需要给它几个例子,就能做新的任务,很多人都看傻了。但它没完全开放,代码也没公开,这就引发了商业化的担忧。
Mia: 那是不是就有了“挺 LLM”和“反 LLM”两派?
Mars: 对,NLP 圈就像开了锅一样。Bender 那篇“随机鹦鹉的危险”就在旁边喊:别光看大小,还得注意意义和风险!
Mia: 那后来的聊天机器人 ChatGPT,又带来了什么新故事?
Mars: 2022 年 ChatGPT 一上线,直接变网红了,整个行业都慌了。很多人担心自己要失业,学术会议上有人开玩笑说:“这会不会是最后一届 NLP 会议啊?”
Mia: 这么夸张!那学术界和工业界是不是又吵翻天了?
Mars: 差不多,研究方向分歧更大了。有人觉得游戏规则都变了,以前的研究都过时了;也有人说,这只是把网络和数据规模放大而已,本质没变。
Mia: 那最后,这个道德问题,你能不能总结一下?
Mars: 好处肯定不少,比如更聪明的助手,更高效的写作。但是,偏见、隐私、责任这些问题,很难界定,而且社会影响非常深远。
Mia: 好的,感谢今天的分享!总的来说,NLP 从最初的小打小闹,到大型语言模型的爆发,再到伦理和社会挑战,就像咱们一路从平地走到了悬崖边,未来既让人激动,又得小心翼翼的。咱们下期再聊!