
给大模型装上“MBTI大脑”:AI行为也能定制化
sami H
7
9-23原野: 我们聊起AI,脑子里冒出来的第一个形象,总是一个绝对理性、没有感情的计算机器。但如果我告诉你,现在的AI不仅能模拟情绪,甚至还能有自己的MBTI人格,比如变成一个“i人”或者“e人”,你会不会觉得有点科幻?
晓曼: 嗯,这听起来确实挺颠覆认知的。但这已经不是科幻了,而是微软和其他机构研究者们正在做的事。他们提出了一个叫“MBTI-in-Thoughts”的框架,简称MiT。
原野: MBTI-in-Thoughts…听名字就知道和那个风靡全球的性格测试有关。
晓曼: 没错,这个框架的核心就是利用心理学,特别是MBTI性格测试的理论,来“调教”大型语言模型。简单说,就是通过一些指令,让AI能表现出不同的性格特征,比如外向、内向、思考型、情感型等等。
原野: 那么,为什么要把AI人格化?这听起来有点像在“玩角色扮演”,这和我们通常理解的追求更高效率的AI有什么不同?
晓曼: 它的关键就在于“有效性”。研究发现,不同的性格类型在处理不同任务时,真的有各自的特长。比如,你让一个被设定为MBTI中“情感型”的AI去写故事,它写出来的内容会更生动、更有感染力。而换到策略游戏里,比如囚徒困境,“思考型”的AI就表现得更稳定、更会算计。这种“人格”的注入,就像是给AI量身定制了一套最适合当前任务的“出厂设置”,从而提升了整体表现。最关键的是,这一切都不需要重新训练模型,非常高效。
原野: 听起来很有意思,就像是给AI找到了最适合它的“性格标签”来解决问题。那具体是怎么实现的呢?是不是需要非常复杂的微调或者重新训练?
晓曼: 完全不需要,这正是它巧妙的地方。这个框架主要通过两个核心步骤。第一步叫“注入人格”,其实就是通过精心设计的提示词,也就是prompt,告诉AI:“现在,请你扮演一个INFP类型的角色来回答问题”。第二步是“验证人格”,为了确保AI不是在瞎说,研究人员会让它去做一套像16Personalities那样的标准化性格测试,然后看它的回答是不是真的符合它被设定的那个人格类型。
原野: 哦,我明白了。所以,这就像是给一个演员剧本,让他扮演一个角色,然后再通过一段即兴表演来检验他是不是真的入戏了。这意味着我们可以通过简单的提示,就让AI表现出某种特定的性格,并且还能验证它是不是真的“像”那个性格?那这种方法的效果如何?在不同场景下有什么具体表现呢?
晓曼: 效果非常明显,而且很有趣。在需要情感表达的任务里,比如写故事,“情感型”AI写出来的内容就比“思考型”AI要感人得多,也更个人化。而换到像囚徒困境那样的策略游戏里,区别就更大了。“思考型”AI会更频繁地选择“背叛”来最大化自己的利益,策略也更固定。而“情感型”AI呢,则更灵活,也更倾向于和对方合作。
原野: 这太有趣了!“思考型”AI更功利,“情感型”AI更顾及他人感受,这简直就是把人类MBTI的刻板印象给完美复刻了。那在策略博弈中,除了“思考”与“情感”的区分,还有其他性格特征的影响吗?比如诚实度?
晓曼: 有的,这正是研究的另一个亮点。他们发现,“内向型”和“判断型”的AI在交流中表现得更诚实,更倾向于遵守承诺。这说明性格设定不仅影响了AI的决策方式,还影响了它的沟通伦理和可靠性。你想想,这在很多需要信任的应用场景,比如金融顾问或者法律咨询AI里,就变得非常关键了。
原野: 也就是说,未来我们可以根据任务需求,选择一个最合适的AI“性格”来优化它的表现,甚至还能影响它的“道德”倾向。这听起来潜力巨大。
晓曼: 的确如此。总结一下,这个MBTI-in-Thoughts框架的核心价值在于,它提供了一种非常轻量级、可控,而且可解释的方案。我们可以通过简单的提示工程,给AI代理注入特定的MBTI性格,比如让“情感型”AI去干创意的活,让“思考型”AI去玩策略游戏。更重要的是,性格还会影响它的诚实度这类行为,像“内向型”和“判断型”就更可靠。而且这个框架还能扩展到大五人格这类其他心理学模型,为我们根据不同任务定制AI的“性格”,打开了一扇全新的大门。