视频链接:https://www.bilibili.com/video/BV1Xh411A7kC/?vd_source=12c1d661b492e88e254fc63d0a861962
-
技术报告链接:https://arxiv.org/pdf/2308.09597.pdf
-
GitHub 链接:https://github.com/LC1332/Chat-Haruhi-Suzumiya
-
数据集链接:https://huggingface.co/datasets/silk-road/ChatHaruhi-54K-Role-Playing-Dialogue
让 AI 扮演特定角色有一定难度
语言模型
中:
I want you to act like {character} from {series}. I want you to respond and answer like {character} using the tone, manner and vocabulary {character} would use. Do not write any explanations. Only answer like {character}. You must know all of the knowledge of {character}. My first sentence is “Hi {character}.”
语言模型
所表现的「智能」行为。用户们发现模型往往能在这样的 prompt 下表现出一定的角色扮演能力。然而,这样的实现虽然简单,却有以下缺点:
-
这样的 prompt 使用高度依赖大
语言模型
本来的记忆。如果大
语言模型
对于角色的记忆本身是模糊的,则无法模仿特定的角色。
-
这里的「know all of the knowledge of {character} 」的定义也是模糊的,无法很好地防御大
语言模型
幻觉效应的产生。
-
即使是使用这样的 prompt,
聊天机器人
的对话风格还是会很大程度受到
语言模型
的影响,调整 prompt 或许能够缓解这样的问题,但是每一个特定的角色都要非常精细地调整 prompt。
聊天机器人
的使用。
语言模型
确实有能力掌握一个特定角色的语气,但是这样也会带来新的问题。在一个初步的实验中,他们发现微调后的 ChatBot 会产生更多的幻觉效果。并且对于大量的非主角角色,很难形成如此多的语料对模型进行微调。综上所述,让
语言模型
更好地进行角色扮演,模仿输出角色的经典台词是个非琐碎的问题。
模拟特定角色的大体思路
语言模型
能否在对话中扮演来自动漫、影视作品的真实角色。在这个过程中,作者认为一个虚拟角色由三个核心部分构成:
语言模型
的记忆能力是较大的考验,需要通过外部
知识库
的引入去解决。
语言模型
上下文中给出合适的例子,
语言模型
往往会进行模仿输出。作者希望这样的文学影视作品的爱好者与 ChatBot 互动时,能够「复现」文学影视作品的经典桥段,这样会让这些作品的爱好者获得更好的体验。
数据库
。在用户给出新的提问时,系统
会搜
索相关的经典剧情,并且结合人物设定的 prompt,去组合控制
语言模型
,争取对角色形成更精确的模仿。同时,受到 CAMEL 和 Baize 项目的启发,作者设计了一套自动对话语料生成的系统,对于性格鲜明,但是原本对话较少的角色,他们可以进一步生成符合角色性格设定的语料。这样就可以生成充分的语料使得微调一个本地的模型成为可能。
语言模型
,作者提出了一套完整的角色扮演的算法系统。这套算法可以有效地组织角色的过往记忆,使得
语言模型
能够模仿特定影视、动漫角色的语气和知识进行对话。这套系统可以使用 OpenAI 的 ChatGPT 或者 Claude 这样的预训练大模型,也可以使用较小的 7B 规模的本地模型。
作者提出的算法在扮演凉宫春日,注意用户的提问和原来的剧情相关但不是完全一致,而「Chat 凉宫春日」的回答基本可以引用原剧情。
语言模型
。同时,使用作者提出的算法,借助 GPT3 和 GPT4,他们为这些角色额外模拟生成了超过 27000 条以上的对话。合并形成了 ChatHaruhi-54k 数据集。
语言模型
的情况下,他们的算法可以给出更好的角色扮演的性能。
对话系统
示意图,包含 system prompt、为用户
查询
q 检索到的角色记忆 D (q, R) 以及
规划
历史 H。
聊天机器人
体现特定人物的对话风格。同时,经过微调的 7B 模型也可以有效的将整个系统的 prompt 学习到。
更多细节请参见原报告:https://github.com/LC1332/Chat-Haruhi-Suzumiya/blob/main/notebook/arxiv_paper.md
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...