机器之心报道
编辑:张倩、袁铭怿
Dramatron似乎在解决AI大模型写长剧本时前后不连贯的问题上取得了一定进展。
你是否有过这样的体验:逛街时突然闪现出一个有趣的故事构思,却苦于无法即时填充更多细节,或缺少完整的写作时间?
DeepMind 新推出的剧本写作 AI——Dramatron 或许能助你一臂之力。
Dramatron 是一个所谓的「联合写作」工具,你给它一句话(log line)描述中心戏剧冲突(比如 James 在有 Sam 鬼魂出没的后院发现了一口井),它就能自动写出标题、角色、场景描述和对话。
Dramatron 和 ChatGPT 颇为相似,但输出更易被改编为电影脚本。为了评估其可用性,DeepMind 邀请 15 位剧作家和编剧参加了长达两小时的用户学习课程,旨在让他们与 Dramatron 合作编写剧本。其中一位剧作家与 Dramatron 合作编写了 4 个经过大量编辑和重写的剧本。加拿大 TheatreSports 公司已经改编了 Dramatron 参与创作的剧本并将其搬上了舞台,收到了非常积极的评价。
据报道,剧作家们表示,他们不会使用这个工具来创作一部完整的戏剧,并发现人工智能的输出可能是公式化的。然而,他们认为 Dramatron 将有助于世界的构建,或者帮助他们探索改变情节元素或角色的其他方法。同时,人工智能也有助于他们「产生更具创意的想法」。
和许多生成式 AI 工具一样,Dramatron 的背后也有一个大型语言模型作为支撑。这个模型名为 Chinchilla,参数量为 70B,在 1.4T token 的 MassiveText 数据集上进行训练。不过,DeepMind 在论文中表示,OpenAI 的 GPT-3 等大模型也可以用来部署 Dramatron。
有趣的是,在 Dramatron 昙花一现的试用页面上,DeepMind 明确表示,要使用 Dramatron,你需要一个 OpenAI API key。
看到这儿,OpenAI 联合创始人Wojciech Zaremba发来了贺电。
不过,这个试用界面很快就关闭了,我们现在只能看到关于 Dramatron 的论文和简介。
Dramatron 详解
Dramatron 是一个使用大型语言模型通过「分层故事生成( hierarchical story generation)」方法分层生成脚本和剧本的系统。Dramatron 利用大型语言模型的优势,将精心设计的 prompt(见附录 E)和具有结构化生成能力的 prompt chaining 相结合,以实现整个脚本的长程一致性。这一过程比「扁平的」序列文本生成更具有故事连贯性。
从本质上讲,本文中的方法类似于分层神经故事生成,但生成的脚本远远超过 1000 个单词。故事的分层生成可以根据用户提供的核心戏剧冲突摘要(也称日志行(log line))生成整个剧本(有时是数万字)。从输入日志行开始,Dramatron 可以生成一个完整的剧本,包括标题、角色列表、情节(即带有设置和节奏的场景摘要列表)、位置描述和对话(见图 1)。用户可以在分层生成的任何阶段进行干预。通过这种方式,人类可以和 AI 在交互过程中共同编写脚本。这个方法适用于任何可以将 prompt 作为输入,然后预测下一个 token 的大型语言模型。
下图 2 展示了 Dramatron 在研究中用到的两种叙事结构:
- 左图是德国小说家、剧作家古斯塔夫 · 弗赖塔格(Gustav Freytag)的金字塔结构。他认为典型剧情由上升 (rising action)、高潮 (climax) 和回落 (falling action) 组成。
- 右图是叙事学和比较神话学中的一种公式——英雄旅程(Hero's journey),又称为单一神话(monomyth),主轴围绕在一个踏上冒险旅程的英雄,这个人物会在一个决定性的危机中赢得胜利,然后得到升华转变或带着战利品归返到原来的世界。
Dramatron 使用几个硬编码的 prompt(即 input prefix)来指导大型语言模型。Prompt engineering 是用户控制或影响大型语言模型的常用方法。如下图 3 所示,prompt 与用户提供的之前大型语言模型生成的输入和 / 或输出相连接,这种方法被称为 prompt chaining,是一种算法 prompting。如上图 1 所示,在整体结构的较低层次,prompt 与来自整体结构更高层次的输出链接在一起。
更多细节请参见原论文。