iKinema Intimate:通过自然语言控制动画的愿景终于要实现了

下一篇文章

增强现实游戏 Ingress 制作者 Niantic Labs 从谷歌脱离成为独立公司

近日,英国的科技和后期特效工作室 iKinema 演示了通过自然语言介面来控制动画的过程(如以上视频所示)。CEO 亚历山大·派彻夫(Alexandre Pechev)表示,在未来的虚拟现实和混合现实领域(如可穿戴设备 Magic Leap微软的 HoloLens),这项技术将会发挥重要作用。

“在虚拟现实和混合现实领域,我们面临巨大机遇,届时人们将需要通过非常简单的方式来生成内容。所以如果微软的 HoloLens 和 Magic Leap 成功,我们就需要工具来驱动身边的虚拟角色”,派彻夫向 TechCrunch 透露,该项目当前代号是“Intimate”,他们正在讨论其潜在的商业前景。

“不仅仅是‘驱动’它们,我们还要去‘自定义’它们。已有的动画库是让角色在平面上动起来,但如果平面不平、或者如果你想让角色盯着你看,我们就要让角色毫不生硬地调整。目前我们在同游戏工作室合作来完善这个项目,将来这些都会成为 Intimate 的一部分。”

通过创造一个简单的自然语言介面,使得在现有动画基础之上创造新内容更加容易,这一灵感来源于混合现实内容的增长,而反过来,这也将促进我们开发更多的新工具。

“我们过去的工作一直围绕着游戏和动作捕捉…而在后期制作领域一直有一个需求,就是通过现有动画来创造新动画,所以我们为此集思广益”,派彻夫说。

“说到实时动作捕捉,目前主要是真人捕捉,但是当真人同虚拟物体合为一体时,演员就不再是演员演员、而成了虚拟世界一个物像,这时就很难添加其他角色,来和这个演员对戏了。这给了我们灵感,激发我们开发一款简单的介面,让虚拟动画在导演的控制下和真人演员对戏”。

“那些想要使用动画的用户可能并不是专业的动画师,而一名专业动画师的工作就是以最佳方式来生成动画。所以用户们需要这样一个动画库:所有动作都有文字摘要,在这里,什么也不懂的人什么都不需要懂,依然可以设定他们角色的动作”,他补充道。

iKinema 的技术并不是实时计算所有数据,而是在现有动画库基础上绘制:分析内容、识别不同姿势、以通过自然语言介面来控制角色,比如“跳起来”、“向左转”、“跑”等。该系统还可以衔接不同动作,实现平滑过渡。

派彻夫说,其原理就是分析每个动作的三维坐标,然后识别动作,并且将坐标相连,以实现动作的衔接过渡。

“我们做的就是分析动画,然后用文字摘要出来,这样动画就可以落实到转换文字输入介面了。识别转换点的三维坐标、自动计算出当你由一个动画转换到另一个动画的过程”,他解释道,“其实就是找到从现有动画库中生成无缝动画的最佳方式”。

尽管 iKinema 在研究平滑衔接动画技术,但它并不想要以此取代动画师。相反,它只想要为非动画师构建操作介面,以充分发挥动画师们的创意。

“动画师想在动画中保留自己的视角和感受,这是他们想要的;我们的工作是保留这种动画形式,但是通过一种更易用的介面”,他补充道,“这是我们想要的”。

派彻夫觉得,该系统并不局限于人或机器人动画,它可以被应用在“任何地方”:一只手、一束花、甚至是一张脸。不过他们专注于单体动画,而非那些设定复杂的多个物体。

该技术仍在开发之中,团队计划于明年发布一款商用产品,包括运行时中间件 SDK、离线用户介面(将植入于“行业标准”软件之中,比如 Maya),派彻夫表示道。在 “创新英国计划”(Innovate UK) 的帮助下,该项目还得到了英国政府的资助。

他还描绘了另一种未来场景,就是通过软件、通过分析和编译的书面命令(使用诸如 OCR 光学字符识别等技术),从电影剧本直接自动生成动画内容。

“我们将投入更多时间,让语言描述变得更加精确。未来通过自己朗读或者用 ORC 识别文本,人们就可以将文本转换成动作”,他补充道,“我觉得这会是很有趣的挑战”。

离线后期制作、游戏和养成/模拟(使用技术来实现游戏内动作)、虚拟制作(既为游戏和电影制作服务,也为前面提到的“新领域”混合现实服务),是 iKinema 目前的三大目标。

翻译: 魚生臣

This Natural Language Interface Aims To Let Anyone Make Animations Jump