利用事例

連載12回:株式会社 アタリ 様

人と見まがうバーチャルヒューマンが人に寄添う未来へ

 流行の動画投稿サイトをはじめ、身近なスマートデバイスでも簡単に利用できるようになったVR/AR技術。そんなxR技術や精緻な3次元CG技術をベースにしたコンテンツ開発に強みをもつのが株式会社アタリ様です。エンターテイメントだけにとどまらず「ヒトの認知」のコントロールに関わる様々な領域で、研究開発に取組む同社が目指すのはいったいどんな世界なのでしょうか。創業者の飯塚様とエンジニアの河内様にお話を伺いました。


Photo01_アタリ

株式会社 アタリ

ファウンダー 飯塚 岳人 様


普通の広告制作会社から「尖った」会社へ


- まずは御社のプロフィールから簡単に教えて頂けますでしょうか?

飯塚 岳人(以下、飯塚):

はい、株式会社アタリと申しまして、今はおもにxR 領域、まあVR/AR/MRみたいなところで、広告領域での受託開発、あと事業領域での受託開発みたいなことを行っている会社ですね。

今回、特にABCIのサービスを利用させてもらっているのは、そのなかでも今後新しく3dig(スリーディグ)という会社を立ち上げる予定なのですが、その準備段階のチームでABCIを利用させていただいているという感じです。


- ABCIを利用いただいている方の中では、広告制作の分野は非常に斬新なんですが、最初からxR 領域に特化していたんですか?

飯塚:

いえ、最初のころはいわゆる一般的なデジタルコンテンツで、Webデザインとか、通常のグラフィック広告、または映像みたいなところをやっている会社でしたね。途中、VRの技術が出はじめたくらいから、そちらを指向して、受託する仕事もどんどんそちらにシフトしていったという感じです。

なので、社内のリソースもいわゆる普通の広告制作と違って、コンピューターグラフィックス(CG)のチームであったり、あとはエンジニアが非常に多いというところがうちの特色だと思います。


- なるほど。一般的な制作プロダクションとはだいぶ違っているんですね。VR にシフトしていったのはどんな経緯だったのでしょう?

飯塚:

単純にVRそのものを目的としていた、というわけでもないんですよね。

人と映像コンテンツの関わりって、もともとはTVであったりプロジェクターであったり、固定された投影機といいますか、人がある場に赴いて設置されているものを見るという形が、おもに映像の楽しみ方だったと思うんです。

けど、いろんなセンシングの技術が上がってきて、映像の投影機自体もヘッドセットという形で人と一緒に動くという新しいフォーマットがでてくると、当然バーチャルリアリティーに限らず、映像に反映するための情報量が圧倒的に増えていくわけじゃないですか。周辺の環境の情報が取れるようになって、人が移動している情報も取り、人の目線の情報も取り、ということがどんどん増えていく。

これまで僕らが作ってきたような「こうしたら人が楽しんでくれるだろう」みたいなものから、状況によって楽しみ方が変わってくるというか、人がいる環境によってコンテンツ自体が変化するようなものにまで可能性が広がるな、と感じて興味を持ったのが最初ですね。


エンターテイメントと禅に共通するもの


Photo03_アタリ


- ホームページを拝見して異色だなと思ったのは、禅のトレーニングツールなども開発されていますね。xR やCGなどとの共通点はあるんですか?

飯塚:

全般にありますね。僕はエンターテイメントも瞑想も基本的には似ているものだと考えています。

映像コンテンツは、そもそも作り話に対して、人が泣いたり、笑ったり、感動して気持ちがスッキリしたりとか、それを受容する側の人間にとっては、自分の感情に対して強く影響を受けるものであるわけで、いろいろ脳の状態をコントロールしているものだと思うんです。

一方、禅もどちらかというと脳のハッキングデバイスというか、そもそも瞑想自体が人の脳波をコントロールするという効果があると立証されているものなので、座って集中することによって、何か物語があるわけでもなく、自分の脳の状態をコントロールするものです。

いずれも人間が能動的に自分の脳の状態をコントロールしようとしたときに、活用できるタイプのものであるという点では共通のものになっている、という考え方ですね。

コンテンツ自体も、たとえば自分自身が明らかに好んでいるものがあったとして、その理由を自分自身が頭で考えてもわからない「何かいい」みたいなことってたくさんあると思うんです。それで、その「何かいい」みたいなことや、自分自身では解釈できないところをコンピューター側に解釈させるというところは共通していて、そんな部分への関心が禅のトレーニングツールに繋がってますね。


人間と見違えるクオリティのCG人間をつくる


- 一方、CGでは非常にリアルなバーチャルヒューマン「MEME(メメ)」も作られていますね。

飯塚:

彼女に関してはクライアントワークでは決してできないようなちょっと尖がった存在として、うちのPRの一部として作っているというふうな位置づけですね。


- 言われなければ完全に実在の女性だと信じてしまいます。このくらいリアルなCGだと苦労した部分も多いと思いますが?

飯塚:

そうですね、非常に高コストなんですよね。

あくまで受託の仕事の場合ですが、やはりCGの人間ですごくフォトリアルなものを動かすっていうのは、千万単位が当たり前になってくるので、そういったものを大量に作ったりというのはかなり難易度が高いです。それで、コンテンツの制作に関しては、日本は、特にアメリカの映画産業に比べると予算が少ないので、そういった意味でもリアルな人間と見違えるほどのクオリティでCGの人間をつくる、といった制作カルチャーはそれほどないんですよ。

そういう中でも、さまざまな技術の発展があって、もともとバーチャルヒューマンに手をつけはじめたフォトグラメトリーという実際の人間をスキャンしてそれを動かす技術があるんですけれど、彼女(MEME)も複数の人間の特徴を組合せて、一部はリアルな人間のパーツを組合せ、更に一部は完全に手作りして出来上がっているんですけど、そういった作業プロセス自体が非常に重い。


MEME00s

バーチャルヒューマン「MEME(メメ)」


- うーん、やはりそれ相応のコストがかかっている訳ですね。

飯塚:

こうしてうちも映像制作をしたりするんですけれど、やはり映像制作自体も価格が非常にコモディティ化してきていて、カメラの品質も以前に比べると民生機もだいぶ性能があがってきて、「プロならでは」みたいなところが見えにくくなっているんですね。

そういった中で、高クオリティなものをプロとして目指すみたいな形になった時に、じゃあ技術がコモディティ化して低単価でもどんどんいいものを作れるようになっていく中で、その距離をどうやって保つのか、という話もあるわけでして、もともと3DCGの研究を始めたのも、それらの部分を攻略するためというのもありましたね(笑)。


人は、人にとって好ましい存在と付き合いたい


- ABCIはどんな研究で利用しているんですか?

飯塚:

最終的にやりたいことを一言でいうと、コンテンツの自動生成なんですけれど、ただ、そこにたどり着く前にいくつかあるんですね。

直近でやろうとしていることは、単純にコンピューターグラフィックスの自動生成です。冒頭で申し上げた3digという新しい会社でやろうとしていることがまさにそこなんですが、いま例えばバーチャルヒューマンとかを作ろうとすると、やっぱりモデリングに1ヶ月間、その後テクスチャーデータの直しとか、様々な作業が発生するんですけれども、そういったことを自動化するという内容になりますね。

それで、これらのこと自体をそもそもなぜやるのかっていう話なんですけれど、先ほどのxR 技術の活用例でいうと、このコロナ禍の中で、無人店舗を増やしましょうと言ったときに、じゃあそういった無人店舗で人と相対するものが音声だけでいいのかという問いがでてくる訳です。

それは、単純にこれから、オペレーティブな仕事とかを自動化する動きというのは、まあ今全体に起こっていることですけれど、電話での音声認識みたいなものとか、チャットボットみたいな話になってるんですが、その次にくるものとしてバーチャルヒューマンの活用みたいなところは見据えていますね。


- チャットボットの先にはバーチャルヒューマンがいると?

飯塚:

結局、人は、人にとって好ましいと思う見た目や対応してくれるものと付き合いたいはずなので、そういったものを、例えば個々の利用者一人ひとりに対して、One to Oneでずっと作り続けるのかっていう話になってしまうと、先ほど申し上げた通り1体1千万とか、まあ手作業でやって作ると非常に高コストになってしまうので現実的じゃないんです。それがほぼ無料か、もしくは数万円でばらまかれるようになってくると、だいぶ活用の具合も変わってきますし社会実装の速度とかもだいぶ変ってくるだろうな、というところでABCIを利用して研究開発をしているという段階ですね。


ABCIならすぐに使えるマルチGPU環境


Photo06_アタリ

エンジニア 河内 拓也 様(右)


- ABCIのメリットってどんなところでしょう?

飯塚:

もともと、こういった研究をするにあたって、社内でオンプレ環境を組んだりだとかいろいろやっていたんですけれど、やはりGPUを大量購入したりだとか、そういったことはコストがかさんでくるので、その時にクラウドベースでこういったことをある程度外部化できるっていうのは、僕らにとっては使っているときには拡張できるし、使っていない時にはコストがかからないしみたいな意味合いでは非常に利便性が高いというところですね。

あとは料金体系としても、非常にリーズナブルだったのはありますね。こういうxR 領域の研究も、結局はやってみなきゃわかんないみたいなところがあって、エンジニアに論文を読み解いてもらって、それを実装してみても思った通りのものにならないってパターンが8割方なので、手間をかけても望んでいるような成果物ができる可能性はそれほど高くないんですね。そういった意味でも試行錯誤のためのランニングコストを抑えることができるのは非常に重要だなと考えています。

いろいろ調べたんですけれど、やはり価格優先みたいなところでも、僕らにとってはABCIが一番よく見えたというところがシンプルな理由ですね。


- 実際の使い勝手はいかがでしたか?

河内 拓也:

まず、スピード的に自前で用意した社内のGPUで行った場合、重い処理だとだいたい2週間かかってしまうのが、2~3日で終わるっていう点はすごく便利ですね。

やっぱり自社でマルチGPU環境をそろえるのは難しいのですが、ABCIでは基本的にマルチGPUに対応しているので、そういった面ですごく便利に利用させていただいてます。まあ、世の中で公開されているソースコード自体がマルチGPUに対応していないことも多いので、人様のコードを使おうとすると、そういうところはちょっと不便なんですけれど(笑)。

あと、特にGPU周りの開発環境やライブラリの切り替えとか、ドライバーの更新等で不具合が発生しやすいんですが、そういう部分も柔軟に入れ替える様な仕組みになっているのですごく重宝しています。


- 今後、ABCIに望むこと、または産総研への期待などあれば教えて下さい。

飯塚:

サービスというか、コスト的なところでも利用者が拡張されるような取組があるといいなと思いますね。

それは、どちらかというと本質的には僕らよりも、もうちょっと学生ベンチャー的な会社であったりだとか、そういった人たちに対しても助け船になると思いますし、特にこの領域って単純にすぐに成果が出るものでもないので、そこで入り口の門戸を広げるような取組があったりしたら、そうですね、例えば産総研主導でベンチャー向けのコンペティションを行われるとか、そういったことがあるとより面白いなと思いますね。