loading...

Dentsu Design TalkNo.71

テクノロジーと表現―NHK「NEXT WORLD」の取材から見えてきた未来―(前編)

2016/05/06

2045 年には、コンピューターが人間の知性を超えるシンギュラリティー(技術的特異点)を迎えるといわれている。2015 年1月、NHK スペシャル「NEXT WORLD 私たちの未来」が放送され(5回シリーズ)、未来の社会、人間のあり方を模索するために、番組制作陣は世界中の科学者や研究者を訪ね取材した。さらにこのシリーズはサカナクション、ライゾマティクス、アンリアレイジといったクリエーターたちとコラボすることで、ネット時代の新たなテレビコンテンツとしても注目され、NHK 出版から書籍化もされた。今回のデザイントークでは、番組ディレクターの岡田朋敏さんと立花達史さん、プロデューサーの小川徹さんの3人が登壇。テクノロジーに強い事業開発プランナーの加賀谷友典さんと、電通を代表する CM プランナーでクリエーティブディレクターの澤本嘉光さんとセッションを行った。それぞれの関心を照射させながら、未来のテクノロジーと表現について語り合ったトークを前後編にわたりお届けする。

(左から)小川氏、立花氏、岡田氏、加賀谷氏、澤田氏
(左から)小川氏、立花氏、岡田氏、加賀谷氏、澤本氏
 
 

 

「不確かな未来に舵を切る」

心の準備はいいですか?

加賀谷:今日は、昨年の1月にNHKで全5回でシリーズ放送された「NEXT WORLD」の制作現場を通し、われわれを取り巻く環境が30年後にどう変わっているのかを考えていきたいと思います。

小川:3年前からインターネット部門で、ネットでの同時配信実験など、次世代テレビのプラットフォームやコンテンツの企画開発を担当しています。「NEXT WORLD」は5回シリーズで、番組のテーマ曲を担当したサカナクションの楽曲の歌詞「不確かな未来に舵を切る」をテーマに、毎回番組の最後は「みなさん、心の準備はいいですか?」という言葉で締めくくりました。これから起こる21世紀の圧倒的な変化におびえていてもしょうがない、ポジティブに捉えて楽しむ準備をしようよというメッセージを込めました。これから第1回と3回のディレクターがどのような気持ちで未来を見ていったかをお話しします。それではみなさん、心の準備をお願いします。

岡田:第1回の人工知能(AI)をテーマにした「未来はどこまで予測できるのか」を担当しました。これまで一貫して科学技術がわれわれの文明や暮らし、社会をどう変えていくかというテーマで番組を作ってきましたが、現代の科学の世界には分からないことが膨大にあります。そもそも知能を理解するとはどういうことなのか? 肉体と脳の境目はどこにあるのか? こうした問の答えは分かっていません。そういう中で「NEXT WORLD」は、とにかく現実的に、だけど楽観的に、30年後の未来を描くことを趣旨としました。AIは人を上回る知能を本当に持てるのか? そうなったら、われわれの生活はどういうふうに変わるのか? レイ・カーツワイル氏が提唱する「シンギュラリティー仮説」、つまり2045年までにAIが全人類の知能を抜くという仮説を根拠に番組を組み立てました。

取材を進めると、2014年ごろ、コンピューターが自分で学習して判別や模倣を行う「ディープラーニング」が登場して、AIに技術革命が起こったことが分かりました。アメリカではこうしたブレークスルーに基づき、人間以上に正確な未来予測が現実のものとなり始めています。たとえば犯罪予測です。ニューヨーク、シカゴなど全米の各地で犯罪の種類別に犯罪が起きそうな地域を毎日AIが予測しているんです。いち早く導入したカリフォルニア・サンタクルーズ市の警察では、このシステムを導入することで、逮捕者数は5割増加、犯罪率は2割減少しました。

他にも結婚相手との相性や、ヒット曲や映画、政治の動き、テロの予測など、AIがなんでもかんでも予測できるようになり始めています。

こうなってくると、今後の社会に与えるインパクトは甚大なものがあります。たとえばどんどん人間の仕事がなくなるのではないかという話が出てきました。確かに人間がしていた仕事が機械に置き換わる確率は高いとみられていますが、全部置き換わるわけではありません。置き換わる確率は、例えばカメラマンは60%、弁護士は35%、記者やレポーターは11%、グラフィックデザイナーは8.2%というように、人間が優位な仕事は確率が低くなっていますし、今はない新たな仕事が創出されるという予測もあります。

さらには別の議論も始まっています。人間は人間を超える機械とどう付き合っていくのか? AIと知性は融合するのか? 映画「ターミネーター」のように、AIが自我や意識を持ったらどうなるのか? 意識理論の世界では意識を人工的に作れるのではないかという議論が始まっているのです。こうした研究が実現されれば、本当に意識を持ったAIができるかもしれない。

さらには人間が新しい能力を持つ可能性も指摘されています。例えば、結合性双生児(身体の一部がつながった双子)のタチアナちゃんとクリスタちゃんの例があるのですが、彼女達は生まれたときから脳の視床を共有していまして、それによってお互いの見たものや考えたことを話すことなく共有しているのです。こうした事実から考えれば、われわれの脳とAIを融合すれば、別の知性が見たものを自分が取り込むことができる、そういう世界を実現できるかもしれないという議論があります。いずれにせよ、人類は初めて新しい知性体と共存することになるわけで、そのための準備は不可欠だと思います。

 

アバターを合成して生放送

演出面でもイノベーション目指す

立花:この番組の制作に携わることで30年後の未来が楽しみに思えるようになりました。ぜひ長生きをして、どういう未来がやってくるのか、自分の目で見たいものだなという読後感が作れたという達成感がありました。私は第3回「人間のパワーはどこまで高められるのか」というテーマで番組をつくりました。人間の意図を読み作業を手助けするウエアラブルロボットなど肉体をパワーアップするものだけでなく、頭脳や精神のパワーアップについても取材しました。今世界中で脳研究の大きなブームが起きていて、巨額な資本が投入されています。その中に、普段使われていない脳のパワーをテクノロジーで引き出す研究があります。脳とAIを合体させたサイボーグ技術の研究も進んでいて、AIと脳が合体すると、人間が不老不死になるというプロジェクトも紹介しました。年齢を重ねて体が老いても、脳が蓄積した情報をデジタルに移せば永遠の命を獲得できる…。こういう話をすると恐ろしいような気もしますが、2045年にはそれが当たり前になっていて、「人間の命に限りがある時代もあったね」と話しているかもしれません。

小川:少しだけ番組の演出面の話もさせてください。「NEXT WORLD」では、番組自体をテレビ放送のイノベーションにしようと試みました。第1回では生放送で日本科学未来館からサカナクションがライブを行いました。テーマは「人工知能が制御する未来のライブ」。コンピューター制御された複数のカメラと画像解析技術などを駆使し、実空間と仮想空間を融合しました。視聴者にも、ウェブサイトで作ったアバターを通じて、観客としてライブに参加してもらいました。、実は、前日のリハーサルでは深夜までアバターの合成などがうまくいかなくて、もし本番で失敗したらプロデューサーが画面に登場しておわびしようかという話まで出ていました。けれど奇跡的に本番だけうまくいったんです。うまくいきすぎて、視聴者に生放送だと分かってもらえなかったほどです。

デジタル部門のプロデューサーとして一番こだわったのは、番組コンテンツへの視聴者の参加です。ウェブサイトでアバターを作る際、普通は自分で好きなパーツを選んで作りますが、NEXT WORLDのアバターは、人工知能がユーザの入力情報に基づいて提案してくれます。サカナクションによるテーマ曲は、ユーザーの投票システムに基づいて、人工知能がリミックスを行い、進化させていく仕掛けになっていて、放送回を重ねるごとに、曲が進化していきました。

常々、テレビに新しいユーザー参加型の仕組みができないかと考えていて、今回の仕組みを考えてもらったライゾマティクスの真鍋大度さんには「番組をデジタルコンテンツのユーザー参加によってハックしてほしい」とお願いしました。短い時間でもいいから、ウェブサイトでのユーザーの挙動を本編に反映させたかった。現在、テレビとインターネットの融合が急速に進んでいます。そういう時代になった時に、今までと同じようなコンテンツを作っていてもいいのか? テレビ局が生み出すコンテンツを進化させるには、放送業界以外の才能とコラボレーションしなければ、未来はないと思っています。

 

AIはどこまで発展するのか

「人」の仕事とのすみ分けは?

加賀谷:番組が放送されて約1年が過ぎましたが、取材をされていた時からAIを取り巻く環境はどのように変化したのでしょうか。

岡田:AIへの注目度はガラリと変わったなという印象です。放送当時はAIよりビッグデータという言葉の方が主流でしたから。ディープラーニングの技術も出てきて、社会的にAIに注目が集まっています。技術もどんどん進化しています。

加賀谷:現状のAIは、特徴量抽出などで予測は立てられますが、われわれが思考するような形で新しい問題を発見するような“強いAI”はまだできていないんですよね?

岡田:ええ。番組でも“強いAI”を描くかどうかすごく迷いました。最終的には、未来を予測する部分に特化しました。

加賀谷:視覚の部分では静止画の判別は人間と同じ、あるいは人間を超えるくらいまで進んでいる。けれど動きの検知やコンテクストの理解はまだですよね?

岡田:顔の筋肉の動きから正確に表情を読み取るなど、画像から何かを抽出して理解する技術はどんどん進んでいますが、難しいのはその先です。表情から感情を読むことはできるけど、その人がなぜ怒っているのかといった要因や深い心の中まで推測するAIはまだないと思いますね。

加賀谷:相関関係の抽出はできても、それが必ずしも因果ではないですものね。澤本さんも人工知能について聞きたいことがあるんですよね。

澤本:番組を見て怖かったのは、歌手のヒット曲を予想する予測システムの話です。それがアメリカではもう珍しくなくなっている。1曲目すごくうまくいって、2曲目は予測システムに合うような曲を作ろうとしたときに、どうしたらそこに持ってこられるかが分かっていない。そういう、予測システムと格闘するという事態が起きていた。広告クリエーティブの世界でも同じ目に遭うんだろうなと感じました。それからもっと先にいくと、AIが予測して作るのは僕ら人間というふうになるのか、いずれAIが制作までできるようになるんでしょうか。

岡田:ロイターでは簡単なスポーツの勝ち負けや経済記事は情報だけでロボットが書いています。映像編集もある程度は機械化できています。そういった意味でいえば、AIがクリエートできないとは言い切れません。しかし、記事に深い意味を持たせたり風刺したりということは、今はまだできない。ただ、映像編集のときに「このカットを入れれば視聴率が3%アップします」といった予測に引きずられるようなことは出てくるでしょう。

澤本:AIは猛烈なマッチングを繰り返して、最適なマッチングを見つけます。僕たちがしている作業もある意味マッチングです。例えばコピーライティングは頭の中にランダムに浮かんだ言葉とのマッチングを繰り返していって、その中で最適だと思うものを提示する作業だともいえます。と考えると、AIにそれができないはずがない。コピーライティングもおそらくできるでしょう。ただ、そのコピーの良しあしの判断を誰がするのかという問題がある。最終判断を行う僕らの「勘」が将来どれほど大事になるのかと、番組を見ながら悩みました。

岡田:グーグルでは動画のキャプションをつけるところまでAIがやっています。まだ全ての動画に対応できているわけではありませんし、完璧ではありません。でも、精度は上がっていくでしょうから、AIで自動作成したキャプションを切り貼りするところぐらいまでは容易にできると思います。ただし、そのセンスがいいかどうかは分かりません。機械にはできない部分が結構あるんじゃないかなと、僕は信じています。

澤本:ありがとうございます。少し安心しました。

 

※後編につづく

こちらアドタイでも対談を読めます!

企画プロデュース:電通イベント&スペース・デザイン局 金原亜紀