Experience Driven ShowcaseNo.62
音楽とは空間と時間をつくること:渋谷慶一郎(後編)
2016/04/19
「会いたい人に、会いに行く!」第6弾は、国内外で先鋭的な電子音響作品を次々とリリースしている作曲家・アーティストの渋谷慶一郎さんに、電通イベント&スペース・デザイン局の藤田卓也さんが会いに行きました。以前から渋谷さんのつくる楽曲の大ファンだという藤田さん。音楽にとどまらず、さまざまなアーティストとのコラボレーションや音の空間プロデュースまで手掛ける渋谷さんの思想にどれだけ迫れるか? スリリングな対話となりました。
取材・構成編集:金原亜紀 電通イベント&スペース・デザイン局
「スケアリー・ビューティー」を、無限大に拡張するためのテクノロジー
藤田:ボーカロイド・オペラもやられていますが、どんなふうにテクノロジーを捉えていらっしゃるのか。作品に取り込む際のスタンスを教えていただけますか。
渋谷:例えば、最近パリで新しいプロジェクトの打ち合わせをしているときによく口にしているのが「スケアリー・ビューティー」という言葉なんです。不気味だけど美しい、気持ち悪いけど感動するとか。テクノロジーはこの方向性を拡張するのに使いたいし、そこに可能性を感じています。当たり前だけど、新しい技術を使うことが大事なんじゃなくて、表現として何がしたいかが大事なんです。日本はそうでもないけど、特にヨーロッパは良くも悪くも何を言いたいかというのが明確にない作品は「何、それ」という感じになるし、実際それは「何、それ」なんですよね(笑)。
ただ、テクノロジーが表現の中心にあると「カッコよく」なりやすい。ミニマリスティックだったり、「カッコいい」アートを生むのにひたすら使われてるし、実際それは向いている。基本がゼロイチでコピー&ペーストだから。
でも、「カッコいい」は上書きされやすいしすぐに更新されちゃう。それは「カッコいい」の鍵になっている精度という基準がそもそも更新されるのを前提に存在しているからです。結果的にテクノロジーとカッコいいの組み合わせはその精度が占める割合がほとんどだからすぐに古くなるんです。 それに比べると不気味なものの強さというのはあって、それはここ50年くらいは見過ごされてきた感があるけど、テクノロジーを軸に見直してもいいと思ってるんです。例えばピカソの絵は決して自宅に飾りたいようなものではないけど、ある種の不気味さと強さが残る。この方向性は今までのテクノロジーとアート、音楽の関係でいうとカオスとかノイズになりやすかったんだけど、そうじゃなくてグニャグニャに曲がってて不気味なんだけど美しい音楽みたいなものが可能になってきた気がしていて、僕は今ソロアルバムがつくりたいんです(笑)。なんか没頭するに足る世界がある気がしてきたというか。
藤田:確かに、渋谷さんのボーカロイド・オペラ「THE END」を見たとき、僕も和の怪談の持っている怖さを雰囲気で感じました。
渋谷:「THE END」はパリでやったときも日本的だと言われましたよ。むしろ怪談的なのかな(笑)、僕は全然意識してなかったけれど悪くないなと思っています。
AIを載せたロボット2人が、相互進化で音楽をつくってみる
渋谷:AIも、その方向で捉えているのです。アンドロイドをボーカリストにして、オーケストラ伴奏とかコンピュータを使ってというのをずっと進めていて、もしかしたら年末あたりにできるかもしれない。ただ、究極的にはロボットを2台つくって、部屋に閉じ込めておいて相互進化するようなAIを載せてということをやらないと面白くならないだろうなとは思っていて。これはかなり難しいとは思うんだけど、それで2人の関係の中で音楽ができちゃっているみたいなものになったとき、全く新しい芸術になる。
藤田:人が介在しない作曲、音楽…。
渋谷:そう、人が入る余地がない関係性の音楽作品を、人が聴く。
藤田:どういうロボットをどうつくるのかというところに、渋谷さんのアイデアが反映されるわけですか。
渋谷:僕は、誰々にそっくりなロボットとかは、限界があるなと思っています。というのは、初音ミクというのはキャラクターだから強いわけで、何かにそっくりなロボットはキャラクターにはなり得ないから。例えばレディー・ガガのロボットのTシャツと、レディー・ガガ自身のTシャツ、どっちを買うかといったら、本人のTシャツを買いますよね。それが「キャラクター」であるということだから。
だから、完全に人間に似せているだけのロボットではなくて、半物体半人間みたいな、機械と人間の境界を超えたものをつくりたいと思っている。そんなロボットが独唱で歌っていて、人間のオーケストラが伴奏するコンサートをやるとか面白いなと思っています。
プログラミングにも魂は宿る
藤田:最近は、ディープラーニングも話題になっていますね。
渋谷:ディープラーニングというのは、要するにビッグデータをどう扱うかということですよね。
この間「MEDIA AMBITION」をやるときに、僕の10年間分のサウンドファイルを東大でディープラーニングしてもらったのです。それでノイズをつくったけど、センスのいい学生がやると、やはり面白いノイズができる。だから、プログラムにも魂は宿ると思った。
藤田:ある種の指向性というか、ディレクションができるわけですね。
渋谷:そう、それは絶対出てくる。ディープラーニングでつくったデータは、意図的に一つの公式でつくったノイズよりは複雑というか、変にスカスカ感と複雑さが同居しているような、今までにちょっと聴いたことがないものになった。で、こういう超カッティングエッジなことはできるけれど、僕はそこからさらに、マスというか、汎用性に落としていきたいんです。
僕は分かる人だけ分かればいいとは全然思ってないんです。広告の音楽も含め大体自由にさせてもらっているから、マス向けの作品を自分の演奏会でも弾くし、アルバムに入れたりすることもある。でも、広告にありがちなマスのために仕事でつくった音楽なんて、誰も聴きたくないですよ。音楽をつくるというのは、自分が自分じゃない何かの直感とつながる瞬間がないとできなくて、そのつながる、天から降りてくるものの周りの容積をどれだけ増やしてあげるかということなのです。その容積をどういう形、色にするかをチューニングする。
藤田:渋谷さんのつくっていらっしゃるクリエーションは、感情に直撃する感じがしていて、メッセージももちろん届くんですけれど、それよりも先に感情が動かされているというか、つかまれている感じがします。そこに、計算はどの程度あるんですか?
渋谷:衝動があって、さらに計算がすごい速さでついてくるときがある。そのときは、血管がドクドクいって「あ、来てる、来てる、来てる…」と思う。
ノイズミュージックは人間の認知を、ある段階で超える
藤田:CMの曲や、僕も大好きなドラマ「SPEC」の音楽とか、オーダーがあって向き合うクリエーションへのスタンスも教えてもらってもいいですか。
渋谷:僕にとっては、条件が全くないクリエーションというのはない。自分のソロにしたって、発表形態はどうなのかということは絶対付きまとうから。僕は、こういう感じにしてとか、あの曲みたいにしてという発注はされないで済んでいるので、大体好きなようにつくらせてもらっているんです。だから、ほとんど差がないかな。
ドラマとかCMって覚えやすい方がいいじゃないですか。覚えやすい方がいい曲をつくるときに、ピアノの名曲を思い浮かべるとだめなんですよ、パクリになるから。僕には得意技があって、全然関係ないブラックミュージックのすごくいい曲の断片をちょっと想像して、一度忘れた後にピアノを弾くといいのができたりする(笑)。
藤田:渋谷さんから生まれる音楽そのものに、何かがあるとしか思えない。自由につくっているのに、聴く方はハマる。
渋谷:オーダー仕事は、僕は全く苦にならないですよ。
藤田:僕らは制約慣れというか、制約がないと動けない、クライアントからオリエンをもらわないと動けない体質になっているんです。
渋谷:そういう役割の人がいていいんだけど、制約を受けっぱなしのアーティストとやると薄まったものができちゃう。日本のアーティストは、海外のアーティストに比べると、異常に生活危機意識が強い人たちが多いので、オーダーに対して素直なんです。飼い慣らされやすいから、聴いていてもスポイルされたような音楽が多い。でも、広告にとっては、本当はスポイルされてないものの方がいいはずですよね、絶対。
藤田:絶対いいです。それだけで価値になって、分かりやすい方が。「そうだ 京都、行こう。」みたいな超ロングセラーCMでも、渋谷さんの音だとすぐ分かるのが不思議です。
渋谷:この前の「そうだ 京都、行こう。」も最初の何秒かで分かるっていう連絡がいくつも来ました。僕は、割とアカデミックなことをやっていたけど、あの世界は制約が多いじゃないですか、楽器編成とか。だから制約があるのは当たり前なんです。あと、音楽を聴いたときに、素のリスナーになかなかなれない。新しい音楽を聴いたときに、これどうできているんだろうとか、構造をリアライズする頭にどうしてもなるから。
藤田:音楽の聴かれ方は、これからどう変わっていくと思われますか。
渋谷:すごくイージーに消費されるものと、そうじゃないもの、二極化すると思っていて、やはりネットが鍵だなと思う。というのは、ストリーミングで現状の最高音質の規格のDSDがコンバートなしで聴けるようになると、結構いいステレオとかを持つ意味が再び出てくるし、逆にコンピューターのスピーカーでも十分いい音が聴けるから、これからはファイルなんて持つ必要ない。
ディープラーニングも、例えばDCGANっていうプログラムでもサウンドデータを高いクオリティーのまま回すのはまだ無理なんです。でも逆にMP3まで落としちゃって、コンピューターの仮想空間で計算をやらせて、最後の段階でバッと高音質に上げればいいだけじゃないかとか、東京大学の池上高志さんといろいろやっているところです。そういう仮想領域をコンピューターにつくってというのは面白いと思う。あと、建築や公共空間と音楽の関係にディープラーニングの自動生成を使うアイデアもあって、これも進めようと思ってます。
やっぱり鍵になるのはコンピューターを100%生かして音楽をつくるときに何ができるかということ。例えば今のメディアアートにつけられてる音楽を聴くと皆きれいなソフトシンセサイザーとビートで、いわゆるエレクトロニカのややゴージャスな焼き直しみたいになってるんだけど、それはあまり面白くないなと思っています。コンピューターが持つ可能性を100%出し切っているとは思えなくて、やはりコンピューターじゃないと出ない音やフォルムをつくらないとダメだなと。僕はピアノも弾くし、必要があればオーケストラも書いたり、全部やるからそうじゃないとコンピューターを使っている意味がないんです。
だから、コンピューターを軸に音楽を考えると何がノイズで何が楽音か、メロディーかとかいうのは全然重要じゃなくて、それらは並列なんです。今は音楽が多層的にレイヤーされているような音楽は減ってきてて、ひとつの音に情報量や密度、あとは快感を感じるような聴かれ方が増えている。それは現在の他のアートやテクノロジー、情報環境の影響と相互関係にあると思います。だから音楽をそれ単独の問題として考えないというか大きな枠として文化の一部にあるというのが大事な認識で、そこに流れているのがテクノロジーという共通言語なんだと考えています。
藤田:ロボットとAIの話は、まさにそういう、まだ聴いたことない音楽、鳴らされていない音ですね。その出現を待っています。僕は渋谷さんの音楽が大好きなので、今日はすごく緊張しましたが、とてもぜいたくな時間でした。本当にありがとうございました!
<了>