Mutesic

Mute/Music

譜面について、2、3のこと

自分が曲をつくるときは、まず先に譜面など紙の上の作業をできるだけ終わらせてからでないと、打ち込みや録音ができないというか、そういう手順に慣れてしまってるんですが、「譜面」というものをどう捉えるのかということには、いろいろな考えがあるのではないのかと。

f:id:ataizi:20140425004728j:plain

以前使ってた24段の譜面。渋谷のヤマハで買ってたんだけど、もう店がなくなってしまい、ほかにどこで売ってるのかわからないまま。最近はルーズリーフの譜面を使ってる。これはどこにでも売ってていい。

そもそも、大昔、4トラックのカセットMTRを使って宅録してたので、たった4つしかないトラックに、それ以上(8とか12とか)の楽器を録音するためには、録音する順番とか、どの楽器を右側・左側にするかとかを録音する前に決めておかなければならないとか、また、複数の楽器をピンポン(ダビング)した後では、個別の楽器を後から差し替えるということもできないので、つまり、録音する前にすべての楽器のアレンジを含めて演奏を決めておく必要があったために、全パートの譜面をまず最初に書いていたということがあります。

f:id:ataizi:20140425005210j:plain

4トラックカセットMTR。一番最初に買ったもの。

その癖が、DAWを使っている今でもまだ抜けなくて、打ち込みする前に、紙の譜面に書いているわけですが、では譜面が万能なのかといえば、譜面だけで曲のすべてを記述できるわけでもないというか。

たとえばノイズをここに入れようと考えた場合、それがどんなノイズなのかを譜面上に表記することはできない。入れる場所や長さを指定することなら可能だろうけど。ノイズの波形をプリントアウトして貼り付けるとかならできそうですが。あと、ミックスやエフェクターの処理まで事細かに譜面上に書くのは、すべて明記するとなるとかなり煩雑というか、その音響は機材や楽器の特性、録音のやり方などに大きく左右されることになり、どんな場合にも汎用できる正確な記載というのは難しいだろうと。曲ができたあとから、「この曲はこんな機材を使ってます。ミックスはこうで、エフェクターの種類やかけ方は…」みたいな説明ならできるだろうけど…。譜面の役割について、ここでややこしくなってくるのは、今日では、音楽というのは、生演奏だけでなく、録音した音楽を聴くことが一般的だということがあり、もともと譜面というのは、演奏者が曲を演奏するための弾き方を表記しているものであったはずで、録音についてまで表しているものではないということ。つまり演奏と録音の関係という問題があって、これは、舞台と映画の関係に少しだけ似ている。

たとえば譜面を、演劇などにおける脚本のようなものだと捉えれば、役者は脚本に書かれた通りの演技を行うわけで、劇の進行はすべて脚本に書かれていることになる。いや、現代では意図的に脚本を排した演劇というのも存在するかもしれない。ゴダールという映画監督は、ひたすらアドリブを加えていくような演出や、大胆な編集などで映画をつくったひとで、脚本をあまり重視しない映画の作り方をしていた。まず先に完璧な脚本という考えはなかったようで、音楽にたとえていえば譜面中心主義ではなかったわけで。だけど、脚本のあるなしに関わらず、映画は演劇とは決定的に違う点があり、というのは、映画はカメラで撮られたものを観ることを前提としている。つまり生のものを鑑賞するのではなく、「映像」という媒介物が存在して初めて「映画」というものが成立している。これによって、演技が作品の最終的な価値を決めるのではなくて、映像を撮ったあとの、編集などの過程を経たうえで作品が決まることになる。

この話を音楽に当てはめれば、今日では、録音された音楽は、演奏が音楽の最終的な価値を決めているのではなくて、それを録音したあとの、ミックス処理などの過程を経たうえで作品が決まることになるのだろう。自分の場合は、譜面というのは設計図というか、脚本というのか、そんな感じで使っているのですが、譜面では録音に関わることまでは表しにくいという。録音は、演奏した後の行程なわけで。

    ※

50年代の前衛音楽などでは、録音というテクノロジーを音楽に取り入れようとしていて、シュトックハウゼンが書いた譜面などを見ると、いまのDAWの画面によく似ていたりするし、そういう先駆的な試みがたくさんあって興味深いんですが、当時の音楽には、譜面に「テープ」というパートがあったり、これは、録音という媒介をもう一度譜面の内側に引き戻す/取り入れようとする試みだと思うけど。 その頃「テープ」といっていたものは、いまではコンピュータのDAWソフトなどがその役割を担っているのだろうと。クラブ系のライブなどではノートブックが楽器のように使われることが普通だろうし。実験音楽などでも弦楽器とコンピュータのサウンドをつなぎ合わせたものとか多いと思う。そうすると、「テープ」と「DAW」はどこまで同じで、どこが違うのかという疑問になっていくわけですが、実際に使えばかなり違うものだというか。

DAWが普及する前に、シーケンサー(シーケンスソフト)というのが全盛だった時代があって、90年代頃の話ですが、この、シーケンサーというやつに、外部音源や単体MTRなどをmidiでつないで曲を制作するというスタイルがあった。シーケンサーとは、簡単にいえば曲を自動演奏してくれるもので、「打ち込み」というのはここに音符を入力していく作業のことで、それをシンセなどの楽器につなぐと打ち込んだとおりに演奏が始まるというもの。シーケンサーは演奏に関わるものであるために譜面とはかなり素性がいいといえるかも。大概のシーケンスソフトには譜面画面というのがあるわけで。シーケンサーの特徴は、演奏する「データ」を記録してくれるもので、音を記録するものではないから、同じ演奏データで「音」を自在に変更できるということがあると思う。

さて、もうひとつ90年代に普及してきたものにサンプラーというものがあって。これは、シンセなどのように音色をその内部で発振させた周波数によってつくりだすのではなく、外部の音を「録音」して使うという代物で、録音した音を楽器のように演奏するというもの。先ほど、録音とは演奏を行った後の過程だと述べたけど、最終的に決定されたはずの録音物が、ここでは再び「演奏」するために使われることになる。つまり、ある種のひっくり返しがここで生じる。「サンプリング周波数」という言葉を聞いたことがあると思うけど、普通のCDもサンプラーも録音の原理は何ら変わらないわけで。でもここで録音は、聴くためのものと演奏するためのものに分かれている。たとえば、生ピアノの音を録音して、それをサンプラーに取り込み、シーケンスソフトで鳴らせば実際にピアノを演奏しているのと変わらないようになるし、その演奏をさらに録音・ミックスしたものを作品として提示したりできる。

つまり、演奏と録音の関係というのは簡単なものではなくなってしまっているわけで。昔なら、

①「ピアノを演奏する」→「それをマイクで録音する」

でよかったものが、

②「ピアノの音をサンプリング録音する」→「それをシーケンサーで演奏する」→「それをラインで録音する」

に変わり、

③「②で録音したピアノの演奏の一部をサンプリングしたものをシーケンサーで演奏させ、それをミックスして別の曲を演奏する」

となっていくなど、一言では片づけられないことに…。

    ※

そういった作業のすべてをこなせるようになったものがDAWなわけで、サウンドデータとシーケンスデータをいまでは一つの画面上で同列に置くことができるようになった。さらにDAWは、音楽をつくる作業で必要なものがほとんど収まっているソフトだといえるから、いままで個別に用意しなければならなかった、シーケンサー、シンセ、サンプラー、ミキサー、MTRエフェクターなどといったものだけでなく、ボーカロイドVSTなどのさまざまなソフト楽器も充実していて、楽器やボーカルといったものも含めてすべて一つのソフトの内部だけで作り上げることが可能になっている。自分の安いノートブックでもできるという。実際にDAWを使い始めたのは案外最近なんだけど、使ってみるとこんな便利なものはないわけで、ホントに革命的だよというか。実用的な面でも、デジタルのすごさを痛感するわけです。

f:id:ataizi:20140425010510j:plain

 譜面というのは「作曲」に関わるものだと思うけど、音楽を奏でるには「演奏」することが必要で、それを「録音」したものが今日では流通しているわけだけど、とにかくこの3つが全部含まれてくるのがDAWソフトで、ただし「作曲」「演奏」「録音」の3つの要素は、音楽をつくる過程においてはけっこう錯綜してくるという。つまり今日では「作曲」とか「演奏と録音」の関係だけで音楽を見ていこうとすると、昔よりもややこしいことになってしまう。そこで、いままで「演奏と録音」ということで話を進めてきたわけだけど、「デジタルとその外部」という枠組が音楽の課題として浮上してくるのではないかと。

たとえばデジタル録音とアナログ録音は違うのかとか。オルゴールとシーケンサーの自動演奏とは違うのかとか。ここですぐにいえることはデジタルではすべてが「データ」として扱われるわけだから、音も演奏も皆同じデータということになる。すべてが「データ」であるというのがデジタルの特徴であるのなら、極言すればデジタルとはあらゆるものが「データ」として置き換え可能な世界であるということになるだろうと。

音も演奏もデータ化できることにより、作曲も演奏も録音も、楽器や肉声までデータとしてソフト化されて、現在ではPCが一台あれば音楽がすべてつくれるまでになっている。これは画期的なことだけど、ただし、これだけ様々なものをソフト化できても、パソコンのような「ハード」を皆無にはできないということもあって、パソコンもスマホもなく、そういった「もの」がいっさいなく、目に見えないデータだけが自律してプログラムを動かすことってたぶんムリで、仮に技術が進んでも、そういったデータを動かすためにはなんらかの物質的な枠組がどこかに必要になるはずだから。つまりデジタルはその内側ですべてを完結させることはできず、外部とのつながりをどこかで有している必要があるという。そもそも、音とか演奏とかいったものは元々デジタルの外にあったわけで、それを後からデータ化して取り入れてきたのだから、そのことをもってもデジタルの内部には外部が関わっているといえるし。

つまり現状では、「ノートブック一台で音楽ができるようになっているが、それは何らかの外部とのつながりを有している」ということになるのではないか。

このことを、もう少し具体的に音楽の課題として考えた場合どうなのよ?ということがありますが、そうすると「デジタルとその外部」の「外部」には、生演奏とか、譜面とか、テープとかいった従来からの事柄なども関わってくるわけで。デジタルの問題にしても、具体的にはDAWだけでなくネットその他いろいろとあるだろうと。いまそれらを整理することは「譜面」をどう捉えるかという問題よりもよほど煩雑になりそうなので、またの機会にして、実際に音楽をつくっていきながら考えていったほうがよいのではないかと個人的には思っています。それでは。