Prologueのデフォルトリセット

Cubaseに付属しているPrologueというシンセなのですが、最初に立ち上げると色々と設定されてる割には音としてはふにゃーんとしたよくわからない音が勝手に読み込まれます。自分で一から音を作っていきたい時には正直邪魔なので全部設定されていない状態へリセットしておくのが個人的にはおすすめなので、まだシンセの使い方よくわからない人向けの設定手順です。Prologue自体の機能の解説はまた別で。

Prologueについては最新のCubase8でも全部のエディションに入ってるのでCubgaseユーザーなら目にしたことはあるんじゃないでしょうか。僕の環境だと動作が一部おかしかったりはするんですけど、軽いし基本的なことは一通りできるのでシンプルな音を作る時を中心に結構多用しています。僕が使っているのがCubase5なので以降のシリーズでも同じような音色設定で立ち上がるのかどうかはわからないんですが。

設定のリセット

最初にPrologueを読み込むと多分下の画像のような状態で立ち上がると思います。
prologue_reset01

まず右上の「max voices」(最大発音数)の設定。ここが1になっていると和音が鳴らせません。最大発音数が1なので一個の鍵盤しか鳴らない。ここはすぐ変えられる場所でもあるので和音ではあまり鳴らさない、最初はとりあえず1でいいや、みたいな人はそのままでもいいんですが、和音でも鳴らしたい、和音で鳴らす使い方のほうが多い、ような人は1以外に予め設定しとくといちいち変えなくていいので楽です。僕は10にしてます。今まで特に誰に言ったこともないんですが、実は僕の手の指って10本あるんですよね。あまり数字を大きくしすぎて同時に鳴らしすぎるとPC負荷が増えるのでCPUに不安がある人は5くらいでもいいんじゃないでしょうか。実質5音以上を重ねることってそんなに無いと思うので。

数字をクリックすると選択肢が出てくるので好きな数に設定しておきましょう。
prologue_reset01_01

2番のポルタメントの設定です。簡単に言うと鍵盤を連続して鳴らした時に、前の音程から次の音程へなめらかに移動する機能。移動時間をツマミで設定、どのような時に機能するか、を右のスイッチで設定するんですが、詳細はPrologue機能で書きます。とりあえず毎回ポルタメントかけないと気が済まない、って人以外はツマミを「0」に回して、上の最大発音数を「1以外」に設定した人はスイッチを「normal」に切り替えときましょう。ツマミは上・右にドラッグすると右に回って、下・左にドラッグすると左に回ります。(この辺の挙動ってシンセによっては違ったりして、Prologueと同じように一方通行のドラッグでツマミが回るものとほんとにツマミを回すようにドラッグを回すものとある)スイッチはクリックすれば切り替わります。
prologue_reset01_02

3番のフィルターの設定。ローパスフィルターがかかっているのでオシレーターの素の音が聴けませんのでこれもリセットしちゃいます。下記画像と同じように設定すればほとんどフィルターのかかってない素の音に近付きます。(まだLFOとかENVとか色んな所に設定が残ってるので完全に素とは言えない。)一番右の「TRACKING」は好みなんですが、僕はフルにしてます。初期リセットとしては0でもいいと思いますけど、よくわからないうちはフルにしといたほうが自然な音作りが出来ると思う。
prologue_reset01_03

4番、エンベロープの設定。「Cut off | 42」とか「Level | 99」とかって入ってるんですけどこれを消します。「Cut off」「Level」「Emphasis」と書いてある文字部分をクリックするとポップアップするので一番下の「off」を選ぶと消えてくれます。さようなら。
prologue_reset01_04_01
prologue_reset01_04_02

Prologueにはエンベロープは4つあって、左側に表示されているグラフを選択するとそれぞれの設定画面が右に開きます。
prologue_reset01_04_03

最初に開かれているのはENV2なんですが、1.3.4にも同様に設定がされていてこれも同様に消していくのですが、ENV1の「Volume」だけは残しておいてあげてください。
prologue_reset01_04_04

これを消してしまうと鍵盤を弾くと音の再生が始まるのに離しても再生が止まらなくなります。エンベロープは鍵盤を押してから、離してから、の挙動を操作するもので、音の再生(実際には音量の操作)もエンベロープに音量のパラメータをアサイン(指定)することでコントロールしています。

次に、Prologue画面中央やや下の「LFO/ENV/EVENT/EFX」のタブの中からLFOを選んで設定していきます。LFOが左右に2つあって、左側にエンベロープと同じような感じで「Cut off | -13」が設定されていると思いますのでこれも同様に「off」にします。
prologue_reset01_05

タブを「EVENT」に切り替えるとMIDIコントロール関連の設定になります。ここがやたら設定されてるのでこれも全て消していきます。(モジュレーションホイールでLFOを制御する設定があって、これは使えなくもないんですけどこのページを参考にする人は多分まだ使わないと思うので消してしまっていいと思う)(同様にVelocityのところのVolumeも迷うところではあるけどデフォルトリセットということで消してしまう。残しておけば、鍵盤を弾く強さ=Velocityで音量が変わる、実際の楽器に近い挙動になる。)
prologue_reset01_06

「EFX」タブのエフェクトは、ツマミがいろいろな位置にはあるのだけれどエフェクト自体はオフになっているので触らなくて大丈夫です。慣れてきて、エフェクトの最初の状態はこれがいいな、というのが出てきたら変更しましょう。

ここまでやると、ほぼオシレーターの素の音が出ると思います。(ENV1をいじっていないので、アタックが若干ついてる。いやだったら、ENV1のSustainを100に上げておく)波形は変えてないのでSawTooth、ノコギリ波の音です。好みで変えてもいいです。

設定の保存

Prologue画面の一番上の立方体のようなところを押すと、プリセットの保存が選べると思うので好きな名前で保存しておきましょう。僕は「0_saw」という名前で保存してあります。名前順で並び替えてあるので頭に0をつけとくと一番上に来る。波形だけ矩形波に変えた「0_square」も保存してあるんですけど、別に波形の種類くらいはデフォルト読み込んでから変えてもいいので実質必要ない。

で、これ保存してもまた新しくPrologue開くと最初の変な音が立ち上がってしまうので、そのへんの設定も変えられると楽なんですけど方法が見つからないので立ち上げてから上記で保存したプリセット読み込んでます。だいぶ前に設定ファイルいじって変えられた気もしないでもないんだけど記憶が定かではない。誰かわかったら教えて下さい。

シンセの機能のざっくりとした説明

大体のシンセで共通してるだろうと言う部分を簡単に概要だけ。単純化して捉えることでとっつきやすくなればいいなと思います。細かい部分についてはPrologueとかMassive辺り使いながら別で詳しく書いていければと思います。

【注意】基本的には考えながら書いていくので内容は大して、というか全くまとまっていないものになるだろうことは予め言っておくので忙しい人はWikipediaとかを見たほうがいいと思う。暇な人は考えながら読んでいただいて、遠慮せず「いや、○○はどうなの?」「それはどうかと思う」とかコメントでもTwitterででもツッコミを入れてくれれば嬉しい限りです。

構造

大体のシンセで共通と思われる部品は大まかに分けて5つ。

オシレーター(OSC…oscillator)
フィルター(FLT…filter)
アンプ(AMP…amplifier)
LFO(LowFrequencyOscillator)
エンベロープ(ENV…envelope)

OSC/FLT/AMPにはそれぞれ色々パラメーターがあり、それらを個別に設定し、LFO/ENVでそれらのパラメータを動かしたりしてやることで多彩な音色を作ることが出来る。

synth_about

オシレーター

波形の種類や音程を設定し、大元の波形を出力する。シンセの種類によって複数あったり選べる波形が違ったり同じ名前の波形でもどのように出力されるかが違っていたりして音の違いにつながってたりする。FM(FrequencyModulation)やWM(WaveModulation)、OscSyncとかなんやかんや弄れるところがいっぱいある。いっぱいあるしシンセによっても異なるので詳しくは別で書く。

波形の設定

基本的な波形としてはサイン波(Sine)・三角波(Triangle)・矩形波(Square)・ノコギリ波(SawTooth)辺りが大体のシンセで共通していると思う。この4種類くらいしか無いシンセもあれば、漁るのもめんどくさいくらいいっぱい波形があるシンセもある。オシレーターが複数ある場合、OSC1はサイン波、OSC2は矩形波、など個別に設定できる。

音程の設定

ドの鍵盤を押せばドの音、レの鍵盤を押せばレの音が出るのがもちろん基本ではあるけれど、僅かにドよりも高くor低く、とか、1オクターブ高いor低いドの音を出したい、とか、敢えて増4度の音程を出したい、とか設定できる。とはいえ鍵盤ひとつひとつごとに設定できるわけでなく、一律での設定にはなる。シンセによっては鍵盤一つ一つにできるものもある。

オシレーターが複数ある場合は、オシレーター毎にそれぞれ設定できるので、OSC1は普通の音程、OSC2はちょっと高めor低めとか、オクターブ上or下を重ねる、とか、5度でハモらせるとか出来る。

音量の設定

OSC毎の音量の設定もできるので、OSC1にちょっとだけオクターブ上or下のOSC2を混ぜる、とか音量バランスをとることが出来る。

フィルター

オシレーターから出力された音色を加工する。ローパスフィルターで高い方を削ったりハイパスフィルターで低い方を削ったりバンドパスフィルターで一部だけ残したり。これもシンセによってフィルターが複数あったり種類が違ったりする。これも詳しくは別で。

カットオフ

CutOff。基準点となる周波数を決める。何の基準かはフィルターの種類によって異なる。

レゾナンス

Resonance。Cutoff周波数を強調したりする。フィルターの種類や、シンセによって意味合いが変わる場合がある。

種類

ハイパス
Cutoff周波数から下の周波数を削る。ハイ(高音)をパス(通過)、つまりは低音を削る。

ローパス
Cutoff周波数から上の周波数を削る。ロー(低音)をパス(通過)、高音を削る。

バンドパス
Cutoff周波数周辺のみを残す。バンド(帯域)をパス、高音・低音両方削る。この時に残す帯域の広さ
を設定するパラメータも何かしらあるはず。名前はシンセによって異なる。(BandWidthとかが多いか)

dB/oct
フィルターがどれくらい削るかを示している。dB(音量)/oct(オクターブ)。オクターブ毎にどれくらい削るか。例えば-12dB/octのローパスはCutoff周波数を500Hzにすると1000Hzの周波数が-12dB、2000Hzの周波数が-24dB、4000Hzの周波数が-36dBされるような削り方をする。(周波数が2倍になるとオクターブが1つ上がる。)

シンセによっては他にも色々とフィルターの種類(と、それに伴ってパラメータの種類)があったりするので個別のシンセについてはググったりヘルプを見たほうが早い。

アンプ

最終的に音量を決定する。定位(パン)もここで決定することになるシンセが多いと思う。基本的にはここ単体というよりは後述のLFO/ENVとの組み合わせでいじることが多い。というか音量は最初からENVと関連付けられている。アンプ単体でパラメータを弄るのは、作った音がでかすぎるから下げる、くらいしか無い気がする。

LFO

直訳すれば低周波発生器とでも言おうか。設定した波の形でOSC、FLT、AMPの各パラメータを制御することができる。シンセによってLFO自体の数、波形の種類、どのパラメータに当てることができるか、などが変わってくる。LFOが多いほど複雑というか込み入った周期変化の設定が出来る。LFOが複数ある場合、LFO1でLFO2のパラメータを制御する、なんてことも出来る。

LFOの波形

オシレータの基本波形と同じ。シンセによってやはり種類は異なる。選んだ波の形に従って、制御するパラメータの値が動く。サイン波であれば連続的になめらかな上下、矩形波であれば上限値と下限値を一定周期で行ったり来たり、など。あまり複雑な波形が用意されてないこともあるが、複数のLFOがあれば組み合わせることで複雑な波形による変動制御も実現できる。

周期

RateとかHzとか単位が付いてるかもしれない。パラメータを変動させる速度。

変動量

値をどのくらい変動させるか。波形で言うところの振幅。LFO全体の変動量と、制御するパラメータ毎の変動量とをそれぞれ設定できる。

制御するパラメータ

どのパラメータをLFOで制御するかを画面上でどのように設定するかはシンセによって異なるのでググるかヘルプを見るか。

エンベロープ

LFOが一定周期でパラメータを常に動かし続けるのに対して、こちらは鍵盤が押されてからの時間経過でパラメータを制御する。音量には最初から関連付けられていて、外したりすると音が鳴りっぱなしになってしまったりする。やはりシンセによってエンベロープが複数ある場合もあるし、どの程度詳細に設定できるかも異なる。複数あればENV1でENV2のパラメータを、ってことも可能だし、LFOでENVのパラメータを、とかENVでLFOのパラメータを、ってことも可能。

Attack
鍵盤が押されてからどれくらいの時間でどれくらいの量を変動させるか。音量で言えば、時間を速く設定すれば鍵盤を押してすぐに最大音になり、遅く設定すればゆっくり音量の上がる音になる。ものすごく当たり前のことを書いている気がする。

Decay
Attackが経過してからどれくらいの時間でSustainの値に移行するか。音量で言えば、Sustainを弱めに設定した上で、Attack経過後すぐに減衰するように短く設定すれば鍵盤を押した時だけ強く出る音に、長く設定すれば鍵盤を押していてもだんだん弱くなっていく音になる。

Sustain
Attack>Decayが経過してから鍵盤を押している間のパラメータの値。Attackの変動量と同じであればDecayが実質意味を持たなくなる。

Release
鍵盤を離してからどれくらいの時間で0に戻るか。音量で言えば、短く設定すれば鍵盤を離してすぐに消える音、長く設定すれば鍵盤を離したあとに減衰するので余韻が残るような音になる。

とても説明できていない気がするので、ちょうどいいページを見つけたので貼っておきます。

シンセサイザー研究室

実際にどう操作していくかとかはCubase付属のPrologueとかMassive辺り中心に具体的に今後書いてこうと思います。

Cubaseじゃない人はSynth1でも入れてこのへん見ながらやってください

シンセの種類についてざっくりとした説明

知らなくても別に困らないけど知ってると会話で説明が省けるくらいなもの。細かいことはいろいろ省いて最低限知っとけばいいだろ、みたいなことだけ書いてます。

そもそもシンセって何?ってところを簡単に言っておくと、シンセではない楽器はその楽器自体が振動することで音波を発生させているのに対して、シンセは電気的に波を合成してそれを音に変換するのでスピーカーが必須になるようなもの。エレキギターとかエレキバイオリンはその点で実際に楽器自体も振動しているのだけどそれを一度電気信号に変換して再度スピーカーから音波として出力するのでどちらと言っていいかわからない、どちらでもないのかもしれないしどちらでもあるのかもしれない。

【注意】基本的には考えながら書いていくので内容は大して、というか全くまとまっていないものになるだろうことは予め言っておくので忙しい人はWikipediaとかを見たほうがいいと思う。暇な人は考えながら読んでいただいて、遠慮せず「いや、○○はどうなの?」「それはどうかと思う」とかコメントでもTwitterででもツッコミを入れてくれれば嬉しい限りです。

大分類

まず大きく2つに分けるとすると、実機のシンセとソフトシンセとに分かれる。といっても下記の分類もだいぶざっくりとした大きな分け方なのだけど。実機のシンセは実際にモノとして触れるもの、ソフトシンセはPCの中で動くもの。最近は実機のシンセでもPCで設定をいじってその設定を実機に反映させることができたりもするみたいなので曖昧な部分もある。実機のシンセの中にも電気によって波形を直接生成するものから、ソフトシンセが中に入っててガワが付いてるから実機、みたいなものもあるし。

アナログシンセ・VA

実機ハードウェアのシンセ。VAはVirtualAnalogで、単純にアナログシンセをソフトウェアで再現しようとしたもの。実際にはアナログと一口に言ってもそれ自体色々種類があるのだけれど主には減算合成のシンセを指すと思っていいと思う。(もちろん文脈によっては単純に実機のアナログ挙動のシンセと捉えなければならない。)波形を発生させ、フィルターで周波数を削るので減算。これに対して加算合成というのもあるようだけれどオシレーターが複数存在すればそれは加算合成なんじゃないのとか思ってて要するによく知らない。モジュラーシンセみたいな配線むきだしです!みたいなモーグとか有名。

FMシンセ

FrequencyModulation、周波数変調によって音色を作るシンセ。オシレータの波形の周波数に対して、別の波形によって変調をかける。これに特化したシンセもあるし、ソフトシンセなら機能としてついてたりする。キラキラキンキンした音。狙った音を作りづらいので嫌い。ヤマハのFMは~とか語ってる人をよく見かける。

サンプル・PCM

生楽器の音をそのまま録音したものが波形として使われたり、サイン波とか矩形波とかもサンプルデータとして予め格納しておいて再生するようなシンセ。VAを上にまとめてしまったけどアナログの挙動を本気でシミュレートしようとしてるようなシンセ以外はほとんどこっちかもしれない。一般的にサンプルシンセと言えば前者の生楽器の音を録音してある方を指していることがほとんど。(もちろん文脈によっては以下略。)VAシンセなどに比べるとデータ容量を消費する。生楽器を再現しようと思えばするほどいろんな音量、奏法を収録しなければならないので容量が大きくなる。最近は後述の物理モデリングやその他演算との組み合わせで省容量化されてきてる感じもする。実機の電子鍵盤のうち、シンセと区別してキーボードと呼ばれるような色んな楽器の音色が入ってるものはこのタイプか。

VOCALOID

声に特化したサンプルシンセでやや特殊。元の声となる人の声を数種類サンプルデータとして用意し、合成していく。声の出力が目的なので後述のフィルターやエンベロープといったものはなく、代わりに声のためのパラメータが複数ある。とはいっても声色を作るためのパラメータではなく、あくまで歌うためのパラメータであることも他のシンセとの色の違い。シンセというよりはキャラクターとして見られがち。

グラニュラー

音を細かく切り刻んで並べることによって音色を作る。実際使ったことはないんだけれどめっちゃ面白そうとは思ってる。波形を自分で数ms単位に切り刻んで複製しまくれば同じようなことはできるけどそれを簡単に出来るようにしたやつなんだと思う。Cubaseは6からグラニュラーシンセが付いてたはず。

物理モデリング

楽器などの音の発生原理から音を計算して出力する。例えば管楽器であれば息を吹き込むことによってどのような定常波が発生し、楽器の材質とどのように共鳴して音が出るのか、とか、太鼓であればどういう材質のもので叩くとどのように太鼓の材質は振動するのか、とか。演算によって音が出力されるので容量が必要なく、演算さえ的確に設計されていれば生楽器に近い音が出せる。数年前から色んな楽器が出てくれることを期待しているのだけどあんまり増えてない。Pienoteq欲しい。

他にもウェーブテーブルとかヴェクターシンセとかあった気はするけど細かい波形の発生方法の部分にはなってくるので知りたい人だけ調べればいいと思う。

いわゆるピコピコだったり、機械的な音が欲しいのであればアナログ・VA・FM・グラニュラー。
生楽器の音がほしいのであれば、サンプル・PCM・物理モデリング。
生楽器サンプルじゃないシンセで生楽器の再現を目指してもいいし、生牡蠣サンプルのシンセを加工してピコピコに近づけてもいい。

あとはシンセごとに機能が色々と違ったりするので場面場面で合ってるものを選択していく。例えばオシレータで選べる波形の種類やオシレータ自体の数、搭載しているフィルターの種類やレゾナンスの効き方、LFOで選べる波形の種類やLFO自体の数、ENVの数やENVの形状をどこまで作り込めるか、とか。あとは独自の合成の仕方をするようなシンセなんかもいっぱいあるので使ってて楽しいやつとか。

音に関して

音楽を構成するものはもちろん音であるので、それに関しては色々と思うところが色々とあるわけです。音以外のもので構成される音楽があるのかという屁理屈はまたの機会があれば。というか音については以前にも書いたのだけれど、消してしまったので再度。最低限のことしか書かないし詳しいことは詳しく書いてる人がいくらでもいるので気になったら調べて欲しい。

【注意】基本的には考えながら書いていくので内容は大して、というか全くまとまっていないものになるだろうことは予め言っておくので忙しい人はWikipediaとかを見たほうがいいと思う。暇な人は考えながら読んでいただいて、遠慮せず「いや、○○はどうなの?」「それはどうかと思う」とかコメントでもTwitterででもツッコミを入れてくれれば嬉しい限りです。

音とは何か

人間が認識する音というのは、まず音を発する物体が振動し、その振動が媒質を伝わって耳へと至り鼓膜を揺らし、聴覚神経が電気信号へと変換して脳に到達する。媒質とか言う言葉を使ったけれど大抵の場合は空気と捉えてもらって構わない。(水中にいたりすれば媒質は空気ではなくて水になる。)脳に到達したとして、意識が認識するかどうかという部分もある。

発音体の振動

媒質(空気など)による伝播

感覚器(耳)による知覚

脳による処理・認識

生の楽器であったり自然界で発生する音であれば耳に入るまでに、風速とか媒質の密度とかあとは反射音なんかに影響を受ける。ヘッドフォンとかイヤフォンというのも耳のすぐそこにスピーカーが合って小さく振動して振動を生み出しているので前述の影響は受けづらい。骨振動なんていうのが一時期出てきてすぐいなくなった気がするけどあれは媒質が人体の骨になったと思えばいいんじゃないか。いずれにしろ、ただ「聞く」という行為においてはその経路について考える必要はあまりない。(「聞く」という点においてオーディオ環境を整えようとする人は発音体までの経路を考える必要がある。)「音を作る」側になるとその経路やその周囲の知識について無いよりはあったほうがいいだろう。マイクを立てて録音する時、ミックスをする時、アレンジをするにあたって音響を考える時、なんかに役に立つ。

波形による表示

媒質、つまりは空気や水というのは無数の細かい粒子でなっていて、そこを音が伝わるときには粒子の密度が変化する。その密度変化を振動と言っているわけだけれども、それをグラフ化したものがよく見る音の波形だ。縦が振幅(振動の大きさ)で、音の大きさを表している。横が時間軸になっていて、細かい波ほど周波数の高い音・横に広がった波ほど周波数の低い音。

周波数は一定時間当たりの振動の回数で、1秒あたりの振動の回数をHzで表している。音叉の音にあるようなA=440Hzの音は、1秒に440回の振動をしている。人間の可聴領域(耳で聞き取れる音の範囲)は個人差はあるもののおよそ20-20000Hzと言われている。音の大きさはdBで表され、その数値の増減と聴覚上の音量の増減は指数的に関係しているのだけど正確な値は忘れたし数字で気にすることも殆ど無いと思う。

マイクはその中に、音によって振動する板があってその振動が電磁気とかコンデンサの原理によって電気信号の波形に変換されて録音機まで伝達され、録音機の録音形式に応じた形に変換されて記録される。子供の頃、レコードの仕組みを知らなかったのだけれども、ある日レコードは波形をそのまま彫り込んであるということを知って頭おかしいと思ったしそりゃ高域の音は削られちゃうよなって思いました。DAWによって録音するのであれば、オーディオインターフェースが電気信号をデジタルなデータに変換してくれてPCにそのデータを渡して記録される。

音量・音高・音色

いわゆる音の三要素。

音量は前述の振幅で表され、波形の縦の広がりで直感的に見ることができる。録音の際に振幅がマイクやオーディオインターフェースなどの受容できる幅を超えるといわゆる音割れが発生する。マイク部分で発生する音割れはアナログな音割れで、マイクに負担がかかる。インターフェースで発生する音割れはデジタルな音割れで、耳に負担がかかる。32bit floatであれば回避できるとかなんとからしいけどやむを得ない場合以外そもそも発生しないようにしたい。音割れが発生してしまうとそれを別の処理で取り除くことは現状できないんじゃないか。時代が進めばわからない。

音の高さ、音高も同様に前述の周波数で表され、波形の横の広がりで見ることはできるが、音量ほど直感的に見ることができるとも言いがたい。理由は後述する。録音の際には44.1kHzとか48kHzといった呪文が登場するが、これはどのくらいの周波数まで正確にデータ化できるかの値で、数値の半分の周波数までは正確にデータ化される。詳しくはwavのサンプリング周波数でググッて。人の可聴領域がおよそ20kHzまでなので44.1とか48あれば十分だろうと考えられてきたが、ちょっと前からハイレゾとか言って96kHzとか192kHzのサンプル周波数のものも出てきた。未だに体験してないのでなんとも言えないけれどそもそもそれに対応した再生機器と再生環境も無いので遠い世界の話だと思っている。

音色はおんしょく、と読んでもいいし、ねいろ、と読んでもいい。単一の音であれば音色によっては波形から見ることも出来なくはないが、基本的には無理だと思う。音色は三要素と一般には言われてはいるけれどその実、音量と音高から成るものだと言っても差し支え無いと考えている。説明に必要な前提知識をまだ説明していないのでこれも後述する。

サイン波

sinewave

聴覚検査で聞き覚えがある音。正弦波とも呼ばれる辺りで当たりがつくように三角関数で出てきたf(x)=sine(x)のグラフの形を持った波形。一番シンプルな形の波形なので周波数の話を掘り下げる前に紹介しておきたかった。サイン波には周波数が一つしか含まれていない。0地点から山>0>谷>0と戻ってくるまでが一回の振動で、一秒間にこの山谷が何個含まれているかが単純に周波数になる。

周波数

少し複雑な波形を見てみる。

wave03

サイン波と同様に、0>山>0>谷>0と大まかにはなっているが、その間にも山と谷が出現している。これは複数の周波数のサイン波が同時に鳴っているような音の波形で、世の中の音はサイン波以外はこのように一つの周波数では表せないようになっている。それでもこの波形の場合は大まかに規則的な起伏になっていて、その周波数を基音と言い、それ以外の細かい起伏を成している周波数を倍音という。音色はつまりはこの基音と倍音の構成によって一つは成っている。

wave02

これはピアノの音の波形。もはや何がなんだかわからない。実はピアノの低音の鍵盤を強く叩いたものなのでかなり高い周波数が混ざっているがためにこうなっている。この波形から周波数を読み解くのは難易度が高い。じっくり見ていけばできるのかもしれないけどやる意味は無い。

wave01

これは曲の一部を切り抜いたもの。一部と言ってもほんの一瞬なのだけれども。曲なのでいろいろな音が同時に鳴っているが、先ほどのピアノより逆に波らしきものが見える。これはキックドラムやベースが鳴っているためにこのようになっている。キックの低い成分はそのキックの種類によりけりではあるけれども40-60Hzくらいの低い周波数成分まであり、かつ音量もそれなりにあるために波形にこのような影響を及ぼす。ベースもこの曲はシンセベースなので60Hzくらいまではあるんじゃないか。ちなみにこの部分、他にギター・シンセ・ハイハット等色々鳴っているのだけれどそれらは細かい波に含まれている。と言っても波形から何の楽器があるかがわかる人が果たしているのだろうか。

周波数に関してもう少し。周波数が2倍になると12音律で言うところのオクターブが一つ上になる。(ドの音の周波数を2倍にすると上のドの音になる。)4倍でオクターブ2つ上、8倍でオクターブ3つ上、という指数関数になっている。なのでEQやスペクトラムアナライザーの周波数を示す軸は対数軸で表されている。周波数と音律の関係も後述する。

周波数によって人間の知覚は感度が異なり、低い音は聞き取りにくく、500Hz-10kHzくらいの音は聞こえやすく、それ以上になるとまた少し聞こえづらくなる。この周波数と耳の感度をグラフ化したものが等ラウドネス曲線でググると出てくると思うので頭の片隅に置いとくと便利。

基音と倍音

様々な周波数が織り重なることによって音色は変化する。その音にどのような周波数が含まれているかはスペクトラムアナライザー(以下スペアナ)を見ることで可視化できる。スペアナで一番低く、かつ音量の大きな周波数を基音と見ていいだろう。基音の音程がその音色の音程となる。中にはシンセで作った音のように基音が一番大きくない、とか基音より下の周波数成分がある、なんてこともあるが、別に基音の定義云々を曲を作る上で考える必要はないのでここまで書いて蛇足だったなって思ってる。倍音は基本的には基音を整数倍した音、と言われるが、実際には整数倍からはずれていたり、シンセで音を作る場合なんかには必ずしもそうとは限らない。

後述するといった音色に関して。音色は「基音と倍音の構成比」「周波数成分の時間的変化」によって成っている。時間的変化というのは音量の変化と周波数そのものの変化を含んでいる。ここまでで前述の三要素を三要素たらしめるべく言い換えるなら、「音量=音量変化」「音色=周波数成分」「音高=基音周波数」といったところか。音色という言葉が色々と含みすぎていてそもそも要素として適当なのかという疑問がある。まぁいいや。

この辺までの知識とシンセの基本的な使い方がわかればシンセで自由に音作りができると思うし、周波数のお話はミックスするときなんかに役立つと思う。

楽音と噪音

ノイズかそうじゃないかって話。あんまり必要はない話。音楽はどんどんノイズ化していると個人的には見ているのでこの先どうなるかは分からない。倍音過多になっていったり、基音周波数がどれだかわからないような複雑な周波数構成の音になると音はノイズ化していく。逆にいうとノイズから特徴を抽出していけば楽音になる。音程を取れるものが楽音、そうでないものを噪音と言ってもいいかもしれない。音程が取れていてもひどく歪んでしまっている音は人によってはノイズになりうるだろうし、噪音でもシンバルの音やスネアの音などは楽音として扱われる。ティンパニーは音程が聞き取れるので太鼓ではあるが楽音か。ブロステップに用いられるワブルベースなんかはかなり歪んでいるのでノイズに近く、モノによっては音程も定かではない。音圧競争なんていう言葉もあるみたいだけれど極端にマキシマイズされた音源はもはやホワイトノイズに近い。IDMなんかはノイズを音楽的に扱っているようなものが多い。

何が言いたいかというのも特に無いのだけれど、楽音と噪音という言葉はあるけれども線引きは人それぞれなので、噪音だからといって音楽に使えないということはないし、逆に音楽を構築する上で排除すべき噪音というものもあるけれど、結局は自分の耳で感じたものが全てなのでやっぱりこの話はなかったことにしていいのかもしれない。

音律(さわりだけ)

果たしてこのページに含むべきかどうかは迷うところではあるけれども音から音楽への入り口として。周波数を2倍するとオクターブが1つ上がるという話をした。440Hzと880Hzは1オクターブ離れており、これは波形でいうと、880Hzの波形の山がちょうど2つ440Hzの波形の山1つに収まる状態。この1オクターブの中を12個に均等に割ったものが12音律における平均律であり、更にそこにドレミだとかハニホだとかCDEといった音名をつけて呼んでいる。均等に割っていると言っても、440/12=36.666…Hzずつ周波数が上がっていっているわけではなく、先に書いたとおり周波数の増減と音高の増減は指数的に対応しているので、無理に指数で表すなら、2^(1/12)Hzずつ周波数は上がっていく。暇な人はlogでも使って計算すれば任意のn音律が作れる。自分は6年ほど前に10音律の周波数を計算してみたものの、その音を出せる環境を構築できなかったしサイン波で和音を試してみたところ、なんとも言えない結果になったのでその後特に何もしていない。

ということで次は音律の辺りから入ってもう少し音楽的なところを書ければと思う。

自分が必要と思う範囲だけさらっと流した内容なので、詳しく知りたい人は詳しく書いてあるページがいくらでもあるのでそちらで調べてください。

Ievanpolkkaに見るアレンジの色々

弦楽四重奏アレンジする際に色々見つけて面白かったのでアレンジの仕方と共に載せていく。実際にコードを変化させる(リハモナイズ)やり方も最後に簡単に付け加えておく。

基本形

Key=E♭m。別名「ロイツマ」で知られてるIevanPolkkaだが、ロイツマとはこのグループ名らしい。四声で構成されている。展開は多少あるものの、使われているコードは基本的にはE♭m、B♭m(、D♭)くらい。

初音ミク版(テクノポップ?)

Key=F♯m。元動画がどれだか分からなかったので再生数の一番多かったものを貼っておく。ロイツマ版とはまずキーが一音半違い、声が担っていたパートが一部シンセに振られ、ドラムが加えられている。メロディーの音運びとリズムは簡略化されて細かい音がなくなっている。コード成分を担っている裏拍で入る声のリズムはロイツマ版では「(休符)パパッ(休符)パッ」だったものが「(休符)パッ(休符)パッ」に簡略化されている。一方で楽器音に置き換えられたベースパートは、経過音が加えられている。本来の頭の一拍だけのベースが担っていた役割はドラムのキックが代わりになっている。同様に先の簡略化された「パパッ」の部分はクラップ・ハイハットが担っている。展開としてはパートの抜き差しによって行われ、コード進行は統一されていて、繰り返しによるフィルインなどの展開が加えられている。

Korpiklaani版(メタル)

Key=Dm。森メタル。メロディー後半部分をイントロや間奏でのメインフレーズにしている。メロディーは前半部分の更に前半のみが二回繰り返されることが多く、前半部分の後半部分はたまに歌われる。コード進行も手が加えられ、前半部分はもともとIm>Im>Vm>ImだったものがIm>Im>VII♭>Imに、後半部分はIm>Vm>Vm>ImだったものがVm>VII♭>VII♭>Imに変わっている。といってもロイツマ版も展開して同様のコード進行になっている部分もあるが。

Salut Salon版(声と弦楽・鍵盤)

Key=Dm。おもしろおばさん集団。メロディー・コード進行共に基本形に近い。パフォーマンスと合間合間に楽器によるソロを入れることにより展開している。

Dubstep版

Key=F♯m。メロディーは初音ミク版そのままに、コード・リズム・展開が変化している。コードはIm>VII♭>VI♭>Vmという下降系になり、コードに合わせたピアノやその他楽器の追加、リズムはいわゆるツーステップに合わせるためにテンポもかなり遅く(メロディー基準で考えれば速く)なっている。

Drum’n’Bass版

Key=Dm。音色とリズムと展開で持って行ってる。コード進行はコルピクラーニ版にやや近く、(前半)Im>VII♭>VII♭>Im、(後半)Im>VII♭>Vm>Im。メロディーの音色をSuparSaw、ドラムパターンが16分で細かく入ることによってDnBとなっている。

弦楽四重奏版

Key=F#m。自分のやつ。ロイツマ版をほぼそのまま置き換えている。コード進行もほとんど変化させていない。F#を鳴らしっぱなしにしている部分くらいか。弦楽器の打込みの練習なので主に奏法を変えることによって展開させている。

リハモナイズ

簡潔に。
まずロイツマ版を簡略化したものが以下。

score_ievan_both

簡略化のためにキーをAmにして、メロディーとベースパートのみにしてある。現状のコード進行はルートを拾ってもらえばわかると思うが、AmとEmのみとなっている。ここからさらにメロディーのみを抜き出してから考える方法と今あるコードを理論に従って変化させてく方法とがあるが、だいたい出る結果はまぁ同じなので得意な方、考えやすい方でやればいいと思う。説明が簡単なので一応理論っぽい考え方をしてみる。

キーがAmなので単純にナチュラルマイナースケールで考えてやると、使える和音はAm・Bdim・C・Dm・Em・F・Gの7つ。この選択肢と、メロディーの構成音とコードの構成音があまりぶつからないようにと考えてやれば自然にコードの選択肢は2・3に絞れると思う。自分で適当に考えてみるとEmではなくEメジャーが入ってしまうのだけれど、これは多分ハーモニックマイナーの音から来てるんだと思う。F#dimも入ってきそうなんだけどメロディックマイナーの音だっけ?あれ?メロディックとハーモニーってどっちがどっちだっけ?って辺りで説明するのがめんどくさくなって好きな音使えって言いたくなる。

自分が自動的にやってることを細かく言語化しようと試みたけど難しかったので今日はやめときます。

【きょくのつくりかた】作曲の簡単な流れ

作曲の流れと言っても人によってそれぞれだし作りたいものによってもそれぞれだしその時々でもそれぞれだし「これだ!」と言えるものはないので一例を紹介していく。

起点からふくらませる

起点となる要素をまず作り、そこから関連する要素へ膨らませていくという至って素直な方法。要素として、メロディ・コード・ベース・リズムを想定する。歌詞からはメロディが導き出せ、メロディからは歌詞・コードが導き出せる、コードからはメロディ・ベースが導き出せる、ベースからはコード・リズムが導き出せる、リズムからはベースが導き出せる、ので以下のようになる。

歌詞 <> メロディ <> コード <> ベース <> リズム

起点を好きな様に決めて、好きな方向へ辿ればいいだけ。どうやって辿るかも簡単に書いておく。

歌詞 > メロディ

思いつきに任せる方法と、言葉のリズムやアクセントや言葉運びから考える方法とが思いつく。思いつきに任せる場合にはどのくらいのテンポで歌いたいのかをまずだいたい想定して適当に歌ってみるだとか。リズムやアクセントを考慮しておおまかな動きを決めたらあとはそれをスケールに当てはめて色々動かしたりすればいいんじゃないか。自分でどうやるっけ、って考えてみたけど詩先で考えることが最近全く無いので困っている。昔の曲は「この言葉はこういうリズム、音の動きで歌いたい」っていうのを部分部分決めていって、合間合間をつなぐように埋めていたし、今でも多分そんな感じだと思う。ほんと役に立たねぇなこの記事。

メロディ > 歌詞

だいたい上と同じ。思いつきか、この音の動きならこういうアクセントの言葉は合わないな、こういうアクセントの言葉が合うな、とか。あとはこのフレーズの雰囲気だとこういう言葉は雰囲気が合わないな、とか雰囲気全くあってないけどそれが逆にええな、とか。うわ、役に立たねぇな、この記事。

メロディ > コード

詳しく書くと大変な量になりそうなので簡単に。
メロディの音を元に、コードとどう響き合うかを考えていく。簡単にしてしまうと、コードの構成音とメロディーの音を一致させたり近づけたりする。例としてカエルの歌を考えると、「ドレミファミレドー」というメロディーなんだけれども、このメロディーの中で一番印象に強いのが一番最初に拍の頭にある音「ド」なので、「ド」が構成音に含まれるコードを考えてみる。あまり複雑にしないためにも三和音のメジャー・マイナーのみで考えると条件に合うコードは6つ。Cメジャー、Cマイナー、Fメジャー、Fマイナー、A♭メジャー、Aマイナー。条件を四和音とかに広げるともちろん他にも出てくるが。ここからさらに他の音的条件から絞っていくこともできるけどそれをやってくと長くなるな、ということで今回は実際に弾いてみる。


CマイナーとA♭メジャーはちょっと厳しいかな、Fマイナーはギリギリいけるかな、Cメジャー、Fメジャー、Aマイナーはいけるな、っていうのがわかると思う。あとは欲しい雰囲気に合わせてコードをチョイスすればいい。今回は、三和音のみ、メロディーに対してコード1つ、でつけたけれども、他にも使えるコードはあるしこのメロディーに対してコードを2つ以上進行させてもいい。求めるものが実現できればなんだっていい。こんな感じで。

慣れてくるとこれくらいのことは即興で出来るようになるし、ジャズの人なんかは多分もっとおしゃれなコードなんかも交えておしゃれな感じにしてくれると思う(ジャズに対しての貧困なイメージ)

詳しくは別記事で書く予定。

コード > メロディ

だいたい上と同じ。っていうか逆のことやるだけ。とはいえ、メロディからコードを作る場合に比べて選択肢はかなり広がるので困るけど、何もないところからメロディだけ作るよりはコードによって制限がかかるので楽なようなその制限のせいで結局コードを変えることにもなったりとか。上では言わなかったんですけど、スケールを使って考えてくと楽になったり。でも下手なスケールの使い方だと「あぁこのスケールを知って嬉しくなって使っちゃったんだね~」ってうっすら見えちゃったりする。不思議。

コード > ベース

コードのルート音をベースで弾きましょう。以上。といきたいんですけどベースによってリズムの輪郭も見えてきますのでその辺も意識しながら。なんかもうこの辺来ると実例どんどん上げたくなるけど今回は上げない。ベースがルートをずっと弾いてればいいかってそれでもいいんですけど少しフレーズ入れたり次のルートに繋がるような動きを入れたり、リズムを感じさせるようなリズムにしたり。

ベース > コード

ルートから導き出されるコードを作っていく。これは比較的選択肢の少ない工程だと思う。逆にコードを考えてくにあたってベースが変更されたり。あんまり書くこと無いです。

ベース > リズム

この工程が個人的には書く上で一番厄介。というのも、これでベースとリズムが決まれば曲はほとんどできたも同然なんですよ、僕にとっては。多分、頭のなかのイメージを掘り出していく中でベースとリズムが一番苦手なのでここさえ掘り出せてしまえばあとは頭のなかの音置いてくだけなんですよ。なので、自分の中ではこの工程が曲のほぼすべてを握っていて、ここの掘り方によってその後の置き方も決まってくるという。果たしてそれが他の人にも当てはまるのかどうか。まぁリズム隊(ベース・ドラム)は骨格みたいなもんなのでそんなに変わらないだろう。多分。

基本的にはベースのリズムに合わせたり、絡めたりしてリズムを決定していく。ベースにリズムがあまりないときはやりたい放題。って言う感じ。で。す。

リズム > ベース

同上。リズムだけではキーも何も決まっていないのでベースを決めていく段階でそれが決定されることになる。

途中で、うわ、長くなる、と思ったので簡潔にしていったら後半がひどいですね。ひどいです。

セッションから

バンドだとできる方法。なんですけど、これって結局誰か一人から始まったり、キーとかを予め決めてからやるので結局は上で書いたやつを各々が同時にやってるってだけなんですよね。セッションしたものを録音してそれを譜面に起こしたり、使えるところだけ抜き出して並べ替えたり、だれかがそれを基に編曲したり、とかその先はいろいろ考えられる。基本的には勢い重視。予め決めておけば世界観も出せなくはないけど、世界観をはっきり出したい時にセッションという方法を選ぶかというと多分選ばない。

これ以上思いつかないのでとりあえずここまでにしておく。思いついたら追記する。

【きょくのつくりかた】曲を構成する三要素(メロディ・コード・リズム)

曲とはなにか、音とは、音楽とは、そして宇宙とは。知らんわ。

基本的には考えながら書いていくので、内容は大して、というか全くまとまっていないものになるだろうことは予め言っておくので忙しい人はWikipediaとかを見たほうがいいと思う。暇な人は考えながら読んでいただいて、遠慮せず「いや、○○はどうなの?」「それはどうかと思う」とかコメントでもTwitterででもツッコミを入れてくれれば嬉しい限りです。

曲の三要素

一般的な曲の三要素としては、メロディ・コード・リズム、日本語にすると、旋律・和声・律動、とかって言います。とかって言いはしますものの、メロディのない曲だってあるし独唱であれば、ホーミーとかでも使わない限りはコードも無いって言えば無いのでなんとも。時間経過が存在する限り、広義としてのリズムは存在すると言い切ってもいいのではなかろうか。(暴論)などと屁理屈を言っていても全く実体が見えては来ないので1つずつ考えてみる。

それぞれの作り方であるとか、考え方については別途記事を作る予定。

メロディ・旋律

なんとなく、あぁあれだな、ってのはわかると思います、わかりますよね?(横暴)えーと、えーと、あー、すごい、1個目から躓いたぞ、この記事、あー、すっごい、あー。つまづいたのでメロディーの例を挙げたうえで考えていく。

歌が入っている曲であれば、歌が歌っている音の動きがメロディー。曲のイントロや曲の途中でギターさんが他を押しのけて目立って弾いているフレーズ、これもメロディー。オーケストラの曲には様々な楽器が含まれているが、場面場面で主に耳の向かう楽器(多少の個人差はあるだろうけど屁理屈はあとにしてください)が奏でる音の動き、これもメロディー。

・単音で鳴らされ、曲の場面場面で主体となる音の動き

ということでどうか。

正直、メロディーの定義は人それぞれ、な部分が多分にあるので歯切れよく「これがメロディーじゃ!」と言い切ることができない。メロディーと、メロディーでないものの線引きは人によってかなり異なってくると思う。例えばギターリフ。一口にギターリフと言ってもこれもまた定義が難しくて会話の中で齟齬が生まれがちではあるのだけれど。バンド形態の曲のイントロでギタリストが繰り返す印象的なフレーズ(リフレイン)とでもとりあえずここでは定義しておく。ギターリフはメロディーか否か、と聞かれた時、音を伴っていない現時点では「そんなもんそのリフによるだろ」という意見が大勢を占めると思うのだけれど、いざ音があったとするとその大勢は方々に散ってしまうと思われる。

「間違いなくメロディーだね」
「どちらかといえばメロディ的かな」
「旋律性を少し含んだバッキング寄りのものかな」
「ほーん、これはバッキングやな(ハナホジー」

旋律的、だとか伴奏的、といった匙加減も個人によるので会話の際には相手の尺度を理解するよう努めたい(自分に言い聞かせる)。この旋律的である、だとか、伴奏的である、を突き詰めて数値化していけば自動作曲プログラムなんかは非常に捗るんじゃないだろうか。やってる人はもうやってるか。

担当する楽器としては声であったりギターであったりベースであったりピアノであったりヴァイオリンであったり、もう枚挙に暇がないし、もうほんとなんでもいいと思う。打楽器も音程を持つクロマチックなパーカッションは結構あるし、ノイズですら音程をつけることができないわけでもない。基本的には先に上げたような「聞こえやすい音」が担うことが多い。聞こえにくい音も聞こえやすくすればメロディーを担えるし、聞こえにくい音のままでも他の音をさらに聞こえにくくしとけばメロディーを担える。

コード・和声・和音

2つ以上の音を重ねたもの。ピアノで鍵盤を2つ以上押さえて鳴ったものが和音。ギターで2本以上の弦を振動させて鳴ったものが和音。というかサイン波以外の音は異なる周波数(音程)のサイン波の積み重ねに分解することができるので、人が一つの音と認識していても実はそれは複雑なサイン波の和音と言ってしまうこともできるのではないだろうか。そうですね。と、いうことなので音を2つ以上鳴らしておけば条件クリアです。以上です。

和音を構成する音の組み合わせによって呼ぶためのコードネームが決まっていたり和音を鳴らす順番(コード進行)とかまでここで触れだしてしまうと際限がなくなるので今回は触れない。触れたところで僕自身がコードに対しては、鳴らしたい音鳴らせばいいじゃん、なスタンスなので詳しくないです。以前に理論書じみたものを読んでみたんですけどもうほとんど忘れた。理論なんてものは技法に一貫性を持たせて名前をつけただけのものです。色の名前を知らなくても絵は描けるし有名な書道家の名前を知らなくても文章は書ける。けれども、イチからやるなら技法にまとまったものを学んだほうが早いし、他社との対話には色の名前が必要になってくるので多くの場合は損になることもないと思う。僕は理論書(じみたもの)を読んでしばらくは余計な言語変換プロセスが入ってしまい、それのせいで遅延と混乱を来しました。何も考えずにぼーっとピアノを弾いていた報い。

コードネームに関して簡単に触れておくと、「ドとミとソを重ねて弾いた和音」に「Cメジャー」という名前が付いている。そこにさらにシの音を加えると「Cmaj7(Cメジャーセブンス)」という名前になる。要するに鳴らされる音を記号的に表しただけのもの。ドレミファソラシの代わりにCDEFGABのアルファベットと数字・♯♭を用いて表す。コード進行を表す際にはローマ数字がアルファベットの代わりに使われたりする。とかって言葉で説明してもよくわからなさそうなのでその辺に関する説明はこの辺でやめとく。

コードの中で最も低い音をルート音と呼び、これが先ほどのコードネームのアルファベット部分になる。一般的にはベースがルート音を鳴らしててその上にコードの構成音がいろんな楽器で積み重なるイメージ。メロディーもこの構成音に含まれたり含まれなかったりする。ギターのコードバッキング、シンセのパッド、ストリングスのアンサンブル、ピアノのコードワーク、シンセの細かいシーケンス、これもいくらでもやりようはある。

リズム・律動

狭義で捉えればリズム楽器のパターン、広義で捉えれば音の時間的変化。広義過ぎてなんのことかわからんけど、時間の経過とともに音に変化があったらそれはもうリズムと捉えられると思う。メロディーのリズムが~とかってのも結構言ったりもするが、主にはドラム、パーカッションのことを指すことのほうが多い。単純にドラムのパターンだけでなく拍やBPMなんかとも絡むし、アレンジやミックスの際にも色々気になったりするので考え始めると結構色々考えられる。メロディーの時に数値化の話をしたが、リズムは数値化しやすいというのも色々考えてしまう原因か。

ドラムといって多く想像されるのがスタンダードなドラムセットだと思う。キック・スネア・タム・ハイハット・各種シンバルから成る一連のセットで、とりあえず必要と思われるものは揃っている。とはいえ、別にキックがなければならないわけでもないしハイハットが鳴らされていなければならないわけでもなく、それぞれ何らかの役割があるから鳴らされているというだけなので必要なければ全部使う必要もない。とりあえずはドラムは定型パターンがあるのでそれに頼るでも変なことにはそうそうはならない。

拍・BPMに関してはそれによってメロディーも影響を受けてくる。3拍を4小節のリズムパターンに4拍を4小節のメロディーを乗せることはできない。4拍を3小節なら乗せられるが、アクセントに不整合が生じる。不整合が生じても構わないならそれは不都合ではない。細かいリズムをあまりにも早いBPMに設定すると細部のニュアンスが感じられなくなってしまったり、演奏をすることがあるような曲の場合はそもそも演奏できない可能性も。ただ、拍・BPMは作り始める時には意識せずとも最初っから勝手に自分の中で決まってることがほとんどだと思われるのでそこまで深く考えることもない。音ではなくコンセプトから作り始める際には考える必要があるかも知れないが。

実際例(楽器が担う要素)

独唱

一人の声のみなのでメロディはあるがコードが存在しない。言うまでもなく唯一の声がメロディを担っている。リズムはメロディに含まれてはいるがリズム楽器によるようなはっきりとしたリズムがあるわけではない。

弾き語り

ピアノの弾き語り、ギターの弾き語りなどがあると思うが、声と伴奏楽器と分ける。声がメロディ、伴奏楽器がコード・リズムを担う。独唱の例と同じようにメロディにもリズムは含まれているが、より主体的にリズムを体現するのは伴奏楽器のほうになる。

混声合唱

独唱にコード要素が加わる。リズム要素はやはり薄い構成が多いと思われるが、メロディ以外を担える声が増えるのでリズムも出しやすい。

バンド

声・ギター・ベース・ドラム、の基本的な構成で考えると、声はやはりメロディ、ギター・ベースがコード、ドラムがリズム。ギター・ベースはドラムと絡んでリズムを成す一員にもなるし、声のないところではギターがメロディを担う部分もあるだろう。

テクノ

テクノって一口に言っても、色々あるんですけど。めちゃくちゃシンプルなテクノってメロディ無いじゃないですか、そう言うの想像してください。もうコードもほとんど無いの。ベースだけとか、ヘタしたらベースも音程動かないとか鳴ってない、みたいなの。想像できました?できましたね?はい、もうこれリズムだけです。そういう例を出したかっただけです。

正直、作曲時に要素とか考える必要性は特にない

「よーし曲を作ろう」
「まずはメロディだ」
「そこにコードを付けて」
「リズムを付けて・・・」

なんて風にこの三要素を気にして考える必要は特に無い。コードがなければ曲じゃない、というわけではないしメロディがなければ曲じゃない、ということもない。っていうか作ってるうちに気づけば勝手に全部揃ってるんじゃないか。曲の要素を分解することを考えた時に一つ例としてわかりやすいかなと思っただけで、書いているうちに別にこれ書かなくても良かったんじゃないかとも思い始めた。ちなみに日本においてはメロディとコードをつくるとその時点で作曲になるとかならないとか。その辺の定義とかやり方はそれぞれで違ってくるかと思う。L-toneの表記で「作曲:note 編曲:luna(yuta kishimoto)」となってる場合、メロディはnoteの持ってきたものをそのまま使うこともあれば、メロディから何から全て変えてしまうこともあるので先の作曲の定義には沿っていない。

三要素以外の要素分け

僕が思いつくままに曲というものを要素に分解していきます。


├ 歌詞
├ メロディ
├ ハモリ
└ 声色

伴奏(歌以外のもの)
├ メロディ
├ コード進行
├ 音色
├ リズム(リズム楽器との絡み)
└ ベース(低音)

さっきまでの三要素の説明は何だったのかというような要素になった。他にも、

・高音部
・中音部
・低音部

なんて分け方もできるし、

・真ん中で鳴る音
・左のほうで鳴る音
・右のほうで鳴る音

でもいいし、

・アナログな音
・デジタルな音

なんて分け方でもいいと思う。もう曲の三要素とか関係ないっすね。

どうでもいい内容の割に長くなりました。

【きょくのつくりかた】何から始めるか

個人的な経験と考えなので参考になるかどうか

なんとなく全部思いつく

 曲が降ってくる、って言ったり言わなかったりするやつ。細かく考えると後述するそれぞれの工程が高速に織りなされた結果である気もする。ある程度慣れていないと細かい部分が見えなかったり、形にするときに困ったりする。乗りに乗ってると一瞬で曲が出来上がるカタルシスを味わえる反面、形にしている間に最初の頭のなかの形を忘れて別物になってたり、いざ作ってみたらなんかのパクリだった、みたいなこともある。いつ思いつくかはランダムなので当てにはできない。

メロディから(フレーズから)

 メロディが降ってくる、って言ったり言わなかったりするやつ。曲を作ろうとか考えてない時に来るので大体すぐ忘れる。運良くスマホに録音したとしても録音した事自体忘れてたりする。個人的には頻度も少ないしありがちなものしか思いつかないのであまり使わない。歌モノを作るならここから始めるのがいいのでは。メロディを決定することで大体のテンポが決まり、コード進行がある程度絞られ、リズムもまぁある程度決まる。先に歌詞があるとメロディも考えやすい。跳躍がどうのとかリフレインがどうのとか考えてもいいけど考えるのめんどくさいから考えない。

 歌のメロディだけではなく、他の楽器のメロディから、というパターンも。メロディというかフレーズ、って言ったほうがいいかも。ギターリフとかシンセリフとかシーケンスパターンとか。

コード進行から

 アコギ弾きがよくやる(偏見)。よく使われてるようなコード進行から始める分にはどんな曲にもできるが、変な凝ったコード進行から始めると変な曲になる。コード進行だけではテンポもメロディもリズムも絞られないので比較的自由。よく使われてるようなコード進行はなんかそういうサイトとかから拾ってきたりその辺の曲を耳コピすればいいと思う。よく使われてるから。凝ったコード進行が凝ってるかどうかはよく使われてるコード進行がそもそもどういうものなのか知らないとどうしようもない。自分では凝ってるつもりでも世間的にはそうでもないかもしれないが、気にしてはいけない。

リズムから

 自転車に乗ってる時によくあった。(最近乗ってない)リズムが決まるということはテンポも同時に決まり、乱暴な言い方をするとジャンルもほぼ決まる。(リズムに依らないジャンルももちろんあるが)というかリズムを決める時点でそのリズムを織りなすドラムの音色、ベースやらとの絡み方なんかも決まるはず。前述のメロディとコードはリズムから導き出すのはなかなか難しいのでがんばる。ループ多めの曲とか作るジャンルが決まってる時はとりあえず4小節くらいドラム打っておいてループさせながら他の部分作ってくとブレない。いや別にブレてもいい時はいいんだけど。

音色から

 音色からインスパイアされる系のやつ。シンセのプリセットを漁ってると面白い音があってそこから色々出てきたりします。JUNO-D買った時とかとりあえず音色一個ずつ鳴らして適当に即興で遊んだりしました。シンセで音をイチから作るようになってからは作った音から。(プリセット漁るのめんどくさい)音色からフレーズを作るもよし、コード進行を作るもよし。

アイデアから

 現代音楽にありがち。現代音楽以外ももちろん作れるが。要は音以外のものから音を作る行為。宇宙から来た電磁波とか円周を求めるための数列を音に変換するような数値の変換。○○の音だけで作る、みたいなコンセプト系。あ、っていうかアイデアからってのは全部コンセプト系なのでは?まぁつまりはそういうことです。非音楽的音楽という矛盾。そもそも音楽的とはなんなのか。宇宙とは何なのか。

歌詞からつくる(20160524追記)

 入れようかどうか迷った挙句結局追記。歌詞から作るとなると音楽的作業としてはメロディから作ることになることが多くなると思う。メロディ以外から作るにしてもそれは歌詞というコンセプトから作る、ということになる。ので、まぁいっかなーとか思ってたんですけど。歌詞を先に作ることでメロディーのリズム・音運びを言葉に合わせて作っていけるのでメロディーは作りやすくなる。単純に文字数に合わせるだけもよし。

そんな感じでした。