ぜろいちのブログ

ピアノ弾き「ぜろいち」のブログ

複調とペンタトニックを用いた近現代クラシック曲の分析 (Part 1) ~ A La Chinoise (作曲:Ornstein) を題材に~

前回は複調(多調)について解説記事を書きました。

zeroichi-diary.hatenablog.com

今回はその知識を踏まえたうえで近現代クラシック曲の1つであるレオ・オーンスタイン(Leo Ornstein)の 「A La Chinoise」という曲について解説していきます。

www.youtube.com

「A La Chinoise」について

A La Chinoise というのは(多分)フランス語で「中国風」という意味のタイトルです。(意味よく知らなくてGoogle 翻訳で調べた)

この曲について何か書いている記事とかあるかなとちょっとだけ探してはみたものの、あまり有名な曲では無さそうなのでめぼしいものは見当たりませんでした。作曲者の意図とか曲の背景とかそんなものは全く分かりませんが、特に気にせず自分なりの解釈・分析をひたすら書き連ねていきます。

「A La Chinoise」の音楽理論的コンセプト

この曲の作曲におけるコンセプトは

  • ペンタトニック(5音音階 )

  • 複調(多調)

と考えています。

ペンタトニック(5音音階)

この曲の主旋律(メロディ)は主にペンタトニックで構成されており、様々な調や音階由来の5音を用いて展開していきます。恐らく曲名の「A La Chinoise(中国風)」を表現する手法として、このペンタトニックを多用しているのだと推察できます。

複調(多調)

曲の主旋律に対して、伴奏にはそれと全く違う調や音階からなるアルペジオやスケール上下行を多く用いています。メロディと伴奏で使っているスケールに共通する音が殆ど無い遠隔調由来の和音によって、複調特有の掴み所の難しい近現代的なサウンドを演出しているように感じ取ることができます。

またこの記事で言及する複調(多調)は従来の長調短調由来の和音に限らず、全音音階や神秘和音など様々なコードやスケール、旋法を含めた幅広い意味で用いることとします。つまり前回の記事で引用した多旋(ポリモード)などに関しても同じ言葉を使います。

もう少し簡単に言えば、旋律と伴奏で全く異なる独立したハーモニーが同時に奏でられている状態を、この記事では便宜上「複調(多調)」と呼ぶことにします。

楽曲分析

ここから本題のアナリーゼを行っていきます。各パート毎に再生時間を記載しているので、気になった箇所はYoutubeの動画を確認してみてください。

  • 0:35~

f:id:zric01:20200308221640p:plain

ペンタトニックによる主旋律

大譜表上段のメロディはCmのペンタトニックから主に構成されており、それに続いて黒鍵のペンタトニックが装飾的に演奏されます。

神秘和音的スケールによる伴奏

大譜表下段の伴奏は譜例を見ただけだと何の和音なのかわかりづらいので、連桁1グループをベースから積み上げた形にしてみましょう。

f:id:zric01:20200310174556p:plain:w180:h180
伴奏で使われている和音

これでもちょっと何の和音か判別しかねますね。今度はこれを並び替えてGから始まるスケールの形で記述してみます。

f:id:zric01:20200310175746p:plain
伴奏で使われている音階

これ、実はある近現代クラシック作曲家がよく使う和音のスケールにそっくりなんです。

これを4度音程を軸に和音として堆積してみます。

f:id:zric01:20200310180348p:plain:w180:h180
伴奏で使われている和音(並び替え後)

最高音のCの音を抜くと、この和音はGが根音の神秘和音に一致します。

Gが根音の神秘和音はこのような4度堆積からなる和音です。

f:id:zric01:20200310181057p:plain:w180:h180
G7神秘和音

神秘和音スクリャービンという作曲家がよく用いた和音で、これによって調性音楽を逸脱した独特の雰囲気のある曲が作られています
とはいえ構成音はG7(9, #11, 13)と同じなので、Gリディアン7th上のドミナントコードと思えば割と覚えやすいでしょうか(神秘和音の使い方を考えるとドミナントモーションの機能は基本的に持ちませんが)。

つまりこの伴奏で使われている音型は、ベースをFとしたG7の神秘和音の響きに近いスケールの上下行と解釈することができます。

これをG7の神秘和音(らしいコード)と解釈した理由としては神秘和音特有の1・3・#11・7度の響きが入っている等いくつか挙げられるのですが、おそらく神秘和音がどういうものか、どういう風に使うのかという事を認知している方はほとんどいらっしゃらないと思うので、その内神秘和音についても解説記事を書きたいと考えています。

何言ってるかよく分かんねえって人は左手で G7(#11) / F を弾いて Cmペンタトニックのメロディを弾いてみると、ハーモニーがそれっぽく聞こえるのが実感できるかなあと思います。

主旋律と伴奏の複調的な和声の独立

神秘和音スケールをもう一度確認してみましょう。

f:id:zric01:20200310190149p:plain
G7神秘和音スケール

また、Cmペンタトニック黒鍵のみのペンタトニック(ここではGbペンタトニックとします)についても見ていきます。

f:id:zric01:20200310185807p:plain
Cmペンタトニックスケール

f:id:zric01:20200310185824p:plain
Gbペンタトニックスケール

見比べると、CmペンタトニックGbペンタトニック神秘和音スケールと共有している音が少ないことがわかるかと思います。

スケール間で共有される音が少ないほどそれらの親和性が低くなり、それぞれのパート(主旋律と伴奏)で独立したハーモニーが同時に鳴ることになります。
これによって遠隔調由来の2つの調が存在するかのような複調感が演出できるという訳です。

  • 1:07~

f:id:zric01:20200310195617p:plain

大譜表下段の伴奏は先ほどの伴奏と全く同じものです。

メロディには全音音階由来のペンタトニックを用い、それに続いてBbmペンタトニッククラスター的な和音を装飾的に使っています。 先ほどの神秘和音スケールをもう一度確認します。

f:id:zric01:20200310190149p:plain
G7神秘和音スケール

メロディ側で使われているペンタトニックスケールと見比べてみましょう。

f:id:zric01:20200310200258p:plain
全音音階由来のペンタトニック

f:id:zric01:20200310194044p:plain
Bbmペンタトニックスケール

どちらのスケールもG7神秘和音スケールと1音しか共有している音がありません。

1半音ずらした位置から始めた全音音階にした場合、G7のコードと相性が良く普通のドミナントモーションの機能をもつ属7の和音に合うスケールとしても使えます。しかしここではあえてその逆を突くことで、G7神秘和音と全音音階で別々の響きを提示していると捉える事ができます。

これら2つのペンタトニックも、この伴奏において複調感を出すのにはうってつけの音階と言えるでしょう。

  • 1:50~

f:id:zric01:20200308232635p:plain

大譜表下段の伴奏はEmのペンタトニック、大譜表上段のメロディはBbmのペンタトニックから構成されています。 それぞれスケールを確認すると

f:id:zric01:20200310194018p:plain
Emペンタトニックスケール

f:id:zric01:20200310194044p:plain
Bbmペンタトニックスケール

となっており、両者1つも共有している音はありません。

E MinorBb Minor は5度圏から見た場合、対角線上にある最も離れた遠隔調の関係にあります
(前回の記事参照: 複調(多調)~同時に複数のキーが存在する音楽の話~ - ぜろいちのブログ

このような最遠隔調の関係は独立したハーモニーを同時に鳴らす上では利用しやすく、文字通りの複調をこの部分では実現しています。

まとめと次回予告

今回はオーンスタインの「A La Chinoise」を題材に、ペンタトニックと複調の観点に着目して楽曲分析を行っていきました。まだまだこの楽曲については解説したい技法が詰まっているので、次回もこの曲の楽曲分析解説記事を書いていこうと思います!

複調(多調)~同時に複数のキーが存在する音楽の話~

つい最近ちょっと文章を書くモチベーションが久しぶりに湧いたので、自分が結構前から好きなある近現代クラシック曲を自分なりに分析した解説記事を(途中まで)書いていました。

youtu.be

当該の曲はこのオーンスタインという作曲家の「A La Chinoise」という曲なのですが、自分の解説記事をある程度理解してもらうためには前提知識が必要だなあと思って色々書いていたら大分長くなってしまったので、曲の解説は次回に回して前提知識の部分だけで1記事書くことにしました。

というわけで今回はこの曲を理解する上で必須の知識となる(?)複調(多調)というものについて解説していこうと思います。

複調(多調)

同時に複数の調(キー)が存在する複調(多調)について以下解説していきます。

単一の調(キー)について

調性の概念について知っている方は、程度の差はあれど少なくないと思います。

例えばC Major(ハ長調C dur)Eb Minor(変ホ短調、Es moll)などと言われれば、ある程度音楽をやっている方なら知っているもしくは聞いたことはあると感じるのではないでしょうか。楽器をやってない方でも、カラオケ行く人なら自分の出せる声の高さに合わせてキー変えたりとかしますよね。これが音楽における調(キー)です。ここでは調性についてそれ以上踏み込むつもりはないので、何言ってんだかよく分かんねえ、もっと詳しく教えろって人はググったりして色々調べてみてください。

普段よく聞いたりする音楽のほとんどは調が存在し、基本的にはある時間軸において1つの調が流れることになります。

じゃあ移調や転調が入っている曲とかはどうなんだって思う方もいらっしゃるかもしれませんが、どの時間軸から見た場合でも基本的には単一の調で構成されています。

たとえばこのキラキラ星は部分転調している部分が沢山ありますが、ある1時点で見た場合はあくまで単一の調の構成音となっています。

(この記事の為に3分位かけて作ったし演奏動画にした方が良かったのかなと思いつつ音源のみ)

これは皆さんがよく聞く音楽では至極当たり前の事なのですが、これに相当しない音楽も存在します。それが次に説明する複調(多調)です。

複調(多調)とは

複調(多調)は複数の調が同時に存在するものを指します。 Wikipedia先生(多調 - Wikipedia)の記述を引用すると

多調(たちょう)は、同じ楽曲の同じ時間に異なった調が同時に演奏された状態。またそのことを意図した作曲法。ポリトーナル(polytonal)とも呼ばれる(これは形容詞形)。旋法を用いる場合はポリモード(polymode)と呼ばれる。 この技法によってポリフォニー的音楽が更に立体的になったり、半音などで同時に同じ旋律などを奏することによって鋭さと共に「暈し」の手法を入れることができる利点がある。

この説明だけ見てもあまりしっくりこないと思うので、具体例としてキラキラ星を例に見ていきましょう。

複調(多調)の例

1. 主旋律・伴奏共にC Majorの時

f:id:zric01:20200309201236p:plain

調はC Majorのシンプルなコード進行の譜面です。単一の調なので特に変わった所はありません。

2. 主旋律がC Major、伴奏がF Majorの時

次に右手はそのままに、左手の伴奏をそのまま完全4度上に移調させたF Majorのコード進行にしてみます。

f:id:zric01:20200309201654p:plain

右手はC Major、左手はF Majorという複調の音楽になりました。特に左手がC7になっている所など、さっきより曲に違和感を感じ方が多いのではないでしょうか。

3. 主旋律がC Major、伴奏がB Majorの時

最後に左手のC Majorの伴奏だけを半音下にそのままずらして移調させます。そうすると伴奏はB Majorのコード進行になります。

f:id:zric01:20200309202047p:plain

上2つのものと比べると明らかにどぎつい不協和音が鳴っている曲に聞こえたかと思います。

2つ目の例はC MajorF Major、3つ目の例はC MajorB Majorの調が共存した状態と言えます。このように同じ時間軸で複数の調が展開されるものを複調(多調)と呼んでいます。

複調と5度圏

古くから現在まで広く普及している平均律音楽において、5度圏12個存在する調の関係をフラット(♭)とシャープ(♯)の数で図式的に表したものです。

f:id:zric01:20200309204123p:plain

Wikipediahttps://ja.wikipedia.org/wiki/%E4%BA%94%E5%BA%A6%E5%9C%8F)より引用

複調の場合、5度圏にある調が同時に複数鳴るわけですが、多くの場合3つ以上の調が同時に鳴ることはありません。したがって、ここでは2つの調が同時に鳴る場合のみを想定します
先ほどのキラキラ星を例に見ていきましょう。

1. 主旋律・伴奏共にCメジャーの時

f:id:zric01:20200309201236p:plain

特に複雑な和音も使っておらず、シンプルな構成なので特に言う事はありません。

2. 主旋律がCメジャー、伴奏がFメジャーの時

f:id:zric01:20200309232347p:plain

5度圏で見た場合、それらは隣同士の関係にあり、♭の数が1つだけ違います。 それぞれのダイアトニックスケールを比較すると、BとBbの音以外の6音は同じ音を共有しています。G7とC7が鳴る位置ではBとBbの音がぶつかりC7におけるアボイドノートであるFの音も同時になってしまっていますが、それ以外のコードは左手伴奏のテンションノートしては問題なく使える音に相当します。
多少響きに違和感はあれど全体として見れば許容範囲ともいえるでしょう。

3. 主旋律がCメジャー、伴奏がBメジャーの時

f:id:zric01:20200309232642p:plain

5度圏で見た場合、それらは対角線にある調の1つ隣りの位置関係となっています。Cメジャーから見た場合、対角線上にある調はF#(Gb)で、その隣にあるのがBメジャーです。
それぞれのダイアトニックスケールを比較すると、BとEの音は共有しているものの他の5音はすべて各ダイアトニックスケールから外れています
基本的にあるスケールから外れた音を同時に鳴らすと和音が不協和になりやすい傾向がありますが、この譜面では全てのコードでスケール外の和音を鳴らしています。
例えば左手がB、右手がCのコードを見ると、Bにおけるド、ソの音はスケール外の音ですし、ミの音はBメジャーコードのアボイドノートとなっています。こんな和音同時に鳴らして不協和音作らない方がむしろ難しいです(笑)

複調と5度圏の関係性

複調において、2つのスケールで共有している音が多いほど不協和になりにくく少ないほど不協和になりやすい傾向があります。つまりフラットやシャープの数の差が小さいものほど気持ち悪いハーモニーになりやすいとも言えます。
5度圏で見た場合、位置が近い調(近親調)が前者遠い調(遠隔調)が後者に相当します。したがって、隣り合う調で複調の曲を作ると和声がなじみやすく、対角線上にある調やその隣にある調で作るとぶつかりやすい和声になる事がわかります。

近現代クラシック音楽における複調(多調)の使用法

一般的によく聞かれる音楽と比べると前衛的な作風の多い近現代クラシックの楽曲において複調が用いられる場合、共有している音の少ない遠隔調のスケールで作曲されることが多いです。5度圏で言えば対角線上にある調、もしくはその隣にある調が選ばれやすい傾向にあります。

複調の音楽を作る際、調号にあまり差のない調で複調のテクニックを使っても比較的自然な雰囲気になってしまうのと、テンションノートを考慮するとそもそもコードの構成音的に複調として認知されなかったりします。アバンギャルドで独創的な作曲を目指すなら、より不協和でとらえどころのない和音の方がむしろ作風的に向いていたりします。今までにない革新的な音楽を作る上で、遠隔調の複調は20世紀のクラシック音楽家達には大きな武器の1つとなったのではないでしょうか。

複調が使われている作品で有名どころとしてはストラヴィンスキー春の祭典ペトルーシュカラヴェルの水の戯れ、スカルボあたりでしょうか。「調」という言葉を使うと音階・旋法というより広い概念を含有できないので、厳密に複調と言っていいかわからない所もありますが。

おわりに

今回は同時に複数の調が存在する複調について解説しました。次回は自分が解説しようと思っていたオーンスタインのA La Chinoseについて深堀りしていこうと思います。
この曲は複調のテクニックがふんだんに使われているので、ぜひ今回の記事の内容を少しでも理解した状態で読んでいただけたら嬉しいです!

ぜろいち twitter.com

好きな音楽の音源からボーカルのみとインストのみの音源を取り出してみた~深層学習(Deep U-Net)による歌声分離~

今回はミックスされた音楽から歌声のみの音源とカラオケ音源の抽出をやってみたので、その紹介記事になります。 前提として音楽は歌ありのものを想定しています。

仕組み(簡単に知りたい人向け)

超ざっくりとしたイメージですが流れとしてはこんな感じです。

f:id:zric01:20191008200540p:plain
歌声分離の流れ

オリジナルの音楽のオーディオデータ(wavやmp3など)をシステムに入れるとAI技術である深層学習によって処理が行われ、歌声と楽器を取り出してくれるというものです。 AIがミックスされた音楽からボーカルだけを取り出す方法を学び、学習済みのAIが音源を分離してくれるといった感じです。

デモ

ボーカルとインストの分離

実際にデモ音源を用意したので聞いてみましょう。 RWC-POPデータセットの音源を利用しています。

元の音源

分離後のボーカル

分離後のインスト

結構よく分離出来ている感じです。ものによってはあまりうまくいってないものもありましたが、おおむね良く抽出できているのではないでしょうか。

環境音に紛れている話し声の抽出

学習させるデータセットを変えて環境音に紛れている話し声の抽出もやってみました。

元の音源

抽出後の話し声

大分良く抽出できているように聞こえます。

仕組み(より詳しく知りたい人向け)

具体的なモデルの仕組みやソースコードなどはxiao_mingさんのこの記事を主に参考にさせていただきました。

qiita.com

というかこの記事が非常によくできており、めっちゃわかりやすくシステムの内容や学習モデルなどがまとまっているし実際のデモや実装したソースコードまで紹介しているので、正直こちらの記事を読めば事足りてしまうかと思います。 プログラムもこの方が実装されたコードを利用させていただきました。大変ありがたい限りです。

ここでは音源分離の手法としてDeep U-Netという深層学習モデルを使用しています。
元論文:https://ismir2017.smcnus.org/wp-content/uploads/2017/10/171_Paper.pdf

概要

やり方としてはシンプルで、入力として楽曲の振幅スペクトログラムを使用し、それと同サイズのマスクをU-Net(ニューラルネットワークモデル)が計算します。このマスクと入力に利用した楽曲のスペクトログラムとの積を取ることで、歌声部分だけを抽出できるという仕組みです。

ざっくりとした流れとしれはこんな感じ。

f:id:zric01:20191010154926p:plain

※補足知識:STFTについて

STFT短時間フーリエ変換(Short-time Fourier Transform)の略で、オーディオ波形を周波数と時間の関係で表現できる形に変換するための方法です。
STFTによって変換されたものを「スペクトログラム」とか言ったりします。 イメージとしてはピアノで弾いてる音楽があったとしたら、ある高さの「ド」の音の高さの音がどのタイミングで鳴っているのかみたいなものを目で見られるようにするためのもの、みたいな感じを想定してくれればと思います。
特に信号の振幅(パワー)を表現するものを振幅(パワー)スペクトログラム、位相情報を表現するものを位相スペクトログラムなんて言ったりしますが、この2つについてはよく分からなかったら適当に流してくれても大丈夫です。

ISTFT(Inverse Short-time Fourier Transform)はその逆で、STFTされている周波数と時間の関係で表現されているスペクトログラムを実際に私たちが普段聞いているオーディオ信号に戻します。

Deep U-Net(ニューラルネットワークモデル)について

f:id:zric01:20191010163609p:plain

上の図は元論文からの引用です。

見ての通りアルファベットのUの形っぽい感じですね。 全層がCNN(畳み込みニューラルネットワーク)で構成されており、それにエンコーダーデコーダーモデルを組み合わせた形になっています。 これだけならU-Netに限らず、この構造は他の研究の音源分離手法としても提案されています(Convolutional Encoder Decoder)。ちなみにこの図はこの研究(https://nsarafianos.github.io/icip16)からの引用です。

f:id:zric01:20191010164746p:plain
Convolutional Encoder Decoder

U-Netの場合それに加えて、ResNetで提案されているようなSkip Connection(Concatの部分)が追加されており、Encoderの層にある特徴量を、同じ階層にあるDecoder層にも伝播させます。これによって処理が進む前の大域的な特徴量も残しつつ学習していけるということなのでしょう。

ちなみにResNetについてはこちらの記事がわかりやすいかと思います。 deepage.net

損失関数は入力の振幅スペクトログラムと出力のマスクの積と、教師データとなるボーカルの振幅スペクトログラムとの差になります。

※論文における細かい設定(読み飛ばしてもOKです)

エンコーダ

デコーダ

  • ストライド幅: 2

  • カーネルサイズ: 5×5

  • Batch Normalization適用

  • 活性化関数はReLU

  • 上の3層にはDropout(50%)を適用

オプティマイザーはADAMを使用

マスク計算後の処理

Deep U-Netによってボーカルを抽出するために必要なマスクを計算するわけですが、これを元音源の振幅スペクトログラムにそのままかけてISTFTを行っても良い感じにボーカルを抽出することはできません。この時点では楽曲の位相情報を何も考慮していないからです。

では位相情報はどう復元するのかということですが、元楽曲の位相スペクトログラムを算出した位相スペクトログラムにそのままかけます。 これでISTFTするだけで良い感じのボーカルが抽出できます。ちなみに環境音に紛れている話し声の抽出も全く同じ要領で行いました。

インスト音源については、元音源の振幅スペクトログラムから算出したボーカルの振幅スペクトログラムの差を取り、同じように元楽曲の位相スペクトログラムをそのままかけてISTFすることで抽出しました。

位相情報の復元処理とかまでちゃんとやればもっと良い品質のものが出来そうな気がしますが、この論文では扱っていないので割愛します。Griffin Lim アルゴリズムとか、von Mises分布DNNに基づく振幅スペクトログラムからの位相復元(http://sython.org/papers/SIG-SLP/takamichi1806slp_paper.pdf)という研究もあるので、並行してやってみる価値はあると思います。めんどくさいので自分はやりませんが。

データセット

学習用のデータセットにはボーカル付きのミックスされている音源とそのボーカルのみの音源が必要になります。そのうち入手しやすいものを紹介します。

ミックス音源と、ボーカル音源、ベース音源、ドラム音源、他の楽器の音源が入った曲が100個提供されている。

こちらもDSD100同様ステムデータが提供されており、バージョン1と2合わせて200曲近くあるが、インストのみの音源も少なくないのであらかじめ選別が必要。

環境音に紛れた話し声の抽出に使ったデータセットは以下。

おわりに

今回はDeep U-Netという深層学習モデルによる歌声分離、話し声抽出を紹介しました。 前回記事でアッパーストラクチャーの話の続きをやるとか書いておきながら、音楽理論もピアノとも関係ない記事になってしまいましたが、1つ音楽情報処理の研究を紹介できたのは良かったかなと思います。 時期とかタイミングは特に考えず、自分の紹介したいものを気まぐれで記事にする位のスタンスでやっていこうと思います。

アッパーストラクチャー系アウトフレーズの分析 ~There will never be another you~

※この記事はジャズでよく使われるコードやスケール、アッパーストラクチャートライアド等の専門的な音楽知識があることを前提に記事を書いています。わからない用語等はすみませんが各自調べていただくか、読み飛ばしちゃってください。勿論用語や記事に関する質問や何か意見などあれば、書いて下さればお応えしたいので、気軽にコメントしていただければと思います。

今回はジャズスタンダード曲としても有名な「There will never be another you」を取り上げてみたいと思います。 音源はWoody Shawのアルバム「Solid」から。

その中でピアニストのKenny Barronが演奏しているアドリブパートのフレーズ分析をしていこうと思います。

Kenny Barronのパートについては採譜されている方がいらっしゃったのでぜひこちらの動画を見ていただけるとわかりやすいと思います。

よくよくこのトランスクリプション楽譜を聞きながら見てみると「あれ、ちょっとここ違くね?抜けてね?」って思う箇所はいくつかあるのですが、それでも十分によく採譜されているので基本的には問題ありません。

アウトフレーズとスケールアウト

あるコードのスケールから外れる事をスケールアウトといい、それを用いたフレーズをアウトフレーズと言ったりします。 このテクニックを使うと聞き手に「え!?」と思わせられるような意外性を演出できます。 Kenny Barronの演奏でもそのテクニックが使われているので紹介します。

採譜動画の 0:46 ~ 0:50 辺りのフレーズに注目します。フレーズは以下のようになっています。

f:id:zric01:20190713110101p:plain

このフレーズですが、少し加筆してみましょう。

f:id:zric01:20190713112405p:plain

39小節目(Bbm7の小節)の1拍目弱拍に「ミ」の音が抜けてるように聞こえたので、音を付け加えました。1から譜面書き直すのめんどくさくて楽譜作成ソフトで作った音符をそのまま画像キャプチャして貼り付けたら雑コラみたいになっちゃったけど。

四角で囲った部分はその箇所をアルペジオとして考えた時のコードです。 アッパーストラクチャーコードとして考えると次のように表記できます。

 \frac{\rm{Bm7}}{\rm{Cm7}}  \frac{\rm{Am}}{\rm{Bbm7}}  \frac{\rm{Em7}}{\rm{Bbm7}}  \frac{\rm{Bm7}}{\rm{Eb7}}

このコード、試しに右手と左手が近い所で同時に鳴らしてみてください。

くっそ濁った不協和音になります。

これはどういうことかというと、上下2つのコードが異なる音階由来の和音であるために、それぞれの和音が共有する事の出来る音が少ないということです。

メジャーやマイナーなどの種類が決まったものをそのまま半音上か下にずらして同時に弾いてみると思いっきり音がぶつかりますが、それは鳴らした2つのコードが属する調がかなり遠隔にある調のものである故にスケールで共有している音が極端に少ないため、このようなことが起こります。

しかしアウトフレーズではむしろこういうどう考えても不協和音になりそうな和音の組み合わせが良い味を出してくれます。 なぜならこれを行うと元のコードの色彩感が弱まり、調性感が曖昧になるからです。

アウトフレーズの本質は聞き手に驚きを与えること。 コードやスケールに従ったアドリブを聞かせるのは勿論だけど、それだけだと退屈してしまう。その中にスパイスとして奇妙な音を加えてあげることで「え、なにこれ!?」みたいな感覚を伝えられる。入れ過ぎは良くないけど。

そのためにあえてコード感、調性感をぼかすことでこれを演出できるというわけです。そのためのテクニックがこういったアウトフレーズ。

具体的な音で確認してみましょう。

  • Bm7の音はCm7エオリアンスケール)から考えると、レの音はCm79thに相当するが、それ以外は#11, 13, M7の音なのでCエオリアンスケールから見たらスケール外

  • Amの音はBbm7(ドリアンスケール)から考えると、ドの音はBbm79thに相当するが、それ以外は#11, M7の音なのでBbドリアンスケールからみたらスケール外

  • Em7の音はBbm7(ドリアンスケール)から考えると、ソの音はBbm713thに相当するが、それ以外は#11, b9, M3の音なのでBbドリアンスケールからみたらスケール外

  • Bm7の音はEb7から考えると、シとファ#の音はEb7b13#9に相当するのでオルタードスケールなどで解釈できるが、レとラはM7, 11なのでオルタードスケールならスケール外だし、仮にミクソリディアンスケールと解釈しても11はアボイドノートだし普通は経過音、隣接音など非和声音として使う事が基本だから実質的にスケール外とみなせる

特に  \frac{\rm{Am}}{\rm{Bbm7}}  \frac{\rm{Em7}}{\rm{Bbm7}}  \frac{\rm{Bm7}}{\rm{Eb7}} の分子のコードに着目すると、最初は分母のコードの半音下のマイナーコード(Am)から完全5度上(または完全4度下)の進行でマイナーコードを平行移動させている。完全4度・5度差のコードの平行移動はそのコードが所属する調性の調号をあまり変えずに動かすことができる。最初に半音ずらしで分母・分子のコードが共通する音の少ない遠隔調に属する和音の組み合わせにして、5度(4度)進行で遠隔調としての距離を保ったままコードを動かすことができるこの方法は、アッパーストラクチャーを用いたアウトフレーズを作る上では非常に参考になるテクニックではないかと思っています。

アドリブにおけるスケールアウト系のフレーズは一見不規則なフレーズに聞こえるようで一定の規則性があることが多いです。例えば同じ音型を繰り返し用いるというのがその典型例ですが、このアウトフレーズについても同じことが言えるでしょう。

こんな風に演奏者のアウトフレーズを見つけてアナライズしていくのは中々面白いものだなと思います。

次回はアウトフレーズではないアッパーストラクチャー系のフレーズについて解説していく予定です。紹介する順番が逆な気がするけど。
曲は引き続きThere will never be another youでKenny Barronのアドリブパートを見ていきます。

ブログ開設しました

こんにちは。 TwitterYouTube等で主にピアノ演奏の動画をあげているぜろいちと申します。 動画の投稿頻度はあまり多くは無いながらも、Twitterでは2019年7月現在 5000人以上 の方が僕をフォローしてくださっているのは大変ありがたい事だと思っています。
感謝っ・・・・!圧倒的感謝っ・・・・!

そもそも「ぜろいちって誰だよ、そんな奴知らねーよ」って方はこちらから僕のTwitterYouTubeを見ていただければ私のピアノ演奏動画などが見られますので、是非チェックしてみてくださいね!(がっつり宣伝)

www.youtube.com

twitter.com

ブログ開設の経緯

さて、僕がブログを開設した経緯をお話させていただきたいと思います。 理由としましては主に以下の2つです。

・字数や画像数などの制限に縛られず投稿したい
・気軽に投稿出来る場が欲しい

僕が何かしら演奏動画等をアップする場というのはTwitterYouTubeがメインになっている(というか基本それしかない)のですが、それだけだとどうしてもコンテンツ不足になってしまいます。
じゃあもっと投稿頻度を上げればいいじゃないかと言われればその通りなのですが、自分のめんどくさがりな性格と中途半端な完璧主義がネックになっており中々それが出来ずじまいになっているのが現状です・・・もっと頑張らねば。

じゃあ普段本当に何もやっていないのかと言われるとそうでもなく、演奏やアレンジ以外にも楽曲分析や音楽に関する勉強等も細々としていたりします。 特に現在ではネットで活躍しているピアニスト達が音楽理論に関する解説動画などを沢山上げるようになってきたので、表面的には多少なりともそういう話も以前より浸透してきているような実感はありますが、より局所的で細かい音楽理論等の話になると中々それだけでは伝わりにくいものです。さらに動画投稿の労力を考えると、あまり気軽にできるものではないなというように感じていました。

僕は結構そういう動画で解説しきれないようなニッチな音楽理論みたいなコアな話が好きなのでそういう話も沢山していきたかったのですが、そのような話はTwitter等でひたすら投稿しても多くの人にとって意味不明で退屈なものになってしまいそうだし、字数や画像数などの制限があるので詳細に説明するのは難しいと思い避けてきました。なのでそういうのを大衆受けなどを考えず淡々と発信していけるような場があれば良いなと前から考えていました。
それなら色々な面で投稿に制限があるTwitter等を使うよりは、1つの記事に沢山の情報量を詰め込むことが出来て且つ興味のある人だけ見てもらえば良いというスタンスを取りやすい(と個人的に思っている)ブログで発信するのが一番気軽で良いのかなと思ったのが、今回のブログ開設に至った経緯となっています。

投稿記事について

開設に至った背景としては上記のような感じなのですが、より雑多に気ままに投稿したいなって思いもあるので、上述したことに縛らず自由にやっていきたいなと今は考えています。

まだ暫定なのでこうすると決めたわけではないのですが、投稿していこうと思う内容としては以下のようなものを今は想定しています。

・気になった楽曲の解説
・動画の告知
音楽情報処理に関する研究の紹介
・その他気になった事、備忘録など

「音楽情報処理??」って思った方もいらっしゃると思いますが、僕は普段音楽をコンピュータで処理して何かを行うといったような研究をしていまして、例えば好きな曲を入れたら勝手にカラオケが出来るとか、自動で作曲・編曲するソフトを作るとか、そんな分野に関することをやっています。 より数学や情報工学に近い話になってしまうので皆さんの想定する音楽とは少しかけ離れてしまうかもしれませんが、そんなものも少し紹介出来たらなあなんて考えている次第です。

今は簡単に手が付けられる所から始めてみて、慣れてきたら徐々にブログのレイアウトの変更等を行い、より親しみやすいデザインにしていきたいと考えている所です。でもそれよりも、とりあえずは記事を増やしていくことが先決かなと感じているので、そこそこなペースで記事を作っていけたらなと思っています。

これからどうぞよろしくお願いします!

ぜろいち