音楽全般」カテゴリーアーカイブ

【2020年3月22日】今こそ新しいライヴのやり方を模索する時 〜 大瀧詠一「ヘッドフォン・コンサート」を思い出す

コロナウイルス感染予防の為、あちこちで大小のイベントが中止になっています。

外タレの来日公演も軒並み中止。金沢市のライヴハウスで行われる予定だった知人のバンドも出演するライヴも、あえなく中止となってしまいました。

 

 

私はここ10年程でライヴに行く機会がめっきりと減ったので、まるで他人事のように書いていますが、ライヴ収入を日々の生活の糧としているアーティストやプロモーターの方々は、月並みな言葉ですが、ホント大変な目に遭っている訳です。

 

 

 

思えば、機材が著しく進化して音が画期的に良くなり、その音源を、ネット経由 (YouTubeやSound Cloudなど) すると、アーティストが「今」作ったばかりの音が、そのまんま、リアル・タイムで聴ける、という、こんにちのリスニング環境とはうらはらに、ライヴは大昔から全く同じ形態で行われています。

それは、ステージに一人、もしくは少人数のパフォーマーがいて、対して圧倒的多数のオーディエンスがそのパフォーマンスを見守る、というスタイルです。

 

 

本来ライヴは、パフォーマーとオーディエンスは、それぞれ「一対一」、サシの勝負?です。周りに観客がいくら大勢いようと、ライヴはパフォーマーと自分の時間、の筈なのですが。。実際はお祭り騒ぎになっていて、まあそれがライヴのよさ?でもある訳です。

 

 

 

 

大瀧詠一さんの「ヘッドフォン・コンサート」、調べたら、行われたのは1981年、渋谷公会堂にて。私が高校生の頃です。

ホールの音は、反響その他PA状態で、オーディエンスにストレートに、平等に、届かない。それなら、ちゃんと届くようにオーディエンス全員がヘッドフォンで聴けばいいんじゃないか。そんな発想で行われたようです。

 

 

当時、それをFM雑誌で読んだ時は「変わった人も居るもんだなあ」ぐらいにしか思わなかったんですが、今も憶えているということは、当時大瀧詠一さんの音楽に興味のなかった私にも、それなりにインパクトがあった出来事だったんじゃないかと。

 

 

 

 

最近、何人ものアーティストが「配信ライヴ」を行なっています。私は実際に閲覧した事ないんですが、どんな音で配信してるのか興味があります。

大瀧詠一さんは、この日の演奏音がちゃんとオーディエンスのヘッドフォンに届くような、緻密なエフェクター処理をしたそうです。

 

 

TVの音楽番組や、ニコニコ生放送、AbemaTVのような、ごく普通の、不特定多数向けの音像ではなく、聴き方を想定 (ヘッドフォンで聴いて下さい、とか) した、個人個人の脳ミソにダイレクトに突き刺さるようなミックスをしての配信ライヴは、実は新しいライヴのカタチ=メディア、になりうるんじゃないかと思います。

ウイルス騒動や大地震が起きても、オーディエンスにちゃんと伝えることが出来るのではないかと。

 

 

人々を集めて行う普通のライヴが出来ない今こそ、「ライヴ」の形態が進化するチャンスなんじゃないかな。いいアイデアが浮かんだら、自分でもやってみたいですね。

 

 

 

 

 

 

「ヘッドフォン・コンサート」画像。ニコニコ動画に上がっていました。(動画ではないんですが)

 

このコメントは、「スピーチ・バルーン」へのリスペクト。私の大好きな曲です。

 

【2020年3月16日】重ねると濁っていく音・重ねると消えてしまう音… 〜 ミックスダウンは大変です

「色の三原色」、ご存知でしょうか?

三原色は「光の三原色」と「色(材)の三原色」に区分されています。光の三原色は混ぜると白に、色材の三原色は混ぜると黒になります。カラフルなスポットライトを集中させると白く明るくなり、絵具のいろんな色を混ぜてくと段々と濁っていくのは、この原理だからです。

 

 

 

それで、音はどうなのでしょうか?

ミックスダウンをしていると、音は、重ねていくと色材のように濁っていく(ノイズになる)事もあれば、光のように前の音や合わせた音が消えて聴こえなくなってしまう事もあります。

それから、一定の音量でボーカル・トラックを鳴らしていても、バックの音によって、前に出たり奥に引っ込んだりもします。バックの音の大小にもよりますが、小さくても引っ込む場合もあれば、大きくても声がちゃんと通る場合もあります。

 

 

売ってるCDだと普通に聴いている音が、実はエンジニアの方々の大変な試行錯誤によって、あのように「普通」に聴こえるのだという事が、自分でレコーディングを始めてから知りました。「普通」に聴けるように音をミックスするのは本当に大変なんだと。

 

 

 

人の耳はすごく高性能で、上は20000Hzから下は20Hzまでが可聴音域との事です。しかも、ある程度訓練された耳だと、大体の音は「あ、この辺が鳴っている」と、瞬時に音域が分かる位です。

 

 

なので、ちょっとした不自然さ・アンバランスさは、すぐに「不快」と感じてしまうんですよね。。

オルタナティヴやエレクトロニカなど、未知の音響に挑戦して、意図的にアンバランスにした音楽も多いんですが、成功率の低さがその困難さを物語っています。

そんな実験的な音楽で、耳が「快」と感じるのは、ごく一部の、才能豊かなミュージシャンの音のみです。

 

 

ちなみに、数日前に書いた、アナログ盤の音のよさの秘密は、可聴音域の上限を遥かに超えた、30000Hz〜40000Hzまでを再生する事から感じられるそうです。あと下の音も。鼓膜が感じなくても、身体が振動を感じているという訳です。(但し、ちゃんと再生させる事が出来るオーディオ・システムが必要である事は、言うまでもありません)

 

 

 

何で今回こんな記事になったかといえば、今作っている「月の子守唄」、トラックをミックスしていたら、音が消えまくってしまいまして。。

似たような音ばかり重ねたからだと思うんですが。それで、楽器音や周波数をいじっている最中です。

 

 

ミックスダウンは、詩作や楽曲の創造とは全然異なる回路を使った作業ですが、近年、ミックスもクリエイトの一環と捉えられてきています。

私の場合、勘と耳に頼っての作業ですが、もっと音響の勉強した方が、いい音で鳴らせるようになるかなあと感じています。

 

 

 

ニコニコ動画にヒアリングテストありました。コメント読んでるだけで笑えます。