投稿

Cakewalk by Bandlab TTS-1で純正律

イメージ
TTS-1を使って純正律にチャレンジしてみた。 やり方がズバリ書いてあるサイトもなく、オンライン・ヘルプを読みながら、MIDIの勉強もしつつ、という感じなので、ちゃんと理解しているわけではない。 方法としては、TTS-1のユニバーサル・ノンリアルタイム・システム・エクスクルーシブ・メッセージを使用して、 C~Bまでの12音について、各ピッチを指定することで実現してみた。 このユニバーサル・システム・エクスクルーシブ・メッセージは元々メーカーごとに独自の機能を実現するためのシステム・エクスクルーシブを、互換性を確保するためユニバーサルを追加して各社共通のMIDI規定となったという経緯がある。言葉的にエクスクルーシブで、ユニバーサルって矛盾してないか? まずCakewalkのワークスペースをAdvance等にする。初期設定ではBasicになっていてイベントリストの表示ができないため。 TTS-1のトラックを作成し、そのトラックから下図のようにイベントリストを選択する。 イベントリストのプラスアイコンをクリックして1行新規で作る。今回はトラックの頭に情報を入れてみた。これによって再生するときに情報が読み込まれて音律が適用されるので。 種類のNoteというところをクリックすると下図のようにウインドウが開くので、「特別」の「SysxData」を選択しOKボタンを押す。 データのところにスケール/オクターブ・チューニング情報を書き込む。 絵では、とりあえず下記の純正律を入れてみた。 純正律 key = C F0 7E 7F 08 08 40 00 7F 40 38 44 50 32 3E 36 42 4E 30 4E 34 F7 これで一度再生すれば、TTS-1に情報が送られ、純正律になる。 音はこんな感じで、和音に濁りがない。一度途切れてから平均律でも鳴らしているので、明らかな差があることが確認できると思う。 音色は、TTS-1のサイン波を使ってみた。アタックやらモジュレーションを調整すればこういう実験にも十分使える。 データの意味 システム・エクスクルーシブ・メッセージは、最初にF0で、最後にF7にするのがお約束。2番目以降はTTS-1のオンライン・ヘルプによる

Cakewalk by Bandlab TTS-1でマルチ・アウト

イメージ
TTS-1はマルチ・アウトできる音源で、最大4チャンネル(各ステレオ)扱える。これを使うことによって、特定の楽器だけ出力後にエフェクトを掛けたりできるようになる。 やり方は、以下のようにトラック追加のときに、「詳細設定」で「各出力のインスットゥルメントトラック」にチェックを入れてトラックを作成する。 以下のように2つのトラックが作成される。今回はピアノとドラムということにして、ピアノにはリバーブのBREVERB2を使って、ドラムは何もエフェクトを使わない設定にしてみた。 重要なのはTTSのSYSTEMにあるOPTIONボタンで、ここで各チャンネルの出力先を設定する。 OPTIONボタンを押すと下記のウィンドウが表示される。ここでは「マルチ・アウト機能を使用する」にチェックを入れて、ドラムの10チャンネルだけOUTPUTを2にしてみた。 以上で、ピアノにはBREVERB2を掛けて、ドラムはTTSのまま出力するということができる。 ということで久々にピアノを弾いてみた。そして大げさにリバーブを掛けてみたサンプル。ドラムにはディレイがかかっている。 BREVERB2のポテンシャルは高く、どうってことのない音も素晴らしくしてしまう。 こうして録音してみると、個人的にはソフト音源はTTSメインでいいかなと思えてきたよ。 インストゥルメントトラックを分離する方法 MIDIトラックとオーディオトラックを分離させたい場合は以下のようにする。 MIDIトラックを4個より多く作りたい場合は上記よりも管理しやすくなると思う。 下はトラックを作成した状態。1~4トラックがオーディオのアウトプットで、5~8がMIDIトラックとなる。シンセラックにはTTS-1は1個しかない状態。 Cakewalk

CLAP TAL-VOCODER

イメージ
vocoder(ヴォコーダー)の歴史と基本原理 現在では電子楽器扱いされているが、元々は通信用音声圧縮技術として開発された。 人の声をナチュラルに再生するには周波数帯域としては200Hz~10kHzぐらいほしいが、当時は低い周波数しか送信出来ずヴォコーダーを開発した経緯がある。1939年のニューヨーク万国博覧会で「The Voder」が一般公開された。今から80年以上前だ。 YouTubeで音声が聞けるが、イントネーションは機械的に付ける必要があるため、必然的に音階を付ける機能がある。 そのこともあってロボットボイスで歌っているパフォーマンスもある。 これを聴いたら誰だって音楽に使いたくなるわなぁ。 構造は以下のようになっている。 実際音楽で利用されるようになったのは30年以上後のことで、楽器用に開発された1970年代後半からとなる。ロボットボイスとして未来的な雰囲気が時代にマッチし、80年代にかけて盛んに使われた。 基本原理としては、キャリアという楽器の音程と音色に対して、モジュレータという声のフィルターをかけることで、ロボットボイスを実現している。人の発声は倍音構成が特徴となっているため。キャリアの音に、その倍音構成を採用すれば、人の声にように聞こえるということである。 手順は割とシンプルで、キャリア、モジュレータともに、周波数帯域ごとに数バンドに分けて、モジュレータの各帯域のレベルを、キャリアの各帯域のレベルに適用する。その音を再び合成して出力すればロボットボイスの出来上がりである。このことからキャリアの音色は倍音豊かである必要がある。またバンド数が多ければ、より言葉が聞き取りやすくなる。 230506更新 TAL-VOCODER ver3.0.1 (CLAP対応) https://tal-software.com/products/tal-vocoder フリーVSTで使えそうなボコーダーを探してみたら割と定番ぽいのがこれ。ただCakewalkで試そうとしたら、マニュアルも親切とは言えず、ネット上にも説明が、ほとんどない状態。そんなことで設定に手間取ったので手順を書いておくことにする。 2023夏にDAWをReaperの乗り換えたので、VST3ではなくCLAPで利用することにした。今後はCLAPに期待

VSTi VOPMex (Yamaha YM2151 (OPM) )

イメージ
2002年ぐらいからあるVOPM(Virtual OPM)というフリーのソフトFM音源が64bit環境でも使えることが分かったので本日遊んでみる。 15年ぐらい前にも仕事の関係で少し触ったことがあったので個人的に懐かしい音源。 初期の多くの音源が消滅する中、まだ存在していたことに驚く。 現在入手できるのはVOPMを拡張したVOPMexというもの。 http://picopicose.com/software.html この音源は下絵の YAMAHA YM2151 (OPM(FM Operator Type-M)) というチップを再現している。このチップは1983年に開発され、80年代のアーケードゲームやシャープのX1、X68000等のパソコン音源として使われていた。4オペレータでステレオ8chというコスパ優先FM音源。元々はヤマハのMSXパソコン用音源として開発されたようだ。ヤマハの楽器としては、DX21やDX100にも搭載されている。 DX7をエミュレートした DEXED があるが、FM音源らしさという意味では、こちらのチープな音の方が軍配が上がると思う。どうやってもFMのいやらしさが出るので・・・  またDEXEDでは未実装のポルタメントが出来たり、マルチティンバー音源として使えたりするので、ちょっといじってみようと思えた。 ところがVOPMは、パラメータの挙動に癖があって、FMに慣れていても、ええ?となる。 数値が感覚と逆のものも多く、動作を知らないと混乱する。 こういうところがチップの仕様に忠実なのか、とてもマニアックなにおいがする。 解説を探したが適当なものが見当たらなかったので、動作チェックを兼ねて、ここに書いておくことにした。 パラメータの挙動を理解してしまえば、FM音源としては簡素なので、扱いは楽な音源。 FMはデジタルの強みを生かしてコンパクトにしながらも、表現力を上げようとしているところがいい。 エイリアスノイズさえも音色の一部として取り込んでいるわけで、ユーザーには厳しく、デジタル処理的にはストレートで何もしないという感じ。 適当にベースとメロを弾いてみる。 YM2151のブロックダイアグラム パラメータ [con(connection)]

VSTシンセ自作 オシレータ実験

イメージ
Audacityのコンパイル用に超巨大開発環境のVisualStudioをインストールしたのが去年の年末。 せっかく入れたので、これで何か作ってみようかと思ってVSTシンセの実験をしてみた。 VSTは9年前にちょっと触ったことはあるのだが、当然ながら大きく変化していた。まずVSTは現在3.6で仕様も大きく異なっていた。とりあえずGUIなしで、シンセのオシレータ部分(発振回路)だけでも作ってみようと試行錯誤してみる。 割とあっさり音が出せるところまでこぎつける。とりあえずサイン波を電子ピアノから鳴らすことはできた。 手持ちの電子ピアノのMIDI信号をキャッチしてみたら、ノートオフは使われていないのね。すべてノートオンで、音を止める時は0で止めていた。 次にノコギリ波にチャレンジ。 まずは理論通りのサイン波の合成によるノコギリ波を作ってみた。基本的には5年前に作った このページ の加算合成の方法。1サンプルごとに膨大な計算量なので、どうかな?と思っていたが、リアルタイムでもあっさり再生。最近のPCパワーは素直にすげーと思った。 デジタルの場合、倍音が多く含まれる波形は要注意で、ナイキスト周波数を意識する必要がある。ナイキスト周波数はサンプリング周波数の半分で、再生できる最高音のこと。これを超える周波数を扱おうとするとエイリアスノイズが発生する。 下が60倍音まで扱ったノコギリ波の音。低い音は問題ないのだが、音が上がるにつれて、妙な音が入ってくる。この音がナイキスト周波数を超えた倍音が、低い音として認識されて、再生されてしまっている状態。 波形はこんな感じでノコギリ波としては悪くない。 これではまずいということで、次の実験。 だったら倍音を少な目にするという方法。手持ちの電子ピアノの最高音はG7の3136Hzなので、ナイキスト周波数24000Hz(サンプリング周波数48000Hz)とした場合7倍音までならナイキスト周波数は超えない。ということで、 低音から高音まで一貫して7倍音まで扱うノコギリ波にしてみた。音はこんな感じ。 聴いてみると低音が物足りない。波形を見ても、ノコギリ波としては中途半端。 次にやることは倍音をナイキスト周波数まで扱うというもの。これは音域ごとに倍音の数が違うの

Cakewalk Sonitus fx Compressor, Multiband

イメージ
Sonitusプラグインはcakewalk社がUltrafunk社を会社ごと買収して得たプラグインで、DirectX Audio Effects (DX)となっている。 cakewalkに入っているSonitusシリーズのオーディオエフェクトは、どれも古臭いUIだが、機能的には真面目な作りで正確に機能する。機能に忠実なパラメータが並んでいるので、基礎を学ぶ意味でもよいエフェクトだと思う。 Sonitus fx Compressorは、Cakewalk標準コンプ。他にバリエーションとして帯域ごとにコンプを掛けられるMultiband版もある。 コンプに必要なパラメータは一通り揃っていて設定した通りに動作する。 サイドチェインで利用することも可能。サイドチェインとは、別のトラックのレベルに応じてコンプを掛けることができるというもの。 基本的に色付けしないので、原音を変化させたくないときによいと思う。 正統派デジタルコンプという感じで、そこがつまらないと言えばつまらないのだが、実用的ではある。 デジタルの利点を最大限利用していて、先読みバッファによる、アタックタイムを完全に0にできるなど、あらゆるソースに対応できるようになっている。 このコンプは、パラメータも多く、いろいろな使い方ができるので、知識がないと使いこなせないだろう。 プロチャンネルにある実機をモデリングしたコンプは操作つまみが少なく、なんとなくでも使えるが、このコンプはそれを許さない。 Threshold 0~-60dB 幅広いスレッショルド調整が可能。 Ratio 0.4~1~30,無限大 無限大はデジタルらしく、スレッショルドでスパッと切ってしまえる。 面白いのは1以下があるということ。コンプとしては普通ない領域で1よりも小さいと、スレッショルド以上の音を更に増加させることになる。コンプの音量を整えるのとは逆の作用となる。 Knee 30~1,Hard Ratioを極端に設定しても、この調整を行えば、角ができず歪を緩和でき自然な感じにできる。 パラメータ値はスレッショルドの上下dBとなっている。 リミッター的にピークを切る場合は、Hardなどに設定する。 このコンプは全体的に優秀だが、初っ端の波形だけは、ご多分に漏れず崩れてし