|
16ビットとか24ビットかって、よく聞くよな?
なんかビット数が多いほうが、音がいいらしいってのはみんな知ってるわけだが、
じゃあ、ビットってなに?と尋ねられて、答えられる人は少ないんじゃないか?
かくいうオレも、デジタル・オーディオの専門家でもないし、ちゃんと答えられるか怪しいが、
音響屋として押さえるべきツボは心得ているつもりだ。
ってわけで、きょうは、21世紀に生きる音響関係者にとって、「知りません」では済まされない、
「ビット数とダイナミックレンジの関係について」解説してみよう。
<世の中の音は全部アナログ>
音響機器のみならず、テレビ放送までデジタル化され、まさにデジタル機器全盛の世の中であるが、
まず、知っておいてほしいのは、我々が耳で聴くことのできる音は、これすべからくアナログである。
という事実だ。
以前は、そのアナログ信号を、アナログ信号としてそっくりそのまま記録するってことで、
テープやレコード盤などのメディアが用いられていた。
しかし、デジタル記録技術の進歩により、アナログ音声や映像の信号を符号化して、
高速で記録・再生することが可能になっちまったんで、うちの学生たちはてえへんだ。
アナログの勉強だけじゃ済まなくなって、デジタルもこってりやらざるを得なくなっちまった。
・・・しかも2年で・・・。
ホントに今の学生たち、可哀想。
しかし、若人にとっては、プロもオタオタしているこんな時こそチャンスだぜ!
って事を認識してほしいよな。
<ビット数ってなに?>
さて、アナログ信号をデジタル信号に変換することを、A/D変換(エーディー変換)、
A/D変換を行う機械(やチップのこと)を、ADC(A/D Converterエーディーコンバーター)と呼んでいるぞ。
この変換を無事成し遂げ、立派なデジタル信号を作るには、
「符号化」、「標本化(=サンプリング)」、「量子化」というプロセスが必要だが、
そのうちの、
「量子化」をどのくらい行うか、を表すのが「ビット数」だ。
まずは、A/D変換の過程を簡単に説明しよう。
1.まず、アナログ信号が、「0」か「1」かの符号に置き換えられる(=符号化)。
2.そして、1秒間あたりの音声信号を44100とか48000とかの断片に切り分ける(=標本化)。
3.で、最後に、44100分の1/秒、とかに切り刻まれたそれぞれの断片を、
レベルの大小を表現するために縦割りにする(=量子化)。
つまり、
時間軸に沿って分割するのが標本化(サンプリング)
標本化された各サンプルのレベルを表すために、レベルを分割するのが量子化
ってことだ。
例えば16ビットというのは、
音のレベルを、2の16乗=65,536段階に分割して表現できるってことだし、
24ビットともなると、2の24乗=16,777,216段階と、ぐっと精度が上がるわけだ。
まあ、以上のようなことは知っておいて損はないが、オペレート上、知らないと困る、
というほどのことはない。
ただ、量子化については、次の1点を是非覚えておいてほしい。
1ビットあたりのダイナミックレンジは6dBである!
え?「ダイナミックレンジ」ってのが分からないって?
あーん、きょうのは簡単だと思ったのに、またなかなか進めねえなあ。
ダイナミックレンジってえのは、
ノイズの中から音がピョコっと頭を出してから、記録できる限界の音量に達するまでの幅の事だよ。
つまり、「ダイナミックレンジ」ってえのは、「S/N比」ってえのとほぼ同義語だ。
じゃあ、いくつか問題出すぞ。
問題1.DVDとCDでは、ダイナミックレンジに何デシベルの差があるか?
お答え:48dB。
まず、CDは16ビット記録メディアなので、そのダイナミックレンジは、16(bit)×6(dB)=96dB
DVDは24bit記録メディアなので、そのダイナミックレンジは、24(bit)×6(dB)=144dB
144−96=48dBってことになる。
な?すげえ差だろ?
なにしろ、10dB違えば、音量を2倍に感じるってえのが人間だ。
48dBのダイナミックレンジの差がいかにデカイかは想像に難くないよな。
ところで、こっからが結構重要だ。
しっかり聞いてくれよ。
CDもDVDも、録音できる限界のレベルは、0dBfsと変わらねえ。上限レベルは同じだ。
DVDは、理論上、−144dBfsまでは音楽信号をノイズ成分より大きな音として聴くことができる。
言い換えりゃぁ、メディアの記録能力に起因するノイズは、−144dBfs以上にはならないわけだ。
(もちろん、実際に再生すりゃぁ、メディア以外のアンプやケーブルに起因するノイズや、
部屋の騒音に邪魔されて、理論上の144dBのダイナミックレンジなんて確保できねえのはわかってるよな。)
ところが、CDの方は、−96dBより下のレベルでは、ノイズしか聴こえねえ。
無理やり、「文字棒グラフ風レベルメーター」で表すと、以下のような感じな。
ちなみに、右端がデジタルピークレベルの0dBfsね。
ノイズノイズ音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音音(DVD)
ノイズノイズノイズノイズノイズノイズノイズノイズノイズノイズノイ音音音音音音音音音音音音音音音音音音音音音音(CD)
いずれにしても、CDのダイナミックレンジがたったの96dBなのは、困った問題だ。
だって、クラシックの曲なんか、音楽自体のダイナミックレンジが120dBなんて曲もザラだ。
チャイコフスキーの交響曲6番「悲愴」なんて、曲頭は、「え?もう始まったの?」ってくらい蚊の鳴くような音しかしないが、最後のほうになるってえと、ドカーンドカーンと耳をつんざく大騒ぎだ。
曲のダイナミックレンジが120dBあんだから、そのまんまじゃ96dBのCDやDATには
収まらねえワケだ。
そこでレコーディングエンジニアはどうしているか。
Comp/Limiterを使って音の大きい部分を圧縮するか、
小さい部分だけフェーダーを上げといて、演奏音が大きくなってから、
聴いている人が気づかぬように、こっそりゆっくりフェーダーを下げているのである。
切ねえよな。
ほんと、DVDができてよかったぜ。
じゃ、次だ。関係なさそうに見えるが、実は今回のテーマと結構関係ある問題だ。
問題2.人間の耳のダイナミックレンジは?
お答え:約130dB。
あれ?これまだ教えてなかったかな?
ほら、前にデシベルんとこでやったとこ思い出してよ。
人間の最小可聴音圧レベル(音がある、と認識できる一番小さな音)は20μPa(マイクロパスカル)だけど、
それを0(ゼロ)dB SPLと決めてるって、やったよね?やったんだよ。やったやった。
でな、
人間が何とか耐えられる限界の音量が130dB SPLあたりなの。
140dB SPLになると、ジェット機の全開エンジン音を25mの距離で聞かされる音量で、
これはもう完全なる拷問なわけね。鼓膜がご臨終遊ばすわけな。
じゃ、最後の問題。
問題3.これだけデジタル技術の進歩が早いのに、オーディオフォーマットについては、
なにゆえ24ビットから上の、32ビットとか48ビットに行こうとしないのだろうか?
はい、これ宿題にします。
って、だんだんこのコーナー、読む人少なくなってるような気がするが、宿題なんか出して大丈夫だろうか。
自分で出して自分で答えることになりそうだ・・・。とほほ。(ぶ)
|
問題3 の解答って、24bit がすでに人間の耳のダイナミックレンジを超えているからというようなことではに短絡的に過ぎるでしょうか。 ところで、こうなると、1bit オーディオについても解説をお願いしたいところです。いかがでしょうか?
2007/1/31(水) 午後 11:00
はじめまして。問題の回答、、M_jciさんの答えと思ったんですが、もうひとつ可能性があると思ったのが、32ビットで192dB、48ビットで288dBということは、それだけ大容量のメディアが必要で、さらに人間の耳の限界も超えていることから実用的ではないから。というのは、どうでしょう。。でも、DAWなどの音楽編集ソフト上では48ビットインターナルプロセッシングなんていって使われてたりしますよね?確かエフェクトのかかり方などが良くなる。なんて聞いた覚えがあります。。ほとんど不確か情報ですが、、どうでしょう。。
2007/2/1(木) 午前 7:14 [ 平田 則光 ]
ぱちぱちぱち。お二人とも正解でーす。レベル高いなあ。おっしゃるとおり、耳のダイナミックレンジを超えるものが不要なのと、メディアの容量を食うのと、技術的にも高度になってコスト高になるからですね。時速500km出る車があったら凄いけど、要らないですもんねえ。1bitオーディオ(DSD)については、解説するにはもうちょい勉強が必要なんで、お待ちを。いい課題もらったなあ。(ぶ)
2007/2/1(木) 午前 8:23
それと書き忘れましたが、hiranori1982さんの仰るように、機材内部の信号処理は、さらなるハイビット化が進んでいますね。この点については、実際にどの程度の効果があるのか・・・。理論的には優れているはずでも、それを体感できるのか、比較した経験がないし、私自身は懐疑的ですが。(ぶ)
2007/2/2(金) 午前 8:35
デジタル・エフェクトっていうのは、デジタルのデータをあれこれ演算するってことだから、量子化ビット数を一時的に上げないと、そのビット数に満たない計算値の端数は四捨五入しなければならないことになる。その計算値に対してさらに演算を繰り返し何度も行う場合、どんどん端数の誤差が大きくなる(ノイズが増える)ということなのかなあ?<機材内部の信号処理
2007/2/7(水) 午後 0:28
なるほど。きっとタマさんの言う通りなんだと思います。が、どうもその理論上の良さが、音として実感できる範囲を超えてるような気もします。でも、そういう小さな工夫の積み重ねで、トータル的な音がぐっと変わったりするんでしょうかね。追求してほしいのはミニマル的S/Nの向上よりアナログライクな「音の太さ」だったりするんですが・・・(ぶ)
2007/2/9(金) 午前 8:19
フル・デジタル・ミキシングの場合、クリップさせるとデジタル・ノイズが乗るので、どうしても音量を下げ気味にミキシングしなければならない。ミキシングの途中段階の全データを16bitで処理するとなると、実質的には16bit以下の音質でしか処理できないということになる。劣化した音をコンプで持ち上げても、劣化したまま音量が大きくなってしまう。ので、最終的に16bitの音に仕上げる場合、16bit以上のビット数で処理したほうが変音が少なくなるという事情があります。<DAWの場合
2007/2/10(土) 午前 2:14
bit数が小さいとノイズが増えるというより、音質そのものが変化するという感じかも。個人的には、bit数が低いと、細くて固くてざらついた感じの音、bit数が高いと、太くて丸くてまろやかな音になるイメージ。(音を文章で表現するのはまた難しいんですけど。)でも、そこらへんの違いはどのDACを使うのかによっても違ってくるし、なんとも言えないのかも。。
2007/2/10(土) 午前 2:33
げっ。タマ来てるし。健康ランド上陸? 宇宙語しゃべってるし(笑)
2007/2/10(土) 午前 3:13
そうすね。ホントDACによる音の違い、つうのはでかいなあ、と実感しております。あと「太くてまろやか」ちゅう「こくまろ系の音」にするには、サンプリング周波数を高くとるのも相当有効に思ってます。最大周波数特性が上がることで「こくまろ」というのは理論的にはあまり必然性がないんですが・・・ますます宇宙語?(ぶ)
2007/2/10(土) 午前 10:26
そもそも「音の太さ」とは何か?ということを物理学的に捉えようとするとすごーく難しいイメージ。音響やさん的にはどう捉えているのかお話をお伺いしたいかも。
2007/2/11(日) 午前 3:28
「音の太さ」は、ベース屋さん的には(笑)(1)特定周波数の倍音成分が生き残って(またはエンハンサー等で回復されて)おり、(2)リミッターで頭を打った分、相対的に中低域が強調されており、かつ、(3)わからないぐらいほんの少しだけ歪んで(いわゆるドライブされて)いることにより、生まれるのではないかと推測しています。EQだけをいくらいじっても、ブーミーな(こもった)音になるだけで、原音を超える「太さ」は確保できないからね、経験上。
2007/2/11(日) 午前 6:56 [ みの ]
やぱし「音の太さ」は、音色(倍音成分の構成のしかた)と、波形の揺らぎ(歪み)に関係しそうですねえ。
2007/2/13(火) 午前 1:09
16bitでもディザリングを行うのでダイナミックレンジは120dBですよ
2014/3/30(日) 午前 2:51 [ えんたー ]
> えんたーさん
そうですね。ディザーを使えば聴感上のダイナミックレンジはそうなりますね。
2015/11/19(木) 午後 8:10
DATのダイナミックレンジは144、48KHz24ビットレコーダー
2015/11/21(土) 午前 4:29 [ - ]
化石RESですが
みんな!
デルタシグマモジュレーション
って知ってるぅ?
2017/1/15(日) 午前 3:42 [ nag*es*n19*5 ]