「動画の音」とは
動画は、映像データと音声データが合わさってできています。 映像と音声が別になっており、別々のデータ方式(コーデック)のものを合わせたものが動画ファイルです。 これについては以前の記事で詳しく記載していますので、一度そちらに目を通してみてください。MPEG-4とMP4って同じじゃないの!?動画のコーデックとファイル形式を知ろう
本稿では動画ファイルの「コーデック」と「ファイル形式」について簡単にまとめ、違いが分かるようになります。
音声データには様々なものがある
音声データにも様々なデータ方式があります。 大きく分けると以下の2つで、それぞれ複数のコーデック(データ方式)があります。特徴 | コーデック(データ方式) | |
可逆コーデック | 圧縮率は低いが、 元の音質にまで戻すことができるデータ方式。 | FLAC ALAC など |
非可逆コーデック | 圧縮率が高いが、 再生する際に元の音質まで戻すことができないデータ方式。 | MP3 AAC WMA など |
音声データの音質にかかわるパラメーター
以下に、音声データの音質を左右する要素を3点あげます。 以下を把握して理解し、音声データ作成時に適切に設定することで、正しく音質をコントロールすることができるでしょう。サンプルサイズ(ビット深度)
サンプルサイズが大きいほど細かく音の大きさを区切るため、なめらかに聞こえます。サンプルサイズが小さいと荒い耳ざわりの音に聞こえます。 16bitなら2の16乗で、音の大きさを65536分割して再現しています。 24bitなら2の24乗となり、16777216分割です。実際に、同じWAVファイルから、32bitのMP3ファイルと8bitのMP3ファイルを作成して聞き比べると、8bitの方は「サー」というノイズがのり、32bitでは元ファイルと同じレベルで滑らかな音声となりました。(二つのファイルのビットレート、サンプリングレートは同じ)
またMP3やAACの場合は、ビットレートも大きく音質に左右します。
サンプリングレート
動画でいうところのフレームレートです。 サンプルレートとも言います。 1秒間を何回に区切って音をデータ化しているかという数値となっており、44.1kHzであれば、44100回に区切って音をデータ化していることになります。 細かく切れば切るほど音の再現度が高まり、音質が良くなります。 CDは44.1kHzになっており、人間の耳に聞こえるといわれている音域はこの44.1kHzでほぼカバーできているそうです。 よってそれ以上のサンプリングレートにしても、人間の耳はそれを感じることができないのだとか。 とはいえ、高サンプリングレートだと音が違う、と感じる方も多いため、これよりも高いサンプリングレートの音声ファイルも存在します。 インターネット動画の音声では、44.1kHzか48kHzが利用されることが多くなっています。 身近なところだと、Youtubeでは44.1 kHz 推奨を推奨しています。 (48 kHz や 96 kHz などを使う事は可能だそうです。) なお、音楽業界は44.1kHzで、映像業界は48kHzを採用しているため、動画に利用する音声では、特に問題がない限りは48kHzを採用することを推奨します。異なるサンプリングレートの音声素材をあつめて動画にする場合、音ズレなどの問題が起こってきます。
原因については以下の記事で解説しているのでご覧ください。
気持ち悪い!「音ズレ」の原因とは?:動画を編集したりつなげたりすると起こることがある、音ズレの原因を理解しよう
動画編集などを行っている際に音ズレを経験したことはないでしょうか?根本的な理由を知れば音ズレは未然に防げることが分かりました。今回は、音ズレが起こる原因とその対処法をご紹介したいと思います。