動画ファイル、動画データ、音声データの簡単なおさらい
以前の記事で、「動画ファイルは、動画データ部分と音声データ部分があり、その2つを1つのコンテナにいれて動画ファイルが成り立っている。」ということを書きました。MPEG-4とMP4って同じじゃないの!?動画のコーデックとファイル形式を知ろう
本稿では動画ファイルの「コーデック」と「ファイル形式」について簡単にまとめ、違いが分かるようになります。
動画のフレームレート(fps)とは? 適切に設定するための注意点まとめ
この記事では動画の画質と容量に関わってくる「フレームレート」について説明し、適切なフレームレートの設定方法が分かるようになります。
動画の音質を高めるには? サンプルサイズ・サンプリングレート・音声ビットレートを知ろう!
動画配信を行っていると、音質にもこだわりたくなるもの。この記事では、音質や音声データの容量を適切に設定するために必要な、サンプルサイズ・サンプリングレート・音声ビットレートの基礎知識について解説します。
- 30fps~60fps
- ただし、動きが少ないものはコマ数をもっと落とす場合もある
- 地デジや映画に合わせたコマ数にしている場合は、29.97fpsや24fps等になっている場合がある
- 44.1kHz(音楽業界で使われることが多い)
- 48kHz(映像業界で使われることが多い)
音ズレの原因1:フレームレートのズレ
ここで、色々な素材を集めて編集をした際にどのようなことが起こっているかを見てみましょう。 たとえば、- 映像:30fps、音声:48kHz
- 映像:60fps、音声:48kHz
音ズレの原因2:サンプリングレートのズレ
次はこのような2本の動画をつなげてみます 1.映像:30fps、音声:48kHz 2.映像:30fps、音声:44.1kHz つなげた後の動画は、30fps、48kHzにして出力をする前提です。 44.1kHzはちょっと端数があって図示するのがめんどうなので、44kHzとしておきます。 さてどうでしょう。動画の音質を高めるには? サンプルサイズ・サンプリングレート・音声ビットレートを知ろう!
動画配信を行っていると、音質にもこだわりたくなるもの。この記事では、音質や音声データの容量を適切に設定するために必要な、サンプルサイズ・サンプリングレート・音声ビットレートの基礎知識について解説します。
【結論】音ズレを防ぐために何をしたらいいのか
音ズレの根本的な原因が、映像のフレームレートの違い、または音声のサンプリングレートの違いということは理解していただけたかと思います。 では音ズレを防ぐためにどうしたらいいのか、ということになりますが、 動画完成後のフレームレート、サンプリングレートに合わせて、利用する動画・音声データを準備する ことが重要になります。 例えば、完成後の動画を、30fps・48kHzにしたい場合は、編集する動画データもそれぞれ同じフレームレート、サンプリングレートで準備する、ということです。 音声データだけを別に準備する場合も48kHzで準備し、動画データだけ別の場合も30fpsで準備します。 そのうえで、編集してそれぞれをつなげることをやれば、音ズレは発生しないはずです。 また手元にある素材のフレームレートやサンプリングレートがバラバラになってしまっている場合は、いったんトランスコードを行って、フレームレートとサンプリングレートを統一をしてから、編集を始めると良いでしょう。バラバラになってしまっているフレームレート、サンプリングレートを自動的に調整してくれるソフトウェアもあるようです。
ただし、「自動的」にということが逆にあだになり、誤動作により勝手にフレームレートやサンプリングレートが変更されてしまった結果、何が起こっているかわからなくなってしまい、音ズレをなおすことができない、というケースも多いように見受けられます。
理想的なのは、撮影・録音時からすべての素材のフレームレートとサンプリングレートを決めておくことです。
インターネット動画であれば、
・30fps、48kHz
・60fps、48kHz
のどちらかに統一をするのがいいのではないでしょうか。
とくに音声部分のサンプリングレートは、映像業界が採用している48kHzにしておくのが無難ではないかと考えます。
基本的な考え方は以上です。ただ、編集するソフトウェアの誤動作やバグ(あるいは仕様!)で起こることも考えられます。しかし、編集するソフトにかかわらず、素材の質を揃えておくことで、余計なリスクを背負い込まなくて済むようになります。
まずは(1)元となるデータにずれがないかを確かめたうえで、(2)ソフトウェアの誤動作や設定の変更などを疑うようにしましょう。