何回かに分けてCG、コンポジットなどをする上で必要なカメラ・レンズのことについてまとめようと思います。
今回は基礎編と言うことでCG作業をする上で取り敢えず知っておくとべき内容。
これらは既に色々なサイトや書籍でまとめられているので今更ですがあとの話の抑えとして簡単に。
※カメラの事をまとめようと思っていた時に
「もう、誰も教えてくれない 撮影・VFX/CG アナログ基礎講座Ⅰ」という本が出ました。今はⅡも出てますね。
非常にわかりやすくまとまっていたのでフィルムカメラや実際の映画の撮影でのカメラ知識はこちらを読むことをおすすめします。
CGのカメラと実際のカメラ・・・
1番大事なのは画角=。画面に映る範囲ですね。

純粋に画角が変わるとズームした画になります。
違う画角で同じオブジェクトを同じサイズ撮影しようとした時パースが変化します。
では実際のカメラで画角を決めるのは何なのか?
レンズのミリ数(焦点距離)+カメラのアパチャーサイズ(センサーサイズ)
この2つです。
追記※アパチャーサイズについてご指摘いただいたので。本来アパチャーとはレンズ口径を意味しますが、
wikipediaにもある通り
"カメラ、映写機などで、フィルムに光線が当たり、画面枠が決まる窓の部分もアパーチャー(アパーチュア)とも呼ぶ"
とあり、こちらの意味合いで書いてあります。フィルムの口径としての意味合いです。
図の通り撮影面の対角線を示しています。
Aperture Size:アパチャーサイズ(センサーサイズ) ※以下はアパチャーサイズに省略
これは過去にもトラッキングで重要という話をしました。
レンズを通して記録される部分のサイズの事ですね。
CGソフトの多くははデフォルトだとスタンダードなフィルムカメラの35mmサイズに近い値になっていると思います。

映画のフィルムと写真フィルムでは同じ35mmでも、映画のフィルムはフォーマットによってサイズ等が異なります。
※図を見て分かるように一般的に映画で35mmと言われるものは図で言うスタンダート35mmなので一眼レフで言う35mmの半分のサイズとなります。実質APS-Cの方が近い事になります。35mmとは元々フィルムの送り穴も含めた全体の幅で、映画と写真では送りが縦横変わるため、映画では写真の実質半分となります。
これがデジタルになるとさらに厄介です。デジタルカメラではセンサーによって映像を記録します。
これらはカメラによって様々なサイズがあります。基本カメラのスペックシートを見ないとわかりません。
と言うことで同じミリ数のレンズ設定にしてもアパチャーサイズが違うと画角が変わります。
上記画像には映画用デジタルカメラのサイズを載せていませんが、REDのカメラなんかは撮影フォーマットに応じて
センサー内でクロップ(トリミング)することでHD~4kまで対応してたりします=撮影フォーマットに応じても画角が変わります。
また映像メインのものはセンサー自体がワイド設計のものも多くあります。

なのでトラッキングや実写合成をする場合これらが大切になります。
が・・・ フル3D作品などの場合どうでしょう?これらのカメラの設定を決める多くはアニメーターだと思います。
又はレイアウトアーティストなど?でしょう。ただこの辺りってさほど気にしませんよね?
もちろんCGなんだから最終的な画作りができていれば問題無いと思います。
ただちょっとした補足的なものをワークフロー編で
Focal Length:ミリ数、焦点距離
コンパクトデジタルカメラなどのスペック表を見ると35mm判換算と言うのがあります。これは上で言う
フルサイズ35mm(写真用フィルム)で見た時の画角相当のミリ数です。
焦点距離とは?
平行な光が入った時、光の焦点が合う距離=焦点距離です。
※?ズームレンズって書いてある焦点距離と胴体の長さがあわないけど?となりますね。
ざっくり解説:レンズは複数のレンズが組み合わせで出来ています。これらを一枚のレンズと仮定した時焦点を結ぶ距離
レンズに記載されている焦点距離です。(正しくは違いますがCGをする上ではあまり関係ないので省略します。)
※上の画像で書いているノーダルポイントとは光軸上の中心で3D上でのカメラは基本コレを中心に回転します。
パノラマ撮影、魚眼レンズを使用したHDRI撮影の時にはノーダルポイントを中心に回転させないと、若干前後のオブジェクト
がずれてしまいます。
厳密に言えばマッチムーブでの三脚ショットもノーダルポイントが回転の中心でないと精度は落ちます。
ノーダルポイントを中心に回転させると前後のオブジェクトの位置関係にズレが出ないのでマットペイント、ミニチュア撮影
などカメラの手前に置いたものを大きく見せたり、遠くに見せたり出来ます。
レンズは以下のように分類されます。
単焦点レンズ:焦点距離が固定のレンズ
ズームレンズ:名前の通りズームの出来るレンズ=ミリ数が変化する
特殊レンズ:魚眼レンズ・マクロレンズ・ティルトシフトレンズなど
テレコンバータ:レンズとカメラ本体の間に装着して倍率をアップしたりするレンズ
レンズはミリ数によっても分類されます。
広角レンズ:35mm判換算で焦点距離が35mm以下のレンズ
標準レンズ:35mm判換算で50mm 人間の目の画角に近いと言われる。
※豆知識:アパチャーサイズの斜辺の距離に1番近いミリ数が標準レンズとなる=35mm判換算50mmと同じ画角45°
望遠レンズ:35mm判換算で70mm以上~(標準レンズ以上を示す場合もあります)
映画などで使うレンズには単焦点レンズが多いです。
シネマレンズには、18,21,24,25,28,35,50,85,100,300mm などが多いみたいですね。
当然ズームレンズもあり、アパチャーサイズによって画角は変わってくるのでこれで一概にどうこうでは無いですが。
モーションブラー
人間の目でもモーションブラーはおきていますよね。人それぞれ差があり動体視力なんかがそれに当たります。
実際にが脳や目の処理速度による残像なのでブラーとは若干違います。
カメラで起きるモーションブラーはシャッタースピートによって変化します。
より早いシャッタースピードではブラーは小さく、遅いシャッタースピードでは大きなブラーになります。
またより速い動きのものほどブラーは大きくなります。

CG上ではレンダリングにブラーをかけるか、コンポジットでかけるか、って言いますね。
コンポジットではレンダリングに書きだしたベクター情報を元に又は純粋にピクセルの移動を補間してブラー処理します。
RSMB(ReelSmart Motion Blur)のようなプラグインを使う事が多いと思います。
ただこれらは動きの早いものにブラーをかけると奥行きに対しての補間が出来ないため不自然なエッジが残ったりします。
もう一つ大きな問題として、ベクター情報を物にブラー処理した場合接地影などにブラーがかかりません。
レンダリング時にブラー処理をすれば前後関係に対するブラーはより自然になります。影にもブラーがかかります。
ただし、あとで調整が出来ない、レンダリング時間が長いなどの問題が出ます。なので後処理の方が多いですね。
Nukeなどでポイントクラウドなんかで再度3d化してリライト、ブラー処理などをすることで両方の利点を生かした処理も可能です。
グレイン・ノイズ
リアルさを出すためにノイズ感を足したりしますね。ノイズ自体はフィルムでもデジタルでも発生します。
フィルムはもともと細かい粒子の集まりです。なのでフレームごとにノイズは粒子の並びは変わってしまうので
ノイズになります。フィルムによって(感度によって)粒子の密度や小ささがかわります。
デジタルで発生するノイズは光の情報をデジタルに変換する時に出てしまいます。(細かい説明は省略)
デジタルでも、フィルムでも暗いところを明るく撮そうとするとノイズが多くなります。
が、やはりデジタルとフィルムのノイズは要因が違うためよく見ると違います。これらかフィルムの味だったりして
好む監督やカメラマンもいるみたいです。
CGの場合これらはコンポジット処理で付加します。当然実写合成の場合実写の素材と同じノイズパターンを乗せる
必要があります。(レンダリング時のGIなどによるノイズは別物です)
ノイズ系のプラグインやフィルタを使う事がありますが、実際のカメラで撮影した素材からノイズ素材を製作するのが
処理も早く馴染みがいいです。
今後4k映像などになってくるとほとんどノイズのない映像のほうが増えてくるかの知れません?!
以上基礎編でした。
- 関連記事
-
- カメラの話をしよう!・ワークフロー編 (2012/06/03)
- カメラの話をしよう!・レンズ編 (2012/06/03)
- カメラの話をしよう!・基礎編 (2012/06/03)