私は数学が得意で、基本的な幾何学を理解していると思いますが、ダイヤフラム。
カメラが特定の状態にあるとしましょう。特定の「コーン」からの光をキャプチャし、カメラのレンズの外側に出ます。絞りが動く(穴の直径が小さくなる)が、カメラ内で他に何も動かない場合、画像の周囲に「黒い素材」が表示されるだけですよね?
サイズは変わりません。最終的な画像内のオブジェクトの数、オブジェクトのシャープネス、または画像の中心(絞りで覆われていない)に到達する光の「速度」(量/時間)。私は正しいですか?
しかし、ダイアフラムが最終画像に表示されず、その周囲の光線のみをカバーする場合、それらの光線はとにかくイメージセンサーに到達しないため、その目的は何ですか?
編集:私は手がかりを得始めていると思います。
私の直感イオンは、2つの点AとBの間に障害物がある場合、AはBを見ることができないということでした。点Aは物体上にあり、Bはセンサー上にあり、それらの間の線が直線ではない(屈折している)という事実レンズによって)何も変わりません。
Aからレンズを通ってBに到達する光線が(異なる方向に)たくさんあることに気づきませんでした。レンズの近くの障害物の動作は大きく異なります。レンズの半分を覆うことで、AからBに到達する光線は2分の1になりますが、センサーBはまだAから光を受け取ります(BはまだAを「見る」でしょう)。
コメント
- レイトレーシングについてもう少し熟考する必要があると思います。イメージングシステムを介して、画像に干渉しないが、画像を作成する光の量を変更できる開口部を配置できる場所。
- 簡単に言えば、いいえ、その'は正しくありません。そのような黒いリングがどのように表示されないか、またその外観が説明と焦点合わせにどのように影響するかを確認できます。 '説明するのはかなり長いです。幾何光学に精通していますか?あなたはすでに何を知っていますか?また、絞りとフィールドダイアフラムを区別することをお勧めします。
- 単純なレンズは、被写体の同じ単一点からフィルム面の単一点にすべての光線を送信します。その光線がレンズに当たる場所に関係なく。同様に、被写体の異なるポイントからの光線はすべて、フィルム面の異なるポイントを参照します。レンズの近くに配置された絞りは、これらの光線の一部を遮断しますが、通過する光線の経路を変更しません。
- …一方、絞りが非常に近い場合レンズを使用すると、絞り自体の画像の焦点がぼけて見えなくなります。
- @SolomonSlowコメントというよりは答えのようです。
回答
編集の引数は基本的に正しいです。
ダイアフラムはレンズの非常に近くに導入され、オブジェクトがあります。すべてのオブジェクトからのすべての光線がレンズを通過するように、最大限に焦点がぼけます。絞りはこれらの光線の一部を除去しますが、それでも複数の光線が通過して画像を形成することができます。
これは、絞りの「影」は完全に焦点がぼけているので、開いた絞り(全体でより多くの光が回る)の場合と比較して、画像を暗くすることですべての画像を覆いますが、そうではありません。レンズの平面にあるため、センサー上に画像を形成します。
そもそも絞りがある理由について:これにより、 被写界深度、つまり、オブジェクトに焦点が合って表示される距離の範囲をいじります。絞りが広いほど、より多くの光線があります。つまり、焦点面に到達する光線は、より広い角度の円錐を包含します。これは、検出器を前後に動かしながら、維持しながら許容範囲が狭くなることを意味します。焦点が合っているオブジェクト。
逆に、固定検出器平面の場合、許容誤差が小さくなると、開口部が広くなるほど、オブジェクトの焦点が合う長さの範囲が浅くなります。
被写界深度を深くしたい場合(つまり、さまざまな距離にあるオブジェクトに焦点を合わせたい場合)、絞りを使用します。「全体的に光を失っても問題ありません。したがって、絞りを減らして、一部を殺します。レンズの外側からの光線。その過程で、角度の円錐を減らし、焦点面の深さを拡大します。
コメント
- はい!私にとっての鍵は、オブジェクト上の点とas上の点の間に多くの異なる光線があることを認識することでした。センサー。残りは単純な形状です。絞りのみ"でレンズが小さくなります"。 センサーに届く光が少なくなりますが、これは通常は悪いことです(ソフトウェアで"色を強調する必要がある場合があります。 ノイズ)が、レンズ領域が減少するにつれて、近すぎる/遠すぎるオブジェクトのぼやけが減少します。