Jag tror att jag är ganska bra på matte och förstår grundläggande geometri, men jag har problem med att förstå funktionen av en membran i kameror.
Låt oss säga att en kamera är i ett specifikt tillstånd. Den fångar upp ljuset från en specifik ”kon” och går utanför kameralinsen. membranet rör sig (minskar hålets diameter) och inget annat rör sig i kameran, det kan bara leda till att ett ”svart material” dyker upp runt bilden, eller hur?
Det kommer inte att ändra storleken av föremål i den slutliga bilden, eller föremålens skärpa eller ”hastigheten” (ljusmängd / tid) som kommer till mitten av bilden (som inte täcks av ett membran). Har jag rätt?
Men om membranet aldrig visas i den slutliga bilden och bara täcker strålar runt det, vad är syftet med det, eftersom dessa strålar aldrig skulle göra det till bildsensorn, eller hur?
Redigera: Jag tror att jag börjar få en aning.
Min intuit var att om det finns ett hinder mellan två punkter A och B, kan A inte se B. Punkt A är på objektet och B är på sensorn och det faktum att linjen mellan dem inte är rak (brytad av en lins) ändrar ingenting.
Jag insåg inte att det finns många strålar (i olika riktningar) som går från A, genom linsen och når B. Hinder nära linsen beter sig väldigt annorlunda. Genom att täcka hälften av linsen skulle 2x mindre strålar komma från A till B, men sensorn B skulle fortfarande få ljus från A (B kommer fortfarande att ”se” A).
Kommentarer
- Jag tror att du behöver fundera lite mer på strålspårning genom ett bildsystem och där du kan placera en bländare som inte skulle störa bilden, men ändra mängden ljus som gör bilden.
- Kort sagt: nej, att ' är inte rätt. Du kan kontrollera hur en sådan svart ring aldrig uppträder, och även hur denna apperture påverkar exponering och fokusering. Det ' är ganska långt att förklara. Är du bekant med geometrisk optik? Vilka saker vet du redan? Jag föreslår också att du gör skillnad mellan bländare och fältmembran.
- En enkel lins skickar varje ljusstråle från samma punkt på motivet, till en enda punkt i filmplanet, oavsett var den ljusstrålen träffar linsen . På samma sätt kommer ljusstrålar från en annan punkt om ämnet alla att hänvisas till en annan punkt på filmplanet. En bländare placerad nära linsen blockerar en del av dessa ljusstrålar, men den ändrar inte ljusstrålarnas banor som släpps igenom.
- … under tiden, om bländaren är mycket nära linsen kommer bilden av själva bländaren att vara så långt ur fokus att den är osynlig.
- @SolomonSlow Det verkar som ett svar snarare än en kommentar.
Svar
Argumentet i din redigering är i huvudsak korrekt.
Membranet införs mycket nära linsen, där objekt är maximalt defokuserad, så att varje stråle från varje objekt passerar genom linsen. Membranet tar bort några av dessa strålar, men det låter fortfarande flera strålar komma igenom och bilda en bild.
Detta betyder att ”skuggan” på membranet är helt defokuserad, så att den täcker hela bilden genom att göra den mörkare jämfört med vad du skulle ha med ett öppet membran (med mer ljus att gå runt totalt), men det gör det inte bilda en bild på sensorn eftersom den ligger vid linsplanet.
När det gäller varför du har ett membran i första hand: det här låter dig lura med skärpedjupet , dvs med avståndet som objekt kommer att visas i fokus. Ju bredare din bländare är, desto fler strålar har du, och det betyder att strålarna som når fokalplanet omfattar en bredare kon av vinklar, vilket i sin tur innebär att det finns en minskad tolerans för att flytta detektorn bakåt eller framåt medan du fortfarande håller föremålet i fokus.
Omvänt, för ett fast detektorplan, betyder den minskade toleransen att ju bredare bländaren är, desto kortare längdintervall för vilket objekt kommer att visas i fokus.
Du använder ett membran när du vill ha ett större skärpedjup (dvs. där du vill att objekt på många olika avstånd ska visas i fokus) och du är okej med att tappa lite ljus totalt sett. Således minskar du bländaren och dödar en del strålar från utsidan av linsen, och under tiden minskar du vinkelskottet och expanderar fokusplanets djup.
Kommentarer
- Ja! Nyckeln för mig var att inse att det finns många olika strålar mellan en punkt på ett objekt och en punkt på som ensor. Resten är en enkel geometri.Membranet endast " gör linsen mindre ". Mindre ljus kommer till sensorn, vilket vanligtvis är dåligt (vi kan behöva " betona " färger med programvara, vilket kan lägga till buller), men suddigheten hos för nära / för långt föremål minskar när linsområdet minskar.