Fungerar automatisk vitbalans verkligen? Hur?

Jag förstår inte hur kameran kan räkna ut vitbalansen att använda i en viss scen.

Jag kunde se fungerar det om det finns en uppenbar färggjutning (till exempel under lysrör). Jämför den histogrammen från de olika färgkanalerna och försöker få dem att matcha upp till en viss grad? Även då kan jag bara föreställa mig att det fungerar tillförlitligt i mycket väldefinierade omständigheter.

Kan någon förklara hur det implementeras i dagens kameror och hur bra det vanligtvis fungerar?

Svar

Det ursprungliga antagandet är att den genomsnittliga scenen ska vara färgneutral och därför genom att beräkna den genomsnittliga färgen i scenen och Om du sedan använder samma korrigering för varje pixel skulle du få en scen vars genomsnittliga färg är neutral som ska har rätt vitbalans. Detta kommer att misslyckas när det finns en dominerande färg och scenen.

Algoritmer blev mer sofistikerade med åren med massor av tekniska papper och patent skrivna om ämnet. De lade till mer intelligens som fastspänning i uppsättningen kända belysningsmedel.

Den exakta algoritmen skiljer sig mellan kameror och det verkar fungera extremt bra utomhus under dagen, där det är liten variation. Under artificiellt ljus finns det mycket mer varians och det är snarare hit eller miss. Äldre digitalkameror var särskilt dåliga men har förbättrats i genomsnitt.

Den allra bästa vitbalansprestanda jag någonsin sett var på HP Photosmart R967 . DC Resource märkte detta och kommenterade att de skulle vinna Nobelpriset! Flera nya kompaktkameror gör också ett utmärkt jobb. Fördelen med en spegelfri kamera framför en DSLR för detta är att den kan läsa data från hela världen DSLR kan nu göra det i Live-View-läge.

Vissa DSLR använder ett helt annat tillvägagångssätt som är att mäta vitbalansen istället. Detta är fallet för Olympus E-5 . Den har en dedikerad ”extern” sensor som mäter ljuset som faller på kameran. Du kan stänga av den här om du fotograferar från en annan belysning än ditt motiv.

Kommentarer

  • Obs! En DSLR utan livevy kan fortfarande mäta vitbalansen med hela sensorn. Vitbalansen e tillämpas efter att bilden har tagits, vilket framgår av det faktum att de data som lagras i en rå fil är innan vitbalansen tillämpas.
  • @Guffa – Jag tror att din logik är felaktig, försök att använda en förinställning vitbalans istället och RAW-filuppgifterna vann ’ inte heller har vitbalans tillämpats. Du har dock rätt i att någon kamera kan göra vitbalansberäkningen efter fångsten men jag har inte sett några bevis för det, kanske är det en fråga om prestanda men jag tvivlar på det. Om du läser specifikationerna för en modern DSLR, till exempel Nikon D7000, står det något som ’ 2016 pixlar vitbalanssensor ’ vilket starkt antyder att det inte görs med hela bildsensorn.
  • Jag tror att det ’ är en enkel prestandaoptimering – du behöver inte ’ behöver inte prova varje pixel, och om du gjorde det ’ slutade du göra en rå konvertering för att mäta vitbalansen och sedan en annan konvertering med denna balans i hand
  • @Reid – Observera användningen av världen ’ original ’. Kameratillverkare publicerar inte sin formel direkt men du kan läsa papper och patent om ämnet för att lära dig mer. Det finns bokstavligen hundratals sätt att göra det men jag känner inte till någon som använder referensbilder (mätning är känd för att göra det på det sättet, men det är något helt annat), bara referensbelysningsmedel.
  • PS: Jag har faktiskt ett rum med alla rosa väggar 🙂

Svar

Kameran kan inte veta vilken vitbalans som ska användas, den kan bara gissa baserat på bilddata (eller ibland en extern sensor, som Itai nämnde i sitt svar).

Om jag ta exempel en bild av en blå vägg, kameran tycker att jag har tagit en bild av en grå vägg i blått ljus och bilden blir grå istället för blå. (Detta är ungefär samma fenomen som när jag fotograferar en vit eller svart vägg med automatisk exponering, och kameran ställer in exponeringen så att båda blir gråa.)

Jag använder alltid automatisk vitbalans och justerar den manuellt när jag avviker från den råa bilden. Min erfarenhet är att ibland den automatiska vita balansen är på plats, för det mesta är den väldigt nära, och i vissa sällsynta situationer är den långt borta.

Observera också att den ”korrekta” vitbalansinställningen inte alltid är den exakta färgen ljuskällans temperatur.Ibland behöver en bild en liten färgförändring för att se naturlig ut, och vissa kan till och med behöva en hel del. En bild som tas i starkt solljus kan behöva vara lite mer gul och en bild som tas under de blå timmarna kan behöva mycket blått.

Kommentarer

  • Humm, men om jag tar en bild av en blå vägg blir den blå, inte vit. Jag har inte ’ min kamera till hands, men hur är det med en vitvit vägg? Blir det pressat till neutralt vitt?
  • bra poäng om ” rätt ” balans.
  • Samma här. Jag ’ Jag kommer att inkludera några testbilder på samma plats och börja med en wb-justering som jag sedan använder för alla bilder som utgångspunkt. Häromdagen såg jag att en korrekt kalibrerad bild såg kall / blå ut: hjärnan förväntar sig att scenen blir bärnsten, och även om ett icke korrigerat foto ser orange ut, ger lite värme rätt intryck. / li>

Svar

Svaret är lika varierat som de många olika modellerna av kameror och deras relaterade firmware.

När de är inställda på AWB använder de flesta äldre digitalkameror (inklusive i stort sett alla när den här frågan ställdes) algoritmer som försöker ställa in vitbalans baserat på antagandet att de ljusaste områdena i ramen ska vara neutrala vita eller mycket ljusgrå. Detta fungerar ganska bra såvida inte vissa områden är helt mättade i alla tre kanalerna (innan några exponeringsjusteringar tillämpas).

Resultatet kan likna ett av de förinställda alternativen som är tillgängliga (dagsljus, volfram, molnigt, lysrör , etc.) eller det kan skilja sig avsevärt från någon av dem. Om den upptäckta scenen är tillräckligt nära ett av kamerans förinställda val, kan en kanske tillämpas eller kanske inte , beroende på den exakta kameramodellen i fråga.

Nyare kameror använder ofta mer sofistikerade algoritmer som kan variera mycket från en kameramodell till en annan. De flesta toppmodeller liknar vissa former av mätning som Nikons ”Matrix” eller Canon ”s” Evaluative ”mätning där data från ramen jämförs med ett bibliotek som laddas i kamerans firmware och tillämpas baserat på instruktioner för närmaste matchning. Om kameran upptäcker en scen med ljusblå himmel i den övre delen av ramen och mörkare grön i den nedre ramen kommer den att använda WB baserat på en liggande profil. Om den upptäcker en scen med massor av områden som ser ut (till den) som hudfärger, kommer den att använda ett WB baserat på en porträttprofil. (Denna förklaring är väldigt förenklad från de många finesser som analyseras och kan påverka resultatet.)

Vissa kameror tillåter till och med användarval alternativ mellan förspänning mot scenens ljusaste områden eller förspänning mot mer genomsnittliga områden av scenen. Canon kallar de två tillgängliga alternativen med några av deras senaste modeller för ”vit prioritet AWB” eller ”atmosfär prioritet AWB”.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *