jo, zunächst mit 2 Ebenen, und Masken: mit ein wenig Erfahrung lässt sich gut abschätzen, was von welcher Belichtung verwendet wird.
NB: AP hat selbst eine HDR-Routine, welche automatisch Fotos zusammenrechnet. Nicht schlecht; ich verwende jedoch gelegentlich lieber diejenige von
C1, da läuft das RAW-mergen in 32bit ab, gibt grossem headroom. Das erzeugt ein HDR-DNG, 550 MB/1 file; daraus in C1 ein 16bit-tiff decodiert, als 1te - untere - Ebene, in die nur partiell andere Belichtungen/Bearbeitungen (in 16bit) eingewoben werden. Ein Histogramm für den Olymp.
Ein Beispiel für so nen HDR-Einsatz von gestern:
2 Schulhäuser, nebeneinander in einem Foto. Das Neuere hat formale Elemente des Alten übernommen, drum beide in einem Foto - in gänzlich versch. Materialien.
Das ältere, aus den 70 iger Jahren mit kantiger Alufassade, viel Glas, Alu-storen: grosser Kontrast und üble Reflektionen. Daneben der 1 Jahr alte Neubau mit hinterlüfteter Holzfassade, schon grau und weich durch Sonne und Regen. Zu Fotografieren mit blauem Himmel.
Da es mit aktuellen DSLRs unmöglich ist, den benötigten Kontrast für glänzender Alufassade und grauem, kontrastlosem Holz einfangen zu können: ein HDR-DNG rechnen, es zunächst Mal für die ganze Umgebung optimieren, = 1te - untere - Ebene. (= "Kulisse" für die beiden Hauptdarsteller.)
Aus dem gleichen HDR-dng, den weichen Kontrast für die Alufassade gezogen ( = 2te Ebene) sowie mit viel mehr Kontrast/clarity & dehaze beim decodieren, die "Holzebene" = 3te Ebene. Gleichzeitig konnte so die UV-Beschichtung der Holzfassade, die sich auf Sensoren gerne in Farbverläufen äussert, "unsichtbar gemacht werden.