O wyższości RAW-ów nad JPG-ami

Wyższe są tak jak pierwotność wyższa jest od wtórności. Co jest pierwsze? Poza myślą, intuicją, podświadomością fotografa, pierwszy jest moment naciśnięcia spustu. Niewątpliwie! Wtedy światło poruszające się z niewyobrażalną prędkością c zatrzymane zostaje, przerobione zostaje na bity. To jest moment, ułamek sekundy, bo nawet i cztery takie operacje aparat fotograficzny może w sekundzie wykonać. Tak więc, mamy informację, mamy mnóstwo informacji, informacji dwadzieścia tysięcy razy więcej niż ta, którą Czytelnik zyskał, gdy doczytał dotąd (licząc, że każda litera, a nawet odstęp miały znaczenie). Pamiętajmy, że piksel to trzy litery, RGB, a każda z nich wymaga, co najmniej bajta, czyli tyle co litera tekstu.

Czas na konkrety, lecz najpierw konkret negatywny. Otóż nie to jest najważniejsze, że w RAW-ach zwykle każdy z trzech kolorów zajmuje więcej niż jeden bajt, więcej niż 8 bitów. Są różne standardy, są RAW-y 10, 12, a nawet 14-bitowe. Przypomnijmy, o co chodzi w tych bitach. Bajt, czyli ośmiobitowa jednostka informacji wyglądać może na przykład tak: 10010110, i mamy tu średnią intensywność koloru. Brak, któregoś koloru, na przykład czerwieni wygląda tak: 00000000, a maksimum czerwieni (czerwień „wypalona”) to: 11111111. Rzecz w tym, że jak dość łatwo policzyć, przy ośmiu bitach mamy 256 stopni intensywności czerwieni, zieleni czy niebieskiego (256=28). Niektórym to mało, więc mają w matrycach przetworniki anlogowo-cyfrowe dziesięciobitowe. Mają wtedy 1024 stopni jasności. Gdzie oglądamy te 1000, albo i 4000 (12 bitów) stopni jasności skoro monitory są ośmiobitowe? Jest tu pewien kłopot, ale czy każdą informację od razu musimy oglądać, czy nie można jej jakoś inaczej wykorzystać, czy 12 bitów koloru nie może się przydać na etapie przetwarzania zdjęcia? Może się przydać. Wrócimy do tego zaraz, teraz jednak podkreślmy jeszcze raz, że nie większa liczba bitów RAW-ów jest najważniejsza.

Najważniejsza jest możliwość odłożenia na potem wszystkich ważnych decyzji, które odłożyć na potem można. Które to decyzje? Nacisnęliśmy spust, bity są w matrycy. Koniec. Obiektyw był, jaki był, ogniskowa była, jaka była, czas migawki i otwór przysłony również – tego już nie zmienimy. Nie zmienimy w momencie (po momencie), gdy matryca wykonała swoje i przesłała surowe dane (raw data) do pamięci. Ale teraz za obraz bierze się procesor. Musi go zamienić na JPG, musi skompresować, ale nie zajmujmy się kompresją. Ktoś, kto myśli o porządnym fotografowaniu za pomocą RAW-ów musi mieć dużą kartę pamięci i nad kompresją się nie zastanawiać. Procesor, wykonując swoją czynność konwersji musi uwzględnić nasze preferencje, ustawione w menu aparatu: kontrast, nasycenie, wyostrzenie. Wykonuje to, przerabia surowy obraz zgodnie z naszymi decyzjami, które przed naciśnięciem spustu wprowadziliśmy do pamięci aparatu. Czy decyzje te były jedynie słuszne?

Jeżeli wzięliśmy za długi czas migawki, to obiekt ruchomy będzie poruszony i tego nie cofniemy (w n+1-szym odcinku niniejszego cyklu będzie mowa o dekonwolucji). Głębia ostrości to również „przetwarzanie” informacji zupełnie nie cyfrowe, ale fizyczne. Tego po naciśnięciu spustu nie cofniemy. Ale gdyby zatrzymać procesor, żeby nie psuł obrazu i nie przerabiał go na JPG, bo my chcemy się zastanowić, siedząc w wygodnym fotelu, przed komputerem, jaki ma być kontrast, jakie nasycenie, jaki stopień wyostrzenia zdjęcia, który przecież zależeć powinien od końcowych rozmiarów obrazka. Jeżeli procesor aparatu potrafi przerabiać obraz z matrycy (RAW), to nie mógłby tego zrobić procesor naszego komputera, używając programu dostarczonego przez producenta aparatu? Pytanie retoryczne. Jasne, że mógłby.

Ktoś powie, ze JPG-i też można skontrastować, zwiększyć nasycenie itp. Oczywiście, do pewnego stopnia. Weźmy przykład. Powiedzmy, że popełniliśmy błąd polegający na tym, że zapomnieliśmy skorygować kontrast (może nie było czasu na szperanie po menu). Fotografujemy rzecz kontrastową, a kontrast ustawiony jest na środkową wartość, albo, co gorsza wyżej, może i na max, bo poprzednie zdjęcie to było coś całkiem innego, może jakaś sina dal bez pierwszego planu. Matryca jak matryca, ma swoje możliwości, powiedzmy jednak, że dała sobie radę z cieniami i ze światłami. Najgłębszy cień to nie 00000000, a może 00000010, a światła nie są „wyżarte”, mają wartość, na przykład 11111101. (Można dopuścić, żeby maksymalny cień był kompletnym zerem, a maksymalne światło kompletną „jedynką”, pod warunkiem, że nie byłyby to całe obszary, a raczej pojedyncze piksele.) Jeżeli jest tak, to RAW jest w porządku, ale bierze się za niego procesor, i zgodnie z naszym zaleceniem zwiększa kontrast, co sprowadza się z grubsza do tego, że nawet bajt o wartości 00001000 zostaje wyzerowany, a 11110000 „wyjedynkowany” do poziomu 255. Piękne obszary subtelnych cieni, miejscami o wartości 3, gdzie indziej 10, 15 zostały zamienione na jednolitą czarną plamę. I koniec, nie ma powrotu. Między pikselem, który przed przetworzeniem miał zieleni 00000010 a teraz ma 0, a takim, który oryginalnie miał 0 i to mu zostało, nie ma żadnej różnicy (zupełnie żadnej – to istota cyfry). Błąd w odwrotnym kierunku, czyli wykonanie zdjęcia JPG przy niskim kontraście obiektu o niskim kontraście daje wynik mniej opłakany, lecz również niekorzystny. Otóż cała rozpiętość tonalna obiektu zostanie „wepchnięta” powiedzmy w 20 kanałów (przy prawidłowej ekspozycji mogłoby to być np. wartości pikseli od 121 do 140). A moglibyśmy, przy ustawionym dużym kontraście mieć je w 60. kanałach, a to już jest różnica. Po skontrastowaniu JPG-a mieć 20 odcieni szarości, widocznych jako osobne obszary a 60 odcieni, z niedostrzegalnymi granicami. Wszystko to jednak marność. Nic RAW-y nie pomogą gdy brak tematu, pomysłu. Czytelnik zauważył być może ze zdziwieniem, że opowieści powyższe nie są, a powinny być ilustrowane odpowiednimi zdjęciami. Rzecz jest prosta, te różnice między dziesięcioma a ośmioma bitami głębi koloru to subtelności trudne do oddania w druku (to jest tekst do druku), nawet przy tak dobrej poligrafii jak ta, z której korzysta „Wszechświat”. W dużym stopniu rzecz też w CMYK-u, ale to inny temat. By jednak zachęcić czytelnika do korzystania z elastyczności RAW-ów, na koniec rzecz najmocniejsza, świadomie jeszcze nie wspominana. Chodzi o BB (kto pamięta kto to?) -balans bieli. Białe ma być białe, szare szare (czarne zawsze jest czarne). Zdjęcia w świetle żarówek, energooszczędnych czy prawdziwych żarowych, zdjęcia o sinym zmierzchu, zdjęcia w lesie pod dachem zielonych liści. I już po bieli. Dobry, uważny fotograf ustawia oczywiście balans bieli, przestawia odpowiednią ikonkę w aparacie na żarówkę, albo, co zawsze najlepsze, definiuje biel fotografując odpowiedni szary wzorzec albo zwykły kawałek białego papieru. Ta ostatnia operacja jednak już na pewno musi trwać i zajmować uwagę. A wystarczy zapisywać RAW-y, o balansie bieli możemy wtedy na planie zapomnieć. Wszystko załatwimy przy komputerze. No może jedno, trzeba na którymś ze zdjęć z danej sceny, z danego światła mieć najmniejszy chociaż kawałek czegoś białego (lub szarego – ale z tym trudniej).

Ostatnia uwaga, fotografia cyfrowa nie wymaga używania komputera, można kartę z aparatu wyjmować i komuś oddawać do wydrukowania, albo do bezpośredniego rozesłania do znajomych. Wtedy nie robimy RAW-ów. Jeżeli jednak mamy ambicje wyciągnąć z naszego sprzętu maksimum jakości, to musimy do aparatu „dołączyć” komputer i na nim, mając pliki RAW dokończyć proces twórczy. I jeszcze jedno, nie nazywajmy RAW-a cyfrowym negatywem, a przerabiania go na JPG wywoływaniem, nie twórzmy sztucznych, nic nie wartych legend. Analogia z analogiem jest na prawdę bardzo słaba, a o chemii czas zapomnieć – dziś (i jutro) jest piksel.

Strona główna   Zdjęcia