High dynamic range

De la Capisci

Salt la: navigare, căutare
Acest articol face parte din seria de articole despre culoare.

High dynamic range, prescurtat HDR este un termen în limba engleză care se referă la un set de tehnici ce permit generarea şi manipularea imaginilor cu gamă dinamică înaltă. V-am băgat în ceaţă, ştiu – hai s-o luăm mai cu binişorul.

Cuprins

Identificarea problemelor

Hai să vedem mai întâi ce problemă încearcă să rezolve acest concept. Dacă aţi citit seria despre culoare în ordine atunci aţi întâlnit deja tangenţial genul de problemă pe care o rezolvă HDR, în articolul despre modelul RGB (acolo unde vorbeam despre densitatea nuanţelor de culoare în diverse spaţii de culoare în funcţie de modul de stocare a imaginilor). HDR este o soluţie la acel gen de probleme, şi chiar mai mult decât atât (îmi place foarte mult sintagma „bla-bla şi chiar mai mult decât atât”, sună de parcă ai prezenta o periuţă de dinţi care face şi omletă, sau ceva de genul ăsta).

Limitări legate de corecţia gama

Experimentaţi cu funcţia de corecţie gama (necesită Flash).

Lăsând cu totul la o parte chestia cu densitatea nuanţelor în plan cromatic, hai să ne gândim strict la axa luminozităţii – gândiţi-vă că am opera în alb-negru. Ba mai mult, hai să simplificăm lucrurile la extrem: nu ne gândim la imagini capturate prin fotografie sau mai ştiu eu cum, ci le generăm chiar noi. Imaginaţi-vă deci că lucrăm în 8 biţi pe canal în modelul RGB (deci 24 de biţi pe pixel) şi scriem codul pentru un joc 3D. Am văzut în articolul despre corecţie gama că în această situaţie lucrăm intern cu valori liniare ale luminozităţii, iar atunci când avem imaginea finală aplicăm corecţia (codificarea) gama pentru afişare. În plus ştim că în spaţiul sRGB, care este spaţiul de ieşire în vasta majoritate a cazurilor, trebuie să aplicăm o corecţie gama cu γ=2,2. Ceea ce e destul de mult, dacă îmi permiteţi o constatare personală – jucaţi-vă cu aplicaţia interactivă din dreapta şi o să vedeţi că la γ=2,2 valorile apropiate de negru se cam încalecă la ieşire, în timp ce valorile apropiate de alb se răsfiră semnificativ faţă de valorile de intrare. Ori dacă noi şi la intrare şi la ieşire avem la dispoziţie numai 256 de nuanţe posibile înseamnă că pierdem o grămadă de detalii la ambele capete ale plajei de luminozitate: la capătul dinspre negru rotunjim claie peste grămadă multe valori pe care le-am calculat discret, iar la capătul dinspre alb pur şi simplu am calculat prea puţine valori şi vom obţine salturi vizibile de la o nuanţă la alta în imaginea finală.

Reţineţi, toată teoria de mai sus a pornit de la premiza că lucrăm exclusiv cu imagini ideale, generate chiar de noi – toate aceste pierderi de detalii sunt cauzate exclusiv de modelul matematic pe care l-am ales şi nu implică niciun fel de imperfecţiune a vreunei componente fizice. Prin urmare acesta este un defect al modelului – deci pentru rezultate mai bune trebuie să îmbunătăţim chiar modelul. Dar cum?

Un individ pe nume Greg Ward a înţeles atât de bine limitările acestui modelul încât a propus o soluţie în 1985 (repet, în caz că n-aţi fost atenţi: în 1985).[1] Dl. Ward a publicat o aplicaţie software de rendering care există şi astăzi. Programul se numeşte Radiance şi a fost prima aplicaţie care să propună un format HDR – adică o rezolvare a problemei ilustrate mai sus. Soluţia propusă de Greg Ward a fost implementarea unui format ingenios de stocare a culorilor care permite stocarea unei game dinamice uriaşe cu creşteri minore în necesităţile de stocare ale imaginilor faţă de modelul standard RGB.[2] Dar care-i treaba cu gama asta dinamică?

Gama dinamică

Deşi numărul aproximaţii impuse de corecţia gama aplicată pe imaginea rezultată prin procesarea liniară a informaţiei de luminozitate este semnificativ, o gamă de peste 65.000 de nuanţe este totuşi excesivă doar pentru a compensa acest efect. În realitate Greg Ward a iniţiat acest demers nu pentru că îl deranja chestia cu corecţia gama cât pentru că dorea să producă imagini cât mai corecte conform cu realitatea, pentru simulări fizice. Dar ce era în neregulă cu modelul pe 8 biţi?

Ochiul uman poate distinge o plajă de contrast uriaşă, de aproximativ 1.000.000:1.[3] Dar asta numai prin adaptarea sistemului vizual (micşorarea irisului, activarea sau dezactivarea diverşilor senzori de pe retină, procese chimice care afectează sensibilitatea acestora şi aşa mai departe) – cu alte cuvinte aveţi nevoie de timp pentru a vă adapta ochii atunci când ieşiţi în miezul zilei din pivniţă direct în stradă. Pentru o scenă dată, plaja de contrast statică, instantanee, este de 10.000:1 – prin comparaţie o cameră foto profesională poate capta o gamă dinamică efectivă până la aproximativ 11.000:1.[4]

Totuşi cum am converti din plajă de contrast, sau gamă dinamică, în biţi pe canal? Păi se vede cu ochiul liber că o gamă dinamică de x:1 este perfect echivalentă cu capacitatea de a stoca x valori discrete de luminozitate – sau invers, dacă stocăm imaginea într-un format care permite y biţi pe canal de culoare atunci plaja de contrast care poate fi stocată este de 2y:1.

Aşadar în formatul standard în care sunt stocate imaginile în mod obişnuit, la 8 biţi pe canal de culoare, gama dinamică este de-a dreptul jalnică: doar 256:1, faţă de 10.000:1 cât am putea distinge noi instantaneu. Totuşi să nu uităm că acei 8 biţi sunt folosiţi cu cap: nu stocăm informaţia de luminozitate liniar ci o codificăm, o comprimăm folosind corecţia gama. Formatul sRGB pe 24 de biţi (8 biţi pe canal) poate stoca o gamă dinamică teoretică de aproximativ 3.000:1 – mult mai bine decât dacă am stoca informaţia liniar, dar încă relativ puţin faţă de ce ar putea reuşi percepţia noastră la orice moment.

Dacă ne gândim acum la gama dinamică a imaginilor capturate cu o cameră fotografică ne dăm seama că formatul sRGB pe 24 de biţi este întru totul insuficient pentru cele mai multe aplicaţii practice legate de captură: de fiecare dată când facem o fotografie suntem nevoiţi să predeterminăm o anume plajă din gama dinamică a scenei, un subset din totalul variaţiilor de luminozitate reale pe care decidem să le stocăm în imagine. Tot ce se află în afara plajei de contrast pe care o stocăm se pierde definitiv – nuanţele prea întunecate se îneacă în negru, nuanţele prea deschise sunt arse în alb.

Generare şi implementare

Bun, deci ne-am lămurit că există cel puţin două situaţii în care avem nevoie de o gamă dinamică mai mare decât cea pe care ne-o poate oferi formatul standard RGB pe 24 de biţi:

  • atunci când capturăm o imagine, dacă o stocăm de la bun început în format sRGB reţinem o gamă dinamică de doar 3000:1 din gama dinamică a camerei, care poate ajunge la 11.000:1;
  • atunci când generăm o imagine, dacă o stocăm intern liniar pe 24 de biţi obţinem un original cu o gamă dinamică efectivă de doar 256:1, faţă de 3000:1 cât ar putea stoca spaţiul de culoare sRGB.

De fapt există mai multe situaţii, iar în realitate captura propriu-zisă nu are nevoie chiar de HDR. Hai să le luăm pe rând.

Camere foto: formatul brut şi captura HDR

Exemplu de scenă cu contrast mare: compromis subexpus (nu se vede peretele).
Aceeaşi scenă, compromis supraexpus (nu se vede marea).
Aceeaşi scenă, compromis de expunere obţinut prin expunere multiplă (HDR) şi compresie prin tone mapping.

Am văzut deja care este soluţia de principiu – pur şi simplu se adaugă mai mult spaţiu de stocare pentru fiecare pixel. Este totuşi necesară o precizare aici: spaţiul de culoare sRGB conţine aceeaşi gamă de luminozitate şi de culori, indiferent de numărul de biţi pe pixel pe care este stocată imaginea. Acelaşi lucru se întâmplă cu orice spaţiu de culoare: modelul matematic prevede valori abstracte, normalizate, de regulă între 0 şi 1, pentru „cartografierea” fiecărei culori din spaţiul descris (e.g. sRGB) în spaţiul CIE XYZ sau orice alt spaţiu de referinţă. Prin urmare nu are importanţă dacă imaginea este stocată pe 24 de biţi, 32 de biţi sau 48 de biţi, atâta timp cât este reprezentată într-un spaţiu de culoare „obişnuit” – singurul câştig este creşterea densităţii punctelor pe spaţiul CIE XYZ.

În cazul dispozitivelor digitale de captură (scannere, camere de fotografiat şi chiar camere de filmat) gama dinamică şi plaja de culori care pot fi capturate depind exclusiv de calitatea senzorilor. Prin urmare cea mai logică soluţie pentru a obţine un rezultat de calitate este ca operatorul să aibă la dispoziţie datele într-o formă cât mai brută, în aşa fel încât să poată controla întreg procesul, de la codificarea gama şi până la reprezentarea imaginii într-un spaţiu de culoare oarecare. Şi chiar aşa se procedează: toate camerele şi scannerele de nivel semiprofesional (sau mai bune) exportă un format nativ brut – aşa-numitul „raw image format” în engleză. Acesta conţine datele despre culoare complet neprocesate, aşa cum au fost ele capturate de senzorii camerei. În acest context nu prea putem vorbi de un format HDR adevărat – formatul imaginii depinde de producător, iar gama dinamică reprodusă depinde de modelul individual al dispozitivului.

Există totuşi posibilitatea de a captura imagini HDR adevărate folosind camere de fotografiat obişnuite. Imaginaţi-vă de exemplu că faceţi fotografii pe străduţele din Sighişoara şi vreţi la un moment dat să încadraţi de aşa natură încât să includeţi atât clădirea din fundal, aflată în plin soare, cât şi un detaliu de pe peretele umbrit din faţa dumneavoastră. Diferenţa de luminozitate dintre cele două este de cel puţin trei-patru stopuri, camera dumneavoastră n-are nicio şansă să le capteze corect pe amândouă, nici măcar în format brut. Totuşi le puteţi expune pe amândouă corect separat – oare asta nu contează? Ba da! Dacă folosiţi un trepied puteţi obţine expuneri corecte ale ambelor elemente în două imagini separate, iar cele două imagini se suprapun perfect (sau, oricum, suficient de bine pentru orice scop practic). Există o sumedenie de aplicaţii software care pot porni de la cele două imagini (în mod ideal în format brut) şi le pot converti într-o singură imagine HDR.[5]

Această tehnică de a combina mai multe fotografii cu gamă dinamică „standard” într-o singură imagine cu gamă dinamică înaltă este una dintre cele mai importante două surse de imagini HDR. Şi à propos de terminologie, HDR este în general conceptul de imagine cu gamă dinamică înaltă; obţinerea imaginilor HDR este numită în engleză „high dynamic range imaging”, prescurtată HDRI. Cele două tehnici principale de HDRI sunt fotografia cu expunere multiplă (ceea ce tocmai am descris aici) pe de o parte şi generarea acestor imagini, pe de altă parte.

Generarea imaginilor HDR

Atunci când generăm o imagine într-o aplicaţie 3D avem în mod ideal control total asupra tuturor proceselor interne ale aplicaţiei, indiferent că e vorba de generarea unor imagini sau animaţii non-interactive sau de generarea dinamică a imaginilor într-un joc. Prin urmare decizia de a genera intern imagini HDR pare destul de arbitrară – dacă în cazul fotografiei avem nevoie de formate HDR pentru că aceasta este natura scenei fotografiate, de ce am avea nevoie de HDR în cazul unei scene generate? Oare nu o putem genera în orice fel dorim? Este evident că în cazul generării imaginilor am putea folosi intern orice număr de biţi pe pixel într-un spaţiu de culoare convenţional precum sRGB, anulând practic orice compromis legat de neliniarizarea imaginii finale prin aplicarea corecţiei gama.

În primul rând, trebuie să înţelegeţi că orice simulare a unui model într-un spaţiu virtual se supune exact aceloraşi limitări teoretice ca fotografierea unei scene reale: informaţia legată de intensitatea luminii este procesată tot liniar (asta ştiam deja), dar în plus scena însăşi poate conţine extreme de contrast care pur şi simplu nu pot fi reprezentate corect în spaţiul sRGB. Adică exact situaţia pe care am întâlni-o în cazul fotografiei, dacă am folosi o cameră foto digitală cu gamă dinamică ridicată.[6]

Am ajuns deci la esenţa lucrurilor: se vede treaba că avem tot timpul nevoie de imagini HDR, chiar şi atunci când nu există limitări practice legate de calitatea senzorilor. Prin urmare această necesitate nu este cauzată doar de considerente practice, ca în secţiunea anterioară, ci este o necesitate autentică, generată cumva chiar de limitele modelului matematic al spaţiului sRGB.

Utilizarea imaginilor HDR

Am văzut mai sus cum obţinem imagini HDR şi ce limitări reuşim să ocolim folosindu-le, dar oare ce facem cu imaginile HDR până la urmă?

Redarea imaginilor HDR (tone mapping)

Tone mapping – compromis credibil; imagine sub licenţă liberă
Tone mapping – aparenţă de desen; imagine sub licenţă CC

De vreme ce putem obţine imagini HDR cu o gamă dinamică practic oricât de înaltă înseamnă că pentru redarea lor va trebui să le reducem contrastul, în aşa fel încât gama dinamică să ajungă la nivelul mediului sau dispozitivului de redare. Până acum am vorbit doar despre gama dinamică a sistemului vizual, despre gama dinamică a diverselor dispozitive de captură şi despre gama dinamică a diverselor modele teoretice, dar oare ce gamă dinamică putem reprezenta pe un monitor sau pe hârtie? Poate părea surprinzător, dar aici stăm cel mai prost; îngrozitor de prost, de fapt. Am văzut că sistemul vizual poate percepe o plajă totală de contrast de 1.000.000:1, sau 10.000:1 în orice situaţie dată; am văzut că o cameră foto digitală poate capta până la 11.000:1 şi că în spaţiul de culoare sRGB putem stoca o plajă de contrast de 3.000:1. Dar ce gamă dinamică credeţi că poate reprezenta un monitor LCD modern? În mod cu totul jenant, doar vreo 1.000:1 – şi asta doar pentru cele de foarte bună calitate.[7] Iar pentru tipar, chiar în condiţii ideale de vizualizare, valoarea e de-a dreptul descumpănitoare: sub 150:1.[8]

Oare asta înseamnă că ne zbatem degeaba capturând şi generând imagini HDR? Dacă până şi spaţiul standard sRGB depăşeşte cu mult capacitatea de reproducere a tuturor metodelor uzuale de reproducere a imaginilor, la ce bun ne chinuim atât? Vă daţi seama că în cazul imaginii HDR de la Sighişoara am căutat să obţinem o imagine HDR pentru că aparatul foto nu reuşea să captureze într-o singură expunere întreaga plajă de contrast a scenei – dar şi o singură expunere a camerei foto conţine o gamă dinamică cu mult mai mare decât cea pe care o poate reproduce un monitor LCD obişnuit!

La reproducerea imaginilor HDR pe dispozitive de felul unui LCD ne vin din nou în ajutor particularităţile sistemului vizual uman. Se dovedeşte că sistemul nostru vizual este adaptativ nu doar pe axa luminozităţii, dar şi în cadrul câmpului vizual.[9] Astfel, o scenă cu plajă de contrast foarte ridicată poate fi reprezentată credibil într-o plajă de contrast mult mai scăzută atâta timp cât reuşim să păcălim creierul menţinând contrast local între diversele obiecte din scenă. Sigur, soluţia este una de compromis, iar asta în mai mare măsură decât atunci când am convenit să stocăm informaţia de luminozitate neliniar – atunci ne pliam în mod obiectiv pe capacităţile sistemului vizual, în timp ce acum încercăm în mod activ să-l păcălim.

Tehnicile folosite pentru a păcăli sistemul vizual în acest context se numesc în engleză tone mapping – în traducere aproximativă „cartografiere a tonurilor de culoare”. Oricare ar fi tehnica specifică de tone mapping, scopul final este întotdeauna acelaşi: comprimarea unei game dinamice mai extinse într-o gamă dinamică mai restrânsă. Indiferent dacă scena originală este reală sau virtuală, în funcţie de calităţile ei şi de deciziile făcute la compresia gamei dinamice, rezultatul poate varia în general între o imagine credibilă dar care reprezintă o gamă dinamică relativ mică în termeni absoluţi sau o imagine vizibil artificială dar care reprezintă o gamă dinamică relativ mare.

Exemplu de imagine cu şi fără utilizare HDR; compresie de gamă dinamică automată. Imagine din jocul Far Cry; joc şi imagine copyright Ubisoft

Vă daţi seama că din punct de vedere teoretic există o infinitate de soluţii posibile pentru a comprima o gamă dinamică – ar putea fi folosită orice funcţie al cărei grafic are o pantă subunitară pe un domeniu oarecare. Pe de altă parte, scopul final al compresiei gamei dinamice este obţinerea unei iluzii convingătoare. Atunci când un fotograf creează o imagine oarecare pornind de la o imagine HDR, el trebuie să ia nişte decizii creative pe baza particularităţilor acelei unice imagini. Raţionamentul este similar pentru un artist care îşi generează imaginile într-o aplicaţie de modelare tridimensională. Dar oare ce decizii se pot lua în cazul unui joc, unde toate datele de plecare sunt variabile? Ei bine, chiar şi în cazul jocurilor imaginile HDR pot aduce un aport pozitiv.

În cazul imaginilor generate, se calculează intern o imagine HDR care are atât densitatea nuanţelor cât şi plaja dinamică considerabil superioare imaginii finale, însă în care luminozitatea este codificată liniar. Apoi se operează compresia gama, iar gama dinamică este comprimată printr-o tehnică oarecare, cu intenţia de a păcăli sistemul vizual. În exemplul de mai sus de la Ubisoft, cea mai evidentă diferenţă între cele două imagini este prezenţa haloului albastru în jurul zonelor în care luminozitatea din scenă întrece cu mult plaja de luminozitate care poate fi redată. Efectul se numeşte „light bloom” în limba engleză şi presupune un fel de convenţie între creatorii jocului şi privitor, însă este un compromis eficient şi de efect. În afară de blooming, tehnici similare cu tone mapping ameliorează cantitatea de detalii vizibile atât în zonele întunecate cât şi în zonele luminoase ale scenei, prin comparaţie cu rezultatele obţinute prin procesarea internă a imaginilor fără HDR.

Legat de terminologie, dacă tehnica de capturare a imaginilor este HDRI (High Dynamic Range Imaging), tehnica de generare a imaginilor HDR este HDRR (High Dynamic Range Rendering).

Folosirea imaginilor HDR ca surse

Imaginaţi-vă că lucraţi la o firmă de postproducţie 3D şi aveţi de făcut efectele speciale pentru un film oarecare. Una dintre provocările inerente integrării unei animaţii generate pe calculator într-o scenă filmată este să potriviţi corect luminozitatea, punctul de alb şi reflexiile obiectelor generate, în concordanţă cu scena filmată. Orice abatere semnificativă în oricare dintre aceste privinţe este vizibilă, iar privitorul va putea distinge obiectele reale, filmate, de obiectele pe care le-aţi adăugat în scenă în postproducţie.

Una dintre cele mai utilizate tehnici în acest caz este să se aşeze o cameră de fotografiat pe un trepied în mijlocul scenei care tocmai a fost filmată şi să se facă fotografii de jur împrejur; aceste imagini sunt apoi montate una peste cealaltă pe o sferă, iar rezultatul este o imagine sferică ce reprezintă scena reală.[10]

Această imagine sferică ambientală poate fi apoi folosită pentru a simula toate elementele pe care le-am menţionat mai sus: punct de alb, grad de luminozitate şi reflexii. Însă şi această imagine este, ca oricare alta, supusă limitărilor spaţiului de culoare în care este stocată. Dacă scena dictată de scenariu este o scenă de noapte, în care vedem o şosea întunecată prin care la un moment dat trece o maşină cu farurile aprinse, atunci spaţiul de culoare sRGB este în mod evident insuficient pentru a stoca gama dinamică a scenei atât cu maşina în cadru cât şi fără ea. Şi aici se apelează la HDRI – scena ambientală se capturează în mai multe cadre, fiecare cu expunere multiplă. În acest fel se poate capta o gamă dinamică suficientă pentru orice situaţie practică – dacă poate fi capturată de camera de filmat atunci poate fi capturată şi de camera de fotografiat, deci poate fi utilizată şi în efecte.

Note

  1. Domnul Ward era angajat pe vremea aia la Lawrence Berkeley National Laboratory, o instituţie respectabilă la care au lucrat de-a lungul timpului 11 laureaţi ai premiului Nobel; tot la LBNL s-au descoperit 14 elemente chimice (printre care berkelium) şi s-au scris aplicaţii precum tcpdump şi traceroute. Not bad.
  2. Formatul folosit de Radiance se numeşte RGBE şi foloseşte 4 octeţi pe pixel faţă de 3 octeţi pe pixel în cazul formatului standard RGB – deci o creştere de doar 33%. Deşi formatul RGBE presupune de la bun început nişte aproximări ale nuanţelor, gama dinamică pe care o poate stoca este cu peste 70 de ordine de mărime mai mare chiar decât cea a formatului sRGB actual (sRGB pe 24 biţi poate stoca o gamă dinamică de aproximativ 3*103:1, în timp ce RGBE pe 32 de biţi poate stoca o gamă dinamică de 1076:1). Scopul aplicaţiei Radiance a fost de la bun început modelarea cât mai exactă a culorilor pentru analiză teoretică, dar formatul RGBE nu a fost scutit de imperfecţiuni – una dintre ele este chiar gama dinamică mult prea mare pentru orice necesitate practică. Pentru detalii vezi articolul High Dynamic Range Image Encodings, scris chiar de Greg Ward după 20 de ani (în engleză).
  3. Adică dacă notăm cea mai mică intensitate luminoasă pe care o puteţi distinge de negru cu 1, atunci cea mai mare intensitate luminoasă la care încă mai percepeţi detalii este de 1.000.000 de ori mai mare.
  4. Cea mai mare gamă dinamică disponibilă în octombrie 2009 când a fost scris acest articol era de 13,4 Ev măsurată la un Nikon D3X.
  5. Gustave Le Gray
    Ideea pare destul de simplă, oare de ce nu i-a dat nimănui prin cap înainte de apariţia camerelor digitale din anii 2000? Nicio grijă, ideea în sine e aproape la fel de veche ca fotografia: prima fotografie a fost făcută în 1825, iar în 1850 un oarecare Gustave Le Gray făcea deja expuneri multiple pe negative diferite, combinate apoi într-o singură fotografie. Iar Le Gray nu era de fapt chiar un oarecare – a fost considerat cel mai important fotograf francez al secolului XIX.
  6. În cazul unei camere digitale semiprofesioniste spaţiul de culoare sRGB ar fi suficient, deoarece senzorul camerei nu ar fi oricum capabil să capteze o plajă de contrast mai mare decât cea suportată de sRGB – de aceea în acest caz am vorbit mai sus doar despre necesitatea „îndesirii” punctelor. O cameră modernă profesională însă are senzori de calitate atât de ridicată încât depăşeşte chiar specificaţia spaţiului de culoare sRGB; acelaşi lucru se întâmplă şi în cazul imaginilor generate, unde „senzorii” teoretici au calitate ideală.
  7. Vă amintiţi poate din articolul despre modelul RGB că spaţiul de culoare sRGB nu este atât un spaţiu prescriptiv cât unul descriptiv – mai exact, spaţiul sRGB a fost „modelat” pe capacităţile de reproducere a culorilor ale monitorului CRT mediu. De vreme ce sRGB poate stoca o plajă de contrast de 3000:1 înseamnă oare că monitoarele CRT pot reproduce o plajă similară, prin comparaţie cu doar 1000:1 în cazul monitoarelor LCD? Da, exact – în condiţii ideale de iluminare un monitor CRT poate reproduce 3000:1; sigur, condiţiile sunt rareori ideale, dar este adevărat că monitoarele CRT sunt în general capabile să reproducă o plajă de contrast mult superioară monitoarelor LCD actuale. Acesta este de altfel şi unul dintre motivele importante pentru care afişajele cu plasmă sunt competitive – atât costul de achiziţie cât şi consumul electric sunt cu mult mai mari faţă de monitoarele LCD, însă gama dinamică superioară este unul dintre avantajele majore ale afişajelor cu plasmă.
  8. Vă daţi seama că tiparul este prin definiţie dezavantajat sub aspectul gamei dinamice: oricât de bună ar fi hârtia, cerneala sau maşina de tipar, tiparul produce un mediu pasiv. De pildă dacă nu aprindeţi lumina, gama dinamică a imaginii tipărite este practic nulă: imaginea nu se vede. Iar dacă puneţi o mie de reflectoare pe coală atunci până şi cerneala neagră ajunge să reflecte lumina.
  9. În realitate sistemul nostru vizual este adaptativ în toate direcţiie: şi pe axa luminozităţii, şi în plan cromatic, şi în cadrul câmpului vizual. Pe axa luminozităţii ne adaptăm ochii atât pentru lumină intensă cât şi pentru lumină joasă, iar în plan cromatic suntem capabili să compensăm în mare măsură nuanţa sursei de iluminat, percepând conştient culorile corecte sub condiţii foarte variate de iluminat.
  10. Ştiu, conceptul de „imagine sferică” nu este tocmai intuitiv la prima vedere, însă nu e mare brânză. Atunci când faceţi o fotografie, aparatul de fotografiat capturează toate razele de lumină care vin din faţă, spre obiectiv, dintr-o zonă rectangulară (v-aţi întrebat vreodată de ce tocmai o zonă rectangulară? doar obiectivul este circular!) Ei, dar dacă am face mai multe poze de jur-împrejur, până am ajunge din nou de unde am plecat, am captura toate razele de lumină care vin din jurul nostru, dintr-o zonă de forma suprafeţei curbate a unui cilindru (strict vorbind, rezultatul direct ar fi echivalent cu mai multe fotografii ale feţelor laterale ale unei prisme cu un număr de feţe egal cu numărul de fotografii pe care le-am făcut, însă imaginile pot fi deformate şi montate pentru a echivala o suprafaţă cilindrică). Dacă în plus am face fotografii şi în sus şi în jos de jur împrejur am reuşi să capturăm toate razele de lumină care se îndreaptă spre noi din orice direcţie – pe scurt, o imagine sferică (aceleaşi note ca în paranteza anterioară).