Jak to zwykle bywa w historii różnych urządzeń i tutaj narodzinom cyfrowego detektora przyświecał zupełnie inny cel, niż by się mogło wydawać.
Od początku, czyli od połowy XIX wieku, do wytworzenia obrazu na materiale światłoczułym wykorzystywano procesy chemiczne. Początkowo były to szklane płyty fotograficzne powlekane substancją światłoczułą, a potem produkowane do dziś klisze fotograficzne.
W drugiej połowie XX wieku na scenie pojawiły się układy cyfrowe. Powstały jednak nie w wyniku badań prowadzących do stworzenia doskonalszego detektora światła. W roku 1969 pracownicy laboratorium Bella (zadziwiające ile powszechnych dziś wynalazków powstało w tym miejscu) Willard Boyle i George Smith poszukując technologii pozwalającej na przechowywanie dużej ilości danych, czyli w pewnym sensie pamięci, wynaleźli coś, co nazwano CCD.
Szybko zorientowano się w potencjale tkwiącym w tych urządzeniach (jak zwykle najszybsze były media) i już w 1974 pierwsze detektory CCD trafiły do kamer telewizyjnych. Od lat 80 stosuje się je powszechnie w nauce. W tym samym okresie powstawała także bliźniacza technologia CMOS, która stała się podstawą dzisiejszej mikroelektroniki, a do świata fotografii wkroczyła niejako kuchennymi drzwiami. Mimo wielu różnic pomiędzy tymi technologiami, a zarazem problemów ,jakie sprawiają użytkownikom, podstawa działania obu rodzajów urządzeń jest taka sama.
PODSTAWOWA ZASADA:
Na początku XX wieku Einstein opisał istotę zjawiska fotoelektrycznego wewnętrznego. Polega ono na przekazaniu energii fotonów padającego światła elektronom metalu (w matrycach stosuje się krzemowe półprzewodniki), które zostają uwolnione (odseparowane od atomu, nazywa się je fotoelektronami). Jest to podstawa działania każdej matrycy cyfrowej w aparacie.
Nazwy obu technologii to skróty:
CCD - układ o sprzężeniu ładunkowym (ang. charge coupled device)
CMOS - komplementarny półprzewodnik tlenkowy (ang. complementary metal-oxide semiconductor),
W dalszej części artykułu, jeśli nie będzie to jednoznacznie określone, terminy "matryca światłoczuła", "detektor" będą odnosiły się zarówno do układów wykonanych w technologii CCD jak i CMOS.
Wśród niektórych użytkowników aparatów cyfrowych popularne są spory na temat "który detektor jest lepszy". Przypomina to często "wojny systemowe", gdzie zwolennicy jednej marki aparatu udowadniają jej wyższość nad inną. Nie jest to jednak dobre podejście. Obie technologie są intensywnie rozwijane, miewają także okresy zastoju, i choć każda ma swoje zalety i wady, to obie doskonale sprawdzają się w fotografii cyfrowej.
Historia rozwoju aparatów cyfrowych to wiele wydarzeń i związanych z nimi dat. Niektóre z nich były przełomowe, niektóre nie doprowadziły do żadnych osiągnięć. Ciężko podać jednoznacznie, kto stworzył pierwszą cyfrówkę lub który model można traktować jako pierwszy powszechnie dostępny.
Jak zwykle dużą rolę odegrała tutaj m.in. firma Kodak. W 1986 roku stworzono w ich laboratoriach pierwszy układ o 1 milionie pikseli (1MPix, o megapikselach mowa będzie dalej). Początek lat 90-tych możemy potraktować jako początek ery cyfrówek. Wtedy to pojawiły się na rynku pierwsze aparaty cyfrowe, m.in. Kodak DCS-100 SLR z matrycą 1.3Mpix. Nowa technologia słono kosztowała - 30000$. Musiało jednak upłynąć jeszcze kilka lat zanim cyfrówki zaczęły podbijać nasze serca i "kieszenie". W połowie lat 90-tych zaczęły się pojawiać cyfrowe kompakty o swojsko dziś brzmiących nazwach Canon Powershot, Sony Cybershot, Casio QV, Nikon Coolpix, które mogliśmy już podłączyć do komputera.
Jedna z pierwszych cyfrówek - Canon Powershot 600 i najnowszy model Canon Powershot G7. Jak widać wyglądać zewnętrzny nie uległ znaczącej zmianie.
Matryce stosowane w pierwszych szeroko dostępnych aparatach miały niewielką rozdzielczość. Była ona rzędu 640x480pix (0.3Mpix).Dziś taką rozdzielczością może pochwalić się prawie każdy telefon komórkowy, a raczej wbudowany weń aparat. Szybko nastąpiły zmiany i już w 1997 roku aparaty mogły się poszczycić przetwornikami 1Mpix. Na przełomie stuleci aparaty miały już zwykle montowane matryce 2Mpix. W roku 2003 większość nowych cyfrówek miała detektory 3 lub 4Mpix, a na horyzoncie widać było już modele z matrycą 5Mpix. Każdy kolejny rok przynosił nam zwiększanie ilości Mpix w aparatach. Dzisiaj jesteśmy w stanie wykonać zdjęcie mające 10Mpix za pomocą niezbyt drogiego (oczywiście w porównaniu z dawnymi konstrukcjami) kompaktu. Lustrzanki mają matryce 6,10,12 aż do kilkudziesięciu (w profesjonalnych modelach) Mpix.
MATRYCE CYFROWE W NAUCE: Jednym z bardzo ważnych pól zastosowań CCD, a ostatnio także i CMOS jest nauka. Zastosowanie CCD w połowie lat 70-tych do obserwacji astronomicznych stanowiło ogromny przełom w rozwoju tej dziedziny nauki. Od tej pory astronom nie jest skazany na żmudne i długotrwałe naświetlanie szklanych płyt fotograficznych (w profesjonalnej astronomii nie stosuje się klisz), a może uzyskać znacznie szybciej bardziej dokładny obraz za pomocą detektora cyfrowego. Co ciekawe, nie analizuje już danych za pomocą własnego wzroku (a tak dawniej bywało), ale może pozwolić wykonać to zadanie szybciej i precyzyjniej komputerom. I w ten oto sposób dzisiejszy astronom to często także zdolny programista, znający się doskonale na cyfrowej obróbce obrazu. To dzięki tym urządzeniom otrzymujemy obecnie wspaniałe obrazy nieba i planet z sond kosmicznych. Astronomowie uwolnili się od ograniczeń jakie niosły ze sobą klisze - głównie konieczności wywołania, a także ograniczenia w ilości wykonanych obrazów.
Układy stosowane w nauce w pełni wykorzystują potencjał, jaki niesie ze sobą czułość matryc, okupione jest to jednak koniecznością bardzo precyzyjnej kalibracji urządzeń, a często także utrzymywania w temperaturze poniżej -90'C. Wymaga to chłodzenia za pomocą ciekłego azotu, a nawet helu, co jest nie do pomyślenia w przypadku aparatu cyfrowego.
Kolejne Mpix w aparatach pozwoliły nam wykonywać coraz lepsze powiększenia i przyczyniły się do zwycięstwa techniki cyfrowej nad analogową. Czy jednak można tak w nieskończoność? Czy za parę lat pójdziemy do sklepu po Canona G10 z 20Mpix matrycą? Możliwe, choć nie takie pewne. Aby stało się to rzeczywistością producenci będą musieli pokonać kolejną barierę - jakości obrazu. Dlaczego? O tym przekonamy się z dalszej lektury tego artykułu.