Ultrapiksele: matryce bez filtrów koloru - innowacyjne technologie dla mobilnej fotografii
Technologia Ultrapikseli tworzona jest po to, aby zwiększyć czułość sensorów w nowoczesnych aparatach cyfrowych
Ultrapiksele w smartfonach HTC i innowacyjne rozwiązanie Panasonic, zwiększające nawet dwukrotnie czułość matryc, to nowe rozwiązania, o których w najbliższym czasie może być głośno. Tak samo jak rok temu głośno było o technologii PureView, którą opracował koncern Nokia, a teraz o sensorach Exmor RS, które zastosowano między innymi w smartfonie Sony Xperia Z.
Fotografia to drugi po wydajności obliczeniowej aspekt technologii smartfonowych, który podlega dynamicznemu rozwojowi. Jednak znacznie szybciej niż w przypadku aparatów cyfrowych odczuwamy konsekwencje zbyt gęsto upakowanych pikseli. Nie tylko dlatego, iż matryce są malutkie, ale również w związku z bardzo skąpą przestrzenią, którą można przeznaczyć na moduł aparatu cyfrowego w coraz cieńszych obudowach smartfonów.
Rok temu Nokia postanowiła pokazać produkt, który można uznać za wyznacznik jakości mobilnej fotografii - Nokia 808 PureView. Jesienią ujrzeliśmy drugie z wcieleń technologii PureView. Z kolei Sony po zapowiedziach sprzed pół roku, zaprezentowało w styczniu smartfony Xperia Z z sensorem Exmor RS (konstrukcja warstwowa). To nie jedyne innowacje, jakie dla nas przygotowali producenci sprzętu mobilnego.
O specyfikacji smartfona HTC One, zwanego kodowo M7, który ma mieć moduł aparatu z sensorem 13 Mpix, na pewno słyszeliście. Ale być może przegapiliście informacje o technologii matrycy, która wykorzystuje tak zwane ultrapiksele. Jak się okazuje, nie będzie to tradycyjny sensor, a matryca składająca się z trzech warstw pikseli R, G i B, podobnie jak w sensorach FOVEON. Taki układ warstw światłoczułych pozwala lepiej odwzorować kolory i zmniejszyć szumy.
Tak działa technologia FOVEON, jeden piksel reaguje na trzy składowe barwy światła - podobnie ma być w smartfonach HTC.
Oficjalne szczegóły konstrukcji, poznamy tuż przed targami MWC 2013. Efektywna rozdzielczość sensora w HTC M7 wyniesie jedną trzecią deklarowanej, czyli tylko około 4,3 Mpix. W praktyce to „tylko” to wystarczająca rozdzielczość, by zapewnić dobrej jakości odbitki 13x18 centymetrów. Ale co na to oddziały marketingu? I jeśli ultrapiksele mają coś wspólnego z FOVEONem to, czyżby Sigma zwietrzyła szanse zarobienia na rynku mobilnym?
O technicznych aspektach pomysłu Panasonica wiemy nieco więcej, choć sam produkt jest większą niewiadomą. Co prawda Panasonic wrócił do świata smartfonów, ale raczej nie ma jeszcze wiele do powiedzenia. Być może nowa technologia matryc światłoczułych pozwoli mu w większym stopniu zaistnieć w branży mobilnej. Plusem rozwiązania jest fakt, iż wymagana technologia nie wymaga znacznych modyfikacji obecnych linii produkcyjnych matryc CCD i CMOS.
Koncepcja Panasonica zakłada zwiększenie czułości sensorów, niezależnie od technologii ich wykonywania, poprzez wyeliminowanie jednego z elementów, który bardzo przykłada się do strat światła. Są to filtry koloru, które są rozmieszczone w matrycy przed pikselami (najczęściej stosowany wzorzec to maska Bayera). Każdy z tych filtrów przepuszcza tylko jedną ze składowych RGB światła. Oznacza to, że światło dla pozostałych kolorów, w przypadku danego piksela, zostaje zmarnowane.
Filtry barwne to źródło od 30% do 50% strat światła docierającego do sensora. W praktyce należy uwzględnić także straty w układzie optycznym obiektywu.
Panasonic postanowił zamienić filtry koloru na specjalne mikrorozdzielacze (przypominają zasadą działania pryzmaty), które dzielą wiązkę światła na trzy. Dwie wiązki, które zostają ugięte na boki, niosą informacje o czerwonej części widma, a wiązka, która nie ulega ugięciu (przechodzi na wprost), pozbawiona jest z kolei informacji o czerwonej składowej. Mikrorozdzielacze umieszczone są co drugi piksel. Oznacza to, że piksele matrycy otrzymują na przemian światło białe pozbawione informacji o czerwonym oraz światło białe plus światło czerwone z sąsiednich pikseli (ilustracja poniżej). Realizacja tej idei wymaga oczywiście zastosowania całkowicie nowych algorytmów interpolacji barwnej (odtworzenia rzeczywistych barw dla każdego piksela matrycy na podstawie cząstkowych informacji w pikselach).
Wgłębiając się w to zagadnienie, okaże się, że dochodzą tu do głosu także takie techniki numeryczne jak metoda różnic skończonych w domenie czasowej (FDTD) i metoda propagacji wiązki (BPM), które pozwalają na rozwiązanie problemów powstających w wyniku zjawisk falowych zachodzących w nowym typie sensora. Na szczęście fotografia obliczeniowa (ang. computational photography) jest dziś osiągalna nawet dla sprzętu amatorskiego, dzięki rosnącej wydajności układów obliczeniowych.
Ze względu na brak pochłaniania światła, mamy tylko ugięcie wiązki w mikrorozdzielaczach, 100% padającego na sensor światła trafia do pikseli. Przykład ilustruje zysk z zastosowania takiego rozwiązania.
Jak zapowiada Panasonic, jego pomysł pozwoli na dwu, a nawet trzykrotną poprawę czułości sensorów. Dla użytkowników aparatów w smartfonach, ale i dla świata zwykłej fotografii cyfrowej, byłaby to znakomita wiadomość. Musimy być jednak ostrożni w przepowiadaniu świetlanej przyszłości fotografii mobilnej. Od laboratoryjnych sukcesów i zapowiedzi, do komercyjnego wdrożenia niejednokrotnie prowadzi długa droga, niekoniecznie usłana różami. Wystarczy przypomnieć sobie o organicznych matrycach Fujifilm czy sensorach wykorzystujących kropki kwantowe. Warto także wspomnieć o metasoczewkach, które są całkowicie płaskie. Niestety, takie meta-triki na razie nie dają zastosować się do fal światła widzialnego.
Źródło: HTC, Panasonic, Sigma, Inf. własna
Komentarze
15Wszystko zależeć będzie od jakości antyrefleksyjnych warstw dielektrycznych położonych na elemencie dyfrakcyjnym w celu redukcji niepożądanych ugięć światła.
Policzyć takie warstwy znacznie łatwiej, jak zoptymalizować ich koszt.
Chyba centymetrów? :)
http://www.youtube.com/watch?v=P77SlK6CtHg