Pobierz
najnowszy numer

Newsletter

Zapisz się do naszego Newslettera, aby otrzymywać informacje o nowościach z branży!

Jesteś tutaj

Piksel pikselowi wilkiem

Printer Friendly and PDF

lead.jpg

Pojęcie piksela pojawiło się w słownictwie związanym z telewizją dość późno. Zostało zapożyczone z techniki komputerowej, gdzie znacznie wcześniej, na długo przed upowszechnieniem się elementów CCD i monitorów LCD, wprowadzony został podział ekranu na dające się osobno opisać miniaturowe elementy o określonej barwie i jaskrawości. Powodem była potrzeba zapamiętywania i obróbki treści obrazu. To z kolei wymagało kwantyzacji sygnału analogowego i przejścia na opis cyfrowy.

Obraz ciągły czy podzielony?

Kwantyzacja dotyczyła zamiany sygnału analogowego na odpowiadający mu ciąg liczb i odbywała się poprzez próbkowanie sygnału analogowego i pomiar wartości próbek (tak jak na przykład podczas kodowania metodą PCM). Kwantyzacji uległ także sam obraz, a dokładnie jego powierzchnia, która straciła ciągłość i została podzielona na setki tysięcy pól zwanych pikselami. Stało się tak pomimo powszechnego stosowania monitorów kineskopowych, działających na zasadach analogowych.
Właśnie w tym, że monitory kineskopowe były urządzeniami analogowymi, tkwiło źródło ówczesnego sukcesu. Wyświetlany obraz mógł mieć dowolny kształt i rozmiary, gdyż powierzchnia ekranu miała charakter ciągły, nie zawierała żadnych wyróżnionych punktów, była w stanie zaakceptować każdy rozkład pikseli1. W przypadku komputerów, których karty graficzne wytwarzały obrazy o wysokiej rozdzielczości, oznaczało to odejście od dotychczasowych częstotliwości odchylania ramki i linii. Było to możliwe, gdyż ekran kineskopu miał budowę ciągłą, akceptował dowolne formaty obrazu i częstotliwości odświeżania.

Pierwsze problemy – monitory LCD w telewizji analogowej

Pierwsze zwiastuny problemu wystąpiły w momencie pojawienia się monitorów LCD, których ekrany nie miały budowy ciągłej, lecz były podzielone na pojedyncze elementy świecące, czyli piksele, ułożone w rzędy i kolumny, tworzące jednoznacznie zdefiniowany raster telewizyjny. Tym razem nie było już mowy o dowolności. Na przykład nie można było wyświetlić elementu obrazu, który znajdował się na granicy pomiędzy sąsiednimi pikselami, co dla stosowanego dotychczas klasycznego kineskopu nie stanowiło problemu.

Podczas wyświetlania obrazów analogowych dobrą praktykę stanowiło stosowanie monitorów LCD z rastrem dopasowanym do standardu PAL czy VGA, czyli posiadających relatywnie niską rozdzielczość. Tendencja ta była powodem licznych nieporozumień, gdyż machina marketingowa chętnie zapożyczała pojęcia z rynku komputerowego i bezkrytycznie wprowadzała je do systemów CCTV, twierdząc, że na monitorze o wyższej rozdzielczości uzyska się obraz o lepszej jakości. Trudno odmówić logiki tej prostej w odbiorze, jednakże z gruntu fałszywej argumentacji.

Jak wygląda obraz telewizyjny o rozdzielczości zwanej umownie PAL-owską, czyli o rozmiarach rastra obrazowego 768×576 pikseli, lub o rozdzielczości VGA, czyli 640×480 pikseli, oglądany na monitorze komputerowym o dużo wyższej rozdzielczości? Zasadniczo są dwie możliwości, obie mają swoje wady i zalety i są uzależnione od działania oprogramowania graficznego oraz od mechanizmów obróbki sygnału wizyjnego zaszytych w samym monitorze.

Rozwiązaniem korzystniejszym dla obserwatora, aczkolwiek mało efektownym, jest wyświetlanie obrazu z ­zachowaniem zgodności liczby i rozkładu pikseli ze standardem PAL lub VGA, jednakże wyświetlany w ten sposób obraz zajmuje jedynie część powierzchni ekranu. Zaletą jest uzyskanie ostrego, wyrazistego obrazu o dobrej reprodukcji barw.

Inną możliwością jest wyświetlanie obrazu na dużym fragmencie lub na całej powierzchni ekranu monitora, co pociąga za sobą konieczność przekształcenia oryginalnego obrazu. I tu czeka nas ogromne rozczarowanie, gdyż pomimo wysokiej rozdzielczości monitora wyświetlany na nim obraz nie będzie robił dobrego wrażenia wzrokowego. Najdotkliwiej będzie można odczuć to podczas oglądania znaków alfanumerycznych, czyli, mówiąc prościej, napisów. Kształt liter będzie się zmieniał w zależności od ich pozycji na ekranie. Na podobnej zasadzie grubość linii tworzącej litery też będzie zmienna. Obraz jako całość będzie sprawiał wrażenie nieostrego, pozbawionego szczegółów.

Przyczyną tego zjawiska jest konieczność aproksymacji barwy i jaskrawości pikseli docelowych, fizycznie umieszczonych na ekranie monitora, przy czym dysponuje się danymi dotyczącymi pikseli źródłowych o innym rozkładzie, stanowiących obraz z kamery. Jeśli te dwie grupy pikseli nie pokrywają się wzajemnie, obraz nie może być ani wyraźny, ani ostry. Treść obrazu wyświetlanego na ekranie monitora stanowi efekt przekształcenia dążącego do możliwie najlepszego upodobnienia tego obrazu do oryginału, co nie może dawać dobrych efektów.

Tak więc „piksel pikselowi wilkiem”, dlatego bezpośrednie wykorzystanie tanich, komputerowych monitorów LCD do wyświetlania obrazów w standardzie PAL lub VGA natrafia na poważne problemy. Dla uzyskania poprawnych efektów konieczne jest stosowanie specjalnych monitorów LCD, przystosowanych do pracy w systemach analogowych. Przykładem takiego analogowego monitora LCD, odznaczającego się wyjątkowo plastyczną reprodukcją obrazów, jest przedstawiony na zdjęciu model SONY LMD 1410SC o rozmiarach matrycy równych 640×480 pikseli.

Dość charakterystyczną reakcją klientów na ten monitor było podejrzenie, że ktoś próbuje pozbyć się zalegających rezerw magazynowych, bo przecież wiadomo, że dostępne są monitory o znacznie wyższej rozdzielczości. Z kolei konfrontacja innych monitorów z LMD 1410SC, który wyświetla doskonały obraz, wywoływała zdziwienie i niedowierzanie. Podsumowując – wysoka rozdzielczość monitora analogowego nie stanowi gwarancji wysokiej jakości obrazu; można nawet powiedzieć, że jest odwrotnie, czyli oceniana wzrokowo wypadkowa rozdzielczość obrazu jest gorsza niż w przypadku monitora analogowego o mniejszej liczbie pikseli.

Linie telewizyjne jako miara rozdzielczości poziomej

We współczesnych, cyfrowych systemach telewizji dozorowej zwykło się określać rozdzielczość obrazu przez podanie rozmiarów rastra obrazowego, mierzonych liczbą pikseli w rzędach i w kolumnach. Przykładowo – w standardzie PAL można to opisać jako 768×576 pikseli. Jest to niezbyt precyzyjne, gdyż przez rozdzielczość rozumie się zdolność do reprodukcji małych szczegółów obrazu, zaś duża liczba pikseli jest jedynie narzędziem stwarzającym taką możliwość, ­dlatego te pojęcia są często utożsamiane. Tego typu rozumowanie niesie ze sobą ryzyko popełnienia pewnych błędów, jednakże wysoka jakość nowoczesnych obiektywów oraz zastosowanie cyfrowej techniki obróbki i transmisji danych pozwoliło na takie ograniczenie czynników pogarszających jakość obrazu, że w warunkach praktycznych można przyjąć, że liczba pikseli przetwornika zastosowanego w kamerze jest miarą maksymalnej rozdzielczości, dostępnej dla całego systemu.

Jednakże w wielu przypadkach, chociażby podczas rozstrzygania przetargów publicznych, wymagane jest podanie rozdzielczości mierzonej w tak zwanych liniach telewizyjnych (TVL). Sposób określenia rozdzielczości w TVL opisuje polska norma EN 50132-7. Polega on na określeniu maksymalnej liczby pionowych pasów, na przemian czarnych i białych, które można rozróżnić na wycinku obrazu telewizyjnego, którego szerokość jest równa wysokości ekranu. Jak łatwo zauważyć, taka definicja oznacza, że maksymalna dostępna rozdzielczość obrazu rastrowego wyrażona w liniach telewizyjnych jest równa liczbie pikseli w dowolnej z kolumn tego rastra, czyli w przypadku standardu PAL może dochodzić do 576 linii telewizyjnych. Ze względów praktycznych, a także ze względu na to, że do tworzenia ostatecznego obrazu nie zawsze wykorzystywane są wszystkie piksele rastra (mówi się o tak zwanych pikselach aktywnych), przyjmuje się maksymalną wartość rozdzielczości kamer analogowych pracujących w standardzie PAL równą 540 TVL.

rys1.jpg
Fot. 1. Monitor SONY LMD 1410SC

W zasadzie problem pomiaru faktycznej rozdzielczości kamer występuje tylko w przypadku konstrukcji hybrydowych, to znaczy kamer, które wytwarzają w swoim wnętrzu analogowy sygnał wizyjny, a następnie zamieniają ten sygnał na postać cyfrową. Takie kamery są cyfrowe tylko w nazwie, a w rzeczywistości niczym nie różnią się od dwuczłonowego zestawu, w skład którego wchodzi kamera analogowa połączona z koderem IP. Tego typu konstrukcje są nadal oferowane przez niektórych producentów. Trudno się dziwić niskiej jakości obrazu wytwarzanego przez takie hybrydy, gdyż jest on zupełnie niepotrzebnie przetwarzany z jednej postaci w drugą, zaś rozdzielczości nie da się określić inaczej, jak za pomocą liczby linii telewizyjnych (TVL). Na wartość rozdzielczości mają wpływ parametry wszystkich układów wzmacniających, filtrujących, próbkujących oraz przetwornika analogowo-cyfrowego. Dlatego też w kamerach hybrydowych nie da się oszacować rozdzielczości obrazu na podstawie rozmiarów przetwornika, trzeba ją zmierzyć za pomocą tablicy testowej, tak jak robiło się to jeszcze w latach pięćdziesiątych zeszłego stulecia. Kamery o takiej konstrukcji są drogie i obarczone licznymi wadami, z których główną jest brak możliwości wytworzenia obrazu megapikselowego, gdyż nie istnieje nic takiego, jak megapikselowy, analogowy, zespolony sygnał wizyjny.

Tej i innych wad nie mają kamery cyfrowe, w których od przetwornika obrazowego aż po wyjściowe gniazdo RJ-45 obraz ma postać strumienia danych cyfrowych. W takiej sytuacji rozdzielczość może być wyrażana liczbą pikseli i jest zbliżona do rozdzielczości przetwornika obrazowego użytego w kamerze. Warto podkreślić, że w przypadku kamer cyfrowych, które są wyposażone w pomocnicze wyjście wizyjne, powstający na tym wyjściu analogowy sygnał wizyjny jest elementem wtórnym, wytwarzanym ze strumienia danych cyfrowych, a nie pobieranym z wyjścia części analogowej, jak to ma miejsce w przypadku kamer hybrydowych. Jest to obraz przeznaczony wyłącznie do celów serwisowych i jego rozdzielczość ma się nijak do parametrów samej kamery, które mogą być zdecydowanie lepsze.

W tym momencie dochodzimy do kolejnego istotnego punktu. Osoby sceptyczne wobec technologii cyfrowej twierdzą, że kamery analogowe dawały obraz lepszy niż kamery cyfrowe. Trudno odmówić im racji – w przypadku archaicznych kamer hybrydowych rzeczywiście tak było, obraz na wyjściu analogowym był wolny od wad pojawiających się podczas próbkowania i zamiany na postać cyfrową i miał większą rozdzielczość od wynikowego obrazu cyfrowego na wyjściu sieciowym. Tego typu problemy nie występują w kamerach cyfrowych, w których sygnał analogowy w ogóle nie powstaje, a końcowa rozdzielczość nie różni się od pierwotnej, określanej przez parametry przetwornika.

Rozdzielczość rejestratora cyfrowego

W przypadku cyfrowych systemów telewizji dozorowej trudno jest uznawać rozdzielczość rejestratora za jeden z parametrów tego urządzenia. Tego typu podejście jest reliktem z epoki systemów analogowych i hybrydowych, w której rejestrator, w zależności od swoich parametrów, w mniejszym lub większym stopniu pogarszał jakość zapisywanego obrazu. W systemach cyfrowych rejestrator nie dokonuje żadnej zmiany treści obrazu, jest jedynie narzędziem rejestrującym, zapisującym strumień danych dochodzący poprzez sieć IP. Dlatego o rozdzielczości i o innych parametrach obrazu nie decyduje rejestrator, tylko przetwornik obrazowy i oprogramowanie kodujące użyte w kamerze. Co prawda część producentów oferuje rejestratory transkodujące, to znaczy zapisujące obrazy w innym formacie niż obrazy przychodzące z sieci IP, ale ma to związek z poprawą kompresji, z dążeniem do efektywnego wykorzystania przestrzeni pamięciowych etc. i w efekcie ubocznym może mieć nieznaczny wpływ na rozdzielczość obrazu. Tego typu działania są raczej sporadyczne.

Sytuacja wygląda inaczej w systemach hybrydowych, w których do rejestratora dostarczany jest analogowy sygnał wizyjny, który podlega próbkowaniu i zamianie na postać cyfrową. Rozwiązanie to ma wszystkie wady wymienione w opisie kamer hybrydowych, to znaczy transmisja sygnału poprzez kabel koncentryczny, późniejsze jego wzmacnianie, filtracja, próbkowanie etc. mają na tyle duży wpływ na jakość obrazu, że jego wynikowa rozdzielczość ma jedynie pośredni związek z liczbą pikseli w przetworniku kamery i może być określona wyłącznie metodą pomiaru. Na szczęście rejestratory hybrydowe są stosowane coraz rzadziej, przeważnie podczas modernizacji starych instalacji analogowych, z tego względu nie będą dokładniej omawiane.

Rozdzielczość obrazu na stacji roboczej

We współczesnych, cyfrowych systemach telewizji dozorowej obrazy są wyświetlane na stacjach roboczych, czyli stanowiskach zawierających między innymi wyspecjalizowany komputer wyposażony w odpowiednią kartę graficzną i specjalistyczne oprogramowanie, pozwalające na tworzenie stosownych zobrazowań, oraz monitor o wysokiej rozdzielczości. Stwarza to zupełnie nową jakość funkcjonalną i eliminuje ograniczenia rozdzielczości obrazów wynikające z aproksymacji pikseli opisanej na początku tego artykułu. W tym przypadku niezgodność układu pikseli źródłowych, odwzorowujących rozkład pikseli w przetworniku kamery z rozkładem pikseli na monitorze stacji roboczej, nie jest już tak istotna, czyli powiedzenie „piksel pikselowi wilkiem” przestaje być aktualne.

Z czego wynika tak wysoka jakość obrazu uzyskiwana na współczesnych stacjach roboczych? Dlaczego ograniczenia wynikające z różnic w rozdzielczości kamer i monitorów nie są tu aż tak istotne? Powodem jest duża moc obliczeniowa komputerów oraz kart graficznych, które składają się na stacje robocze. Co prawda rozkład pikseli w obrazie wyświetlanym na ekranie monitora z całą pewnością odbiega od źródłowego rozkładu pikseli w przetworniku kamery, jednakże tym razem nieunikniona aproksymacja treści poszczególnych pikseli, to znaczy ich barwy i jaskrawości, jest dokonywana w dużo doskonalszy sposób. Proces ten odbywa się dynamicznie i zachodzi nawet wtedy, gdy rozmiary wyświetlanego obrazu ulegają zmianie, na przykład wtedy, gdy operator systemu powiększa obraz do rozmiaru całego ekranu monitora lub zmniejsza go do rozmiarów wynikających z podziału. W każdej z tych sytuacji obraz będzie zachowywał najwyższą możliwą do uzyskania rozdzielczość i dobrą reprodukcję barw.

Wspomniane stacje robocze mogą być wyposażane w monitory o różnej rozdzielczości i różnych rozmiarach. Wobec braku ograniczeń systemowych można sobie pozwolić na dużą różnorodność rozwiązań, wynikającą z założeń funkcjonalnych oraz konkretnych potrzeb użytkowników końcowych. W przypadku niewielkich systemów dozorowych stosuje się kilka małych monitorów o standardowej rozdzielczości, zajmujących niewielką powierzchnię i nie stwarzających problemów  ergonomicznych podczas aranżacji pomieszczeń ochrony. W dużych i bardzo dużych systemach dozorowych sytuacja wygląda inaczej. Tradycyjne podejście, sprowadzające się do stosowania wielu małych monitorów, stwarza poważne problemy ergonomiczne i utrudnia aranżację pomieszczeń ochrony.

Najnowszą tendencją jest stosowanie niewielkiej liczby bardzo dużych monitorów o przekątnej ekranu rzędu 32", 40" lub nawet 60" i tworzenie tak zwanych monitorów wirtualnych, czyli wydzielonych fragmentów ekranu, stanowiących oddzielne pola obrazowe. Monitory wirtualne nie muszą być cały czas widoczne na ekranie i to odróżnia je od fizycznych, istniejących realnie małych monitorów podglądowych, stosowanych w archaicznych systemach hybrydowych. Małe monitory podglądowe zawsze musiały zajmować przestrzeń w pomieszczeniu ochrony, zaś były wykorzystywane sporadycznie, tylko w sytuacjach alarmowych. Monitory wirtualne mogą pojawiać się na żądanie, na przykład w chwili wykrycia sytuacji wymagającej interwencji operatora, mogą być powiększane na całą powierzchnię ekranu jednym kliknięciem myszy, a także mogą znikać, gdy już nie są potrzebne. Warto zauważyć, że rozdzielczość monitorów wirtualnych nie jest stała i może być dynamicznie dostosowywana do pełnionych przez nie funkcji, ulegać modyfikacji wraz ze zmianą rozmiarów pola obrazowego.

Z pozoru występuje tu podobieństwo do monitorów analogowych, opisanych we wstępie artykułu, jednakże, pomimo zbieżności celu, zastosowane metody są całkowicie różne i na stacjach roboczych wyświetlany jest obraz zachowujący wysoką jakość, niezależnie od jego aktualnego formatu.

Nie wszyscy producenci systemów monitoringu wizyjnego mają tak nowoczesne podejście. Na rynku nadal dostępne są systemy hybrydowe mające w nazwie słowo „cyfrowe”, w których wykorzystywane są zwykłe monitory analogowe, sterowane poprzez kable koncentryczne, i które otrzymują zespolony sygnał wizyjny od odwrotnych koderów IP, czyli urządzeń zamieniających strumień danych cyfrowych na ­postać ­analogową. Jak na ironię stanowi to kolejne przetwarzanie tego samego sygnału, gdyż pochodzi on zazwyczaj z kamer analogowych, gdzie w koderach IP zespolony sygnał wizyjny był już raz przetwarzany na postać cyfrową. By tak dziwaczny system mógł w ogóle funkcjonować, nadzór nad pracą wszystkich wymienionych koderów jest sprawowany przez specjalny serwer zarządzający, zaś o sieciowości takiego systemu można mówić jedynie w obrębie serwerowni. Na temat walorów funkcjonalnych tej klasy systemów oraz jakości uzyskiwanych przez nie obrazów lepiej w ogóle się nie wypowiadać. Co prawda w przeszłości systemy hybrydowe odegrały pewną rolę w rozwoju telewizji przemysłowej, jednak obecnie stanowią jedynie ślepą uliczkę ewolucji i tak należy je traktować.

Tendencje na najbliższe lata

Tyle dygresji na tematy historyczne, wróćmy do rozwiązań współczesnych. Tendencją, którą można zaobserwować na współczesnym rynku CCTV jest stopniowy wzrost rozdzielczości. Dotyczy to zarówno kamer, jak i monitorów. W procesie tym widać jednak wyraźną granicę, która przebiega na poziomie nazywanym umownie Full HD. Chodzi o wielkość matrycy równą 1920×1080 pikseli, stosowaną w telewizji programowej, a także w sprzęcie domowym. Ten sam format zaczyna być coraz liczniej reprezentowany w urządzeniach do monitoringu telewizyjnego.

Przyczyn tej sytuacji jest wiele. Zauważany do niedawna pęd do bardzo dużych liczb pikseli, sięgających 16 mln, pomału ustępuje zdroworozsądkowym wymaganiom użytkowym, związanym z parametrami kamer, przepływnością typowych sieci IP oraz koniecznością ograniczenia przestrzeni dyskowej rejestratorów. Jakość obrazów uzyskiwanych z kamer wysokomegapikselowych jest relatywnie niska. Ich jedynym atutem są duże rozmiary matrycy, poza tym mają same wady. Odznaczają się bardzo niską czułością, niską poklatkowością, wymagają bardzo dobrze skorygowanych, drogich obiektywów, nie nadają się do pracy w typowych obudowach stosowanych w CCTV, gdyż przednie szybki tych obudów powodują utratę rozdzielczości układu kamera – obudowa – obiektyw. Takie kamery bardziej przypominają wyspecjalizowane aparaty fotograficzne niż urządzenia telewizyjne. Na przykład typowe kamery z przetwornikiem 16 Mpix, generują najwyżej trzy klatki obrazowe na sekundę przy pełnej rozdzielczości. Czy to w ogóle można nazwać telewizją?

Podobnie jak kilkadziesiąt lat temu, o rozwoju profesjonalnych systemów telewizyjnych zadecydował masowy rynek konsumencki. Obecnie zauważa się dążność do dorównania formatowi Full HD w sprzęcie CCTV.

Dążności tej sprzyja dostępność tanich monitorów, którymi mogą być konsumenckie odbiorniki telewizyjne. Przykładem mogą być monitory z rodziny Sony Bravia, które są dostępne w wersjach o różnych rozmiarach ekranu, akceptują wiele formatów i sposobów kodowania obrazów. W zasadzie należałoby je nazwać monitorami z możliwością odbioru programu telewizyjnego. Wszystko to sprzyja projektowaniu i instalacji systemów bezpieczeństwa pracujących w formacie Full HD, które z dużym prawdopodobieństwem wkrótce staną się standardem.

Andrzej Walczyk

  1. Mówiąc ściślej, ciągły charakter miał jedynie ekran kineskopu monochromatycznego. W przypadku kineskopów kolorowych ekran był podzielony na triady, czyli trójelementowe fragmenty pozwalające na reprodukcję barw, jednakże nie miało to nic wspólnego z pikselami, których rozkład mógł być dowolny.

Zabezpieczenia 1/2010

Wszelkie prawa zastrzeżone. Kopiowanie tekstów bez zgody redakcji zabronione / Zasady użytkowania strony