Sieciowe systemy dozorowe, podobnie jak analogowe systemy CCTV, mają swoją historię i przeszły długą ewolucję. Początkowo ich rozwój hamowały czynniki ekonomiczne, gdyż kamery i inne urządzenia sieciowe były znacznie droższe od ich analogowych odpowiedników, jednakże niezaprzeczalne zalety tych systemów spowodowały wzrost ich popularności. Obecnie rozwiązania sieciowe dominują na rynku wizyjnych systemów dozorowych.
W artykule poświęconym ewolucji systemów CCTV wyjaśniłem, że na przeszkodzie ich dalszemu rozwojowi stanął standard PAL. Określał on rozdzielczość obrazu, liczbę klatek na sekundę, sposób kodowania kolorów i inne właściwości systemu, których nie można było zmienić. Z tego powodu analogowe systemy wizyjne nie miały szansy na dalszy rozwój. Pierwsze, nieśmiałe próby stworzenia sieciowych systemów wizyjnych miały miejsce w latach dziewięćdziesiątych zeszłego stulecia. Dążeniem konstruktorów było stworzenie kamer sieciowych o parametrach dorównujących analogowym kamerom zgodnym ze standardem PAL, co wcale nie było łatwe. W tamtym okresie nie były jeszcze znane skuteczne metody kompresji obrazu, zaś sieci IP miały niską przepustowość i nie były wszechobecne, tak jak teraz. Procesory sygnałowe miały relatywnie niską moc obliczeniową i nie były w stanie kodować strumieni wizyjnych w czasie rzeczywistym, dlatego pierwsze kamery sieciowe wytwarzały obraz o niskiej rozdzielczości z prędkością od kilku do kilkunastu klatek na sekundę. Trudno im było konkurować z kamerami analogowymi, które właśnie przechodziły okres swojej świetności. Jednak już wtedy było widać, że przyszłość należy do rozwiązań sieciowych.
Podstawowa różnica między kamerą analogową a kamerą sieciową polega na tym, że ta pierwsza wytwarza analogowy, zespolony sygnał wizyjny, a druga generuje cyfrowy strumień danych, w którym zakodowany jest ruchomy obraz. Przewaga rozwiązania sieciowego nad analogowym polega na tym, że strumień danych może być bez większych ograniczeń transmitowany przez sieć IP, może z niego korzystać wielu użytkowników, a czynnik odległości nie odgrywa roli. Ponadto obraz przekazywany w postaci cyfrowej może być poddawany kompresji, dodatkowej obróbce, analizie, rejestracji cyfrowej. Takich funkcji nie mogą realizować analogowe systemy CCTV. Co prawda w okresie, w którym multipleksery wizyjne i magnetowidy były stopniowo zastępowane przez rejestratory dyskowe, podjęto próby kompresji i obróbki obrazów, aby zmniejszyć wymagania dotyczące pojemności dysków, lecz w tym celu zespolony sygnał wizyjny był przetwarzany na postać cyfrową, czyli nie były to już systemy analogowe.
W okresie późniejszym na rynku konsumenckim popularność zyskały dwa standardy telewizji cyfrowej – HD i Full HD. Ponadto zaczęto masowo stosować monitory LCD o wysokiej rozdzielczości w komputerach. Takie zmiany rynkowe ogromnie ułatwiły rozwój sieciowych systemów dozorowych. Obecnie rozdzielczość obrazu typowa dla standardu PAL, który kiedyś stanowił niedościgniony wzór jakości, jest określana mianem SD (Standard Definition), chociaż przez użytkowników jest już uznawana za niską.
Na podkreślenie zasługuje fakt, że zmienił się sposób określania rozdzielczości obrazu uzyskiwanego w wizyjnych systemach dozorowych. W czasach, w których królował standard PAL, a monitory były wyposażone w lampy kineskopowe, rozdzielczość była określana jako liczba pionowych linii, na przemian czarnych i białych, jakie można rozróżnić na wycinku obrazu, którego szerokość jest równa wysokości. Tak mówiła obowiązująca norma, zaś do oceny rozdzielczości stosowane były specjalne tablice testowe. Tak zdefiniowana rozdzielczość dobrze odzwierciedlała jakość obrazu, gdyż uwzględniała wszystkie składniki systemu, poczynając od obiektywu w kamerze, poprzez wszystkie urządzenia pośredniczące, a kończąc na monitorze. Bazująca na tej metodzie ocena rozdzielczości była jednak subiektywna, więc wyniki często były zawyżane, a nabywcy sprzętu byli szokowani reklamami w stylu: „Kamera o rozdzielczości 900 TVL”.
Obecnie przyjęło się określanie rozdzielczości obrazu na podstawie wielkości matrycy, za pomocą której jest on wytwarzany lub wyświetlany. Upowszechniły się pewne standardy, stosowane są takie określenia jak HD 720p czy Full HD 1080p. Cyfry określają liczbę pikseli w linii poziomej, zaś litera „p” oznacza skanowanie progresywne. Innymi popularnymi standardami są 4K i 8K. Tu także cyfra oznacza liczbę pikseli w linii poziomej, a konkretnie liczbę tysięcy pikseli. Rozdzielczość kamer niezgodnych z powyższymi standardami jest określana na podstawie sumarycznej liczby pikseli w matrycy światłoczułej, bez uwzględniania proporcji obrazu. Na tej zasadzie przykładowe kamery z matrycami o rozmiarach 4000×3000 pikseli, o proporcji boków równej 4:3, i o rozmiarach 4618×2598 pikseli, o proporcji boków równej 16:9, są traktowane jednakowo, jak kamery o rozdzielczości 12 megapikseli.
Taka metoda określania rozdzielczości jest znacznie prostsza od metody stosowanej w przypadku telewizji analogowej, jednak nie jest tak rzetelna, gdyż nie mówi o faktycznej jakości obrazu, a jedynie o liczbie pikseli, z których jest on zbudowany. Tak więc obecnie użytkownik może być łatwo wprowadzony w błąd, gdy dostawca sprzętu zapewni go, że system ma rozdzielczość 4K, jednak nie poinformuje, że w kamerach są użyte tanie obiektywy o niższej rozdzielczości.
Na koniec warto wspomnieć o kamerach o bardzo wysokiej rozdzielczości, rzędu 16 megapikseli lub większej, potocznie zwanych kamerami wielomegapikselowymi. Jednym z powodów przemawiających za stosowaniem takich kamer jest szerokie pole widzenia przy zachowaniu dobrej rozróżnialności szczegółów na całej powierzchni obrazu. Przykładowo, jeśli zachodzi potrzeba obserwacji rozległego placu, na którym manewrują samochody, a ważna jest możliwość odczytu numerów z tablic rejestracyjnych, projektant systemu ma dwa wyjścia – zaproponować użycie wielu kamer o rozdzielczości HD obserwujących małe fragmenty chronionego obszaru lub tylko kilku kamer o rozdzielczości 8K obserwujących znacznie większe obszary. Wizualnie efekt będzie ten sam, gdyż liczba pikseli przypadająca na powierzchnię obrazu tablicy rejestracyjnej w obu przypadkach będzie podobna.
W kamerach wielomegapikselowych dostępna jest funkcja cyfrowego powiększania wycinka obrazu, która jest znana od dawna, ale nabrała znaczenia użytkowego dopiero teraz, w epoce telewizji cyfrowej i kamer o bardzo wysokiej rozdzielczości. W większości wizyjnych systemów dozorowych na stanowiskach operatorów stosowane są monitory o rozdzielczości HD lub Full HD, dlatego wyświetlanie całego obrazu o rozdzielczości 8K nie jest możliwe. Jednakże z takiego obrazu można wyciąć wiele fragmentów o niższej rozdzielczości, wystarczającej do odczytu numerów z tablic rejestracyjnych samochodów, i wyświetlać je na monitorach operatorów. Ponadto w pokoju kontrolnym można zainstalować monitor o bardzo wysokiej rozdzielczości i wyświetlać na nim pełne obrazy o rozdzielczości 8K, co pozwoli na ogólną ocenę sytuacji na obserwowanym obszarze.
Na podobnej zasadzie działają kamery o polu widzenia równym 180° lub 360°. Stosowane są w nich obiektywy o kącie widzenia 180°, zaś o ostatecznym efekcie decyduje sposób montażu. Po umieszczeniu takiej kamery na ścianie uzyskujemy pole widzenia równe 180°, zaś na suficie 360°. Obraz jest bardzo zniekształcony, co nie wynika ze złej konstrukcji kamery czy nieskorygowanych aberracji obiektywu, tylko z zasad optyki. Warunkiem uzyskania użytecznego obrazu o dobrej rozróżnialności szczegółów jest zastosowanie obiektywu o odpowiedniej jakości, matrycy światłoczułej o znacznej rozdzielczości i procesora sygnałowego, który jest w stanie obrobić powstały w ten sposób strumień wizyjny i skorygować zniekształcenia geometryczne obrazu. Spełnienie tych wymagań stało się możliwe dopiero teraz, gdy technologia produkcji układów elektronicznych i obiektywów osiągnęła wysoki poziom. W efekcie za pomocą jednej kamery można obserwować rozległe obiekty, takie jak hale odpraw na lotniskach czy sale obsługi klientów w bankach.
Sieciowe systemy dozorowe o bardzo wysokiej rozdzielczości są nadal rozwijane. Obecnie w aparatach fotograficznych stosowane są matryce światłoczułe o rozdzielczości kilkudziesięciu megapikseli, które mogłyby znaleźć zastosowanie w kamerach, jednakże dla uzyskania wrażenia płynności ruchu konieczne jest przetwarzanie obrazów z prędkością co najmniej 25 klatek na sekundę. To z kolei wymaga użycia procesorów sygnałowych o bardzo dużej mocy obliczeniowej. Zgodnie z prawem Moore'a gęstość upakowania tranzystorów w układach scalonych podwaja się co dwa lata, a zatem w najbliższej przyszłości można spodziewać się procesorów sygnałowych zdolnych do obróbki strumieni wizyjnych o bardzo wysokiej przepływności. Sieciowe systemy dozorowe będą nadal ulepszane, a ich udział w globalnym rynku ciągle rośnie.
Andrzej Walczyk