Czy na interfejsie DVI jest lepszy obraz niż na analogowym?
Głównym założeniem interfejsu DVI jest uproszczenie sposobu przesyłania sygnału wizyjnego. Idea ma oczywiste plusy w porównaniu do dotychczasowej techniki gdyż umożliwia przesłanie sygnału praktycznie bez zakłóceń.
W przypadku kart z interfejsem analogowym kluczowym parametrem decydującym o jakości i ostrości obrazu jest jego dokładne wymodelowanie/wyfiltrowanie. Skutkiem tego, im wyższe rozdzielczości tym trudniejsze jest skonstruowanie idealnego sygnału. Wynika to z coraz większej szerokości pasma i coraz większych częstotliwości. Zbocza sygnałów są coraz bardziej strome.
Przy małych rozdzielczościach, do 800x600 wszystkie karty są w tym "dobre". W miarę wzrostu rozdzielczości maleje grupa kart graficznych oferujących dobry obraz a rośnie grupa nieostrych i zniekształconych (np falujących). W przypadku monitorów LCD, 17-tka oferuje już rozdzielczość 1280x1024 punkty. Jest to już pewne wyzwanie dla karty. Aby otrzymać ostry obraz należy odłożyć na bok większość niefirmowych. W zalewie tajwańskiego złomu, kupno "ostrej" karty nie jest rzeczą oczywistą. W miarę dalszego postępu techniki LCD i zwiększenia rozdzielczości do 1920x1200 punktów i więcej, DVI jest pewna "ucieczką" od problemu jakości toru sygnałowego. Stąd ogromny nacisk na promocje DVI. W przypadku kart dobrej klasy nie ma znaczenia czy monitor jest łączony przez interfejs analogowy czy cyfrowy.
Reasumując: DVI nie jest elementem decydującym o jakości obrazu. Popularna opinia że DVI daje polepszenie jakości obrazu uzmysławia jedynie, jak wiele jest na rynku kiepskich kart graficznych.
Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość