Czy na interfejsie DVI jest lepszy obraz niż na analogowym?

Głównym założeniem interfejsu DVI jest uproszczenie sposobu przesyłania sygnału wizyjnego. Idea ma oczywiste plusy w porównaniu do dotychczasowej techniki gdyż umożliwia przesłanie sygnału praktycznie bez zakłóceń.

W przypadku kart z interfejsem analogowym kluczowym parametrem decydującym o jakości i ostrości obrazu jest jego dokładne wymodelowanie/wyfiltrowanie. Skutkiem tego, im wyższe rozdzielczości tym trudniejsze jest skonstruowanie idealnego sygnału. Wynika to z coraz większej szerokości pasma i coraz większych częstotliwości. Zbocza sygnałów są coraz bardziej strome.

Przy małych rozdzielczościach, do 800x600 wszystkie karty są w tym "dobre". W miarę wzrostu rozdzielczości maleje grupa kart graficznych oferujących dobry obraz a rośnie grupa nieostrych i zniekształconych (np falujących). W przypadku monitorów LCD, 17-tka oferuje już rozdzielczość 1280x1024 punkty. Jest to już pewne wyzwanie dla karty. Aby otrzymać ostry obraz należy odłożyć na bok większość niefirmowych. W zalewie tajwańskiego złomu, kupno "ostrej" karty nie jest rzeczą oczywistą. W miarę dalszego postępu techniki LCD i zwiększenia rozdzielczości do 1920x1200 punktów i więcej, DVI jest pewna "ucieczką" od problemu jakości toru sygnałowego. Stad ogromny nacisk na promocje DVI. W przypadku kart dobrej klasy nie ma znaczenia czy monitor jest łączony przez interfejs analogowy czy cyfrowy.

Reasumując: DVI nie jest elementem decydującym o jakości obrazu. Popularna opinia ze DVI daje polepszenie jakości obrazu uzmysławia jedynie, jak wiele jest na rynku kiepskich kart graficznych.

Last Updated: 16-11-2010 00:32:46