×

:

Not a valid Time
To jest wymagane pole.

Czy na interfejsie DVI jest lepszy obraz niż na analogowym?

Głównym założeniem interfejsu DVI jest uproszczenie sposobu przesyłania sygnału wizyjnego. Idea ma oczywiste plusy w porównaniu do dotychczasowej techniki gdyż umożliwia przesłanie sygnału praktycznie bez zakłóceń.

W przypadku kart z interfejsem analogowym kluczowym parametrem decydującym o jakości i ostrości obrazu jest jego dokładne wymodelowanie/wyfiltrowanie. Skutkiem tego, im wyższe rozdzielczości tym trudniejsze jest skonstruowanie idealnego sygnału. Wynika to z coraz większej szerokości pasma i coraz większych częstotliwości. Zbocza sygnałów są coraz bardziej strome.

Przy małych rozdzielczościach, do 800x600 wszystkie karty są w tym "dobre". W miarę wzrostu rozdzielczości maleje grupa kart graficznych oferujących dobry obraz a rośnie grupa nieostrych i zniekształconych (np falujących). W przypadku monitorów LCD, 17-tka oferuje już rozdzielczość 1280x1024 punkty. Jest to już pewne wyzwanie dla karty. Aby otrzymać ostry obraz należy odłożyć na bok większość niefirmowych. W zalewie tajwańskiego złomu, kupno "ostrej" karty nie jest rzeczą oczywistą. W miarę dalszego postępu techniki LCD i zwiększenia rozdzielczości do 1920x1200 punktów i więcej, DVI jest pewna "ucieczką" od problemu jakości toru sygnałowego. Stąd ogromny nacisk na promocje DVI. W przypadku kart dobrej klasy nie ma znaczenia czy monitor jest łączony przez interfejs analogowy czy cyfrowy.

Reasumując: DVI nie jest elementem decydującym o jakości obrazu. Popularna opinia że DVI daje polepszenie jakości obrazu uzmysławia jedynie, jak wiele jest na rynku kiepskich kart graficznych.

 


Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość

Opublikowano w: Monitory, podłączenie