×

Czy na moniotrze 4K wszystko nie jest zbyt małe?

Rys historyczny

Obawy związane ze zbyt małymi elementami ekranowymi mają swoje przyczyny w głębokiej przeszłości. W odległych mrokach dziejów, pierwsi ludzi jaskiniowi projektowali swoje malunki naskalne na pierwszych komputerach z wczesnymi wersjami systemu Windows. Twórca systemu Windows, znany z wygłaszania wielu kwantyfikatorów absolutnych, jak choćby - "Komputery nigdy nie będą potrzebowały więcej jak 640kB pamięci", podobną filozofię zastosował rownież w przypadku graficznego interfejsu użytkownika. Nakazał projektantom, aby przyjęli założenie, że literka ma być narysowana ze stałej "x razy y" siatki pikseli i koniec. Kaplica, schluss! Nie przyszło chłopu do głowy, że ilość pikseli na monitorze może się zmienić. W wyniku takiej polityki, jeśli monitor był większy, przy tej samej rozdzielczości co mniejszy, wyświetlał większe litery i ikony. I oczywiście odwrotnie.

Z biegiem czasu jak topniały lodowce, technika komputerowa wykształciła więcej rozmiarów ekranów niż osławione kineskopowe Daewoo 14". Stopniowo też zwiększała się rozdzielczość, a w związku z tym, pojawił się aspekt większych lub mniejszych liter i ikonek. Szybko przekształciło się to w atawistyczne lęki, hamujące użytkowników przed wszystkim co nowsze. No bo nowsze = większa rozdzielczość = małe literki! Diabli nadali te HD, FullHD, WQHD a już UHD i 4K to zło wcielone. Na wzmiankę o 8K mdleli ci o słabszym sercu.

Czasy współczesne

Steve Jobs, nieodżałowany, nieżyjący już lider firmy Apple, kiedyś powiedział, że Microsoft zawsze zrzynał z systemów z jabłkiem. Można na ten temat dyskutować, ale żebyście zaraz nie zaczęli w siebie rzucać, nomen omen, monitorami, zawęźmy to stwierdzenie do ekranów graficznych. Otóż, facet miał rację. Jak tylko pojawiły się pierwsze OS-y od Apple, miały bardzo ładną typografię, która w Microsofcie zagościła dopiero dziesięciolecia później. W OS9, OSX, macOS nigdy nie było żadnych tam kwadratowych literek niezależnie od rozdzielczości. Kluczem było rysowanie wektorowe, wymyślone w Mezozoiku, gdzieś w okolicach Kredy, ale dlaczegoś, kompletnie olane przez Microsoft.

Do tej pory GUI rysowany grafiką pikselową był sztucznym ograniczeniem, uprzykrzającym życie wielu pokoleniom. Elementy rysowane wektorowo można sobie wyobrazić jako narysowanie kółka na kartce w kratkę. Rysujemy cyrklem kółko o średnicy np 10cm. Kółko jest gładkie, normalne. Teraz je kwantyzujemy, czyli zamazujemy te kratki przez które przechodzi okrąg. Jak się łatwo domyśleć, na szkolnej kartce w kratkę będzie bardziej "kwadratowe" niż na kratce z bloku milimetrowego. A jeśli zastosujemy kartkrę w kratkę o tak dużym zagęszczeniu, że kratki trzeba oglądać przez lupę, kółko będzie idealne. I tu jest pies pogrzebany! Mając montor o dużo gęstszej siatce pikseli mamy takiej samej średnicy kółko, ale bardziej gładkie niż na moniotrze z mniejszą gęstością pikseli. Proste? No kurde, proste, ale ile pokoleń dinozaurów musiało wymrzeć, aby powszechnie wprowadzić tak banalne rozwiazanie. Teraz każdy ma smartfona i się nawet nie zastanawia nad jego rozdzielczością. Wszystko wyświetla się tak naturalnie, że w ogóle tego nie zauważamy.

No dobra, ale czy mój komputer tak potrafi?

Potrafi, o ile nie siedzimy uparcie na Windows 3.1. Ok, trochę przesadziłem. Wszystkie systemy rysują interfejs normalnie, czyli wektorowo, nawet Windows, ale całkowicie poprawnie dopiero od wersji 10, konkretnie kompilacji 1709, czyli takiej sprzed kilku lat. Można śmiało kupować monitory UHD, 4K, 6K, 8K. Im bardziej "gęsty", tym lepiej!

 


Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość

Opublikowano w: Monitory, pytania ogólne