×

:

Not a valid Time
To jest wymagane pole.

FAQ

33 Monitory, pytania ogólne

Naturalne zachowanie panelu LCD Tak, niestety nierówność podświetlenia to typowa cecha, nie wada paneli LCD. Dlaczego cecha? Zasada działania matryc ciekłokrystalicznych sprzyja powstawaniu takich efektów i mało się z tym da cokolwiek zrobić. Ideą w wyświetlaczu tego typu jest obecność lamp z tyłu matrycy, a przecież nie ma lamp idealnych, świecących perfecyjne całą powierzchnią. Drugi aspekt to delikatność samego wyświetlacza, wszak główna płyta z nematami (komórkami ciekłych kryształów) to szkło o grubości około 1mm. Jakiekolwiek naciski, wynikające z niedoskonałości montażu, ramek, powodują powstawanie niemiłych rozświetleń. Można to sprawdzić samodzielnie, naciskając delikatnie ekran przy brzegach. Niby cecha konstrukcji, ale jednak wada Trudno oczekiwać, że użytkownik profesjonalnego monitora za worek pieniędzy będzie zachwycony nierówną bielą i nie będą go zbytnio interesowały ograniczenia technologiczne. Z tego powodu kilku liderów tej branży stosuje dodatkowe rozwiązania kompensujące. Działa to w ten sposób, że na płycie głównej monitora jest dodatkowy układ nazywany często DUC lub DUE od Digital Uninformity Correction / Equalizer. Pierwszy jest patentem firmy NEC, drugi EIZO. Układ ów w locie nakłada "negatyw" obrazu, na podstawie naturalnej nierówności sfotografowanej jeszcze w fabryce. W zależności od klasy monitora, układy wyrównywania różnią się zakresem. W niższych seriach układ ma jeden stopień działania, włączony lub wyłączony i kompensuje tylko nierówność w dziedzinie jasności. W bardziej zaawansowanych może korygować też nierówności koloru i mieć kilka stopni siły działania. Skutki uboczne "Nie ma róży bez ognia", jak mówi stare Rzymskie przysłowie, więc i DUC/DUE nie pozostaje bez wpływu na inne aspekty obrazu. Typowym negatywnym efektem działania jest obniżenie kontrastu. W niektórych przypadkach układ kompensacji może zmniejszyć CR nawet o połowę!  Lepiej sprawuje się w monitorach z panelami o wysokim kontraście. Przekładając to na prawdziwe życie, w zastosowaniach gdzie rzeczywiście równomierność ma duże znaczenie, jak grafika, obraz i tak kalibruje się dość niskokontrastowo, więc efekt uboczny DUC/DUE nie jest nawet widoczny. W zastosowaniach domowych natomiast, gdzie bardziej chodzi o efektowność, najlepiej jednak wybierać monitory selekcjonowane, które mają naturalną nierówność na niskim poziomie i właczenie kompensacji nie daje widocznych defektów.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 7 paź 2021
Standaryzacja Terminy 4K i UHD oznaczają konkretne parametry obrazu, jednakże warto wiedzieć, że istnieje ich kilka odmian. 4K jest skrótowcem od 4 - kilo, czyli 4 tysiące, (oczywiście pikseli) w poziomie. W filmie, bowiem standard ten, jak i większość innych, ma swoje pochodzenie z techniki filmowej, dzieli się na kilka podstandardów: Full Aperture 4K, Academy 4K, Digital cinema 4K DCI, o mocno różnych ilościach pikseli i proporcjach obrazu. Technika komputerowa Na potrzeby monitorów zaimplementowano dwa ze standardów 4K, mianowicie telewizyjny 4K2K, zwany też potocznie UHD, 4K UHD albo po prostu 4K, oraz rzadziej standard filmowy - Digital cinema 4K DCI. 4K2K - 3840x2160 4K DCI - 4096x2160 4K a massmedia Jak wiadomo, marketing non stop szuka czegoś, czym da się oczarować przyszłego nabywcę. W ten niegdyś sposób "powstało" FHD zamiast FullHD, choć to jeszcze można zrozumieć w przeciwieństwie do przeraźliwych, w ogóle nie istniejących tworów jak "1440p" zamiast poprawnego 2560x1440. Cel uświęca środki i stąd pojawiają się najrozmaitsze mniej lub bardziej mądre wypociny ludzi, którzy za wszelką cenę tworzą "nowość". W związku z 4K, tak po prawdzie to UHD, czyli najczęściej spotykana rozdzielczość 3840x2160. Jednak UHD zbyt kojarzy się ze starym, przaśnym, niemodnym FHD, więc uparcie na UHD mówi się "4K". Użycie czegoś nowszego, nieznanego do tej pory w przekazie reklamowym, ma nieść powiew świeżości. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 paź 2021
Nie, wszystko wyświetla się prawidłowo, o ile jest to wersja Windows 10, kompilacja 1709 lub nowsza. Biorąc pod uwagę, że wydanie 1709 zostało opublikowane  w 2017r, można przyjąć, że każdy współczesny system wyświetla niezależnie od rozdzielczości, nie zaburzając wyglądu interfejsu.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 paź 2021
Rys historyczny Obawy związane ze zbyt małymi elementami ekranowymi mają swoje przyczyny w głębokiej przeszłości. W odległych mrokach dziejów, pierwsi ludzi jaskiniowi projektowali swoje malunki naskalne na pierwszych komputerach z wczesnymi wersjami systemu Windows. Twórca systemu Windows, znany z wygłaszania wielu kwantyfikatorów absolutnych, jak choćby - "Komputery nigdy nie będą potrzebowały więcej jak 640kB pamięci", podobną filozofię zastosował rownież w przypadku graficznego interfejsu użytkownika. Nakazał projektantom, aby przyjęli założenie, że literka ma być narysowana ze stałej "x razy y" siatki pikseli i koniec. Kaplica, schluss! Nie przyszło chłopu do głowy, że ilość pikseli na monitorze może się zmienić. W wyniku takiej polityki, jeśli monitor był większy, przy tej samej rozdzielczości co mniejszy, wyświetlał większe litery i ikony. I oczywiście odwrotnie. Z biegiem czasu jak topniały lodowce, technika komputerowa wykształciła więcej rozmiarów ekranów niż osławione kineskopowe Daewoo 14". Stopniowo też zwiększała się rozdzielczość, a w związku z tym, pojawił się aspekt większych lub mniejszych liter i ikonek. Szybko przekształciło się to w atawistyczne lęki, hamujące użytkowników przed wszystkim co nowsze. No bo nowsze = większa rozdzielczość = małe literki! Diabli nadali te HD, FullHD, WQHD a już UHD i 4K to zło wcielone. Na wzmiankę o 8K mdleli ci o słabszym sercu. Czasy współczesne Steve Jobs, nieodżałowany, nieżyjący już lider firmy Apple, kiedyś powiedział, że Microsoft zawsze zrzynał z systemów z jabłkiem. Można na ten temat dyskutować, ale żebyście zaraz nie zaczęli w siebie rzucać, nomen omen, monitorami, zawęźmy to stwierdzenie do ekranów graficznych. Otóż, facet miał rację. Jak tylko pojawiły się pierwsze OS-y od Apple, miały bardzo ładną typografię, która w Microsofcie zagościła dopiero dziesięciolecia później. W OS9, OSX, macOS nigdy nie było żadnych tam kwadratowych literek niezależnie od rozdzielczości. Kluczem było rysowanie wektorowe, wymyślone w Mezozoiku, gdzieś w okolicach Kredy, ale dlaczegoś, kompletnie olane przez Microsoft. Do tej pory GUI rysowany grafiką pikselową był sztucznym ograniczeniem, uprzykrzającym życie wielu pokoleniom. Elementy rysowane wektorowo można sobie wyobrazić jako narysowanie kółka na kartce w kratkę. Rysujemy cyrklem kółko o średnicy np 10cm. Kółko jest gładkie, normalne. Teraz je kwantyzujemy, czyli zamazujemy te kratki przez które przechodzi okrąg. Jak się łatwo domyśleć, na szkolnej kartce w kratkę będzie bardziej "kwadratowe" niż na kratce z bloku milimetrowego. A jeśli zastosujemy kartkę w kratkę o tak dużym zagęszczeniu, że kratki trzeba oglądać przez lupę, kółko będzie idealne. I tu jest pies pogrzebany! Mając montor o dużo gęstszej siatce pikseli mamy takiej samej średnicy kółko, ale bardziej gładkie niż na moniotrze z mniejszą gęstością pikseli. Proste? No kurde, proste, ale ile pokoleń dinozaurów musiało wymrzeć, aby powszechnie wprowadzić tak banalne rozwiązanie. Teraz każdy ma smartfona i się nawet nie zastanawia nad jego rozdzielczością. Wszystko wyświetla się tak naturalnie, że w ogóle tego nie zauważamy. No dobra, ale czy mój komputer tak potrafi? Potrafi, o ile nie siedzimy uparcie na Windows 3.1. Ok, trochę przesadziłem. Wszystkie systemy rysują interfejs normalnie, czyli wektorowo, nawet Windows, ale całkowicie poprawnie dopiero od wersji 10, konkretnie kompilacji 1709, czyli takiej sprzed kilku lat. Można śmiało kupować monitory UHD, 4K, 6K, 8K. Im bardziej "gęsty", tym lepiej!   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 paź 2021
Przy niższej jaskrawości w przypadku LCD podświetlanego W-LED, czyli białymi diodami, bardziej zaczyna dominować niebieska część widma z uwagi na wyższą energię kwantu promieniowania. Dlatego biel staje się sina, nieprzyjemna. Zakres regulacyjny w tego typu monitorach to nie jest taka prosta sprawa i powinno się przeliczać odpowiednią CCT (skorelowaną temperaturę barwową) zależnie od jasności bieli. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 27 maj 2019
Geneza Firma monitory.mastiff.pl praktycznie od początku swego istnienia stawiała na przygotowanie monitora "gotowca". Wiele lat temu opracowane zostały procedury kalibracji monitrów pod konkretne zastosowania, również w wersji zdalnej oraz unikalną usługę selekcjonowania monitorów, chroniacą przed niepożądanymi wadami ekranu. Seria COLOR jest w zasadzie tylko nadaniem znaku firmowego powyższym czynnościom. Z tego co mi wiadomo, był to pierwszy projekt tego typu w branży, istniejący nieprzerwanie od 1999r. Cele programu Z doświadczeń wynika, że nie ma sensu oczekiwać, że użytkownik będzie jednocześnie fachowcem od fotometrii, kolorymetrii i serwisantem komputerowym w jednym. Nie można być specjalistą od wszystkiego. Ludzie z reguły nie mają ochoty doktoryzować się z tematu i rzeczy oczywiste dla technika od monitorów, stanowią najczęściej barierę. Wielu, większość użytkowników chce po prostu gotowe narzędzie, podłączyć przewód i zapomnieć o całej technicznej otoczce.   Czym się różnią serie COLOR od ColorEdge, ColorTuned, ColorProof i innych podobnie brzmiących? Seria COLOR w odróżnieniu od innych, jest inicjatywą monitory.mastiff.pl, bez ograniczeń nakładanych przez producenta lub przedstawicielstwa producenta. Dzięki temu przygotowanie w wersji COLOR jest szersze niż rozwiązania konkurencyjne. Przede wszystkim monitory mają weryfikowane panele pod kątem naturalnej liniowości i wad fabrycznych. Część modeli monitorów ma modyfikowaną konfigurację oprogramowania wewnętrznego a wszystkie poddane są procedurze "postarzania" czyli stabilizacji parametrów. Ponadto, zakres przygotowania zawiera nawet kilkanaście scenariuszy użytkowania z podziałem na dopasowanie do różnych warunków oświetleniowych. W komplecie są pliki źródłowe ułatwiające rekalibrację i stanowiące bazę do innych prac nad kalibracją. Scenariusze są przygotowane wszechstronnie, w wielu zastosowaniach w ogóle zwalniających z konieczności kalibracji sprzętu. Niebagatelną różnicą jest obligatoryjna 5 letnia gwarancja uwzględniająca gwarancję na wady pikseli.Gwarancja Sednem rozszerzenia gwarancji jest przeniesienie na sprzedawcę ryzyka trafienia na piksele czy nierówne podświetlenie, co niestety czasem się zdarzy, niezależnie od klasy i ceny monitora. Monitory COLOR maja gwarancję od tego typu atrakcji. Obejmuje ona wady piksel, oraz w przypadku rozszerzenia o usługę selekcjonowania, również na dowolne i niedoskonałości ekranu i podświetlenia włącznie z paprochami. Gwarancja ta jest świadczona przez monitory.mastiff.pl, poza gwarancją podstawową producenta. Udzielana jest na okres 6-miesięcy i jest to czas na ujawienie potencjalnych niedoskonałości. Po tym okresie defekty nie są klasyfikowane jako wada materiałowa. W przypadku wymiany lub skasowania ustawień monitora w sytuacji wymiany gwarancyjnej przez serwis producenta, ustawienia COLOR są przywracane bezpłatnie w całym okresie gwarancji fabrycznej.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 lis 2018
Baju, baju... Zacznijmy od tego, że sformułowanie "pełny gamut" to ściema najwyższego sortu. Sugeruje, że coś jest "pełne", czyli dobre, pożądane, całkowite, a wszystko inne jest z automatu okrojone, niepełnowartościowe. Użycie takiego określenia w kontekście przestrzeni barwnej wyraźnie każe myśleć, że montor wyświetla "pełną paletę", czyli wszystkie kolory, jest najlepszy, lepiej już się nie da. Nie owijając w bawełnę, jest to ordynarne kłamstwo! Problematyczne sformułowanie jest luźno naciągnietą interpretacją z procentowego pokrycia przestrzeni barwnej, które obecnie dzierży palmę pierwszeństwa wśród parametrów technicznych monitorów. Marketingowo forsowanym sposobem rozumienia jest, jakoby monitor wyświetlał 100%, czyli wszystkie odcienie zadeklarowanej przestrzen sRGB, AdobeRGB lub, najnowsza moda P3 DCI. Tymczasem, gamut to tak naprawdę zdolność do produkowania nasycenia. Jeśli monitor ma objętość bryły gamutu podobną np do AdobeRGB, podaje się stosowną różnicę procentową. Przy czym, w tym "parametrze" wcale nie chodzi o zgodność z AdobeRGB a tylko objętość bryły przestrzeni barwnej. Czyli np maksymalnie nasycony odcień czerwony, może lecieć w rzodkiewkowy albo inny buraczkowy, ale będzie miał podobne nasycenie do "prawidłowej" czerwieni i objętościowo zakreśli podobny zakres w przestrzeni barwnej na wykresach. Najważniejszym wnioskiem jest, aby wiedzieć, że żadne "pełne gamuty" nie mają zupełnie związku z jakością wyświetlania obrazu. Jest to parametr ilościowy a nie jakościowy. Nasycenie, gęstość optyczna, dwóch odcieni może być podobna, ale już same odcienie mogą być inne. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 27 sie 2018
Usługa kalibracji Po zleceniu takiej usługi, monitor jest stabilizowany i sprawdzany acz zgrubnie. Chodzi tylko o uniknięcie sytuacji, kiedy monitor ma poważną niedoskonałość, choć mieszczącą się w normach gwarancyjnych. Nie trzeba być specjalnie przewidującym, aby wiedzieć, że po odbiorze takiego monitora, za 30 sekund będzie telefon z reklamacją. Sednem usługi kalibracji jest jak najdokładniejsze dopasowanie do projektowanych zastosowań i oświetlenia jakie będzie na miejscu pracy. Usługa selekcji W tym wypadku celem jest wykluczenie wszelkich wad widocnych w normalnych warunkach. W tym celu monitor jest dłużej stabilizowany i drobiazgowo badany. Wykluczane są wszelkie wady widoczne gołym okiem w normalnych warunkach oświetleniowych. Firma bierze na siebie ryzyko trafienia na nieidealny i wymieni monitor na inny selekcjonowany również po odbiorze, jeśli po pewnym czasie ujawni się defekt, np wada pikseli, którego nie udało się sprowokować w czasie wygrzewania. Color Tuned Po zamówieniu monitora objętego tym programem, sprzęt jest stabilizowany i sprawdzany podobnie do poprzedniej usługi. W tym wypadku jednak kontrola ma na celu wykluczać tylko wyraźnie widoczne defekty podświetlenia i wady pikseli. W odróżnieniu od egzemplarzy selekcjonowanych, gwarancja braku takich wad nie obowiązuje po odbiorze. Celem programu ColorTuned jest dostarczanie monitorów na wyższym poziomie jakościowym niż seryjnych, z zaawansowaną prekalibracją, w wielu zastosowaniach amatorskich zastępującą normalną kalibrację.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Created by Krzysztof Ziętarski Z dnia 5 mar 2018
Ten miniartykuł powstał w wyniku zaintrygowania pewną dyskusją na forum, na temat wykończenia matryc błyszczących i matowych. Akurat temat dotyczył notebooków nie monitorów i pracy na zewnątrz. Wszak monitorów nie wynosi się na podwórko. Otóż, okazuje się powszechnym pogląd, że na matowych lepiej się pracuje przy silnym świetle, szczególnie na podwórku. Wydawałby się to paradoksem, ale jest całkowicie odwrotnie. Specjalnie poszedłem do ogrodu w pogodny dzień i zrobiłem porównanie. Dzień, podwórko, lekki cień pod drzewkiem. Na stoliku Macbook Pro z Retiną, czyli najbardziej znienawidzony błyszczący ekran ma świecie i dla porównania DELL Precision, drogi i uznany jako dobry. No i co wyszło? Wybaczcie proszę, ale to jest masakracja a nie porównanie. Niezależnie od ustawienia i kąta, na matowym nic niemal nie widać, pomimo jaskrawości na maksimum. Na błyszczącym są refleksy, ale da się tak ustawić, że normalnie się pracuje! Dlaczego tak wyszło? Ktoś wie? Otóż, na matowym ekranie silnie rozprasza się światło otoczenia. Na zewnątrz światła jest dużo, więc przeważa ono nad światłem emitowanym przez ekran. Ekran bowiem świeci tak naprawdę różnicą światła własnego, minus światło które na niego pada. Jeśli światła padającego jest więcej niż emitowanego, obraz zniknie! Na błyszczącym natomiast, żródło refleksu odbija się miejscowo, jak niebo na zdjęciu poniżej. Nie rozprasza się po całym ekranie. Refleks jest wyraźny i łatwo tak dobrać kąt aby nie przeszkadzał w pracy. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 14 maj 2018
  Geneza niezrozumienia znaczenia jakości obrazu i mylenia jej z kalibracją Częstym, błędnym poglądem jest, jakoby monitor skalibrowany oznaczał poprawienie wszystkich jego błędów i co jest jeszcze większym błędem, oznacza dopasowanie wyświetlania do zastosowań i oświetlenia panujących w miejscu pracy. Dochodzi do kuriozalnych sytuacji, że magiczne słowo "kalibracja", lub "skalibrowany", jest nadużywane do reklamowania średniej jakości monitorów, sugerując, że po kalibracji, będzie lepszy niż jest. Otóż tak nie jest! Wiem, tym stwierdzeniem narażę się rzeszom "fachowców" od kalibracji. Kalibracja w sprzęcie profesjonalnym, owszem, czyni cuda, ale w typowym, konsumenckim, jest obarczona masą ograniczeń, które znacznie zmniejszają jej znaczenie.   Kiedy kalibracja ma sens? Odpowiedź jest banalna: Ma sens wówczas, kiedy technicznie da się ją przeprowadzić z zachowaniem reżimów jakościowych. Oznacza to, że niektóre sprzęty kalibruje się z lepszym efektem niż inne. Większość popularnych monitorów można kalibrować i nie skalibrować. Proszę o tym pamiętać, by fakt kalibracji nie przyćmił jej efektów, bo to najczęściej są dwie różne rzeczy!    Co z tego wynika w monitorach EA i wersji COLOR? Seria EA od NEC ma znaczne i nieudokumentowane możliwości sterowania wewnętrznego. Wersja seryjna, taka jak przychodzi z fabryki, po kalibracji, owszem, ma nieco mniejsze defekty, ale użycie po kalibracji sformułowania "skalibrowany" jest, mówiąc delikatnie, nadużyciem. Proszę porównać poniższe zrzuty pomiarowe: W pierwszym oknie jest szereg próbek kolorystycznych monitora seryjnego, wprost z fabryki. Drugie okno przedstawia defekty po kalibracji. Finalne okno pokazuje defekty tego samego monitora, w wersji podniesionej do COLOR.   Jak doskonale widać, monitor zmodyfikowany do standardu COLOR, ma wyraźnie mniejsze błędy własne niż seryjny "skalibrowany", nie mówiąc o seryjnym. Bezwzględny poziom defektów jest  około 2x mniejszy. Seria COLOR jest polecana wszystkim, którzy chcieliby "wycisnąć" z monitora cały potencjał wynikający z jego konstrukcji i możliwości. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 15 mar 2018
Model CT ColorTuned to bardziej zaawansowany model niż CP ColorPreset. Wbudowana sprzętowa kalibracja, indywidualna linearyzacja każdego egzemplarza. Oczywiście, ani jedna ani druga seria E i EA to nie są rasowe monitory graficzne, ale pod względem przydatności do fotografii, lepszy jest EA.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Created by Radek Z dnia 29 paź 2017
Adnotację należy rozumieć dosłownie. Sprzęt opisany w ten sposób, pochodzi z demontażu ze ścian reklamowych, punktów informacyjnych, infokiosków i innego rodzaju ekspozycji gdzie, jak wynika ze specyfiki takiego zastosowania, świeciły non stop na maksimum jaskrawości. Oferty świadczą o prostym fakcie, że z docelowego miejsca zostały zdemontowane i wymienione na nowe. Nietrudno zgadnąć, że z powodu zużycia. Zdecydowanie radzę nie interesować się takimi ofertami. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Wyłącz monitor. Włącz z wciśniętym przyciskiem input, trzymając go aż do pojawienia się obrazu. Pojawi się inne menu, w którym, na jednej z ostatnich zakładek jest stan licznika. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Nie ma monitorów FullHD. Jest to termin telewizyjny. Nie ma nic wspólnego z monitorami poza czasem zbieżnością ilości pikseli w poziomie. FullHD to standard sygnału telewizji wysokiej rozdzielczości. Nie może mieć nic wspólnego z monitorami komputerowymi bo one nie obsługują sygnałów TV. Sygnał TV niezależnie od rozdzielczości nie ma budowy RGB tylko YUV, składa się z linii a nie pikseli i zawiera dwa półobrazy na jedną klatkę. Takie parametry po prostu nie występują w monitorach. Termin FullHD ma jednak ogromną siłę marketingową jeśli na czymkolwiek napisze się FullHD od razu lepiej się sprzedaje. Jakby specjaliści od reklamy mogli to by nalepiali znaczek FullHD na pralkach.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Najlepsze są oczywiście specjalistyczne środki, ale widziałem przypadek uszkodzenia panelu przez taki, więc nie można generalizować. W sumie nie jest tak bardzo ważne jakim płynem, a bardziej w jaki sposób. Czyszczę dużo monitorów z uwagi na pracę i poniżej zamieszczam parę światłych uwag: 1. Dobry specjalizowany płyn daje dużą łatwość czyszczenia, ale takie same efekty można osiągnąć płynem do mycia okien W5 z Lidla. Kosztuje za pół litra znacznie mniej niż specyfiki renomowane za 100 ml. 2. Najważniejszą rzeczą w całej operacji jest szmatka. Tylko nowe i sensowne. Najlepsze jakie do tej pory miałem to "mikrofibra" z Rossmana. Ważna uwaga, po praniu już się do niczego nie nadaje (zostawia włoski), ale póki nowe, czyszczą świetnie. 3. Kolejną sprawą jest "jak". Najczęściej ludzie psikają odrobinę i piłują na sucho. Tymczasem trzeba zlać konkretnie ekran, że aż płynie. Oczywiście uwaga na dolną ramkę, aby płyn nie pociekł tam gdzie nie powinien. Mokry ekran sprawnie wycieram szmatką, jeśli zajdzie potrzeba za chwilę drugą, suchą i ekran jak nowy.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Sama matryca nie jest wyznacznikiem jakości ani zastosowania monitora. Trzeba ją oświetlić, zasilić, ekranować, a co najważniejsze wysterować. Dopiero w konkretnych monitorach będzie widać różnice. Wynikać one będą z różnych podejść projektantów, jakości komponentów i przewidywanego zastosowania monitora. Sama matryca to jak silnik w samochodzie. Jest ważny, ale to nie jest cały samochód. Na podstawie tej informacji nie sposób ocenić przecież, czy ma wygodne fotele czy ile się mieści w bagażniku.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Jasność deklarowana przez producenta nie powinna być duża. Do zastosowań ogólnych rozsądne maksimum to 250 cd/m2. Do gier i filmów trochę więcej. Należy wziąć pod uwagę sposób regulacji. Zakres regulacji jasności musi być szeroki oraz regulacja powinna odbywać się przez zmniejszanie mocy lamp. Z osiągnięciem niskiej, poprawnej niemęczącej wzroku jasności jest z reguły kłopot. Szczególnie ma to znaczenie na stanowiskach z przytłumionym oświetleniem i wieczorem. Dla porównania, jasność ustawionego na 100% monitora kineskopowego to 120 cd/m2. Proszę samodzielnie sprawdzić czy da się komfortowo pracować przy takiej jasności, a następnie odpowiedzieć samemu na pytanie czy jaśniej oznacza lepiej.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Przede wszystkim, termin FullHD, 1080p, 1440p nie oznacza tak naprawdę rozdzielczości. FullHD i 1080 to są standardy obrazu telewizyjnego zbudowanego z 1080 linii. Obraz FullHD ma rozmiar najczęściej 1920x1080 pikseli, ale warto wiedzieć, że w telewizji operuje się liniami, nie pikselami. Rozdzielczość pozioma może być w ogóle inna. Stąd zresztą oznaczenia 1080p lub 1080i, które mówią tylko ile linii może być wyświetlone i ewentualnie w jaki sposób. Literka "p" oznacza "progresive", czyli wyświetlanie wszystkich 1080 linii a literka "i" oznacza "interlaced" czyli tylko połowę na przemian z drugą połową. Z "1440p" jest jeszcze ciekawiej, bo choć standard 1080p rzeczywiście jest w telewizji, to coś takiego jak 1440p w ogóle nie istnieje. Tak tak, wiem, że w internecie jest masa wzmianek o rozdzielczościach i monitorach "1440p", ale jest to nawet nie tyle, że nieprawidłowe, ale wręcz głupie. Termin ów powstał gdzieś w zakamarkach sieci, na forach i blogach, gdzie ten i ów koniecznie chciał "błysnąć", wymyślając nową pseudo-terminologię. W tekstach tworzonych przez laików można spotkać więcej takich ciekawostek, jak na przykład "watt", określający moc, będący bezmyślną kalką z angielskiego. Choć WATT jest odpowiednikiem polskiego WAT i termin jest rzeczywiście istniejący, to pamiętajmy, że używając terminów technicznych, nakładamy sami na siebie obowiązek zadbania o techniczą poprawność. A w polskiej znormalizowanej tabeli jednostek układu SI, jest mowa o W (wat, wacie) a nie WATT. Na pierwszy rzut oka może to się wydać czepialstwem, "i tak każdy wie o co chodzi", ale zastanówmy się, czy chcemy celowo obniżać poziom i zejść do wihajstrów? Nie naśladujmy takich nowotworów bo w oczach ludzi trochę bardziej zorientowanych narażamy się tylko na śmieszność. Technika to dziedzina ścisła. Jeśli ktoś ma ochotę "tworzyć", to nie w dziedzinach gdzie obowiązuje normalizacja i konkretne reguły. Wielu ludzi pracuje od setek lat rozwijając różne kierunki techniki, przyczyniając się do postępu cywilizacyjnego. Proszę o trochę szacunku dla ich pracy! Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Układ zasilania lamp CCFL zbudowany jest na bazie przetwornicy wysokiego napięcia, w której jeden z elementów, cewka, może cicho piszczeć lub brzęczeć. Występowanie i intensywność dźwięku może zależeć od ustawionej jaskrawości monitora. Jeśli natężenie dźwięku jest uciążliwe, należy problem skonsultować z serwisem producenta monitora.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Nie ma na rynku, (stan na 2009 rok), monitorów o rzeczywistym kontraście większym niż około 1000:1. Paradoksalnie, nie ma to żadnego związku z zapisem w danych technicznych. Kontrast rzędu kilku- kilkunastu tysięcy do jednego, to tzw kontrast dynamiczny, będący efektem złudzenia optycznego, wywołanego oślepieniem bardzo wysoką jaskrawością. W takich warunkach, mechanizm adaptacji oka, przesuwa zakres postrzeganej dynamiki, w górę zakresu jaskrawości, co powoduje mylne odczucie bardzo głębokiej czerni przy bardzo wysokiej bieli. Mechanizm wywoływania rzeczonego złudzenia z reguły powoduje uciążliwości przy codziennym korzystaniu z monitora. Problemem jest mocno podbijana jaskrawość, do poziomu 5 razy większego niż monitor kineskopowy nastawiony na 100%.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
S, W - oznaczenie stałeA, U, E, H,FS, - rodzaj podstawy.Height adjustable (H), ArcSwing (A), EzUp (U lub E w monitorach spoza polskiej sieci dystrybucji), FlexStand (FS).G, GY - kolor obudowy szaryB, BY - kolor obudowy czarnyZakresy regulacyjne podstaw.1. Height adjustable - regulacja wysokości w zakresie 10 cm, obrót całego monitora lewo-prawo w zakresie 70 stopni, pochylenie przód-tył w zakresie 30 stopni, obrót do pozycji portretowej.2. ArcSwing - regulacja wysokości w zakresie 10,4 cm, obrót całego monitora lewo-prawo w zakresie 344 stopni, pochylenie przód-tył w zakresie 60 stopni.3. EzUp - regulacja wysokości w zakresie 17 cm, obrót całego monitora lewo-prawo w zakresie 344 stopni, pochylenie przód-tył w zakresie 25 stopni, obrót do pozycji portretowej.4. FlexStand - regulacja wysokości w zakresie 17 cm, obrót całego monitora lewo-prawo w zakresie 70 stopni, pochylenie przód-tył w zakresie 30 stopni, obrót do pozycji portretowej.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
MTBF (ang. Mean Time Between Failure, w wolnym tłumaczeniu średni czas bezawaryjnej pracy) wyświetlacza LCD to 100 tys godzin, a lamp, jak każdej świetlówki od 30 do 100 tys godzin zależnie od jakości. Nawet przy dolnej granicy trwałości lamp jest to 5 lat przy obłożeniu 16 godzin dziennie, lub 10 lat przy 8 godzinach dziennie. Trwałość pozostałych elementów elektronicznych nie jest podawana. Są to elementy zwykle mało awaryjne. Powyższe ustalenia nie dotyczą sprzętu z dalekiego wschodu (Tajwanu, Korei, Chin, etc), z uwagi na losową jakość. Uszkodzenia podświetlenia, szczególnie przetwornic, lamp są nagminną usterką w monitorach klasy budżetowej.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
NTAA oznacza skrót od No Touch Auto Adjustment. Pod tą nazwą kryje się mechanizm stosowany w monitorach NEC, automatycznie dopasowujący geometrię obrazu oraz ustawienie fazy. NTAA uaktywnia się za każdym razem przy zmianie trybu graficznego.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Monitor LCD alby w ogóle można było zaobserwować obraz jest podświetlony "od tyłu". Uzyskanie czerni jest realizowane przez spolaryzowanie ciekłych kryształów, przez co stają się bardziej lub mniej przejrzyste. Oczywiście tylne lampy świecą cały czas jednakowo i w skrajnych warunkach oświetleniowych da się zaobserwować "przebijanie" światła na czarnych partiach obrazu lub całym czarnym. Z nierównym podświetleniem mamy do czynienia, jeśli cały ekran jest nierównomiernie "czarny", w plamy lub przejawia inne niejednorodności. Powyższa cecha wynika pośrednio stąd, że monitor LCD nie jest projektowany do pracy w słabym oświetleniu zewnętrznym lub jego braku. Nierównomierność podświetlenia, jeśli występuje, może być zauważalna w warunkach ciemności i najczęściej jest to zjawisko marginalne. Jeśli mamy do czynienia z nierównomiernością obserwowaną na bieli lub innych jasnych kolorach, mamy wówczas do czynienia z wadą monitora. Częstość występowania nierównego podświetlenia nie jest wielka. Problem nie występuje w monitorach średniej a jest wyeliminowany w wyższej klasie monitorów.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Czerń na dobrej klasy monitorach na normalnym ekranie roboczym jest bardzo dobra, powiedziałbym całkowicie satysfakcjonująca i lepsza niż na kineskopowych, ale sęk tkwi w tym że wielu ludzi chce wykorzystywać LCD do oglądania filmów, gdzie duża część ekranu jest czarna lub występuje wiele ciemnych sekwencji. Na dodatek ogląda się przy słabym oświetleniu, wręcz w półmroku i widać wówczas wszelkie niedoskonałości. Żaden monitor klasy amatorskiej nie daje całkowitej czerni, jaka w tych warunkach byłaby wskazana a i profesjonalne też nie podołają idealnie. Poza tym monitory profesjonalne nie są przeznaczone do multimediów. Nie ma się co oszukiwać, idealnie głębokiej czerni nie da się uzyskać. Powodem jest zasada działania LCD. Z tyłu zawsze świeci lampa i nie można pogodzić głębokiej czerni i wysokiej jasności. Aby uzyskać pierwsze trzeba zastosować bardziej "gęstą" strukturę ciekłych kryształów, a aby drugie "rzadką". Przy dzisiejszych technologiach produkcji LCD nie jest to wykonalne. Wielodomenowe technologie uzyskują co prawda głębszą czerń ale kosztem jasności, co za tym idzie spadkiem kontrastu, a prostsze, jednodomenowe są superjasne ale czerń jest gorszej jakości. Chciałbym jednak mocno podkreślić, że czerń na nowoczesnych monitorach jest bardzo głęboka i jedynie w ekstremalnych przypadkach, nomen omen zastosowaniach nie przewidzianych do techniki LCD, da się dopatrzeć niedoskonałości.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Wysoka jasność jest czynnikiem powodującym nadmierne zmęczenie wzroku. W porównaniu do kineskopu (120 cd/m2) LCD świeci z natężeniem 250-300 cd/m2 czyli ponad dwukrotnie większym. Oczywiście tak wysoka jasność dobrze wygląda na wystawie sklepowej, w warunkach normalnej pracy należy rozsądnie wyregulować monitor. Paradoksalnie nie jest to takie oczywiste i spotyka się sporo uwag, jakoby monitor LCD męczył. Jest to jednakże często zasługą złej regulacji lub równie często kiepskiej klasy monitora w którym regulacja jasności została źle zaprojektowana. Proszę na ten parametr zwracać uwagę przy wyborze, gdyż to jeden z ważniejszych aspektów użytkowania monitora w przyszłości. Prawidłowo działająca regulacja powinna dać możliwość ustawienia jasności do akceptowalnego poziomu bez utraty wierności reprodukcji barw i kontrastu. Najczęściej spotyka się regulację jasności przez niewielką (zbyt małą) regulację jasności lamp a resztę zakresu regulacyjnego uzyskuje się zmniejszając kontrast. Należy wiedzieć, że regulacja kontrastu z reguły polega na "obcinaniu matrycy" czyli wstępnym spolaryzowaniu struktury ciekłokrystalicznej żeby była mniej przezroczysta, co bardzo ogranicza zdolność wyświetlania odcieni barw.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Niektóre monitory LCD, np o rozmiarze 17" 5x4, 20" 16x10, 27" 16x9 mają mniejszą plamkę niż inne popularne rozmiary wyświetlaczy. Oznacza to, że elementy ekranowe w naturalnej rozdzielczości będą mniejsze niż w 19", 22", 24". Wynika to z rozdzielczości monitora i jego rozmiaru. Najprościej wyobrazić to sobie na porównaniu 17 i 19". Przy mniejszym rozmiarze "siedemnastki", ma taką samą rozdzielczość jak "dziewiętnastka". Wynika z tego że pojedynczy punkt ekranu musi być mniejszy aby wszystko "zmieściło się" na mniejszym wyświetlaczu. Większa rozdzielczość jest zaletą, gdyż na ekranie więcej "widać", ale w przypadku osób ze słabszym wzrokiem może być też wadą. O ile zmiana rozdzielczości naturalnej na LCD nie jest wskazane, gdyż jest rezygnacją z jego największej zalety - ostrości, to wielkość elementów można regulować. I to bez potrzeby wymiany monitora na 19". Wyjściem jest programowe zwiększenie wielkości fontów i ikon. Z reguły w każdym systemie operacyjnym jest to możliwe, zarówno przez bezpośrednie zwiększenie/przeskalowanie czcionek/ikon lub zwiększenie rozdzielczości DPI ekranu. Uzyskuje się wówczas przeskalowanie wszystkich elementów ekranowych.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Przede wszystkim należy zwrócić uwagę na szybkość reakcji wyświetlacza, ale wbrew pozorom nie tylko pod kątem wartości bezwzględnej liczby podanej w danych technicznych monitora. Parametr ten jest w różny sposób mierzony przez różnych producentów. Praktycznie nigdy nie podaje się czasu od wartości granicznych czyli od całkowitego zgaszenia do zapalenia i odwrotnie. Stosuje się na przykład pomiar przy przyjętych wartościach granicznych stanowiących 10% jasności od punktów całkowitego zgaszenia i zapalenia. Jest to metoda sensowna, gdyż wynik uwypukla rzeczywiste wrażenia odbierane przez ludzki wzrok, które i tak nie zobaczy niuansów odcieni przy wartościach granicznych. Poza tym w specyfikacjach podaje się tylko przejście czarny-biały-czarny i to nie bez powodu. To jest najszybsze przejście dla struktury ciekłokrystalicznej, gdyż w tym wypadku reaguje ona na maksymalne wymuszenie napięciem sterującym. Ciekłe kryształy reagują z różną prędkością na różne wymuszenia. Jeśli przejście w pozycje skrajne zajmie x czasu a przejście do wartości mniejszej niż skrajna może być nawet kilkukrotnie dłuższe, zamiast jak się miałoby zdawać proporcjonalnie krótsze. Im wymuszenie mniejsze tym cząsteczki ciekłych kryształów reagują bardziej niemrawo. Powyższe cechy są polem manewru, idealnym poligonem specjalistów od marketingu. Efekt smużenia jest zależny od uśrednionych czasów przejść różnych kolorów. Podanie czasu dla przejścia czarny-biały-czarny jest prawidłową oceną tylko jeśliby monitor miał wyświetlać tylko te dwa kolory. A przecież tak nie jest. Zafałszowanie informacji w przypadku tego parametru jest na najwyższym poziomie, ponieważ zdolności marketingowców w bezpośredni sposób przekładają się na wyniki sprzedaży. Nie jest istotne jakie wyświetlacz ma wyniki smużenia, ważne jakim minimalnym czasem może się wylegitymować. Nie ważne nawet czy naciąganym. Jak zatem ocenić rzeczywistą szybkość reakcji wyświetlacza? Najskuteczniejsza metoda to: organoleptycznie. Należy uruchomić dobrze znaną grę lub film i bacznie obserwować. Jeśli za obiektami będą się ciągnąć cienie oznacza to "wolny" wyświetlacz. Jeśli cieni nie będzie lub będą nie przeszkadzające w odbiorze, mamy do czynienia z "szybkim". Wrażenia są całkowicie subiektywne, ale o to właśnie chodzi. To Państwo, a nie sprzedawca, będziecie przez najbliższe lata pracowali przy wybranym monitorze. A co w sytuacji gdy nie ma możliwości sprawdzenia naocznie? Wówczas pozostaje się zdać na parametry zadeklarowane na ulotce informacyjnej. Na ile będą wierne rzeczywistym walorom sprzętu, to zależy od rzetelności producenta. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
W monitorach kineskopowych i ciekłokrystalicznych, parametr częstotliwość odświeżania, a bardziej fachowo częstotliwość odchylania pionowego ma zupełnie odmienne znaczenie. Obraz na kineskopie jest rysowany przez wiązkę elektronów omiatającą ekran tyle razy na sekundę, ile wynosi częstotliwość odświeżania. Czyli obraz na ekranie jest tworzony (odświeżany) tyle razy na sekundę ile wynosi ten parametr. Przy pewnych wartościach granicznych, ludzki wzrok zauważa to jako mruganie ekranu lub nie. Polska Norma określa tą wartość na poziomie 72Hz, ale z reguły stosuje się 75Hz, 85Hz, 100Hz a czasem nawet więcej. Poniżej 72Hz wyraźnie wyczuwa się migotanie ekranu prowadzące do szybszego meczenia się wzroku. Obraz na monitorze LCD również jest tworzony tyle razy na sekundę ile wynosi częstotliwość odświeżania, ale struktura ciekłokrystaliczna nie "gaśnie" w odróżnieniu od luminoforu kineskopu. Świecenie punktów ekranu LCD jest ustawiane na stałe i choćby odświeżanie odbywało się nawet z częstotliwością 30Hz mruganie ekranu nie jest widoczne. W praktyce monitor LCD wyświetla obraz w sposób ciągły, więc nie jest sensowne zwiększanie częstotliwości odświeżania, gdyż prowadzi to tylko o zwiększonego obciążenia układów monitora i większego poboru energii. Tryby graficzne z wykorzystaniem większych częstotliwości są akceptowane przez monitory LCD po to, aby zapewnić zgodność z popularnymi trybami graficznymi większości sterowników kart graficznych. Gdyby na przykład, po zainstalowaniu sterownik karty ruszył z domyślną częstotliwością 75Hz, monitor nie synchronizujący się z takim sygnałem, wyświetliłby czarny ekran z komunikatem o przekroczeniu dopuszczalnych wartości. A to byłoby nieeleganckie. W odróżnieniu do monitorów kineskopowych zmiany częstotliwości odświeżania na monitorach LCD może mieć wpływ na jakość obrazu, a szczególnie smużenie i płynność obrazu ruchomego. Struktura ciekłokrystaliczna reaguje wolniej niż jest odświeżany obraz. Może zatem następować wytrącanie ciekłych kryształów w czasie trwania przejścia w inny stan koloru, przez "wchodzącą" w tym czasie następną klatkę. Z teorii budowy i działania LCD wynika, że będzie to miało miejsce tym częściej, im większa będzie częstotliwość odświeżania.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Wielkość kątów a raczej zakres zastosowania, należy określić przed zakupem monitora. Oczywiście zarówno szerokie jak i wąskie kąty mogą być zaletą lub wadą. Szeroki kąt widzenia jest przydatny przy oglądaniu filmów przez kilka osób, a wąski na przykład na stanowisku biurowym, gdzie nie jest wskazane żeby klient zaglądał w ekran. Jako wąskie określa się kąty do 120 st a szerokie to 170 st. Do praktycznej oceny kątów widzenia należy znać współczynnik kontrastu CR [Contrast Ratio] przy którym podane są kąty graniczne. Drugim nie mniej ważnym aspektem, jest szybkość zmian kontrastu w funkcji kąta, czyli jak szybko maleje kontrast, przy zwiększaniu kąta widzenia.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Szkodliwość obrazu LCD jest mniejsza niż tradycyjnych kineskopów. Głównymi "technicznymi" czynnikami powodującymi zmęczenie wzroku na tradycyjnym monitorze to:- Nieostrość obrazu wynikająca z zasady działania kineskopu.- Pole elektrostatyczne jonizujące kurz w powietrzu.Powyższych czynników zwyczajnie nie ma przy zastosowaniu wyświetlaczy LCD. Jedynym czynnikiem wyróżniającym LCD i powodującym nadmierne zmęczenie to wysoka jasność. W przypadku LCD 250-300 cd/m2, kineskop 120 cd/m2. Oczywiście tak wysoka jasność dobrze wygląda na wystawie sklepowej, w warunkach normalnej pracy należy rozsądnie wyregulować monitor. Paradoksalnie nie jest to takie oczywiste i spotyka się sporo uwag jakoby monitor LCD męczył. Jest to jednakże często zasługą złej regulacji lub samego monitora w którym regulacja jasności została źle zaprojektowana. Proszę na ten parametr zwracać uwagę przy wyborze, gdyż to jeden z ważniejszych aspektów użytkowania monitora LCD.Poniżej szerszy artykuł traktujący o szkodliwości monitorów:Artykuł zamieszczony za zgodą serwisu www.oko.info.plWzrost popularności komputerów w ciągu ostatniego dziesięciolecia idzie w parze z wydłużaniem się kolejek do okulistów. Co raz więcej osób korzysta z komputerów i co raz więcej skarży się na problemy z akomodacją i pogłębianiem się wady wzroku. Wprawdzie nie wszystkie aspekty wpływu komputera na wzrok są nam znane i naukowcy wciąż badają wszelkie możliwości tego oddziaływania, to wiemy, że istnieje wiele zagrożeń ze strony komputera i wiemy jak przed wieloma z nich się bronić.Podstawowe przepisy związane z pracą przy komputerze, zawierające min. organizację stanowiska pracy, rozmieszczenie przestrzenne komputerów, itp. zawarte są w polskich normach oraz przepisach SANEPID-u. Znajdujemy tam następujące zalecenia: Odległość od monitora osoby pracującej przy komputerze musi być około 70 cm. Odległość tyłu monitora od następnej osoby musi być nie mniejsza niż 130 cm. Minimalna powierzchnia przypadająca na jedno stanowisko komputerowe określona jest na 6m2.Natężenie światła w pomieszczeniu, gdzie znajdują się komputery nie może być mniejsze niż 500 lx, a w przypadku, gdy przy komputerach pracują osoby starsze - nawet powyżej 750 lx. Oznacza to, zgodnie z zasadą 1:3, że natężenie światła mierzone na powierzchni monitora nie może być mniejsze niż 180 lx, a dla osób starszych 250 lx. Ponadto istotną sprawą jest też fakt, że światło to musi być rozproszone (nie punktowe). Monitor nie powinien stać na tle okna, a niezależnie od tego zaleca się stosowanie żaluzji okiennych. Zaleca się takie usytuowanie monitora, aby jego górny brzeg znajdował się poniżej poziomu oczu.Warto też pamiętać o kilku dodatkowych wskazówkach, które nie są ściśle przedstawione w w/w dokumentach: W pomieszczeniu, w którym znajdują się komputery, powinno znajdować się dużo zieleni, dla neutralizacji wpływu szkodliwego promieniowania i zapewnienia oczom relaksującego widoku zieleni. Zaleca się robienie przerw w pracy przy komputerze nie rzadziej niż co dwie godziny. Zaleca się częste wietrzenie pomieszczenia, w którym znajdują się komputery.Zastanówmy się, co wiemy o szkodliwości komputera na organizm, a w szczególności na wzrok człowieka. Na początek możemy ustalić główny obiekt naszych zainteresowań - monitor, ponieważ jak wiadomo ani sam komputer, ani klawiatura, ani mysz, ani żadne inne urządzenie, które z komputerem można powiązać nie ma takiego wpływu na organizm człowieka jak monitor. Tu słowo wyjaśnienia: nie mówimy w tym miejscu o wszelkich zwyrodnieniach postawy, stawów, itp. związanych z pracą przy komputerze - nie to jest tematem tego artykułu. W przypadku takich schorzeń głównym winowajcą jest pośrednio faktycznie klawiatura i mysz... Wracając jednak do tematu - chcemy się więc zająć ubocznym działaniem monitora komputerowego. Monitory emitują następujące typy promieniowania:rentgenowskie - promienie Xpodczerwone - IRniskoczęstotliwościowe - VLF, ELF,ultrafioletowe - UV.Pierwsze trzy typy promieniowania emitowane są przez tylną ścianę monitora, na skutek wysokich napięć niezbędnych do zasilania lampy kineskopowej. Obecnie jednak standardem są tzw. monitory niskoradiacyjne (LOW RADIATION), w których promieniowanie to jest w dużym stopniu eliminowane. Tego typu promieniowanie jest szkodliwe praktycznie tylko wtedy, gdy użytkownik znajduje się w bliskiej odległości za tylną ścianą monitora. Emisja promieniowania UV jest natomiast tak niska, że nie może być szkodliwa dla zdrowia.Przykładowo: podczas 1 godziny przebywania na słońcu jesteśmy narażeni na taką samą dawkę promieniowania UV jak podczas 1 roku pracy przy komputerze.Monitor wytwarza też pole elektrostatyczne, którego jednak szkodliwość dla naszego zdrowia jest także niewielka. Jakkolwiek, należy zaznaczyć, że największe natężenie tego pola notuje się podczas pierwszego kwadransa pracy monitora. Jakkolwiek bezpośredni wpływ poszczególnych typów promieniowania elektromagnetycznego na nasz organizm jest niewielki, to nie możemy zapomnieć o takim jego działaniu jak jonizacja powietrza. Powietrze posiada naturalną jonizację, która jest niszczona przez promieniowanie monitora. Pole elektromagnetyczne powoduje ponadto polaryzację przestrzeni pomiędzy monitorem, a użytkownikiem. W wyniku tego twarz człowieka przyciąga tak samo cząsteczki kurzu jak monitor, wywołując niejednokrotnie reakcje alergiczne i podrażnienie oczu. Stąd właśnie bierze się konieczność wietrzenia pomieszczenia komputerowego, a dodatkowo ograniczyć to zjawisko może też stosowanie monitorowych filtrów antyodblaskowych, które ograniczają pole szkodliwego działania promieniowania elektromagnetycznego.Praca przy monitorze jest też źródłem kłopotów ze wzrokiem wynikających z samej specyfiki tej pracy. W naturalnych warunkach oko zmienia obiekty zainteresowania skupiając wzrok raz na przedmiotach bliskich, raz na odległych. Praca przy komputerze powoduje, że wzrok użytkownika skupiony jest przez szereg godzin w stałej odległości i rzadko ma możliwość jej zmiany. Prowadzi to do zwiotczenia mięśni gałki ocznej, a co za tym idzie do problemów z akomodacją i pogorszenia wzroku. Jest to powód, dla którego zaleca się robienie krótkich, ale dość częstych przerw w pracy przy komputerze.Innym, również dość ważnym aspektem pracy przy komputerze, jest sprawa nawilżania rogówki oka. Normalnie rogówka nawilżana jest w wyniku rozprowadzenia wydzieliny łzowej po jej powierzchni w procesie mrugania. Powieka przykrywa całą rogówkę nawilżając tym samym całą jej powierzchnię. Sygnał dla powiek wysyłany jest przez mózg i w jego wyniku następuje mrugnięcie. Podczas pracy przy komputerze użytkownik przenosi wzrok z monitora na klawiaturę i z powrotem wykonując przy tym niewielkie, mimowolne ruchy powiekami (nie ruszamy głową, ale samymi oczami). Wiele spośród takich ruchów jest odczytywanych przez mózg jako mrugnięcie (nazywane jest pseudomrugnięciem), w wyniku czego mózg nie wysyła już kolejnego sygnału do powiek o konieczności mrugnięcia. Efektem tego jest wysuszanie dolnej części oka, najbardziej dotkliwe u osób z zespołem suchego oka, chcących nosić soczewki kontaktowe. Warto więc podczas przerw w pracy mrugać wielokrotnie - może to nam pomóc zapobiec temu stosunkowo nowemu schorzeniu.Chciałbym także zaznaczyć, że ważnym jest, aby osoby pracujące przed komputerem w okularach zaopatrzyły się w szkła z warstwami antyrefleksyjnymi. Eliminują one bardzo męczące i szkodliwe dla oczu odbicia światła od powierzchni szkieł, zwiększając tym samym komfort widzenia.Na zakończenie warto zacytować fragmenty Rozporządzenia Ministra Pracy i Polityki Socjalnej z dnia 1 grudnia 1998r. odnoszące się do ochrony wzroku na stanowiskach pracy wyposażonych w monitory ekranowe:Paragraf 5.1 - Pracodawca jest zobowiązany do przeprowadzenia na stanowiskach pracy, wyposażonych w monitory ekranowe, oceny warunków pracy w aspekcie: 3) obciążenia narządu wzroku oraz układu mięśniowo-szkieletowego pracowników; 4) obciążenia pracowników czynnikami fizycznymi, w tym szczególnie nieodpowiednim oświetleniem.Paragraf 7 - Pracodawca jest obowiązany zapewnić pracownikom: 1) łączenie przemienne pracy związanej z obsługa monitora ekranowego z innymi rodzajami prac nie obciążającymi narządu wzroku i wykonywanymi w innych pozycjach ciała - przy nieprzekraczaniu godziny nieprzerwanej pracy przy obsłudze monitora ekranowego, lub 2) co najmniej 5-minutową przerwę, wliczaną do czasu pracy, po każdej godzinie pracy przy obsłudze monitora ekranowego.Paragraf 8.2 - Pracodawca jest obowiązany zapewnić pracownikom okulary korygujące wzrok, zgodne z zaleceniem lekarza, jeżeli wyniki badań okulistycznych przeprowadzonych w ramach profilaktycznej opieki zdrowotnej, o której mowa w ust.1, wykażą potrzebę ich stosowania podczas pracy przy obsłudze monitora ekranowego.Podsumowując należy stwierdzić, że nie należy się bać komputera, bo wielu przecenia jego negatywne oddziaływanie na organizm człowieka. Stosując powyższe zalecenia myślę, że nikt nie będzie narzekał na problemy ze zdrowiem wynikłe z pracy przy komputerze.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
W odróżnieniu od monitorów CRT, panele LCD mają ściśle ustalony format pikseli wyświetlanych na ekranie. Aby rozszerzyć obraz na pełny ekran, w panelach LCD musi zostać wykonana interpolacja. W przypadku, gdy interpolowana rozdzielczość nie jest wielokrotnością rozdzielczości naturalnej, niektóre linie stają się cieńsze niż pozostałe. Dotyczy paneli 15-calowych: ustalony format pikseli dla paneli 15-calowych oznacza, że rozdzielczość natywna tych monitorów wynosi 1024 x 768. Rozdzielczość niższa, niż liczba pikseli wyświetlacza LCD powoduje, że tekst staje się rozmazany a linie wydają się być pogrubione. Aby naprawić ten problem, należy zmienić rozdzielczość na zalecane ustawienie 1024 x 768. Dotyczy paneli 17-19 calowych: ustalony format pikseli dla paneli 17- i 19-calowych oznacza, że rozdzielczość natywna tych monitorów wynosi 1280 x 1024. Rozdzielczość niższa, niż liczba pikseli wyświetlacza LCD powoduje, że tekst staje się rozmazany a linie wydają się być pogrubione. Aby naprawić ten problem, należy zmienić rozdzielczość na zalecane ustawienie 1280 x 1024.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Tak zwane "poleasingowe" monitory są sprowadzane do naszego kraju zamiast być złomowane. Na "zachodzie" koszty złomowania sprzętu elektronicznego są niebagatelne. Firmy wymieniające swój park urządzeń, często zamiast łożyć znaczące sumy na utylizację sprzedają zużyte monitory firmom, które po kosmetycznym odświeżeniu oferują je do sprzedaży na biedniejszych rynkach. Mimo wszystko wydawać by się mogło, że profesjonalne, nawet zużyte monitory reprezentują wyższy poziom jakości obrazu niż tanie nowe i taki zakup ma uzasadnienie. Nic bardziej błędnego. Tej klasy sprzęt był kupowany do pracy i liczba przepracowanych godzin w ciągu ostatnich kilku lat powoduje nieodwracalną utratę emisji dział elektronowych w kineskopach i lamp podświetlenia w LCD. Tym bardziej, że pracowały niemal na pewno od rana do wieczora w jasnych biurach, ustawione na 100% jaskrawości. Aby ukryć efekt zużycia, w kineskopach podnosiło się napięcie katod i inne pseudo regulacje w ramach "przeglądu". Skutkiem manipulacji monitor pozornie świeci jasno jak nowy. W LCD zużycie podświetlenia kwalifikuje matrycę na złom a z nią jednocześnie cały monitor, gdyż wymiana ani naprawa jest nieopłacalna. Do monitorów średniej i wyższej klasy matryce nawet nie występują na rynku jako części zamienne. Czasem jest rozważana możliwość wymiany podświetlenia. Jest to wykonalne, choć trzeba pamiętać, że wówczas przestaje działać stabilizacja podświetlenia. Mapa nierównomierności zaprogramowana fabrycznie zacznie się nakładać na zupełnie inną nierównomierność wynikającą ze zmienionego podswietlenia. Osobną kwestią wartą rozpatrzenia jest uczciwość sprzedawców sprzętu poleasingowego i nagminny proceder fałszowania liczników. Kilka lat temu z niemieckiego serwisu EIZO skradziono oprogramowanie serwisowe i "dziwnym" zbiegiem okoliczności natychmiast na rynku zaroiło się od monitorów z niskimi stanami liczników. Radzę więc daleko posuniętą ostrożność w zakupach i nie dawanie wiary w gorące zapewnienia o super stanie technicznym, ideałom, "klasie A" i tym podobnym bzdurom. Kolejny problem to prawdopodobieństwo natrafienia na sprzęt składany z kliku i wprost podrabiany. W ostatnich latach obserwuję sporo sprzętu, oferowanego nawet czasem jako nowy lub używany w idealnym stanie. Przede wszystkim są to modele sprzed kilku lat. Już sama oferta nowego monitora, którego produkcja została zakończona 4-6 lat temu powinna zapalić czerwoną lampkę. Wielokrotne badania takich monitorów wykazują, że są to monitory składane z części kilku egzemplarzy, czasem wręcz różnych modeli. Zdarzają się również monitory składane z części kradzionych z fabryki. Zalecenia: Jeśli finanse zmuszają do kupna sprzętu używanego, proponuję szukać od prywatnego użytkownika. Takiego który używał sprzęt w domu a nie wyświetlał na okrągło reklamy na lotnisku. Uwaga: Handlarze zwęszyli, że ludzie chętniej kupują z rąk prywatnych i zdarzają się zamaskowane oferty, gdzie niby sprzedający jest osobą prywatną. Jest jednak bardzo prosta metoda sprawdzenia. Sprzęt od prawdziwego prywatnego użytkownika powinien być kompletny. Mieć wszystkie firmowe okablowanie oraz oryginalny karton i dokumenty. Ludzie rzadko wyrzucają takie rzeczy, szczególnie od drogich monitorów. "Poleasingowe" natomiast nigdy nie mają fabrycznych pudeł a okablowanie jeśli jest, dokładane jest najtańsze,... Więcej...
Z dnia 11 paź 2017

11 Monitory, teoria i budowa

Wytłumaczenie jest dość prozaiczne. W zastosowaniach profesjonalnych i zawodowych monitorach stosuje się czasem kaptur (osłona, hood). Aby kaptury spełniały swoje zadanie, czyli dawały cień, muszą być czarne. Wieszanie więc czarnego kaptura na białym monitorze byłoby conajmniej dziwne, tym bardziej, że wewnątrz kaptura wystawałyby jasne elementy obudowy. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 8 lut 2018
LUT Pomimo powszechnego używania tego terminu w kontekście monitorów, telewizorów i kalibracji, LUT (eng. Lookup Table), jest tak naprawdę terminem programistycznym, techniką wymiany i tymczasowego przechowywania informacji, inaczej tablicowaniem. Nazwa wywodzi się od struktury danych przypominających tablicę / tabelę. LUT wykorzystuje się w sytuacji, jeśli wynik operacji wymagałby każdorazowego obliczania, oszczędza więc czas procesora i pamięć operacyjną. Kontekst monitorowy wynika jednak nie z konotacji programistyczno - informatycznych a potrzeb reklamy. Termin LUT stał się jednych ze słów - kluczy, używanych do promocji monitorów i stanowi synonim możliwości kalibracyjnych. W praktyce jednak nie tylko nie ma z kalibracją bezpośredniego związku, ale jest wręcz z premedytacją nadużywany. Przykładowo, zmianę zakresu wysterowania kanału czerwonego, jest prościej zapisać w LUT, niż każdorazowo wyliczać. Niebagatelne znaczenie ma pobór energii elektrycznej i trend do konstruowania coraz oszczędniejszych układów. Korzystanie z raz przygotowanego zestawu danych pozwala na zastosowanie mniej wydajnych i przez to bardziej energooszczędnych procesorów. Kontekst kalibracji, jak wspomniałem, jest często nadużywany. Większość układów aplikacyjnych procesorów obrazowych w monitorach i telewizorach wykorzystuje zewnętrzną lub wbudowaną (w układach All In One) pamięć RAM i przechowuje w niej kilka tablic które stanowią wynik regulacji parametrów obrazu. Ich obecność jest niezwykle często utożsamiana z kalibracją obrazu, szczególnie, jeśli oprogramowanie umożliwia wpisanie jakichkolwiek danych z poziomu komputera. Wówczas bez ogródek pojawiaja się sugestie o kalibracji sprzętowej. Ten artykuł ma na celu obnażenie takich manipulacji. Jako, że potęga marketingu jest wielka, poniżej wyjaśnienie najcześciej spotykanych typów "LUT-ów". Od tego miejsca, opis jest stylizowany na potoczne rozumienie wyjaśnianych terminów, aby nie powodować kolizji pojęć technicznych ze znaczeniem potocznym. 1D LUT 1D LUT jest to nazwa sterowania poziomami sygnałów kanałów RGB monitora i jaskrawością. Regulacji podlega napięcie każdego kanału, czerwonego, niebieskiego i zielonego. Dzięki temu można zmieniać jasność każdego z osobna. Modyfikacji podlega tylko jasność kanału, nie zmienia się wartość kolorymetryczna odcieni. 3x3 Matrix 3x3 Matrix LUT polega na mapowaniu liczbą określającą wartości wysterowania wszystkich kanałów RGB razem, zapisaną jako macierz 1x3. Każda kombinacja odcieni zapisana jako wartości RGB, jest mnożona przez macierz przekształceń 3-go stopnia, która określa modyfikację sterowania. W ten sposób można przypisać dowolnemu odcieniowi docelową postać, dającą się opisać macierzą przekształceń 3x3. Możliwa jest zmiana wartości kolorymetrycznej odcieni, co daje potencjalnie kształtowanie gamutu monitora. 3D LUT 3D LUT to gotowa trójwymiarowa tablica podstawień odcieni. Każdy kolor opisany wagami RGB może zostać podmieniony na inny pobrany z tablicy 3D LUT. Możliwa jest zatem, podobnie jak w 3x3 Matrix, zmiana wartości kolorymetrycznych odcieni, ale dzieje się to całkowicie dowolnie, gdyż docelowe odcienie nie są wynikiem stałego przekształcenia, tylko pobrania zapisu z tablicy, które mogą być całkowicie losowe. Zaletą 3D LUT jest możliwość symulacji nieliniowych zachowań, niemożliwych do opisania za pomocą przekształceń.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 9 lip 2015
Monitor LCD z uwagi na zasadę działania układu podświetlenia ekranu może wydawać dźwięki, piszczenie zmieniające ton zależnie od ustawionej jaskrawości. W układzie zasilania lamp (świetlówek) CCFL pracuje przetwornica impulsowa z częstotliwościami akustycznymi (słyszalnymi), zależnie od modelu monitora 200 do 300Hz. Pewne elementy elektroniczne, jak cewki, mogą pod wpływem pola elektromagnetycznego drgać w rytm tej częstotliwości. Dokładne dopuszczalne wartości głośności specyfikuje instrukcja serwisowa i jeśli taki efekt występuje, proponuję skonsultowanie problemu z serwisem fabrycznym.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Podświetlenie LED oznacza zastosowanie zamiast świetlówek diod LED, które emitują światło R, G, B o różnym natężeniu. Takie rozwiązanie konstrukcyjne powoduje, że matryca LCD oprócz swoich naturalnych cech umożliwiających wyświetlanie kolorów otrzymuje "turbodoładowanie" w postaci podświetlenia, którego zakres i barwę można w pełni regulować. Charakterystyka ta nawiązuje do technologii wykorzystywanej w przypadku monitorów CRT, gdzie barwy regulowane są za pomocą parametrów strumienia elektronów z działek R, G, B. Sterowany odpowiednio strumień elektronów uderza następnie w luminofor, modyfikując jego świecenie. W typowych monitorach LCD funkcję podświetlania spełniają świetlówki fluorescencyjne charakteryzujące się tylko jedną, nieregulowaną barwą podświetlenia. Ponadto, taki rodzaj podświetlenia jest "piętą achillesową" technologii LCD ze względu na jego niestabilność. Układy stabilizujące podświetlanie matryc LCD są oczywiście coraz bardziej efektywne, ale pomiary stabilności wyświetlania ciągle wykazują tutaj wyższość technologii CRT. Diody LED podświetlające matryce w monitorze NEC Reference 21 pracują bez porównania bardziej stabilnie i przewidywalnie. Są także znacznie trwalsze niż świetlówki fluorescencyjne. Zakładany czas pracy takich diod LED wynosi 100 tys. godzin. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Kontrast to iloraz poziomu bieli (mierzone w cd/m^2) do poziomu czerni. Mówiąc prosto im biel jest jaśniejsza a czerń czarniejsza tym kontrast wyższy. Oznaczenie kontrastu wyraża ile razy biel jest jaśniejsza od czerni lub odwrotnie ile razy czerń jest ciemniejsza od bieli. Oczywiście z punktu widzenia odbiorcy kontrast powinien być jak najwyższy, pozwalający na reprodukcję głębokiej czerni. Czerń jest w wypadku monitorów LCD kluczowym zagadnieniem, gdyż monitory LCD przez swoją zasadę działania, nie są w stanie wyświetlić czerni o tak niskim poziomie jasności jak kineskop lub ekran plazmowy . Należy przy tym wspomnieć że skoro poziom jasności ma bezpośredni wpływ na wynik pomiaru kontrastu, to im monitor ma większą jasność, tym paradoksalnie będzie się legitymował większym współczynnikiem kontrastu. Monitory z ekstremalnie wysoką jasnością, np 350cd/m^2 i więcej mają wysoce zafałszowany parametr kontrastu.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Jest to rodzaj sterowania. Jak wiadomo ciekłe kryształy reagują z różną prędkością na różne napięcia (wymuszenia). Sęk w zapewnieniu szybkich dynamicznych obrazów na LCD bez smużenia tkwi w tym żeby ekran reagował równie szybko, niezależnie od rodzaju przejść kolorystycznych. Maksymalna szybkość występuje przy maksymalnych różnicach kolorystycznych, skrajne to czarny-biały-czarny. Przy mniejszych kryształ reaguje coraz wolniej. Dopalacz ciekłych kryształów polega na chwilowym gwałtownym wzbudzeniu kryształu i po ułamku czasu potrzebnego na reakcję ustalenie się wymuszenia na żądanym poziomie. Dzięki takiemu zabiegowi zysk czasu reakcji wynosi nawet 50%.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Kąt widzenia, a raczej jego zakres, jest to kąt, pod jakim można obserwować obraz na wyświetlaczu, bez utraty jakości obrazu. Moment w którym obraz jest już nie do przyjęcia, określa się kątem granicznym. Używany przy tym współczynnik kontrastu CR [Contrast Ratio], który przy kącie granicznym wynosić powinien 10. Współczynnik CR nie jest z reguły podawany w specyfikacji monitora, co jest niestety furtką do wielu manipulacji. Podanie kątów przy innym CR (np 5) może zachwiać obiektywizm parametru. Z kątem widzenia jest związane zjawisko szybkości utraty kontrastu przy zmianie kąta. Jest to o tyle ważna cecha, że może zdecydowanie zmienić komfort korzystania z monitora.W sytuacji jeśli utrata jakości obrazu przy niewielkich zmianach na granicy kąta granicznego będzie szybka, może być wrażenie zdecydowanie gorszego kąta widzenia, niż przy takim samym kacie granicznym i wolniejszej zmianie.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Smużenie jest wypadkową czasu reakcji wyświetlacza. Patrz: "Co to jest czas reakcji?" w FAQ. Praktycznie jest to efekt nienadążania zmian ekranu przy szybkich zmiennych obrazach. Występuje to w wyniku wolniejszej zmiany struktury ciekłokrystalicznej niż szybkość zmian klatek. Za przesuwającym się elementem widać charakterystyczną smugę. Efekt, jeśli występuje jest uciążliwy przy szybkich grach i sekwencjach video. Dobierając monitor do takich zastosowań, należy wybierać monitor o najmniejszym smużeniu. Parametr zgrubnie odzwierciedlający efekt smużenia jest czasem reakcji lub czasem odpowiedzi wyrażonym w ms [milisekundach]. Im wartość mniejsza, tym monitor szybciej reaguje na zmiany wyświetlanego obrazu.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Czas reakcji wyświetlacza jest potocznie rozumiany jako całkowity, łączny czas potrzebny na zapalenie piksela (przejście z barwy czarnej do białej) i zgaszenie (przejście od białej do czarnej). Podaje się ten parametr aby zróżnicować wyświetlacze o różnym stopniu bezwładności. Im większa tym gorzej monitor będzie się sprawował w szybkich sekwencjach video, grach i generalnie zastosowaniach rozrywkowych. Pozornie jest to obiektywny sposób na porównanie szybkości wyświetlaczy różnych monitorów. Dlaczego pozornie? Z wielu powodów, poniżej najważniejsze: Parametr ten jest w różny sposób mierzony przez różnych producentów. Praktycznie nigdy nie podaje się czasu od wartości granicznych czyli od całkowitego zgaszenia do zapalenia i odwrotnie. Stosuje się pomiar przy przyjętych wartościach granicznych stanowiących 10% jasności od punktów całkowitego zgaszenia i zapalenia. Jest to metoda sensowna, gdyż wynik uwypukla rzeczywiste wrażenia odbierane przez ludzki wzrok, które i tak nie zobaczy niuansów odcieni przy wartościach granicznych, ale jest furtką do nadmiernego zaokrąglania pomiaru. Poza tym w specyfikacjach podaje się tylko przejście czarny-biały-czarny i to nie bez powodu. To jest najszybsze przejście dla struktury ciekłokrystalicznej, gdyż w tym wypadku reaguje ona na maksymalne wymuszenie napięciem sterującym. Ciekłe kryształy reagują z różną prędkością na różne wymuszenia. Jeśli przejście w pozycje skrajne zajmie x czasu a przejście do wartości mniejszej niż skrajna może być nawet kilkukrotnie dłuższe, zamiast jak się miałoby zdawać proporcjonalnie krótsze. Im wymuszenie mniejsze tym cząsteczki ciekłych kryształów reagują bardziej niemrawo. Powyższe cechy są polem manewru, idealnym poligonem specjalistów od marketingu. Efekt smużenia jest zależny od uśrednionych czasów przejść różnych kolorów. Podanie czasu dla przejścia czarny-biały-czarny jest prawidłową oceną tylko jeśliby monitor miał wyświetlać tylko te dwa kolory. A przecież tak nie jest. Zafałszowanie informacji w przypadku tego parametru jest na najwyższym poziomie, ponieważ zdolności marketingowców w bezpośredni sposób przekładają się na wyniki sprzedaży. Nie jest istotne jakie wyświetlacz ma wyniki smużenia, ważne jakim minimalnym czasem może się wylegitymować. Nie ważne nawet czy naciąganym. Jak zatem ocenić rzeczywistą szybkość reakcji wyświetlacza? Najskuteczniejsza metoda to: organoleptycznie. Należy uruchomić dobrze znaną grę lub film i bacznie obserwować. Jeśli za obiektami będą się ciągnąć cienie oznacza to "wolny" wyświetlacz. Jeśli cieni nie będzie lub będą nie przeszkadzające w odbiorze, mamy do czynienia z "szybkim". Wrażenia są całkowicie subiektywne, ale o to właśnie chodzi. To Państwo, a nie sprzedawca, będziecie przez najbliższe lata pracowali przy wybranym monitorze. A co w sytuacji gdy nie ma możliwości sprawdzenia naocznie? Wówczas pozostaje się zdać na parametry zadeklarowane na ulotce informacyjnej. Na ile będą wierne rzeczywistym walorom sprzętu, to zależy od rzetelności producenta.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Każdy kolorowy piksel (punkt ekranu) składa się z trzech subpikseli w kolorach podstawowych: czerwonym, zielonym i niebieskim. Inaczej, subpiksel jest częścią, a dokładnie 1/3 piksela.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Piksel jest to pojedynczy punkt ekranu z których składa się cały obraz monitora. Przy typowej rozdzielczości ekranu 17-calowego ekran składa się z siatki 1280 pikseli w poziomie na 1024 pikseli w pionie. Każdy piksel jest odrębnym, oddzielnie sterowanym punktem, który może świecić na dowolny kolor.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

7 Wady ekranów monitorów

Sterowanie wyświetlaczem LCD wymaga wyprodukowania milionów tranzystorów dla każdego panelu. Ograniczenia procesu produkcyjnego doprowadzają czasem do powstania martwych pikseli. Z użytkowego punktu widzenia martwy piksel/subpiksel jest to struktura ciekłokrystaliczna pozbawiona sterowania. Może przyjąć jedną z dwóch form: "świecić" ciągle lub nie "świecić" wcale. Uszkodzeniu może ulec cały piksel, mamy wówczas do czynienia z czarnym punktem widocznym, gdy wyświetlany jest jednolity obraz w skali szarości, lub białym widocznym na ciemnym tle, lub uszkodzony może być jeden ze składowych piksela, tzw subpiksel widoczny jako czarny lub kolorowy punkt na jednolitym obrazie w kolorze czerwonym, zielonym lub niebieskim. Przyjęta przez większość producentów specyfikacja na podstawie normy ISO 13406-2, dopuszcza istnienie 2 uszkodzonych pikseli (2 jasnych lub 2 ciemnych) lub 5 subpikseli. W sytuacji gdy martwe piksele są skupione w jednym miejscu, rozpatrujemy wówczas kwestię odległość martwych pikseli od siebie. Dopuszczalne jest wystąpienie 2 pikseli lub subpikseli w klastrze 5x5 pikseli. Wartości te są podane w odniesieniu do 1 mln pikseli.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Jeśli na krawędziach każdego obiektu z prawej lub lewej strony widoczna jest smuga, winę ponosi najprawdopodobniej analogowe połączenie karta graficzna - monitor. Komputer współpracujący z współczesnymi monitorami LCD musi bezwarunkowo mieć wyjście cyfrowe DVI, HDMI lub DisplayPort.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Większość producentów monitorów dopuszcza pewne ilości wadliwych pikseli nie kwalifikując tego jako wadę. Szczegółowe wytyczne powinny być zawarte w karcie gwarancyjnej. Jeśli wada spełnia warunki określone przez producenta jako kwalifikowane do wymiany problemu nie ma. Gorzej jeśli norma producenta dopuszcza ilość większą niż wystąpiła na naszym ekranie. Jeśli sprzedaż była dokonana poza lokalem przedsiębiorstwa, np w sklepie internetowym, można skorzystać z prawa do zwrotu towaru bez podania przyczyny. Prawo to przysługuje w pierwszych 10 dniach od odebrania towaru. Szczegółowe przepisy zawiera Ustawa z dnia 2 marca 2000 r. o ochronie niektórych praw konsumentów oraz o odpowiedzialności za szkodę wyrządzoną przez produkt niebezpieczny (Dz. U. z dnia 31 marca 2000 r.). W przypadku jeśli zależy nam na monitorze bez ryzyka wad pikseli proponuję jednak przed zakupem zorientować się w wybranym sklepie, czy daje możliwość uniknięcia ryzyka trafienia na ekran z defektem. Jest to o tyle ważne, że sklep detaliczny najczęściej nie ma możliwości zwrotu monitora z pikselem, a przecież nie jest to jego wina, że większość producentów nie deklaruje braku tego typu wad. Zasygnalizowanie oczekiwań przed zakupem może nam oszczędzić kłopotu i nie spowoduje postawienia w niezręcznej sytuacji sprzedawcy.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Martwy piksel lub subpiksel to trwałe uszkodzenie sterowania strukturą ciekłokrystaliczną wewnątrz wyświetlacza. Z uwagi na brak odpowiedzi piksela, nie ma żadnej możliwości spowodowania jakiejkolwiek zmiany jego zachowania.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Zły piksel to punkt nie świecący wcale lub świecący na biało. Najbardziej widoczny będzie na jednolitym czarnym lub białym tle. Zły subpiksel to świecący stale punkt na czerwono, zielono lub niebiesko, ewentualnie piksel pozbawiony tej składowej koloru. Również to zjawisko najlepiej jest widoczne na całkowicie jednolitym tle. Brak czerwonego, zielonego lub niebieskiego subpiksela będzie widoczny jako czarny punkt na czerwonym, zielonym lub niebieskim tle. Obraz testowy, biały, czarny lub któryś z podstawowych kolorów można uzyskać bez specjalnych narzędzi na przykład jako kolor pulpitu systemu operacyjnego. Istnieją oczywiście programy testowe ułatwiające tego rodzaju testy. Jednym z najpopularniejszych jest Nokia test monitor, udostępniany bezpłatnie.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Przyjęta przez wszystkich producentów monitorów norma ISO 13406-2, dopuszcza istnienie 2 uszkodzonych pikseli (2 jasnych lub 2 ciemnych) lub 5 subpikseli. W sytuacji gdy martwe piksele są skupione w jednym miejscu, rozpatrujemy wówczas kwestię odległość martwych pikseli od siebie. Dopuszczalne jest wystąpienie 2 pikseli lub subpikseli w klastrze 5x5 pikseli. Uwaga: Wartości te są podane w odniesieniu do 1 mln pikseli.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Rozjaśnienie narożników, charakterystyczny "X" widoczny szczególnie w ciemności wynika z charakterystyki kątowej wyświetlaczy wielodomenowych (MVA, PVA, częściowo ASV). Wynika stąd, że kąt patrzenia na środek ekranu jest inny niż na boki i w narożniki. Efekt będzie tym silniejszy im większa różnica kątów między prostą prostopadłą od oczu do powierzchni ekranu a linią patrzenia na "najdalszą" część ekranu. Słowem im obserwator siedzi bliżej ekranu tym kąty większe i efekt bardziej widoczny i odwrotnie, czym dalej od ekranu tym mniej. Generalnie regulacja monitora i oświetlenie w pomieszczeniu powinno być tak ustawione że tego typu efekt nie powinien być widoczny. Nie chodzi o zamaskowanie, a o poprawną konfigurację zakresu dynamiki i punktu czerni. Jeśli omawiany efekt widać, oznacza to, że monitor jest ustawiony za jasno, w pomieszczeniu jest za ciemno lub oba te czynniki na raz.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

11 Monitory, zastosowania praktyczne

NEC EA271U ma przestrzeń objętościowo nieco większą niż eRGB. We wszystkich wersjach jest taka sama.
Created by Arkadiusz Z dnia 30 cze 2020
Bardzo popularnym jest pogląd, że przygotowując zdjęcia do publikacji w internecie, należy sprawdzać jak wyglądają na popularnych urządzeniach, jakich używają klienci, np telefony, laptopy i tanie, biurowe monitory. Częstym zjawiskiem jest umieszczenie na biurku monitora dodatkowego, który oprócz funkcji typu wyświetlanie bibliotek, narzędzi, służy do "podglądania" jak to będzie wyglądało w "necie". Podobnemu celowi służy otwieranie na telefonie. Czy taka metoda jest słuszna?  Prześledźmy, od czego zależy przewidywalność. Jak zdjęcia zobaczą użytkownicy? Przygotowujemy zdjęcie i efekt finalny otwieramy na smartfonie. Zastanówmy się, czy jeśli zmienimy telefon, będzie ono wyglądało tak samo? Przecież wiadomo, że nie. Ekrany smartfonów różnią się między sobą. Jaka jest więc gwarancja, że klient będzie oglądał na takim samym jak my? No właśnie... W praktyce, jest wręcz przeciwnie, każdy będzie widział nieco inaczej. Częstą tendencją jest też wybieranie do "podglądu" smartfonów które wyświetlają "ładnie". Jednak przekonanie, że "ładne" wyświetlanie jest właściwe, jest z gruntu złe, bo widzimy "podkręcony" obraz w wyniku dostrojenia samego ekranu a nie jak wynika z prawdziwego wyglądu pliku. Innym aspektem jest argumentacja, że pomimo różnic w sprzęcie konsumenckim, pewne cechy obrazu są wspólne i charakterystyczne, jak podbita jaskrawość i wysoka temperatura barwowa, dająca siną, niebieskawą biel. Tu też jest nieporozumienie, bo użytkownik jest zaadoptowany, przyzwyczajony do swojego ekranu i wcale nie widzi, że biel jest zbyt niebieska. W jego oczach jest czysto biała. Fotograf natomiast mając przed oczami lepszej klasy monitor, bardziej prawidłowo ustawiony, jest zaadoptowany właśnie do niego i rzut okiem na masowy monitor pomocniczy, widzi w dwójnasób owe niebieskie zabarwienie. Z tego w naturalny sposób powstanie przekonanie, że nasze zdjęcia w necie będą właśnie obarczone taką chłodną kolorystyką. Co więc zrobić? Przede wszystkim, nie wierzyć swoim oczom, które są tyleż fenomenalnym, co fenomenalnie zwodniczym zmysłem. Zdjęcia należy publikować w internecie takie, jakimi one faktycznie są. Klienci, zadoptowani do swoich niebieskawych i jaskrawych ekranów automatycznie zdejmują te zniekształcenia mechanizmem adaptacji chromatycznej i błąd widzą dużo mniejszy niż fotograf "podglądając" na smartfonie. Ci natomiast z nieco lepszym sprzętem, będą widzieli bardzo podobnie jak u nas. Jeśli natomiast fotograf, popchnięty "siną" kolorystyką na, pożal się Boże, podglądzie, skoryguje materiały pod tym właśnie względem, zrobi de'facto niedźwiedzią przysługę i gotowego materiału nikt nie zobaczy jak wyglądał na monitorze fotografa.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 2 lut 2020
Zaobserwowana "zgodność" w takim wypadku jest pewnego rodzaju skutkiem ubocznym konwersji z RGB do CMYK. Typową cechą modelu CMYK jest przenoszenie mniejszych nasyceń wielu walorów barwnych niż w modelu RGB. Przykładowo, "fosforyzująca" zieleń, odcień jak kamizelki odblaskowe, po skonwertowaniu do CMYK stanie się brudnozielona. Dlaczego więc, lepsza przewidywalność zdjęć z monitora pojawia się po przejściu na CMYK, czyli zmniejszeniu nasyceń? Przyczyna nie tkwi w samym CMYK, bo przecież minilaby i drukarki są maszynami RGB z punktu widzenia przyjmowanych materiałów. Problemem jest wyświetlanie monitora a konkretnie monitora względem otoczenia. Najczęstszym błędem popełnianym przez fotografów, niestety nawet zawodowców, jest zbyt jasno ustawiany monitor względem oświetlenia tła. Dlaczego względem tła? Bo nie patrzymy tylko na ekran, ale obejmujemy wzrokiem również kawał pokoju. Przyjmuje się, że należy zapewnić kontrolowane warunki w polu widzenia ok 120-130stopni. Co jest dalej, nie jest specjalnie ważne. Jesli na zbyt jasnym monitorze wyświetlić biel, ekran jest wręcz świecącą, rażącą prostokątną lampą. Prawda, że tak jest? Czy zwykła kartka papieru też tak "żre w oczy"? Oczywiście nie. Jeśli wyświetlamy materiał kolorowy na jasnym monitorze, nasza percepcja działa tak, że kolor widzimy wówczas bardziej nasycony niż jest w rzeczywistości. To działa też odwrotnie, im ciemniejszy kolor tym widzimy mniejsze nasycenie aż do widzenia monochromatycznego w nocy. Jeśli wiec monitor jest za jaskrawy, nie widzimy rzeczywistej jasności zdjęcia, tylko "podbitą" monitorem. Jedynym sposobem na niwelację tego efektu, jest znaczne zmniejszenie jasności monitora i zapewnienie jakiegokolwiek oświetlenia na ścianę na tle której stoi monitor. Oczywiście tak duża zmiana obrazu będzie w pierwszej chwili trudna do akceptacji, bo zamiast pięknych, kolorowych i kontrastowych fotek, zobaczymy ciemne, wyprane z koloru. Tak ma być! Mamy widzieć je możliwie wiernie tak jak one są w rzeczywistości na dysku, a nie zniekształcenie monitora. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 23 maj 2018
Powyższy argument wynika z trafnej skądinąd obserwacji, że odbiorcy i sam fotograf lub grafik, oglądają zdjęcia, materiały graficzne, na różnych ekranach. Siłą rzeczy u każdego są wyświetlane inaczej. Powszechna filozofia zakłada, że skoro wszędzie jest inaczej, nie ma sensu stosować wyśrubowanych narzędzi, bo i tak nikt nie zobaczy w pełni efektów pracy fotografa/grafika. Ten pogląd jest fałszywy! Jest oczywiste, że ludzie oglądają zdjęcia i wysiłki grafików na wszelakim badziewiu, rozregulowanym w niepojęty sposób. Twórca jednak jest zainteresowany, aby jego prace wyglądały przewidywalnie u odbiorców. Jak to więc zrobić? Częstą implikacją argumentacji z pierwszego akapitu, jest zastosowanie takiego samego, bardzo niskiej klasy ekranu, albo wręcz telefonu jako podglądu. Intencja takiego działania jest trudna do zrozumienia. Wszak, skoro u każdego jest inaczej, to na marketowym "podglądzie" też będzie inaczej. Wszędzie inaczej jest przeciwieństwem przewidywalności. Monitor graficzny zapewnia przewidywalność, na początek u samego twórcy. Aby zrozumieć co to daje później, spójrzmy na przykład z innej branży, realizacji dźwięku. Studio nagraniowe i mastering wykorzystuje wysokiej klasy, neutralny brzmieniowo sprzęt właśnie dlatego, że przeciętny odbiorca będzie słuchał na słuchawkach za 30 zł. Paradoks? Absolutnie nie. Aby materiał brzmiał na takich słuchawkach znośnie, musi być prawidłowo przygotowany. Musi mieć normalną dynamikę, zakres częstotliwości. Musi być "oryginałem". Kiepskie słuchawki część tego oryginalnego brzmienia zniekształcą. Słuchawki innego odbiorcy, zniekształcą natomiast co innego, czasem mniej, czasem więcej. Różne słuchawki u różnych odbiorców będą inaczej odtwarzały oryginalnie zapisany dźwięk. Będzie jednak pewna stała część wspólna. Jeśli studio nagraniowe przygotowałoby dźwięk już z ograniczoną dynamiką i zakresem pasma pod kątem możliwości słuchawek za 30 zł, to u części odbiorców, którzy mogliby odtworzyć nieco więcej, nie będzie co odtwarzać, a u całej reszty brzmienie się zmieni, bo zmieni się przecież oryginalny materiał. Wierność przekazu dźwiękowego będzie więc mniejsza. Jeśli materiał, niezależnie dźwiękowy czy graficzny, będzie przygotowany poprawnie, wówczas błędy i zniekształcenia u odbiorców rozrzucą się najbardziej równo i efektywny poziom błędów będzie najmniejszy. Ci natomiast, którzy dysponują sprzętem rozsądnej jakości, będą widzieli zdjęcia podobnie jak grafik lub fotograf u siebie. Reszta, wiadomo, będzie widziała różnie, ale poziom tych dewiacji będzie najmniejszy. Natomiast materiał przygotowany już z ograniczeniami, u nikogo nie będzie się wyswietlał tak jak u fotografa / grafika. Jak wobec tego przygotować poprawnie zdjęcia lub grafiki? Przede wszystkim trzeba je widzieć. Widzieć jak naprawdę wyglądają pliki leżące na dysku. Potrzebny jest na tyle wiarygodny monitor, aby zniekształcał jak najmniej, nie dokładał do finalnego materiału defektów własnych. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 17 lis 2017
Nie można na oko ocenić czy monitor poprawnie wyświetla i co za tym idzie, czy nadaje się do na przykład fotografii. Wydaje się, że jest to paradoks. Przyczyna tkwi w tym, że celem jest ocena negatywna. Czyli ważniejsze jest czy się nie nadaje, niż że się nadaje. Jeśli widzimy gołym okiem błędy, to znaczy, że się nie nadaje bez wątpienia. Jeśli natomiast nie widzimy błędów, to nie wiadomo, czy ich nie ma, czy ich nie widzimy. Większe prawdopodobieństwo jest w tym, że błędy są, ale ich nie widać z powodu kompozycji obrazów porównawczych, adaptacji wzroku oraz syndromu "pańskie oko konia tuczy". Także, optymistyczne opinie o obrazie wyświetlanym na monitorze mogą być fałszywe. Pesymistyczne zawsze są prawdziwe. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Ciemność jest dobra na kolację z żoną. A jeszcze lepiej, jak się jakaś świeczka znajdzie. (Odpowiedź, dlaczego akurat świeczka robi przyjemny nastrój po ciemku, znajdziesz na końcu artykułu.)Absolutnie niedopuszczalna jest praca z kolorem w warunkach ciemności! Patrzeć na obraz barwny mamy w takim świetle, w jakim widzimy fotopowo, czyli dziennym, lub sztucznym imitującym dzienne. Poprawne widzenie barwne zachodzi bowiem w naszych oczach wyłącznie w świetle dziennym. W słabym, wieczornym świetle, które preferuje wielu fotografów, istnieje silny trend do tworzenia za ciemnego i wypranego z koloru obrazu. Wynika to stąd, że monitor w ciemności wydaje się jaśniejszy niż jest w rzeczywistości (zjawisko kontrastu sąsiedniego), więc pojawia się tendencja do przyciemniania fotografii. Nie widzimy bowiem jasności neutralnie, tylko przy pewnym poziomie oświetlenia, samoczynnie, nieświadomie podbja się czułość naszych receptorów wzrokowych. Mówi o tym kilka tomów z dziedziny neurofizjologii a sam mechanim wywodzi się z uwarunkowań odzwierzęcych. Otóż, mechanizm podbijania czułości w tonach średnich, pomaga dostrzec o zmroku drapieżnika czającego się w krzakach, aby nas skonsumować. Czasy się zmieniły, ale właściwości widzenia nie i w wielu sytuacjach można się natknąć na takie ciekawostki. Jeśli zastosujemy światło za słabe, występuje zjawisko zgodne z prawem Bezolda-Brückego, mówiące o zmianie barwy postrzeganej w funkcji jasności. Nawiasem mówiąc, powszechnie się je wykorzystuje w reklamach telewizorów. Bardzo jasno ustawiony ekran wydaje się bowiem bardziej nasycony. Przy pracy w ciemnicy, zachodzi jeszcze dodatkowo degradacja widzenia barwnego, polegająca na zaburzeniu widzenia jasności barwy, tzw zjawisko Purkiniego. Światło ze strony niebieskiej widma, czyli o większej energii promieniowania, reaguje z siatkówką silniej niż normalnie, przez co np niebieski może się wydawać jaśniejszy niż czerwony. Dlatego w ciemności światło świecy jest przyjemne, nastrojowe, bo nie ma praktycznie niebieskiego w widmie. Natomiast świetlówka, nawet o skorelowanej temperaturze barwowej odpowiadającej standardowemu iluminantowi światła dziennego, w ciemnym pomieszczeniu staje się nieprzyjemna - "trupia". Każdy na pewno te zjawiska zaobserwował, ale dopiero uświadomienie ich sobie, daje solidne podłoże do zrozumienia kilku zasad rządzących wzrokiem. Na upartego można znaleźć jeszcze kilka czynników wpływu z tej dziedziny, ale prawidłowy wniosek jest tylko jeden: Nie należy walczyć z własnymi zmysłami. Oczy po ciemku nie widzą poprawnie. Otoczenie monitora musi być dość jasne. Na tyle, aby tło zrównało się ze średnią szarością ekranu. Na szczęście, do analizy kolorymetrycznej mózg bierze tylko to co jest przed oczami, w scenie o szerokości wyznaczonej kątem około 130 stopni. W pozostałej części pomieszczenia możne panować kameralny nastrój.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2015
Widzimy właściwie pełny zakres jasności i nasyceń w świetle dziennym. To tzw widzenie fotopowe. W każdym innym świetle następuje mniejsza lub większa degradacja jakości widzenia barwnego. Stąd wynika prosty wniosek: To co mamy dobrze, poprawnie widzieć, ma być oglądane w świetle, w którym poprawnie widzimy. Czyli dziennym, lub sztucznym imitującym dzienne. Najlepsze widmo i temperaturę barwową dają profesjonalne halogeny firmy Solux. Współczynnik oddania barw CRI wynosi 100 czyli jak słońce. Tańszą i dobrą alternatywą są świetlówki graficzne Just, Osram, Philips o skorelowanej temperaturze barwowej "dziennej" 5000K i CRI = 98 lub profesjonalne LED o CRI > 95. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Nie. Wyświetlacz nie jest elementem decydującym o przydatności monitora do konkretnego zastosowania, choć bezsprzecznie ma wpływ. O cechach obrazu decyduje więcej czynników. Wybór monitora do amatorskiej grafiki w oparciu o informację, że ma być skonstruowany z wykorzystaniem jakiegoś konkretnego modelu wyświetlacza, prowadzi do poważnych nieporozumień. Przykładowo, w zawodowych monitorach do CAD najczęściej wykorzystuje się wyświetlacze PVA, ale to zupełnie nie oznacza że każdy monitor z takim wyświetlaczem nadaje się do tego. Podobnie z grafiką i wyświetlaczem IPS i wieloma innymi dziedzinami. Najważniejszym kryterium wyboru, jest zespół specyficznych cech, przydatnych w danej dziedzinie, które zostały uwzględnione przy konstruowaniu monitora. I tak monitor do CAD musi mieć małą plamkę, aby linie skośne nie były "schodkowe", co nie ma oczywiście najmniejszego znaczenia przy grafice. Monitor do grafiki natomiast, musi mieć zdolność pokazania czy w 98% cieniu będą jeszcze widoczne detale, czy tylko czarna plama. Powyższe przykłady można mnożyć w nieskończoność. Wniosek: To producent już na etapie projektu decyduje, do jakich celów będzie się nadawał konstruowany monitor, odpowiednio optymalizując konstrukcję. Oczywiście wiara w zapewnienie producenta musi być czymś poparta. Wiadomym jest, że przykładowo monitory graficzne, czy CAD'owe ma w ofercie niewielu producentów i wybierając, nie zaszkodzi kierować się renomą wytwórcy, zdobytą lub nie w interesującej nas branży.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Technika LCD, podobnie jak inne sposoby tworzenia obrazu jest obarczona pewnymi uwarunkowaniami wynikającymi z zasady działania. W klasycznym monitorze LCD nie jest możliwe stworzenie idealnej palety przejść tonalnych przy zastosowaniu standardowego zapisu koloru o szerokości 8 bitów na kanał. Struktura ciekłokrystaliczna nie odpowiada idealnie liniowo na wymuszenie, co skutkuje nieciągłościami i przebarwieniami, szczególnie widocznymi w szarościach. Monitory dedykowane do pracy z barwą, mają zwiększoną wewnętrzną precyzję kodowania koloru do 10, 12 lub 14 bitów. Dzięki temu, w połączeniu z dokładną korekcją, zwaną kalibracją sprzętową, osiągnięty poziom reprodukcji barw, pozwala na zastosowanie w branżach typu prepress, grafika komputerowa, medycyna. Inna ważna cecha to podświetlenie. Jak wiadomo, w monitorze LCD źródłem światła i barwy są świetlówki. Stabilność i czystość widma jest warunkiem koniecznym, utrzymania wysokich parametrów jakościowych w czasie użytkowania. W popularnym wypadku, gdy w widmie białego światła podświetlenia występuje pik (ostre zwiększenie energii promieniowania w wąskim zakresie), powoduje to mocne wyeksponowanie barwy odpowiadającej długości fali piku. I tak, na przykład pewien odcień niebieskiego może być bardziej intensywny niż powinien być, co wprowadza dezinformację przy obróbce. Takich pików w widmie podświetlenia popularnych monitorów LCD jest dużo. Ta cecha dyskwalifikuje monitory klasy masowej w zastosowaniach związanych z kontrolą koloru.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Monitor do CAD musi spełniać następujące cechy: 1. Bardzo dobre podświetlenie, szczególnie jeśli pracuje się z czarnym tłem. 2. Musi mieć wysoką rozdzielczość przy małej plamce, aby linie skośne nie były w "schodki". 3. Nie może mrugać na kreskowaniach. Te wydawałoby się banalne kryteria, spełnia bardzo mało monitorów. W zasadzie tylko zawodowe. Oferta monitorów do projektowania zmienia się, więc nie można podać konkretnych modeli.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Postrzeganie działa tak, że o wrażeniu wielkości decyduje wysokość, nie przekątna. Ponadto im "szerszy" format tym coraz większe przekątne dokładają wymiaru w bok zamiast do góry. 23" 16x9 (wysokość ok 28 cm) jest wyraźnie niższy niż 20" 4x3 (wysokość ok 30 cm). Przesiadając się na nowy monitor, warto zwrócić uwagę, żeby wysokość była przynajmniej taka sama. Inaczej większość użytkowników czuje degradację jakości pracy zamiast poprawy. Negatywny efekt się dodatkowo pogłębia przez obcięcie 120 linii obrazu. W przypadku Pańskiego monitora, wrażenie poprawy, wizualnie większego ekranu będzie dopiero przy 24" 16x10 (wysokość ok 32 cm).  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

34 Teoria koloru i kalibracja

Ogólna geneza problemów z odcieniem skóry Jak każdy fotograf doskonale wie, skóra sprawia dużo problemów. Gorzej, że nie ma żadnego punktu odniesienia, bo nie isnieje jeden idealny wzorzec odcienia skóry, pomimo licznych prób znormalizowania. Jedna z legend rynku kolorymetrii, firma Macbeth (później Gretag Macbeth, później X-Rite a obecnie Calibrite), 50 lat temu, w swoim najbardziej znanym wzorniku Checker 24, obrazek po prawej, usiłowała dać wzorzec "prawidłowego" odcienia ludzkiej skóry. Większość ludzi się nie zastanawia skąd się wzięły te powszechnie znane kolorowe kwadraciki, a to są "wzorce" odcienia skóry rasy czarnej (czerwona strzałka), odcienia skóry rasy białej (zielona strzałka), kolor nieba, trawy i tym podobne rzeczy. Teoretycznie można by było wziąć ów wzornik w czasie roboty i "dokręcić" aby skóra miała "prawidłowy" odcień. Zgadnijcie dlaczego zastosowałem cudzysłowy? Praktyka jest niestety taka, że to nie zadziała. Artykuł jest pobieżną analizą problemu, więc nie będę wchodził w zaawansowaną problematykę kolorymetrii, ale wystarczy na tym etapie wiedzieć, że wzorzec w takim wypadku pomoże tyle, co umarłemu kadzidło. Urok nieboszczyka, czyli barwy przeciwstawne Nie bez powodu nawiązałem do przenoszenia się w zaświaty, gdyż dwa główne kierunki w jakie ucieka skóra, to zaczerwienienie, wyglądające jak poparzenie, lub zazielenienie, wyglądające właśnie jak niezbyt świeży nieboszczyk. Pomijając, że drugi przypadek wygląda wyjątkowo źle, szczególnie na młodych, pełnych życia modelkach, pojawia się pytanie: Dlaczego akurat przebarwia się w te kolory? Skóra, jak wiadomo, jest zbudowana z brązów a bazą brązowego jest żółty. Problem w tym, że żaden monitor nie ma żółtej składowej. Monitor może reprodukowac wyłącznie kolory czerwony, zielony i niebieski. Niewiarygodne? Przecież kiedy przyjdzie wiosna, wszystkie grupy fotograficzne są zasypane landszaftami z jadowicie żółtym rzepakiem. Jak to go nie ma? Ano tak, można wziąć lupę i obejrzeć w powiększeniu żółty kolor narysowany np w Photoshopie. Nie ma ani nawet pół żółtego piksela! Złudzenie widzenia barwy żółtej powstaje bowiem w mózgu, monitor w ogóle jej nie wyświetla. Jeśli spojrzymy na widmo światła białego (słonecznego), widać, że żółty wypada dokłanie między zielonym i czerwonym. Aby więc powstało złudzenie widzenia żółtego, trzeba wymieszać zielony z czerwonym. Jakby było mało, takie zmieszanie wydaje się niemożliwe. Jeśli spróbujemy wyobrazić sobie co wyjdzie ze zmieszania zielonego i czerwonego, wychodzi jakaś kupa, a nie żółty. Nie możemy sobie wyobrazić takiego zmieszania, bowiem zieleń i czerwień to dla nas barwy przeciwstawne. Nasze receptory wzrokowe reagują rozłącznie, albo na zielony, albo na czerwony. Zmieszanie daje nie-wiadomo-co, ale nie żóty. Kontrolowane złudzenie Problematyka poruszona w poprzednim akapicie obrazuje, jak trudno jest stworzyć kontrolowane i precyzyjne technicznie złudzenie widzenia odcienia żółtego. Nawet odrobina niedokładności i żółty zmieni nieco odcień. A skoro żółć jest podstawą brązów, więc i skóra momentalnie odchodzi w niepożądane rejony. Dodatkowym utrudnieniem jest fakt, że jesteśmy fizjologicznie, biologicznie, nieprawdopoodbnie wręcz uczuleni na zmiany odcienia skóry. To ma związek oczywiście ze stanami chorobowymi. Niejeden słyszał np: "Aleś ty blady!" Niewielka zmiana balansu między zielonym i czerwonym przekłada się na gigantyczne zmiany w kolorze skóry. Na dobiitkę - szczególnie u dzieci. Fotografowie noworodkowi mają najtrudniej w branży. Jak sobie z tym radzić? Jeśli napiszę: "kup lepszy monitor", będzie to truizm, okraszony ironicznym uśmiechem słuchaczy. Wszakże co innego można usłyszeć od firmy monitorowej? Niestety, poradzić sobie z tym inaczej będzie bardzo trudno, a czasem wręcz niemożliwe. Co da lepszy monitor? Lepszą, często dużo lepszą, precyzję w problematycznym balansie między zielonym a czerwonym. Na wysokiej jakości ekranie takie anomalie dobrze widać, co nie jest takie oczywiste na sprzęcie popularnym, albo na laptopach. Innym i bardzo dobrym sposobem jest klasyczne: "Mniej suwaków do cholery!" wygłaszane niemal zawsze na szkoleniach. Jest tu głęboki sens, gdyż bardziej agresywna postprodukcja powoduje znaczne zwiększenie nasycenia, w tym oczywiście problematycznych, zielonego i czerwonego, przez co bezpieczna granica między nimi się zmniejsza. Szczególnie radykalnym przypadkiem takiego błędu jest pojawienie się zielonkawych i czerwonkawych przebarwień (sic!) jednocześnie, na tym samym portrecie. Skóra nie jest jednolita, ludzie mają naturalne rumieńce i działając nieostrożnie, można spowodować ich niepożądane uwypuklenie. Ewentualnie, zawsze można robić portret czarno-biały. ;-)   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 kwi 2022
Dyskusja o niebieskiej części widma toczy się od dawna. Co w tym niebieskim takiego jest, że zarówno pociąga jak i odstrasza?Bardziej niebieska biel wydaje się "bardziej biała". Niebieski to część promieniowania światła widzialnego, która powoduje silniejszą reakcję receptorów wzrokowych. Z tego powodu, biel z większym udziałem niebieskiego wydaje się bardziej "czysta" w odróżnieniu od bieli z większym udziałem żółtego, czerwonego, który powoduje wrażenie braku świeżości. Tą właściwość wykorzystywały już nasze prababcie, które do gotowania bielizny dodawały niebieskiej farbki w proszku. Tak tak, kiedyś, jak nie było pralek automatycznych, pranie w wysokiej temperaturze robiło się w kotle stojącym na kuchni. Biała bielizna z czasem żółknie, co wygląda właśnie nieświeżo, stąd dodawanie niebieskiego barwnika. Ogólnie biel z większym udziałem niebieskiej części widma, znaczna części ludzi odbiera jako korzystniejszą. Stąd obraz telewizorów i montorów jest tak strojony, że biel jest sinoniebieskawa, szarości stalowe i cała kolorystyka jest przesunięta w stronę niebieskiego. Wydaje się Wam, że nie? No to wybierzcie się na spacer wieczorem i popatrzcie po oknach sąsiadów. Wszędzie gdzie pracuje telewizor, jest bardzo silna niebieska poświata. Jak w znanym kawałku Lombardu: "Szklana pogoda, szyby niebieskie do telewizorów..." Wpływ niebieskiej kolorystyki na funkcjonowanie organizmu człowieka Celowo piszę "wpływ" zamiast "szkodliwość", gdyż szkodliwość jest od lat w fazie badań. Natomiast główny wpływ światła i jego barw, ma związek z rytmem dobowym organizmu. Jak wiadomo, rano człowiek ma więcej energii, jest bardziej pobudzony. Ten stan utrzymuje się do popołudnia, po czym zaczyna się czuć przymulenie, znaczne zmniejszenie energii życiowej. Wieczorem myślimy już tylko o kanapie, a nocą czujemy senność. Wydaje się oczywiste, wynikające z normalnego rytmu praca, dom, ale tak naprawdę powoduje to biochemia. W mózgu jest organ nazwany "szyszynką" i wytwarza on neurohormon - melatoninę. Im więcej jej wytwarza, tym czujemy większą senność. Zbadano, że wydzielanie melatoniny ma bezpośredni związek z ilością i składem energetycznym światła. Jeśli światła jest dużo i chłodne, niebieskawe, jak porankiem, melatoniny nie ma prawie wcale. Światło słabnie, ociepla się, melatornina się wydziela. Ot i cała tajemnica. Ale jednak w monitorach ogranicza się niebieski ze względu na szkodliwość Low Blue Emission, okulary do pracy przy komputerze, filtry itd... Każdy o tych rzeczach słyszał. Tyle, że to jest mechanizm tworzenia wroga, aby potem z nim walczyć. Głownie chodzi o sprzedaż rozwiązań "niwelujących" niebieską część widma, czyli czynnik typowo komercyjny. Sama szkodliwość póki co nie została udowodniona. Wszak w świetle dziennym słonecznym niebieskiego jest ok 10 000x więcej niż emituje przeciętny monitor a jakoś nikomu nie przychodzi do głowy nosić na codzień okularów z niebieskim filtrem. Wręcz przeciwnie, widok błękitnego nieba, wody kojarzy się z obrazami kojącymi, a nie szkodliwymi. Rys 1. Pomiar radiometryczny widma światła dziennego, sonda wystawiona za okno. Rys 2. Pomiar bieli monitora podświetlanego LED. Na pierwszy rzut oka widmo monitora wygląda fatalnie względem światła słonecznego. Ta niebieska szpila wbija się wręcz ludziom w mózgi, wypalając szare komórki. Dosłownie! W myśl genialnego powiedzenia - "Widzisz przedstawienie, nie widzisz rzeczy". Na bazie zafałszowania interpretacynego powszechnie buduje się nieprawdopobne wręcz zniekształcenie. Ale po kolei: Spójrzmy najpierw na jaskrawość: Monitor ok 45 nitów, za oknem 19 tysięcy nitów. Spojrzmy na wartości gęstości mocy: Monitor 1,3 x 10E-5 (0,000013), za oknem 2,9 x 10E-2 (0,029). Jakie z tego wypływają wnioski? Kilka: Intensywność światła emitowanego z monitora jest ok 500x mniejsza niż z okna Energia promieniowania w całym zakresie widma z monitora jest 2200x mniejsza niż z okna. Rozkład energii z monitora wykazuje braki w niektórych częściach widma a nie nadmierną emisję, czyli coś odwrotnego niż wydaje się na pierwszy rzut oka. Podumowując: Światło słoneczne emituje nieporównywalnie więcej "szkodliwego niebieskiego". Światło słońca jest jednak kojarzone wręcz z życiodajnością a nie szkodliwością. Jaki więc jest cel lansowania szkodliwości monitorów? Taki jak napisałem na początku tego akapitu, czyli tworzenie nowych rynków zbytu dla produktów, które w innym wypadku w ogóle nie miałyby sensu istnienia. Kilka lat temu ukazało się kilka badań naukowych, udowadniających, w eksperymentach na szczurach, że emisja niebieskiego światła LED niszczy siatkówki. Link do jednego z nich: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5706508/ Cała metodologia wydaje się logiczna, jednak problem w tym, że oczy tych biednych zwierzaków katowano światłem o energii ponad 100x silniejszej, niż światło słoneczne, czyli 200000x silniejsze niż z monitora. Czyli wszystko to lipa? Duża część psychozy dotyczącej "szkodliwego niebieskiego" rzeczywiście jest ściemą. Nie wszystko jednak. Jako, że światło reguluje rytm dobowy organizmu, warto by było, aby światło montora temu nie przeszkadzało. Wszak monitor jest jednak źródłem światła i to dość silnym w warunkach wieczornych w domu. W pracy, za dnia, wbrew katastroficznym reklamom, nic się nie dzieje. Problem może pojawić się wieczorem a już na pewno po zmroku, kiedy organizm powienien już dążyć do uspokojenia, a świecący na niebiesko monior, może ten rytm zakłócać. Człowiek może wówczas czuć większe zmęczenie niż normalnie, nocą natomiast mogą się pojawić problemy z zasypianiem i jakością samego snu. Należy więc do pracy wybierać ekrany o możliwie naturalnej kolorystyce, o skorelowanej temperaturze barwowej odpowiadającej światłu dziennemu (modele D50-D65) a w warunkach wieczornych, umożliwiających przeregulowanie w stronę cieplejszej kolorystyki. PS. Za pomiary radiometryczne firma monitory.mastiff.pl dziękuje Maćkowi Koprowi ze skalibrujtv.pl   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 1 lis 2022
Czy małe "pokrycie" to problem? Nie tylko BenQ stawia na wysokie "pokrycie". Są również laptopy o ekwiwalencie ponad 100% AdobeRGB i są profesjonalne monitory graficzne z 70% AdobeRGB. Co z tego wynika? Czy monitor graficzny "70% Adobe" kosztujący np 10 tys zł, będzie mniej wiarygodny od laptopa za 1 tys zł z 100% AdobeRGB? Dziwne pytanie prawda? Rozsądek podpowiada, że lepszy będzie drogi graficzny, ale jednak parametry na papierze temu przeczą. Czy tak jest rzeczywiście? Rzeczywistość a przekaz reklamowy Na początek, warto wiedzieć, jak nie wpadać w pułapkę reklamy, która forsuje dwa główne kierunki przekazu: • Teza 1: Gamut przekłada sie na jakość wyświetlania.• Teza 2: Różnica między sRGB a AdobeRGB jest bardzo duża. Obydwie te tezy są FAŁSZYWE! Rozpatrzmy co w rzeczywistości oznaczają pojemności gamutów i jakie jest ich znaczenie. Gamut nie przekłada się na jakość wyświetlania. Przede wszystkim gamut nie ma bezpośredniego związku z jakością generowaina odcieni koloru przez ekran monitora. Gamut to są tak naprawdę nasycenia. Może zaistnieć sytuacja, że monitor o wyższym gamucie może wyświetlać np kolor czerwony bardziej nasycony, ale odcień będzie w kolorze rzodkiewki, a monitor o niższym gamucie będzie wyświetlał ten sam kolor mniej wysycony, ale w odcieniu wozu strażackiego. Pomimo, że odcień maksymalnie czerwony (255,0,0 RGB) ma w rzeczywistości wygląd bardziej jak wóz strażacki, a nie rzodkiewka, to ten pierwszy choć przekłamujący, będzie miał więcej "procentów pokrycia". Ogólnie, gamut należy rozumieć jako kryterium ilościowe, a nie jakościowe. Co lepiej posiadać, szklankę diamentów czy wiadro węgla? Różnica między sRGB a AdobeRGB jest stosunkowo niewielka. Mapy CIE Lab przestrzeni sRGB i AdobeRGB na rysunkach różnią się ogromnie co widac na górnej ilustracji. Percepcja jednak inaczej działa przy odcieniach mało i mocno nasyconych. Mało nasycone, rozróżnia się bardzo wyrażnie, nawet kiedy różnice są minimalne, np odcienie skóry, ale mocno nasycone rozróżnia się wielokrotnie słabiej. Posumowując, człowiek rozróżnia wielokrotnie mniej odcieni mocno nasyconych niż słabo nasyconych. Na diagrame obok pokazana jest przestrzeń AdobeRGB (linia kolorowa) względem sRGB (linia przerywana) w modelu barwnym Din99, znacznie lepiej pokazującym jak naprawdę człowiek widzi. Różnica jest wyraźnie mniejsza niż w wizualizacji w/g CIE Lab, rysunek górny. Nawał przekazu reklamowanego jest taki, że jak się człowiek naczyta internetu, to wyjdzie że jak nie ma „czarodziejskich" 99% Adobe to dno, wodorosty i nic nie widać. To oczywiste bzdury i wręcz postawienie na głowie reklamy względem rzeczywistej wiedzy fizycznej i medycznej.  Jak wspomniałem, percepcja nie działa jak reklama. Najbardziej nasycone odcienie AdobeRGB od sRGB różnią się wizualnie zaledwie o kilka odcieni. Dlaczego więc nie stosuje się modeli matematycznych bardziej zgodnych ze specyfiką ludzkiego widzenia? Przecież takie są, tylko po co zabijać kurę, która znosi złote jajka? No to jak z tymi monitorami? Który bardziej profesjonalny? W przytoczonych przykładach BenQ SW270C i NEC EA271U COLOR, to właśnie NEC prezentuje bardziej profesjonalne podejście do tematu, bo zastosowanie matrycy szerokogamutowej jest związane z koniecznością zaawansowanej (i kosztownej) komepnsacji tzw „mury” chromatycznej. Inaczej mamy na powierzchni kolorowe przebarwienia. W klasie monitorów amatorskich takiej elektroniki się nie stosuje, więc przy zastosowaniu panelu o przestrzeni zbliżonej do sRGB, uzyskuje się dużo lepszą finalną reprodukcję. BenQ natomiast odpowiada na oczekiwania rynku, na którym lansuje się fetysz „procentów pokrycia”. Inna sprawa, kiedy potrzebne jest śrubowanie odcieni do AdobeRGB i wyżej? Odcienie o nasyceniach wychodzących poza sRGB zdarzają się np. w proofingu na tkaninach. W większości normalnych zastosowań prawie nigdy.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 25 maj 2022
Niniejszy artykuł jest uzupełnieniem wiedzy z poziomu popularnego, zaprezentowanego w wpisie: Wersja amatorska Kalibracja formalnie Tak naprawdę, przez błędnie rozumiane zapożyczenie z języka angielskiego, powszechnie przez kalibrację rozumie się regulację. Sprzyja temu samo słowo "kalibracja", które sugeruje czynność - czasownik. Na dokumentach zatytułowanych "Calibration report" lub podobnie, powinniśmy widzieć badany parametr oraz błąd. Wówczas dokument jest technicznie dowodem kalibracji, czyli wyznaczeniem poziomu błędu. To ważna różnica, gdyż formalnie kalibracja nie oznacza kompensacji błędu, a tylko jego określenie. W języku polskim odpowiednikiem jest termin "wzorcowanie". Najprościej to sobie wyobrazić na przykładzie. Kupujemy termometr: Jeśli z termometrem dostaniemy dokument kalibracji / wzorcowania, na którym będzie napisane dT 2 0C to oznacza, że ten termometr przekłamuje o 2 0C. Nie został jednak dostrojony o 2 stopnie błędu, tylko ten błąd jest wyznaczony. Co jest więc kompensacją błędu, przypisaną niechcący do pojęcia kalibracji? Strojenie / adjustacja / regulacja / adjustment. Czy to ważne? Uważam że tak. Uporządkowanie terminologii jest niezbędne aby przejść do dalszych etapów. Kto słyszał o wzorcowaniu monitorów? No właśnie. A to tylko czubek góry lodowej, bo możemy dostać dokument kalibracji w ogóle bez podanego błędu. Czym jest wówczas? Konieczne porządki w znaczeniu terminów Calibration / kalibracja / wzorcowanie - określenie poziomu błędu Adjustment / strojenie / adjustacja - korekcja błędu Measurement / pomiar - badanie stanu zastanego   Idę o zakład skrzynką piwa, że zupełnie nikt się nie zastanowił, dlaczego na dokumentach "kalibracyjnych" monitorów praktycznie nigdy nie ma mowy o "adjustment" a tylko "calibration" i "measurement". Jedynym znanym mi wyjątkiem jest firma EIZO. Czyżby w angielskojęzycznym świecie nie istniała czynność strojenia? Wytłumaczenie jest dość proste. Producenci z oczywistych względów wolą "adjustment" wykonywać "wewnętrznie", nie ujawniać detali technicznych. Jest to zrozumiałe, ale również zapewnia ochronę jeśli to strojene jest niekoniecznie idealne a nawet, jeśli nie ma. Nikt nie wie co ze sprzętem się robi i czy w ogóle. Jeśli przy drogim moniotrze jest wzmianka o "adjustment" a przy tańszej wersji nie, to jest to mniej korzystne, niż nie napisać o strojeniu w żadnym z nich. W drugim przypadku nie ma pytań, dlaczego tańszy nie jest strojony, albo wręcz sugeruje, że oba są strojone. Proste? Jak należy rozumieć to co daje producent? Terminologię należy rozumieć dosłownie, ale z poprawką na różnice znaczeniowe oraz zniekształcenia zakorzenione na rynku. Jeśli widzimy dokument zatytułowany "Certification report", "Calibration report", "Calibration factory" lub podobniy, nie sądźmy, że jest to dokument poświadczający dostrojenie monitora. Nie oszukujmy się, że ktoś pomylił pojęcie kalibracji i strojenia. W fabryce nie pracują idioci. Jeśli piszą o kalibracji, to jest kalibracja a nie strojenie. W terminologii technicznej są to dwie osobne rzeczy. Również w dokumentacji technicznej nie stosuje się zwrotów potocznych. Czyli, ktoś napisał "calibration", to miał na myśli oszacowanie błędów, a nie ich dostrojenie. Jeśli chciałby pisać o strojeniu, to by napisał. Konkretnie, papier kalibracji, jest to informacja o stanie zastanym produktu. Nic ponadto ów dokument nie mówi. Sprzęt równie dobrze może być po adjustacji, przy całkowicie dowolnym poziomie jakościowym, lub bez regulacji w ogóle, tylko mniej lub bardziej dokładnie pomierzony. Czyli nie dostaję monitora "fabrycznie skalibrowanego"? Najczęściej, rzecz jasna - nie. Nie w rozumieniu "dostrojony". W przypadku high-endowych monitorów faktycznie producentowi zależy, aby nie dostarczać na rynek sprzetu rozjechanego i reguluje je sztuka w sztukę już w fabryce. Do tego często dokłada dość szeroką informację o wykonanych pomiarach i błędach przy kontroli jakości: Przykład NEC PA311D, Przykład EIZO CG248-4K Dotyczy to jednak tylko bardzo nielicznych i bardzo drogich monitorów profesjonalnych. Można je policzyć na palcach. Przy całej rzeszy tanich, jakość dostrojenia fabrycznego jest wprost proporcjonalna do ceny a w najniższych modelach, robione jest to po łebkach, lub wcale. Ale dokument "Calibration" jest i formuła tego terminu, plus powszechny brak zrozumienia, daje potężne narzędzie dla całej branży reklamy. Kalibrować "skalibrowany"? Jak najbardziej! W stosunku do kalibracji fabrycznej można najczęściej osiągnąć wyraźnie wyższe parametry niż pokazane na "certyfikacie". Jak wspomniałem wyżej, monitory cześciej bywają źle strojone lub nie strojone w ogóle. To nie jest niedoróbka ani zła wolna, tylko względy ekonomiczne. Można zbudować indywidualne stanowiska do strojenia high-endu, sprzedawanego w małych ilościach, ale jest to niewykonalne w przypadku klas niższych, sprzedawanych w setkach tysięcy sztuk. Sprzęt najczęściej ma wyższe parametry niż deklaruje fabryka. Dopiero dostrajając parametry otrzymamy maksymalne możliwości sprzętu. W przypadku nieprofesjonalnych klas monitorów taka adjustacja jest wręcz niezbędna, aby w ogóle mówić o przydatności w pracy. Zostałem oszukany? W pewnym sensie tak. Marketing rządzi ludźmi, wtłacza terminy często sprzeczne z ich prawdziwym znaczeniem. Jeśli kupujesz monitor z dokumentem "Fabrycznej kalibracji", wszystko wokół będzie Ci wmawiać, że jest "skalibrowany". Pamiętaj, że producent pisze świadomie i precyzyjnie "calibration", ale rynek wtłacza abyś rozumiał to jako "strojenie".     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 3 sty 2022
Kaptury są z reguły w komplecie z monitorami serii profesjonalnych. Wynika to stąd, że przy zastosowaniach profesjonalnych graficznych, np przygotowalni DTP bywają niefajne warunki oświetleniowe, jak na przykład duża hala, wszystko oświetlone świetlówkami jak patelnia i nie ma się gdzie skryć. Wówczas jedynym ratunkiem jest kaptur, aby trochę zacienić ekran. Jest to ostateczność, bo kaptur robi grubą czarną ramę wokół obrazu i zgodnie z zjawiskiem kontrastu jednoczesnego, człowiek widzi ekran wyraźnie jaśniej niż jest w rzeczywistości. To bardzo silne złudzenie optyczne, którego nie da się wyeliminować.   Dla przykładu jak silny jest to efekt, obok obrazek wykorzystujący poruszone zjawisko. Które pole A czy B jest jaśniejsze? Na pierwszy rzut oka widać, że jest bardzo duża różnica jasności między nimi, ale to właśnie złudzenie. Pola A i B mają dokładnie tą samą jasność! Problem w tym, że nie da się tego faktu zaakceptować, nawet jeśli się o nim wie. Można to sprawdzić np próbnikiem w Photoshopie, a i tak człowiek nie jest w stanie wytłumaczyć swojemu mózgowi, że jest inaczej niż się wydaje. Proszę sobie teraz wyobrazić, że zakłócenie o podobnej sile występuje przy obróbce zdjęć. U siebie, w domu lub pracowni, mamy wpływ na oświetlenie, nie tak jak w hali z pierwszego akapitu. Zdecydowanie lepiej zaaranżować oświetlenie, odpowiednie ustawienie, aby monitor świecił optymalnie, bez zakłóceń i pozornych wspomagaczy.   Kaptury oczywiście są silnym elementem profesjonalnego wizerunku. Monitor z kapturem wygląda poważniej, dlatego różni producenci imitacji monitorów graficznych dodają je standardowo, stwarzając wrażenie wyższej klasy. To oczywista bujda. Kaptur jest specyficznym akcesorium i najczęściej znacznie lepiej zrobimy nie zakładając go, nawet jeśli jest w pudełku z monitorem.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 10 lip 2020
Nie. Cena opublikowana w sklepie to wartość samej usługi. W celu wyceny kosztów dojazdu proszę o kontakt z obsługą sklepu.
Created by Tomasz k. Z dnia 8 cze 2020
Monitor jest tylko niewielkim prostokątem w całym polu widzenia. Widzimy monitor plus otoczenie, a nie tylko monitor. Mózg do analizy bierze wszystko co widzą oczy w scenie o kącie około 120-130 stopni. W sytuacji, jeśli monitor jest jasny a tło ciemne, zachodzi efekt analogiczny, jak grube ciemne passepartout założone jako ramka obrazka na ścianie. Obrazek z taką ramką wydaje się wówczas jaśniejszy niż jest naprawdę. Efekt zachodzi również odwrotnie. Jeśli chcielibyśmy spowodować ciemniejszy wygląd obrazka, damy grubą ramę ale białą. W przypadku monitora zachodzi dokładnie ta sama relacja. Obraz, sąsiadując z ciemnym tłem, obramowaniem, wydaje się jaśniejszy. W efekcie prowadzi to do za ciemnego materiału wyjściowego, gdyż nie widzimy jego prawdziwej jasności. To jest efekt z zakresu psychologii widzenia i nie można go niczym skompensować ani wyeliminować. I teraz ciekawostka, zobaczcie ile jest ciemnych zdjęć w galeriach internetowych. To pokazuje, jak powszechny jest błąd złej kompozycji oświetleniowej stanowiska pracy z monitorem.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 14 lis 2019
Ciągle gdzieś się przewija termin KALIBRACJA. Wszędzie masa szkoleń, pokazów, materiałów, mówiących jakie to jest proste albo wręcz zbędne, bo sprzęt jest już skalibrowany fabrycznie. Niedawna dyskusja na jednym z for, skłoniła mnie do napisania jak to jest ze znaczeniem kalibracji. Pomimo wielu lat tłumaczenia, ciągle są nieporozumienia. Od strony potocznej, kalibracja jest, co prawda nieprawidłowo, ale rozumiana jako doprowadzenie czegokolwiek do żądanego stanu. Czyli na przykład ustawienie jaskrawości na 200nitów i potwierdzenie tego miernikiem jest kalibracją tego parametru. W kontekście ekranów monitorów, kalibracji można poddać następujące parametry: W monitorach profesjonalnych: współrzędne chromatyczne punktu bieli współrzędne chromatyczne punktu czerni współrzędne chromatyczne kanałów RGB wierzchołki a czasem również kształt bryły gamutu jasność bieli jasność czerni zakres i poziom dynamiki rodzaj krzywej odpowiedzi tonalnej wiele innych mocno zagadkowych wielkości W monitorach amatorskich: poziomy wysterowania kanałów RGB, wpływających na punkt bieli czasem wykładnik funkcji "gamma", będącą jedną z krzywych odpowiedzi tonalnej jasność bieli W laptopach: jasność bieli W każdym przypadku kontrolowanej zmiany czegokolwiek, będziemy już mieli do czynienia z kalibracją tejże wielkości. W przypadku sprzętu "skalibrowanego fabrycznie", właśnie w ten sposób się reguluje. Normalny użytkownik nie widzi rozróżnienia w zaawansowaniu procedury kalibracji i traktuje ją zerojedynkowo. Skalibrowany to skalibrowany i kwita. Niezależnie w jakim stopniu będzie zrobiona kalibracja, co i jak było zmieniane i po co, użytkownik postrzega fakt kalibracji zawsze tak samo. To nie koniec nieporozumień. Kalibrację parametrów obrazu można zrobić do dowolnych parametrów. Możemy na przykład ustawić obraz: punkt bieli x=0.276, y=0.289 jasność bieli 233 cd^m2, jasność czerni 5 cd^m2 krzywa odpowiedzi tonalnej ɤ = 2,9 To jest przykład skrajny, ale formalnie, wyregulowany w ten sposób obraz będzie przecież skalibrowany! Co z przydatnością jeśli ktoś pragnie pracować przy owym skalibrowanym ekranie? Oczywiście będzie zerowa, bo tak ustawiony ekran będzie miał super jaskrawą będącą ekwiwalentem ponad 10 000K z gigantycznymi kontrastami. Monitory kalibrowane fabrycznie również mają podobny zestaw parametrów z sufitu, acz oczywiście nie tak absurdalny. Dochodzimy w tym miejscu do momentu, kiedy samo pojęcie kalibracji nie jest jednoznaczne nie tylko ze względu na zakres i rodzaj regulacji, ale również celu kalibracji. Fabrycznie przyjęte typowe parametry typu 6500K, 80, 2,2 nie muszą przecież pasować zawsze i każdemu. O tym dopasowaniu decydują docelowe zastosowania, uwarunkowania oświetleniowe miejsca pracy i samego użytkownika. To jest bowiem faktycznym celem kalibracji. Użytkownik, decydując się na pracę ze skalibrowanym sprzętem, w domyśle, chce optymalnie i neutralnie widzieć materiały nad jakimi pracuje. Na tym etapie pojawiają się znaczne zmiany procedury i nie ma żadnej przesady w uświadamianiu, że jest to bardzo skomplikowany zestaw prac. Kalibrację w ujęciu jaką chcą mieć użytkownicy i faktycznie odbiorcy tego rodzaju usługi, należy rozumieć przez regulację samego sprzętu. Oczywiście z uwzględnieniem zastosowań, środowiska gdzie ma pracować i najlepiej z uwzględnieniem specyficznych uwarunkowań fizjologicznych i psychologicznych samego użytkownika. Z uwagi na występowanie trudnych do usystematyzowania zmiennych, w tym najgorszego "czynnika ludzkiego", poprawne ustawienie całości nie jest banalne. Nie powinno mówić się o "kalibracji" w kontekście przypadkowo wyregulowanego ekranu bo nie tego oczekuje ten, który będzie potem przy nim pracował.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 6 wrz 2018
Lineraryzacja to proces mający na celu sprawienie, aby monitor był "liniowy". Mówiąc dokładniej, aby charakterystyka odpowiedzi tonalnej była funkcją ciągłą. Po ludzku: Aby taki odcień jak zadajemy do wyświetlenia, taki otrzymujemy na ekranie. Co prawda w praktyce jest to inna funkcja, odzwierciedlająca nieliniową percepcję naszych ludzkich zmysłów, ale chodzi o naturalność odbioru, dlatego wyjaśnienie jest nieco uproszczone. Wiecej na temat nieliniowości naszej percepcji znajdziecie Państwo w innych artykułach i na forum mva.pl. Czym jest liniowość? Liniowość najłatwiej wyobrazić sobie jako klin szarości, od czerni do bieli. Matematycznie idealny rysunek wszystkich szarych odcieni jakie wyświetla karta graficzna. Monitor jest liniowy wówczas, kiedy wszystkie odcienie są tak samo szare a każdy różni się od sąsiedniego o stałą wartość. Widocznymi objawami braku liniowości są przebarwienia i nierówne przejścia odcieni, zlane w bloki grupy zbyt ciemnych lub zbyt jasnych. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość Jakie to ma znaczenie praktyczne? Oczywiście monitory nie służą do wyświetlania tylko klinów w szarościach. Jednak taki obraz ma bardzo wysoką wartość analityczną, gdyż dokładnie wiemy jak ma wyglądać. Jeśli są widoczne defekty na szarościach, to takie same będą w normalnym użytkowaniu, tylko nie wiadomo gdzie. Czyli brak liniowości monitora wpływa na obniżenie wiarygodności wyświetlania obrazu. Liniowość jest najważniejszym parametrem mówiącym o jakości monitora. Jak łatwo się domyśleć, niemal w żadnych danych technicznych producenci nie specyfikują tej... Więcej...
Z dnia 9 sie 2018
"Fabryczna kalibracja" to często powielany mit. Producent może co najwyżej wyregulować monitor w fabryce, aby np ustawienie punktu bieli 6500K za pomocą menu monitora, było bliżej CCT 6500K niż dalej. Producent nie może jednak skalibrować monitora, gdyż w fabryce nie mają przecież pojęcia w jakich zastosowaniach będzie pracował każdy egzemplarz ani w jakim oświetleniu. Różnorodność zastosowań jest wszak znaczna. Inaczej monitor ustawia się do druku, inaczej fotografii, projektowania web czy postprodukcji telewizyjnej i filmowej. Ponadto jeden użytkownik pracuje w biurze w dzień, inny wieczorem przy lampce. Nie ma jednej uniwersalnej kalibracji. Kalibracja producenta ma inne, być może nawet ważniejsze znaczenie - marketingowe. Ludzie chętniej kupią monitor na którym będzie napisane "fabryczna kalibracja", czy "skalibrowany przez producenta", niż inny, który takiej etykietki nie będzie miał. Proszę zwrócić uwagę, że tego typu formułki są spotykane na sprzęcie klasy popularnej, a tymczasem na profesjonalnych z reguły nie ma w ogóle takiej wzmianki.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 2 sie 2018
Geneza problemu Problem z laptopami jest taki, że mają z reguły problem z przestrzenią barwną, mniejszą niż sRGB. Przestrzeń natomiast jest to zdolność do pokazywania nasyceń. Pomiędzy ich zdolnością reprodukcji nasyceń a granicą sRGB jest dużo wolnego miejsca. Drobna dygresja - kalibracja tego nie zmienia. Kiedy zwiększa się nasycenia w zdjęciu, sukcesywnie odcienie sie przesuwają w stronę granic gamutu. Im mocniej, tym ruszają się mniej nasycone partie, których w obrazie jest więcej i kiedy one dostaną żądane nasycenie, wszystkie wyższe dawno wyjdą poza przestrzeń możliwą do wyświetlenia. Przestajemy je widzieć i efekt jest taki właśnie, że kolory zaczynają być sztuczne, trawa wygląda jak kamizelki odblaskowe, zachód słońca jak wybuch atomowy itd. Recepta Najlepszym wyjściem jest zmiana ekranu roboczego na monitor o sensownej wiarygodności wyświetlania. Niestety nie zawsze jest to możliwe, choćby ze względów finansowych. Dobrą praktyką na laptopie jest takie kręcenie na zasadzie "za mało". Kiedy zdjęcie się wydaje dość mocne, kolor nasycony zgodnie z życzeniem, to znaczy, ze trzeba połowę z tego cofnąć z powrotem, bo oznacza, że jest dużo za dużo. Obraz będzie bardziej "wyprany z koloru" ale tylko na laptopie. Na wszystkich innch ekranach będzie bardziej nasycone niż je widzimy. Jest to praca w sporej części w ciemno, ale taka jest specyfika laptopów. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 16 lip 2018
  Są dwa wytłumaczenia. Pierwsze proste: Cała fotografia, maszyny, przestrzenie, typowe ustawienia ekranów są oparte o 6500K i tak trzeba ustawiać.   Drugie skomplikowane: Nasze receptory wzrokowe nie widzą konkretnego światła, tylko jego złożenie. Biel można uzyskać z rozmaitych kombinacji długości fali. W przypadku idealnym zawsze jest to biel, a odpowiedni balans między promieniowaniem o różnych długościach fali można uzyskać na nieskończoną ilość sposobów. Jednak nasza percepcja idealna nie jest i nasze odczucie bieli trochę się waha. Tak się złożyło, że widmo monitora operujące mniej więcej na pikach czerwonym, zielonym i niebieskim tak dobrane, że tworzą biel odpowiadającą temperaturze barwowej ok 6500K, powodują wrażenie bieli słońca o temperaturze barwowej ok 5000K.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 21 maj 2018
  Przyczyna Problem jest powodowany przez właściwości naszych, ludzkich, zmysłów. Pozornie, biel monitora i biel lampy D50, czyli o skorelowanej temperaturze barwowej, w skrócie CCT, powinna wyglądać tak samo. Jednakże, lampy świecą widmem ciągłym, tzw szerokopasmowym a monitory nie, wręcz odwrotnie, wąskopasmowym. Biel w monitorach jest "składana" z odpowiedniej proporcji barw czerwonej, zielonej i niebieskiej, czyli ze stosunkowo wąskich wycinków długości fali.   Rozwiązanie Powyższe zjawiska powodują, że nasze oczy różnie reagują, pomimo, że obie biele mają podobne własciwości kolorymetryczne. Im wzbudzenie receptorów wzrokowych jest węższym stymulantem, tym pozornie odbierana jest jako "cieplejsza" barwa bieli, idąca w stronę czerwieni. Z tego powodu, jeśli oświetlenie ma barwę D50 (CCT ~5000K) monitor należy wyregulować do bieli o CCT ~6000-6500K. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 4 lut 2018
Nie wolno pod żadnym pozorem wykonywać takiej operacji! W rzeczywistości jest to bardziej lub mniej udana próba symulacji złożenia na ekranie kilku rodzajów błędów: Specyfiki maszyny która stworzyła odbitkę, błędów samego monitora, specyfika oświetlenia, w którym oglądamy zdjęci, dewiacji widzenia użytkownika. W przypadku odbitek z minilabu kardynalny błąd polega na tym, że minilab nie jest w stanie dokładnie naświetlić odbitki tak, jak ona jest zapisana w pliku. Czyli, odbitka nie jest wyglądem tego co było w pliku a zawiera sporą ilość błędów, których nie wolno przenosić na monitor. Z uwagi na duże różnice w reprodukowaniu barw przez monitor i minilab bezpośrednia próba symulacji przez regulatory w menu nie rokuje wielkich nadziei. W sytuacji kiedy uda się doprowadzć do podobieństwa, monitor będzie wyświetlał zdjęcie zbliżone do zachowania tylko jednego minilabu. Wysłanie zdjęcia do innego lub na inne medium, np do Internetu spowoduje odmienne i niekontrolowane efekty. Regulacja nawet do wysokiej jakości wydruku nie jest poprawną metodą, gdyż nie przewiduje również stworzenia profilu monitora, który jest kluczowym w opanowaniu jego kolorystyki. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 10 sty 2018
ColorNavigator to specjalizowane oprogramowanie EIZO do kalibracji. Dzięki niemu cała korekta w czasie kalibracji zachodzi wewnątrz układów elektronicznych monitora. Nie ma żadnej ingerencji w tablicę koloru karty graficznej. Warto zaznaczyć że taka ingerencja obcina dostępną paletę na ekranie, jest więc niepożądana. Ponadto, za pomocą ColorNavigatora programuje się wbudowany czujnik autokorekcyjny, który ma za zadanie utrzymywać niezmienne parametry w czasie pracy.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Przyczyną takiego zachowania jest błędnie przeprowadzona procedura kalibracji. Posiadany czujnik ma mniejszą dynamikę niż monitor. Przez to, bardzo ciemne odcienie monitora, są interpretowane przez kalibrator z dużymi błędami. Wynik kalibracji przeniesiony na monitor nie jest więc korekcją monitora, a projekcją niedoskonałości czujnika. W takim wypadku zalecam zastosowanie lepszej klasy przyrządu. Prowizorycznie, można uniknąć wspomnianego problemu poprzez podniesienie punktu czerni.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Naturalny punkt czerni to początek naturalnej charakterystyki jasności monitora. Poziom świecenia, który przez fabrykę został ustalony jako "czerń". Neutralny punkt czerni to natomiast umowny punkt na charakterystyce jasności, odpowiadający takiemu poziomowi jasności, kiedy błędy reprodukcji są już na założonym poziomie. Oczywiście jest wyższy niż konstrukcyjna czerń monitora i obniża kontrast, co nawiasem mówiąc często jest pożądane. Przesuwanie punktu czerni to podstawowy zabieg poprawiający linearyzację w cieniach.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
CMS to skrót od Color Management System, a CMM to skrót od Color Management Module. Są to mechanizmy odpowiedzialne za konwersję kolorystyki materiału graficznego uwzględniające specyfikę urządzeń w torze obróbki... Więcej...
Z dnia 11 paź 2017
Przykład monitora z zawieszonym kalibratorem: Kalibrator jest urządzeniem pozwalającym na obiektywny pomiar jakości barw wyświetlanych przez monitory lub reprodukowanych na papierze. Z uwagi na budowę, zasadę działania i zastosowania, kalibratory mogą być wykonywane jako kolorymetry lub spektrofotometry. W połączeniu z odpowiednim oprogramowaniem, za pomocą kalibratora jest możliwe określenie poziomu defektów reprodukcji oraz obliczenie i zaaplikowanie niezbędnej korekcji w celu poprawy obecnego stanu. Częstym nieporozumieniem jest utożsamianie użycia urządzenia (sprzętu) w postaci kalibratora z kalibracją "sprzętową". Niezależnie od rodzaju korekcji, każda kalibracja wymaga użycia "sprzętu" pomiarowego. Korekcja sprzętowa i programowa różni się miejscem dokonywania zmian w systemie... Więcej...
Z dnia 11 paź 2012
Widmo jest to obraz uzyskany w wyniku rozłożenia światła niemonochromatycznego na składowe o różnych długościach fal (różnych barwach), np. za pomocą pryzmatu lub siatki dyfrakcyjnej.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Spektrum elektromagnetyczne. Oddzielnie pokazany jest zakres promieniowania widzialnego. Światło widzialne to ta część promieniowania elektromagnetycznego, na którą reaguje siatkówka oka człowieka w procesie widzenia. Dla człowieka promieniowanie to zawiera się w przybliżeniu w zakresie długości fal 380-780 nm.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

Spektrofotometr optyczny jest wersją spektrofotometru pracującego w paśmie światła widzialnego.

 


Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość

Więcej...
Z dnia 11 paź 2017
Spektrofotometr jest odmianą spektrometru optycznego, przyrządem służącym do otrzymywania i analizowania widma promieniowania świetlnego. W kolorymetrii stosuje się spektrofotometry, które tworzą widma prążkowe dzięki wykorzystaniu różnicy długości dróg optycznych ugiętych i interferujących ze sobą promieni przechodzących przez holograficzną siatkę dyfrakcyjną. Z uwagi na nieciągłość widma uzyskanego ze spektrometru, (prążki interferencyjne najczęściej tworzone są co 10nm długości fali) przyrządy te obarczone są znacznym błędem, szczególnie przy bardzo niskim poziomie strumienia świetlnego. Mimo tej wady mają znaczną przewagę nad kolorymetrami, gdyż z powodu braku filtrów optycznych, nie są wrażliwe na różnice w analizowanym widmie wynikające z różnych rozwiązań technicznych podświetleń monitorów LCD. Zasada działania spektrometru z siatką dyfrakcyjną:   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Zawsze jest sens kalibrować monitor, nawet jeśli jest to zaadaptowany telewizor. Problem jednak w tym, że telewizory są bardzo słabej jakości w porównaniu do monitorów komputerowych, i w wyniku tego kalibracja będzie wprowadzać poważne skutki uboczne. Ponadto wszystkie telewizory mają wbudowane najrozmaitsze "poprawiacze" obrazu których często nie można wyłączyć.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Gamma jest to funkcja zmienności obrazująca sposób przejścia wszystkich odcieni od czerni do bieli. Intuicyjnie wydawałoby się, że stopniowo zwiększając jasność odcieni, proporcjonalnie będą coraz jaśniejsze na ekranie. Niestety tak nie jest. Zarówno od strony technicznej jak i percepcyjnej są podstawy aby nie przebiegała liniowo. A nawet jeśli byłaby liniowa, to nasze zmysły nie są liniowe i proporcjonalna zmiana będzie odbierana jako nienaturalna. Dlaczego są różne "gammy"? Nie tyle "gammy", co różne funkcje / sposoby, reprodukcji kolejnych odcieni. Najbardziej zgodny z ludzką percepcją jest L* z modelu widzenia według CIE. W monitorach stosuje się nieco inną krzywą wykładniczą o różnym stopniu nachylenia charakterystyki, zależnie od przyjętych standarów. Przykładowo internet i pc to 2,2, telewizja 2,35. Jeszcze innym przebiegiem charakteryzują się krzywe jasności standardów sRGB i AdobeRGB. Najbardziej widoczną cechą jest znaczne rozjaśnienie najciemniejszych odcieni, około czerni. Jaką gammę zastosować? Najczęściej typową, 2,2, dostępną we wszystkich programach kalibracyjnych i w menu monitorów. Proszę jednak pamiętać, że to nie jest jedyna właściwa. Doskonałym zobrazowaniem na niejednorodność standardów jest Internet. Przestrzenią obowiązującą jako standardowa jest przyjęta sRGB, ale funkcja jasności wcale nie sRGB a gamma=2,2.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Do każdego zastosowania należy odpowiednio dobierać narzędzie. Jeśli w dziedzinie obróbki obrazu ma być zastosowany monitor LCD, należy wybrać taki, który ma wystarczające do danego zastosowania parametry.Wierność odzwierciedlenia przestrzeni barw jest jest jednym z najtrudniejszych zadań stojących przed monitorami. Zarówno monitory kineskopowe jak i ciekłokrystaliczne są w tych zastosowaniach wyraźnie podzielone na grupy.Do większości zastosowań amatorskich wystarczy z powodzeniem wierność reprodukcji w standardzie sRGB, który jest wspólny dla wielu monitorów LCD, CRT, drukarek, skanerów, aparatów cyfrowych itp. Przy zastosowaniach zawodowych ważna jest zdolność szerszego odzwierciedlenia barw. Ogólnym standardem w tej dziedzinie jest przestrzeń barwna określona jako AdobeRGB. Istnieją zarówno monitory CRT jak i LCD pokrywające ten zakres a nawet większy.Stopień wierności wyświetlanych barw jest tylko jednym z parametrów monitorów. W dziedzinach gdzie nie jest to zbytnio ważne, dom, rozrywka, monitory nie muszą być aż tak dokładne, a przez co mogą być tańsze. Nie należy się spodziewać idealnie wiernych kolorów w niektórych klasach, i to zarówno na monitorach LCD jak i kineskopowych. Światowa tendencja na przejście na LCD spowodowała zalew przez wiele tanich konstrukcji, jednakże nie należy budować opinii w oparciu o wycinek rynku.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Jest to wewnętrzny błąd programu Mach3. Tymczasowym rozwiązaniem problemu jest zmiana języka na Angielski. Po ponownym zalogowaniu Mach3 zadziała normalnie. Po kalibracji można powrócić poprzednią wersję językową.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
W procesie kalibracji programowej, korekcję wyświetlania dokonuje się przez modyfikację tablicy koloru karty graficznej, tzw LUT. Niestety korekcja ma ograniczony zakres, gdyż współczesne sterowniki przekazują z karty do monitora tylko 256 odcieni na każdy kanał RGB. Dodatkowo nie można zamienić niepoprawnie wyświetlanych zakresów innymi. Można jedynie obciąć część palety. Wiąże się to z utratą płynności przejść tonalnych na ekranie. W skrajnym przypadku, można pozbawić całkowicie monitor możliwości wyświetlania płynnych gradientów. Kalibracja sprzętowa, oznacza możliwość korekcji bezpośrednio w monitorze. Dzięki temu paleta przekazywana z karty graficznej jest niezmienna. Monitor ma wbudowaną osobną tablicę koloru, gdzie w procesie kalibracji następuje wprowadzenie korekcji jak rzeczywiście mają wyglądać krzywe jasności kanałów RGB. LUT monitora ma większą dokładność niż karta graficzna, przez co korekcja jest... Więcej...
Z dnia 11 paź 2017
Tak, ale najważniejsza jest korekcja (kalibracja), na samym początku eksploatacji, gdyż "wrodzone" wady monitorów są duże. Później, w odpowiednich odstępach czasu, kalibracja pełni rolę kompensacji zużycia lamp i/lub degradacji wyświetlacza.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Monitory klasy popularnej najczęściej operują na ograniczonej informacji o kolorze. W sytuacji zapisu 6-bitowego na kanał, monitor bazuje na około 260 tys odcieni, a resztę z palety 16,77 mln emuluje sztucznie. Niestety w wyniku pewnych zjawisk fizycznych zapis 8-bitowy, pomimo tego, że przenosi pełną informację o kolorze do monitora nie gwarantuje braku defektów. Winę za to ponosi sam wyświetlacz ciekłokrystaliczny. Metodą gwarantującą poprawność jest konwersja zapisu na dokładniejszy, z 8 do 10, 12 lub 14 bitów na kanał. Dzięki temu szersza paleta monitora pozwala na znacznie bardziej wierną reprodukcję pełnej palety 16,77 mln kolorów. Układy stosujące poszerzoną paletę, stosuje się w technice profesjonalnej, oraz w najlepszych monitorach ogólnego stosowania.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Monitory mogą uzyskiwać pełną jasność i temperaturę nawet po godzinie od włączenia. Wynika to ze zjawiska "rozświecania się" lampy. Efektu tego pozbawione są tylko monitory LCD ze stabilizacją podświetlenia.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Każde urządzenie na swój sposób przekłamuje kolor, nie ma więc takiego sprzętu, któremu można by bezwzględnie zaufać. Istnieje jednak pewien bezwzględny arbiter, dosyć łatwo demaskujący wszelkie różnice w kolorystyce - ludzkie oko. Możemy na nim polegać gdyż to ono w ostatecznym rozrachunku wpływa na decyzję, czy obraz wygląda dobrze czy źle. W 1931 roku Międzynarodowa Komisja do Spraw Oświetlenia (Commission Internationale de l'Eclairage - CIE) opracowała model ludzkiej percepcji koloru - tzw. obserwatora standardowego. Model ten posłużył do opisania przestrzeni koloru podobnej do CMYK i RGB. Nosi ona nazwę L*a*b. Za jej pomocą można opisać kolor, tak jak widziałby go człowiek. Do opisu używane są trzy parametry: L (0-100) - jasność, a (-128-127) - kolor od zielonego do czerwonego oraz b (-128-127) - kolor od niebieskiego do żółtego. Przestrzeń L*a*b ułatwia ponadto ocenę wielkości odchylenia barwnego za pomocą urządzeń... Więcej...
Z dnia 11 paź 2017
Jeśli tu zajrzałeś czytelniku, to zapewne masz pojęcie o problemach z kolorystyką na monitorach, drukarkach, labie czy w publikacjach papierowych i elektronicznych. Kalibracja jest to całość czynności wykonywanych na posiadanym systemie, ma na celu zapewnienie wizualnej zgodności między tym co widać na monitorze, papierze, i na/w innych mediach. Sednem całego zamieszania jest monitor. Wszystko zależy od tego, czy będziemy widzieli poprawnie obrabiany materiał. Na nic zdadzą się profile drukarek czy labu. Symulacja zachowania urządzenia wyjściowego na niepoprawnie wyświetlającym ją monitorze, zda się psu na budę. Wbrew pozorom, kalibracja monitora, zapewnia również, większą poprawność materiałów publikowanych elektronicznie. Nawet pomimo faktu, że użytkownicy będą oglądali prace, na rozregulowanych i wypaczonych w różne strony gratach. Przewidywalny efekt można osiągnąć różnymi metodami, jak np kalibracja monitora na wzór odbitki z labu, ale w pełni kontrolowany efekt i korzyści z dostępnych profili ICC papierów, drukarek można osiągnąć tylko i wyłącznie jeśli monitor jest w stanie pracować zgodnie z pewnymi standardami. Te standardowe parametry to ściśle określona temperatura bieli, punkt czerni, rozkład jasności (gamma) i balans (stabilność) temperatury w całym zakresie jasności. Metody kalibracji: 1. Na wzór odbitki lub wydruku. Najbardziej powszechna metoda. Wysyłamy do wydruku plik wzorcowy i następnie regulujemy monitor i ustawienia kolorów we własnościach karty graficznej, aż uzyskamy satysfakcjonującą zbieżność barw. Pomimo pozornej prostoty i oczywistości procedury, jest to jednak najgorszy sposób z możliwych. Jedyną zaletą jest to, że w ogóle coś można wyregulować i wielu ludzi tak pracuje. Pamiętajmy jednak, że w ten sposób robimy symulację będącą złożeniem specyfiki konkretnego labu, własności papieru, zniekształcenia kolorystyki przez światło w jakim oglądamy zdjęcie w czasie regulacji i to wszystko skorelowane z błędami samego monitora. W efekcie, w 100% przypadków, jeśli doprowadzimy np skórę do względnie poprawnego wyglądu, pogarszamy zachowanie w innych zakresach przestrzeni barwnej, np zmienią się zielenie. Jeśli przy innym rodzaju zdjęcia pojadą w krzaki błękity, poprawiając rozregulujemy coś innego. I tak w kółko. Dodatkowo kręcąc ustawieniami karty graficznej obcinamy dostępną paletę. Warto wiedzieć, że monitor LCD jest na to niezmiernie wrażliwy i łatwo można stracić płynność przejść tonalnych. Nie wdając się w większe dywagacje, w odniesieniu do takich machinacji, użycie czasownika "kalibrować" w formie dokonanej jest niemożliwe. Oczywiście, również parametry są czysto przypadkowe, zależne od zbyt wielu czynności i oka tego, który kręci. 2. Na znormalizowane wzorce. Bardzo dobry poradnik jak tego dokonać jest zamieszczony tu: http://monitory.mastiff.pl/faq.php jako dwa artykuły "Amatorska kalibracja monitora". Gratuluję tym, którzy przebrną przez to samodzielnie i z pozytywnym efektem. Jednak normalni śmiertelnicy, oczekujący skutku, a nie mający ochoty doktoryzować się z kolorymetrii nie dadzą sobie z tym rady. 3. Kalibratorem. Metoda prosta, łatwa, przyjemna i dająca wysokiej jakości powtarzalne efekty. Ma tylko wadę. Wymaga zainwestowania w dodatkowe urządzenie pomiarowe i oprogramowanie. Trzeba się jednak pogodzić z myślą, że ułatwiacze życia kosztują. O ile rzeczywiście zależy nam na zgodności barwnej. Posiadanie kalibratora ujmuje 99% problemów, które bez niego są nie do pokonania. Dlaczego? Ano dlatego, że oko jest niesłychanie zawodnym instrumentem i za nic nie uda się poprawnie np ustawić punktu bieli. Kupujemy kalibrator Kalibratory są dostępne w przedziale cenowym 400 - 8000 zł. Reguła jest prosta czym lepszy, dokładniejszy, bardziej wszechstronny, tym droższy. Wykonane są jako kolorymetry lub spektrofotometry. Kolorymetry służą prawie wyłącznie do kontroli monitorów, telewizorów, rzutników i innego świecącego sprzętu. Spektrofotometry mogą odczytać informacje zarówno ze światła emitowanego przez kontrolowane urządzenie, jak i odbitego od wydruku, czyli możliwe jest kontrolowanie drukarek, prooferów,... Więcej...
Z dnia 11 paź 2008
W znaczeniu ogólnym, jest to zmiana/korekta zachowania urządzenia, np wyświetlającego lub drukującego, w celu uzyskania określonego stanu.W kontekście problematyki jaką się zajmujemy z naszej firmie, kalibracja jest to regulacja urządzeń (monitorów, kart graficznych, urządzeń drukujących), w celu uzyskania maksymalnie wiernego wyświetlania i reprodukcji obrazów, w całym procesie... Więcej...
Z dnia 11 paź 2017

3 Zarządzanie barwą w oprogramowaniu

ColorNavigator to oprogramowanie do kalibracji i zarządzania monitorem. Aby ColorNavigator działał, potrzebny jest jeszcze czujnik pomiarowy (kalibrator), dopasowany do właściwości kalibrowanego monitora. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 8 lis 2017
Geneza problemu wypranych kolorów: Wszystko rozbija się o prosty fakt, że tylko niewielka część programów w Windows ma moduł CM (Color Management - zarządzania barwą) i "wiedzą" jak wyświetlać na danym monitorze. Pozostałe niestety nie. Jeśli aplikacja nie ma modułu zarządzania barwą, wyświetla w przestrzeni monitora, czyli nasycenia nie wynikają z treści pliku zdjęcia, a zmieniają się zależnie od przestrzeni barwnej monitora. Oczywiście jest to zachowanie nieprawidłowe. Ten sam pomidor będzie miał inny odcień zależnie od monitora, co jest niedopuszczalne. Zarządzanie barwą wymyślono zasadniczo po to, aby ujednolicać wyświetlanie, niezależnie od użytego sprzętu. Jeśli monitor ma przestrzeń różną od sRGB a zarządzanie barwą leży w krzakach, w wyświetlaniu zaczyna się herezja tym większa, im szerszy jest gamut wyświetlacza. Na monitorach szerokogamutowych jest to widoczne przez znaczne, przesadzone, przesycenie barw. Jak sobie z tym poradzić? Kwintesencja tkwi w uzmysłowieniu sobie, że to nie Photoshop wyświetla sprane kolory, tylko pozostałe wyświetlają "przewalone"!  Konfiguracja, kalibracja: Przede wszystkim, jeśli nie zostało to wcześniej zrobione, monitor trzeba poprawnie skalibrować i oprofilować. Jeśli w systemie jest profil monitora, PS wówczas wyświetla poprawnie co rozpoznaje się właśnie po dużym zmniejszeniu nasyceń względem np pulpitu Windows. Po zaaplikowaniu profilu w systemie, zdjęcia w Photoshopie czy LR zaczną wyglądać jak wyprane. To normalne i objaw zniknie po pewnym czasie potrzebnym na adaptację mózgu. Ważne: Nie wolno w Photoshopie ustawiać profilu monitora jako przestrzeni roboczej! Wówczas PS zaczyna symulować monitor, czyli de'facto działa tak, jakby zarządzanie barwą było wyłączone! Z aplikacji pomocniczych jakich z reguły potrzebuje fotograf polecam następujące: Mała, szybka przeglądarka, np XNView. Ważne, trzeba w niej wskazać profil monitora w jej ustawieniach. Przeglądarka internetowa, Firefox. To jedyna która ma konfigurowalny moduł CM. Przydatność dowolnego programu w zakresie wyświetlania koloru najlepiej wykonać przez porównanie z PS. Dlaczego akurat z Photoshopem? Dlatego, że oprogramowanie Adobe ma najlepsze zarządzanie kolorem, odporne na niemal wszystkie zakłócenia jakie mógł narobić użytkownik. Weryfikacja jest banalna: Te które wyświetlą tak samo jak Photoshop, można używać. Te które przesycą kolor, należy ustawić, jak np XNView, a jeśli się nie da, zapomnieć że istnieją. Na pewno nie wolno wierzyć temu co wyświetlają wbudowane Explorator czy Zdjęcia.   PS. Powyższe uwagi nie dotyczą systemów OSX/macOS. W systemach Apple działa systemowe zarządzanie kolorem, tzw ColorSync i problem nieprawidłowego wyświetlania w oprogramowaniu innym niż Adobe nie istnieje.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 2 lis 2017
Na wstępie warto zaznaczyć, że Firefox ma w pełni funkcjonalny moduł CMM (zarządzania barwą). Oznacza to, że może poradzić sobie z wyświetlaniem na monitorach o przestrzeni większej niż sRGB. Jest to unikatowa cecha. Dodatkową zaletą jest fakt, że moduł jest konfigurowalny. W najprostszym przypadku, należy wejść pod adres: "about:config" i znaleźć klucz "gfx.color_management.mode". Przestawić jego wartość z 2 na 1. Zresetować FF. Po tej operacji zacznie wyświetlać poprawnie. Różnica będzie widoczna na monitorach szerokogamutowych. Opis trybów pracy modułu CMS w Mozilla Firefox: Mode 0 - Zarządzanie barwą jest wyłączone. Wszystko jest wyświetlane wprost w przestrzeni monitora. Mode 1 - Zarządzenia barwą włączone. Pliki graficzne z dołączonymi profilami, są wyświetlane zgodnie z opisem w profilu. Wszystkie pozostałe materiały są traktowane jako sRGB. Jest to najbardziej użyteczny tryb pracy. Mode 2 - Zarządzanie barwą włączone. Pliki graficzne z dołączonymi profilami, są wyświetlane zgodnie z opisem w profilu. Pliki bez profili, nieotagowane, są wyświetlane w przestrzeni monitora. Formalnie jest to poprawne zachowanie, ale mało praktyczne. Wszelkie elementy graficzne interfejsów, jak przyciski, paski itd, nigdy nie będą miały przypisanych profili i w tym trybie ich wyświetlanie na monitorze szerokogamutowym będzie przesycone. Podobnie z niektórymi galeriami internetowymi, które wycinają profile ze zdjęć.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 24 paź 2017

11 Monitory, podłączenie

Autorskie oprogramowanie Screen InStyle od EIZO. Powstało z myślą o zarządzaniu konfiguracjami wielomonitorowymi, ale przyda się również do obsługi jednego monitora. Oferuje wachlarz funkcji i ustawień, które pozwalają w pełni wykorzystać możliwości modeli z serii FlexScan. Zarządzanie zasilaniem wielu monitorów Screen Instyle pozwala kontrolować zasilanie wszystkich podłączonych monitorów za pośrednictwem jednego z nich. Użytkownik może np. wyłączyć zasilanie wszystkich monitorów, naciskając przycisk zasilania znajdujący się z przodu obudowy dowolnego monitora*. Oprócz tego wszystkie podłączone monitory można wyłączyć, dwukrotnie klikając skrót „Power off” zainstalowany na pulpicie komputera, a następnie włączyć je za pomocą myszki lub klawiatury. Jeśli monitor jest wyposażony w czujnik obecności EcoView Sense, wszystkie podłączone monitory wyłączą się po wykryciu nieobecności użytkownika i włączą po jego powrocie. *Monitory muszą być kompatybilne z oprogramowaniem Screen InStyle i podłączone przez USB do komputera, na którym zainstalowano Screen InStyle. Synchronizacja ustawień ekranu Wystarczy zmienić ustawienia kolorystyczne na jednym monitorze, a oprogramowanie Screen InStyle zastosuje je dla wszystkich urządzeń w konfiguracji wieloekranowej. Ponadto wszelkie zmiany oświetlenia wykryte przez czujnik jasności wybranego monitora zostaną zastosowane dla wszystkich pozostałych monitorów, aby poziom jasności na wszystkich ekranach był identyczny. Auto Color Mode Tryb Auto Color Mode umożliwia przypisywanie trybów wyświetlania do konkretnych aplikacji, np. narzędzi tekstowych, przeglądarek zdjęć, odtwarzaczy wideo czy programów graficznych. Po otworzeniu danego programu ekran automatycznie przełączy się w odpowiedni tryb, dzięki czemu użytkownik nie musi za każdym razem ustawiać go ręcznie. Przykładowo, do edytora tekstu można przypisać tryb Paper Mode, który zmniejsza emisję niebieskiego światła i ułatwia czytanie dokumentów. Współpraca z panelem sterowania Windows Screen InStyle automatycznie łączy się z panelem sterowania Windows, dzięki czemu wszelkie zmiany ustawień wprowadzone w programie Screen Instyle zostaną wprowadzone poprzez panel sterowania. Zmiany te można również wprowadzić dla wszystkich monitorów w konfiguracji wieloekranowej. Zmniejszona emisja niebieskiego światła Screen InStyle oferuje funkcję Circadian Dimming, służącą do kontroli zmian temperatury barwowej monitora w ciągu dnia. Wraz z nadejściem wieczoru oprogramowanie stopniowo obniża temperaturę barwową ekranu, zmniejszając emisję niebieskiego światła. Dzięki temu praca z monitorem nie zakłóca naturalnego rytmu okołodobowego. Zdalna kontrola dla administratorów Screen InStyle Server pozwala administratorom systemu kontrolować wszystkie monitory podłączone do komputera z zainstalowanym oprogramowaniem Screen InStyle. Pomaga to zarządzać zasobami i zapewnić optymalne ustawienia wszystkich monitorów używanych w biurach, szkołach, trading roomach itp. Wymagania systemowe Kompatybilne monitory EV3285, EV3237, EV2785, EV2780, EV2750, EV2457, EV2456, EV2455, EV2451, EV2450 Obsługiwane systemy operacyjne Windows 10 (32-bitowy, 64-bitowy)Windows 8.1 (32-bitowy, 64-bitowy)Windows 7 (32-bitowy, 64-bitowy) Wymagania dot. komputera Komputer PC z obsługiwanym systemem operacyjnym Port USB Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 2 lis 2021
Domyślam się intencji tego pytania, choć pozornie wygląda to na karkołomne połączenie. Za pomocą przewodu USB-C z obsługą TB3 (Thunderbolt 3) można przesłać zarówno energię do zasilania laptopa jak i obraz zgodnie ze standardem DisplayPort. Niestety, czasem jednak nie jest tak pięknie i obrazu nie ma. Wówczas potrzebne jest połączenie USB-C na DisplayPort, np w MacBookach, w których nie ma już żadnych innych portów, lub po prostu DisplayPort, Mini DisplayPort, jeśli laptop ma takie gniazdo. Monitory ze złączem USB-C mają jednak często wbudowane dodatkowe zasilacze i faktycznie USB-C może służyć do ładowania laptopa. Najlepiej wówczas użyć zwykły przewód USB-C bez obsługi TB3. Wówczas obraz jest wysyłany po DP, a USB-C wykorzystywany do ładowania.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 8 lip 2019
Z punktu widzenia monitora nie ma różnicy. DVI i HDMI to ten sam standard sygnału, tylko inna wtyczka. Jeśli karta, np w laptopie ma tylko wyjście HDMI, śmiało można stosować przejście lub kabel HDMI->DVI. Byłoby wszystko pięknie gdyby nie przysłowiowa łyżka dziegciu. Z punktu widzenia komputera a ściślej sterownika karty graficznej może być różnica. Obraz oczywiście będzie, ale sterownik może sobie "pomyśleć", że na drugim końcu kabla jest telewizor! Wszak HDMI to bardziej standard w telewizorach, odtwarzaczach BluRay czy tunerach SAT a nie w monitorach. Może zatem zrobić niedźwiedzią przysługę i włączyć jakieś swoje "polepszacze" obrazu, które czasem ciężko namierzyć i wyłączyć.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
DVI (Digital Video Interface) jest cyfrowym interfejsem pomiędzy monitorem a kartą graficzną. Tradycyjne wejścia analogowe D-Sub są systematycznie wypierane przez złącza DVI-I oraz DVI-D. Mają one tę zaletę, iż nie ma tu potrzeby przekształcania cyfrowego sygnału z karty graficznej na analogowy sygnał zrozumiały dla monitora. Nie ma więc strat konwersji, a użytkownik nie musi dokonywać dodatkowych ustawień. W panelach z segmentu high-end stosuje się różne możliwości połączeń z kartą graficzną - poprzez zwykłe złącze D-Sub lub poprzez interfejsy DVI-D i/lub DVI-I. Odpowiednie kable dostarczane są naturalnie wraz z monitorem. Pośród interfejsów DVI rozróżnia się warianty DVI-D oraz DVI-I. DVI-I (I = integrated VGA) To złącze pozwala na przesyłanie zarówno cyfrowych, jak i analogowych sygnałów. Innymi słowy, do złącza DVI-I można podłączyć zarówno kartę graficzną z wyjściem D-Sub, jak i taką ze złączem DVI-D. DVI-D (D = digital) To wejście współpracuje tylko z sygnałami cyfrowymi i jest przeznaczone do podłączania kart graficznych z wyjściem DVI-D. DVI-A (A = analog) Ten interfejs, w przeciwieństwie do DVI-D, przesyła wyłącznie dane analogowe. Jest on przeznaczony do współpracy z kartami graficznymi z wyjściem D-Sub. W praktyce właściwie nie stosowany.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Przede wszystkim karta musi móc wyświetlić idealnie ostry obraz. Podstawową cechą i zaletą LCD jest wyświetlanie obrazu z idealną ostrością. Punkt czarny na białym tle jest bez żadnych cieni ani rozmycia charakterystycznego w kineskopach. Dlatego aby taki obraz na monitorze rzeczywiście zobaczyć, karta graficzna musi go dostarczyć. Jakiekolwiek niedoskonałości zostaną przez monitor bezlitośnie obnażone.Nie ma znaczenia natomiast typ układu graficznego. Spotykam się z pytaniami: "Mam GeForce 4MX, czy będzie dobra?" Ważne jest kto i jak wyprodukował kartę, a nie jaki ma model procesora graficznego. On odpowiada tylko za szybkość i funkcje graficzne np 3D ale nie ma nic wspólnego z jakością sygnału wizyjnego.Należy przyjąć że większość uznanych producentów kart oferuje karty dobrej jakości. W przypadku nieznanych lub dalekowschodnich jest to loteria. Część jest "ostra" a część nie.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Regulatory częstotliwości (clock) i fazy sygnału (phase) służą do dokładnego dostrojenia monitora do sygnału karty graficznej. Monitory, które są pozbawione automatycznego synchronizowania się z trybem graficznym, mogą wymagać ręcznej korekty. Objawy które wskazują na brak dokładnego dostrojenia to głównie brak ostrości pionowych linii występujące w niektórych częściach ekranu.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Obecnie funkcja ActiveRotation i ActiveRotation II nie jest rozwijana. Obrót obrazu można uzyskać programowo w sterowniku każdej współczesnej karty graficznej, stąd kosztowny mechanizm współpracy monitora ze sterownikiem nie ma praktycznego zastosowania.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

Tak, większość monitorów wyposażonych w DVI mają dwa niezależne złącza sygnałowe a aktywne można wybrać z menu monitora.

Z dnia 11 paź 2017
Prawdopodobnie dlatego że nie zgadza się rodzaj złącza DVI w monitorze i na kablu. Istnieje kilka standardów DVI. Przed zakupem kabla, należy sprawdzić jakiego rodzaju interfejs DVI ma nasz monitor lub zamówić kabel od razu z monitorem.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Głównym założeniem interfejsu DVI jest uproszczenie sposobu przesyłania sygnału wizyjnego. Idea ma oczywiste plusy w porównaniu do dotychczasowej techniki gdyż umożliwia przesłanie sygnału praktycznie bez zakłóceń.W przypadku kart z interfejsem analogowym kluczowym parametrem decydującym o jakości i ostrości obrazu jest jego dokładne wymodelowanie/wyfiltrowanie. Skutkiem tego, im wyższe rozdzielczości tym trudniejsze jest skonstruowanie idealnego sygnału. Wynika to z coraz większej szerokości pasma i coraz większych częstotliwości. Zbocza sygnałów są coraz bardziej strome.Przy małych rozdzielczościach, do 800x600 wszystkie karty są w tym "dobre". W miarę wzrostu rozdzielczości maleje grupa kart graficznych oferujących dobry obraz a rośnie grupa nieostrych i zniekształconych (np falujących). W przypadku monitorów LCD, 17-tka oferuje już rozdzielczość 1280x1024 punkty. Jest to już pewne wyzwanie dla karty. Aby otrzymać ostry obraz należy odłożyć na bok większość niefirmowych. W zalewie tajwańskiego złomu, kupno "ostrej" karty nie jest rzeczą oczywistą. W miarę dalszego postępu techniki LCD i zwiększenia rozdzielczości do 1920x1200 punktów i więcej, DVI jest pewna "ucieczką" od problemu jakości toru sygnałowego. Stąd ogromny nacisk na promocje DVI. W przypadku kart dobrej klasy nie ma znaczenia czy monitor jest łączony przez interfejs analogowy czy cyfrowy.Reasumując: DVI nie jest elementem decydującym o jakości obrazu. Popularna opinia że DVI daje polepszenie jakości obrazu uzmysławia jedynie, jak wiele jest na rynku kiepskich kart graficznych.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Najpopularniejsze, 15-pinowe złącze monitorowe. Występuje w większości kart graficznych i monitorów. Sygnał przesyłany za pośrednictwem tego złącza ma postać analogową. Z takiego sygnału korzystają tradycyjne monitory CRT.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

2 Drukowanie

Pigment to drobno zmielona substancja stała, nierozpuszczalna i najczęściej nieprzezroczysta. Zazwyczaj są to rozdrobnione minerały lub związki metali.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Tusz barwnikowy to roztwór. Barwnik jest rozpuszczony w nośniku. Tusz pigmentowy to koloid, czyli zawiesina cząstek stałych, pigmentu, w nośniku. Nośnikiem przypadku drukarek domowych jest najczęściej woda.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

2 Telewizory

Zawsze jest sens kalibrować monitor, nawet jeśli jest to zaadaptowany telewizor. Problem jednak w tym, że telewizory są bardzo słabej jakości w porównaniu do monitorów komputerowych, i w wyniku tego kalibracja będzie wprowadzać poważne skutki uboczne. Ponadto wszystkie telewizory mają wbudowane najrozmaitsze "poprawiacze" obrazu których często nie można wyłączyć.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Kalibracja telewizorów w sensie tak jak monitorów komputerowych, w ogóle nie jest możliwa, z tego prostego powodu, że telewizory nie mają mechanizmów zarządzania kolorem. Możliwa jest część procedury kalibracyjnej czyli wyregulowanie temperatury barwowej i w wyższych modelach, przebiegu funkcji gamma. Wymagane do tego jest: Podłączenie do komputera. Posiadanie czujnika i oprogramowania z kontrolą kanałów RGB. Dostęp do menu monitora z regulacją kanałów RGB. Regulacja ma sens jeśli telewizor ma możliwość wyłączenia wszelkich automagicznych "poprawiaczy" obrazu, które zniweczą regulację.Z tanich czujników możliwe jest wykonanie regulacji za pomocą X-Rite I1 Display Pro z fabrycznym profilerem, choć lepsze efekty i łatwiej jest z oprogramowaniem dedykowanym do regulacji telewizorów, np SpectraCal Calman.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

2 Monitor a zdrowie

Astygmatyzm ma bardzo duży związek z pracą przy monitorze. Wada tego typu to nic innego jak rozogniskowanie wiązki światła wynikająca z nieprawidłowej budowy rogówki lub soczewki ocznej. Budowa ekranu, a co za tym idzie, obrazu generowanego przez monitor, mogą powodować, że "nieostrość" obrazu się potęguje. Przyczyna odczuwania nudności przed monitorem jest fizjologiczna i ma związek z oczami oraz, paradoksalnie, uszami. Otóż, nasz mózg, nauczył się pobierać informacje o położeniu ciała nie tylko z błędnika, organu dedykowanego, ale też z oczu i traktuje je równorzędnie. To nie jest poprawnie, ale mózg tak przyjmuje, gdyż zwyczajowo, informacje z obu ośrodków są spójne i równie wiarygodne. Czasem jednak występuje zaburzenie sygnałów z obu źródeł, np obraz z oczu jest nieprawidłowy, zaburzenie ostrości widzenia, niestabilność obrazu, ale informacja z błędnika mówi, że pozycja jest jednak stabilna, choć obraz jest zniekształcony. Następuje wówcza kolizja danych i te sprzeczne informacje idą do ośrodkowego układu nerwowego. Co ciekawe, sygnały są analogiczne jak przy zatruciu, gdyż toksyny również zaburzają widzenie, jako jeden z pierwszych skutków. Czyli znów, oczy podpowiadają co innego niż błędnik. Zwrotny rozkaz z mózgu jest jednoznaczny - rzygać ile wlezie, aby pozbyć się trucizny. Najbardziej popularny symptom - po alkoholu wielu wymiotuje. Astygmatycy, widzący nieostro niejako z natury, są grupą szczególnie podatną na tego typu zakłócenia informacji z sensorów. Astygmatyzm w połączeniu cechą refrakcji, załamującą różne długości fali świetlnej pod różnym kątem, powoduje, że ognisko barwy czerwonej wypada w innym miejscu niż zielonej czy niebieskiej. Efekt - tęczowa nieostrość na krawędziach elementów ekranowych. Finalnie, astygmatycy odczuwają dolegliwości podobne do zatrucia: ból głowy, nudności, czasem wręcz wymioty. Identyczny mechanizm obronny organizmu zachodzi w przypadku choroby morskiej, tylko wówczas zestaw informacji jest odwrotny. Sedno problemu w chorobie morskiej tkwi w zaburzeniach priorytetyzacji informacji z oczu i błędnika. Jeśli odciąć jedną z tych dwóch danych, wszelkie objawy natychmiast znikają. O ile w przypadku choroby morskiej niektórzy mogą się tego nauczyć / przyzwyczaić mózg, w przypadku astygmatyzmu, jest to stałe i ludzie cierpią przed monitorem. Co ciekawe, identyczny problem pojawia się również u osób z zdrowym wzrokiem, choć rzadziej. W przypadku opisanych uciążliwości podczas pracy z komputerem, należy zniwelować przyczynę, czyli nieostry obraz. Zjawisko astygmatyzmu jest tym mniejsze, im mniejszy gamut monitora (nasycenia barw skrajnych) i jego plamka (piksel). Czyli trzeba w pierwszym rzędzie wybierać monitory sRGB o maksymalnie dużych gęstościach pikseli, 4H UHD, 6K, 8K przy możliwie małych przekątnych. Również, choć rzadziej, astygmatycy źle odbierają niektóre kształty pikseli monitora i odstępy między poszczególnymi subpikselami. Obraz bowiem tworzony jest przez trójkolorowe źródła światła przesunięte względem siebie w przestrzeni. Taka specyfika powoduje większą skłonność do aberracji chromatycznej na siatkówce, co w połączeniu z astygmatyzmem daje większą, również "chromatyczną", nieostrość. Zalecenia:• Osobom z zdiagnozowanym astygmatyzmem, nawet w stopniu lekkim, proponuje się korzystanie z monitorów o wąskim gamucie lub szerokogamutowych z kalibrowaną przestrzenią i kalibrację ich do standardu sRGB. • Jak najwyższą gęstość pikseli monitora. UHD, 4K, 8K, Retina.• Jasność obrazu na ekranie nie może być wyższa od jasności tła.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Wiele monitorów pozwala zejść do około 20 nitów lub nawet niżej, ale jeśli użytkownik odczuwa konieczność ustawienia tak niskiej jaskrawości, to znaczy, że w tym konkretnym otoczeniu wydaje się za jasny. Takie wrażenie bierze się stąd, że w pracowni jest dużo za ciemno. Różnica między ciemnym tłem a jaśniejszym monitorem staje się niekomfortowa i męcząca. Pojawia się olśnienie i efekt podobny do wielogodzinnej jazdy samochodem w nocy. Po pewnym czasie jest nie do zniesienia. Wyjściem nie jest obniżenie jaskrawości a podniesienie światła otoczenia. Przez analogię do samochodu, w dzień tak się oczy nie męczą, prawda? Inna sprawa, że poniżej pewnej jaskrawości zniekształca się bardzo wrażliwość receptorów wzrokowych, a szczególnie w dziedzinie śródtonów. To mechanizm odzwierzęcy, pozwalający w słabym świetle dostrzec drapieżnika, który czai się w krzakach, aby nas napaść i skonsumować. To zjawisko mające na celu doskonalenie technik przeżycia, a nie jakości widzenia barwnego. Czasy się zmieniły, ale właściwości oczu nie. W efekcie, przy niekorzystnym układzie świateł, to co na monitorze będzie się wydawało jaśniejsze niż jest w rzeczywistości. Ten sam materiał obejrzany w świetle dziennym może okazać się "brudny" i wyprany. Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

3 Monitory kineskopowe

Najlepsze są oczywiście specjalistyczne środki, ale widziałem przypadek uszkodzenia panelu przez taki, więc nie można generalizować. W sumie nie jest tak bardzo ważne jakim płynem, a bardziej w jaki sposób. Czyszczę dużo monitorów z uwagi na pracę i poniżej zamieszczam parę światłych uwag: 1. Dobry specjalizowany płyn daje dużą łatwość czyszczenia, ale takie same efekty można osiągnąć płynem do mycia okien W5 z Lidla. Kosztuje za pół litra znacznie mniej niż specyfiki renomowane za 100 ml. 2. Najważniejszą rzeczą w całej operacji jest szmatka. Tylko nowe i sensowne. Najlepsze jakie do tej pory miałem to "mikrofibra" z Rossmana. Ważna uwaga, po praniu już się do niczego nie nadaje (zostawia włoski), ale póki nowe, czyszczą świetnie. 3. Kolejną sprawą jest "jak". Najczęściej ludzie psikają odrobinę i piłują na sucho. Tymczasem trzeba zlać konkretnie ekran, że aż płynie. Oczywiście uwaga na dolną ramkę, aby płyn nie pociekł tam gdzie nie powinien. Mokry ekran sprawnie wycieram szmatką, jeśli zajdzie potrzeba za chwilę drugą, suchą i ekran jak nowy.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Firma Sony zaprzestała produkcji kineskopów Trinitron do monitorów w 2003 roku, Mitsubishi zaprzestało produkcji kineskopów Diamondtron w 2004 roku. Era monitorów kineskopowych zakończyła się. Obecnie, stan na połowę 2005 roku, produkowanych jest jeszcze kilka rodzajów słabej jakości kineskopów do tanich/ekonomicznych monitorów, ale należy sądzić, że losy ich są przesądzone.  Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
To nie jest wada. Te linie są naturalną cechą monitorów CRT. Seria monitorów MultiSync FP i FE wykorzystuje kineskopy Mitsubishi Diamondtron z maską szczelinową. Ten typ maski składa się z pionowej metalowej siatki, której szczeliny, stąd nazwa kineskop z maską szczelinową, biegną od góry do dołu monitora. Maska, w celu zapewnienia sztywności jest wzmacniana przez dwa poziome metalowe druty, występujące z reguły około 7 cm od dołu i góry kineskopu. Linie poziome o grubości włosa widoczne na ekranie to cień tych drutów.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017

3 Gwarancja

Tak, wszystkie oferowane przez nas monitory są objęte gwarancją w pełnym okresie bez wykluczeń dotyczących lamp. Jeśli wystąpi odstępstwo od tej reguły jest to wyraźnie zaznaczone w danych... Więcej...
Z dnia 11 paź 2017
"Door-to-door", czyli w polskim tłumaczeniu "od drzwi do drzwi" oznacza specyficzną obsługę serwisową. Najczęściej jest częścią umowy gwarancyjnej, ale zdarza się również poza gwarancją.Sposób działania: W razie uszkodzenia podlegającego reklamacji, należy telefonicznie jedynie skontaktować się z punktem serwisowym. W razie konieczności zbadania urządzenia w serwisie, technik poda za pośrednictwem jakiej firmy kurierskiej należy wysłać urządzenie. Z miejsca instalacji urządzenie zabiera kurier, a po naprawie lub wymianie dostarcza. Całością kosztów i zabezpieczeniem przesyłki obciążony jest świadczący usługę "door-to-door" czyli serwis.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 11 paź 2017
Na monitor udzielana jest 5-letnia gwarancja w systemie "door-to-door" (od drzwi do drzwi). Jednakże wady wyświetlacza ujawnione po okresie 6 miesięcy nie są traktowane jako wady materiałowe. Producent uznał że półroczny okres jest wystarczająco długim do wykrycia jakichkolwiek defektów ekranu.   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 8 paź 2017

3 Pytania różne

Tak, osłona EIZO CH5 pasuje do modelu CX271.


Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij wiadomość

Więcej...
Created by Sylwek Z dnia 8 kwi 2022
Oczywiście, że można! Sprawdzenie, czy sprzęt odpowiada oczekiwaniom jest dość trudne. Z reguły jesteśmy skazani na bajki opowiadane przez sprzedawców. Czasem da się trafić na handlowca, który potrafi dobrze wczuć się w położenia użytkownika. Nawet jeśli się uda, to jednak i tak jest to opinia drugiego człowieka, nie nasza. Receptą na te niedoskonałe okoliczności wyboru drogiego, bądź co bądź, urządzenia, jest postawienie go na swoim stanowisku, w swoim oświetleniu i sprawdzeniu ze swoimi programami. Niby wszak istnieje ustawowy przepis o możliwości zwrotu konsumenckiego przy zakupach przez Internet, ale tak naprawdę ten zapis w przepisach powstał w celu ochrony przed oszustami w stylu Mango-Telezakupy. W przypadku drogiego, markowego sprzętu, sam fakt rozpakowania i kilkukrotnych przesyłek znacząco zmniejsza jego wartość rynkową, przez co zdecydowanie odradzam takie praktyki. Aby spokojnie, bez stresu przetestować dowolne monitory i inny sprzęt, firma monitory.mastiff.pl udostępnia nieodpłatnie praktycznie cały swój asortyment. Wypożyczający pokrywa tylko koszty transportu wraz z ubezpieczeniem. Procedura wypożyczenia: • Składamy normalne zamówienie, tak samo jak przy zakupie. • W polu "Uwagi" w koszyku wpisujemy "Wypożyczenie" oraz datę na kiedy chcemy mieć sprzęt u siebie. • Po weryfikacji możliwości wypożyczenia, obsługa sklepu wysyła stosowną informację. • Opłacamy kaucję. Zabezpieczeniem jest oczywiście pełna wartość sprzętu.• Na umówioną datę przyjeżdża sprzęt. • Przy rozpakowywaniu prosimy o nie rozrywanie opakowań, nie uszkadzanie wypełnień, folii ochronnych, itd.• Typowy okres testu to tydzień. Istnieje możliwość innego terminu, za uzgodnieniem. • Po testach należy zgłosić datę na kiedy ma przyjechać kurier po odbiór paczki. • Pakowanie musi być takie, jak było fabrycznie. • Po zwrocie sprzętu, koszty transportu są odliczanie z kaucji a reszta zwracana. Jeśli sprzęt się spodoba, istnieje możliwość zostawienia go na stałe. Wówczas kaucja jest kompensowana w finalną fakturą zakupu.     Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 8 cze 2018
Wiele lat szukałem dobrego przepisu na kiszone ogórki. Przepisów wszędzie w bród. Każdy blog kulinarny ma w zasobach przynajmniej jeden. Wszystkie oczywiście najlepsze, najsmaczniejsze, jak domowe, od babci itd. Tyle, że nic unikatowego z nich nie wychodzi. Ja natomiast szukałem takiego, aby ogóreczki wyszły chrupiące, aromatyczne, pachnące koperkiem, chrzanem i innymi dodatkami, a nie tylko wykręcające paszczę, kwaśne kapcie puste w środku. Co roku robiliśmy z żoną ogórki, ale dopiero w tym roku, postanowiłem podejść do sprawy naukowo. Wstęp, ważniejszy niż cała reszta Przede wszystkim, to co mówią w warzywniakach sprzedając gotowe wiązki kopru z zdechłym chrzanem to ściema. Ogórki się ukiszą, ale to nie wystarczy aby był dobry smak. Na bazie tych "uszlachetniaczy" ogórki wyjdą gorsze niż sami sprzedają jako gotowe. Jeśli ogórek ma być pachnący i jędrny, od czegoś musi nabrać tego aromatu. Ze słonej wody i zwiędłego kopru nie nabierze atrakcji. Nie kupujcie też pod żadnym pozorem gotowych przypraw w torebkach. Tam jest zmielone suszone "coś" i wychodzą fatalnie. Zmarnowanie ogórków. No i oczywiście same ogórki mają być świeże. Najlepiej prosto z pola, ale wiadomo, że z tym może być trudno. Problem jest w tym, że już kilka godzin od zerwania zaczynają zachodzić zmiany degradacyjne. Gwałtownie maleje w nich zawartość cukrów, których i tak w ogórku jest mało. Namnażają się też bakterie gnilne, szczególnie w okolicy kwiatka na czubku. Dlatego ten kwiatek należałoby jak najszybciej usunąć a całość nastawu zrobić jak najszybciej, najlepiej nie później niż dobę od zerwania. Inaczej będzie większa skłonność do gnicia zamiast kiszenia. Rozmiar też ma znaczenie. Warto poprzebierać u sprzedawcy, aby zebrać nieduże, proste, kształtne ogóreczki. Takie zupełnie inaczej się spożywa niż wielkie potwory a i łatwiej zrobić je "na twardo", o czym później. Pamiętajmy, że nie każda odmiana dobrze nadaje się do kiszenia. Najlepsze, np Śremski, Julian, Octopus, Andrus, Borus, mają największą zawartość cukrów i są odporne na choroby. Ogórki Moja wersja ogórków jest nastawiona na bogaty smak. Tak, aby ogóreczkami się delektować, żeby nie były tylko mało zauważonym dodatkiem do kanapki. Składniki podaję na kilogram ogórków, łatwo sobie przeliczyć na nastawianą ilość. A więc po kolei: Młode, świeże, małe ogórki wrzucamy najpierw do zlewozmywaka z zimną wodą. Niech tak sobie postoją minimum godzinę. To jest bardzo ważny etap, gdyż wszelkie niepożądane bakterie żyją w ziemi i przedostają się łatwo na skórkę. Moczenie w wodzie ma dwa skutki. Po pierwsze powoduje odklejenie ziemi przylegającej do skórki, nawet jak jej nie widać gołym okiem. Po drugie powoduje nawodnienie komórek roślinnych, co ma bardzo duży wpływ na prawidłowość dalszych procesów osmotycznych. Po moczeniu myjemy dokładnie pod bieżącą wodą i koniecznie usuwamy resztki kwiatków, siedliska bakterii. Spotkałem się z "nowoczesnymi" przepisami, mówiącymi o skrojeniu koniuszków ogórka z obu stron. Szczególnie takie nowomodne modyfikacje są popularne w poradnikach chcących uchodzić na trendy. Bzdura! Sprawdziłem, nic to nie daje. Pewien sens jest w tym, że odkrajając "dupkę" pozbywamy się goryczki. Tyle, że jeśli trzeba się jej pozbywać, to znaczy, że mamy złą odmianę ogórków. Ogórki do kiszenia nie mają goryczy. Dobrą metodą jest natomiast hartowanie, przez przelanie wrzątkiem i następnie znów wrzucenie do zimnej wody. Wrzątek zabija bakterie z gleby i wydłuża okres przechowywania ogórków, gdyż ogranicza procesy gnilne w ostatnim stadium fermentacji.Kiedy mamy już umyte ogórki, na dno wiadra lub innego pojemnika wkładamy dodatki, samo clue późniejszego smaku ogóreczków. Uwaga: Pojemnik nie może być metalowy! Ceramiczny lub plastikowy. Ja nastawiam w czym się da. W przepisach są oczywiście często koszerne kamionkowe garnki. Pierwsze próby robiłem w dużym plastikowym wiadrze z pokrywką po jakiejś zaprawie tynkarskiej. Umyłem, wyparzyłem i jest genialne do takich celów. Później znalazłem beczułkę plastikową 30L z zakręcaną pokrywą. Pojemnik nie powinien być bardziej szeroki niż wysoki. Chodzi o to aby zalewa łatwo przykrywała zawartość i dało się od góry włożyć taki talerz, aby miał średnicę podobna do pojemnika, aby lekko przycisnąć ogórki, które inaczej będą miały tendencję do wypływania. Muszą być całe w wodzie. Pojemnik i ilość nastawu należy tak dobrać, aby było jak najmniej powietrza a całość dało się szczelnie zamknąć. Po zakończeniu właściwego kiszenia bowiem, zaczynają rozwijać się drożdże a nastepnie w wyniku obniżenia kwasowości, uaktywniają się enzymy pektolityczne, które powodują gwałtowne mięknięcie a docelowo nawet rozpuszczenie się ogórków. Ot, po prostu zgniją a śmierdziało przy tym będzie, że olaboga. Bakterie uczestniczące w tym procesie lubią tlen, więc po zakończeniu właściwego kiszenia, należy pojemnik zamknąć. Przyprawy Dodatki, czyli całe sedno smaku, zapachu, jędrności a i nie tylko. Wiele z przypraw ma właściwości bakteriobójcze, związki polifenolowe, przydatne w procesie kiszenia. Niestety też są źródłem zakażenia bakteriami gnilnymi i pleśnią, więc należy bardzo dokładnie je umyć, w żadnym wypadku nie wrzucać czosnku z uszkodzeniami czy obrośniętego "czymś" chrzanu. Przypominam, to są miary mniej więcej na kilogram ogórków. Ogólna masa przypraw nie powinna przekraczać 3% masy ogórków. Zbyt duża ilość szczególnie zawierających garbniki może popsuć smak. Koper. Najważniejsza przyprawa, zawiera bardzo aromatyczne olejki terpenowe. Należy dać minimum 2-3 całe kopry, wraz z kwiatostanami i łodygami. Nie żałować. Im więcej kopru tym lepszy aromat. Duża główka czosnku. Zawiera znaczną ilość olejków eterycznych działających bakteriobójczo i bakteriostatycznie. Nie trzeba obierać. Można przekroić w poprzek całą główkę, ale pod warunkiem, że zachowujemy idealną czystość. Korzeń chrzanu. 2-3 kawałki wielkości minimum ok 10cm. Jeśli korzeń jest gruby, można przekroić na węższe paski ok 1 cm grubości. Jeśli jest liść chrzanu, też dobrze. Nie należy przesadzać z ilością, bo oprócz grzybobójczego dobra nazywającego się glikozyd, zawiera też enzym peroksydazę, powodujący trawiasty posmak ogórków. Kilka liści laurowych. Kilkanascie kulek ziela angielskiego i tyle samo pieprzu czarnego. Jak ktoś lubi ciut na pikantno, można więcej. Łyżeczka gorczycy. Liście winogron, porzeczek, wiśni, dębu, malin. Liście zawierają garbniki oraz enhibitory enzymów m.in. katalizujących proces maceracji tkanki roślinnej. Po ludzku - czynią ogórki twardymi. Najwięcej garbników zawierają liście malin, porzeczek, najmniej - wiśni. Ja wrzucam liście winorośli, ale to dlatego że rośnie mi w ogródku. Testowałem też wiśnię i dąb. Liście, szczególnie dębu, dadzą lekkie zabarwienie smaku nietypowe w stosunku do ogórków dostępnych w handlu. Od razu poczujecie różnicę. Wiem, że w mieście ciężko o liście malin czy winorośli, dąb znajdziecie w każdym parku. Warto jednak się potrudzić, bo efekt finalny, jeśli je dodamy, jest porażający. Ogórki robią się twardsze niż surowe! Jeśli nie ma szans na wszystkie liście, trudno, ale proponuję nie rezygnować całkiem, bo będą kapcie, a nie jędrne. Wszystkie dodatki układamy na dno pojemnika i wrzucamy ogórki. Zalewa solna Tu nie ma wielkiej filozofii, acz co przepis to inna ilość soli. Wbrew nazwie, ogórki małosolne są dość słone, więc sól jest niezbędna również z nazwy tego co robimy. Ważniejsze jednak jest, że bakterie mlekowe, które czynią cały proces, lubią sól. Chodzi o to, aby w początkowym okresie fermentacji jak najwięcej naprodukowało się bakterii mlekowych i szybko podniosły kwasowość zalewy. Ogranicza to rozwój niepożądanych kultur bakterii, w tym gnilnych. Aby fermentacja właściwa zdominowała cały ten biochemiczny reaktor, ilość soli musi być odpowiednia, czyli dość sporo. Poza tym, w czasie procesu, słoność ogórków będzie się bardzo mocno zmieniać. Najpierw, jak tylko zacznie się robić dobrze, ogórki 1-2 dniowe będą małosolnymi i będą bardziej słone. Później, jak zalewa będzie coraz bardziej wnikać w ogórki, siłą rzeczy jednostkowa ilość soli na masę całości będzie się zmniejszać i subiektywne wrażenie słoności będzie mocno malało. Początkowy roztwór powinien zawierać 5-8% soli wagowo. Miara na łyżki jest zbyt niedokładna. Jedna sól jest grubsza, inna bardziej miałka i mierzenie objętościowe jest bez sensu, różnice mogą być bardzo duże. Trzymajmy też miarę, bo 1% różnicy w ilości soli przy małym nastawie to może być mniej niż jedna łyżka, ale daje gigantyczną różnicę smaku. Lepiej posłużyć się wagą kuchenną. Ilość soli jest zależna od sposobu ułożenia ogórków. Jeśli ktoś się będzie starał ułożyć je ciasno, zalewy będzie mniej, więc musi zawierać więcej soli. Jeśli będą wrzucone luzem, wówczas soli może być mniej, w dolnej granicy normy. Jeśli ktoś chce super purystyczne podejście, to zasada jest taka, że soli ma być tyle, aby w końcowym etapie, już po ukiszeniu, soli w wodzie było 1,8%. No, ale laboratorium nie mamy, więc olać. Sól może być jakakolwiek, nie ma sensu słuchać durnych eko-trendów typu wyłącznie sól himalajska, morska i tym podobne pierdoły. Zwykła najtańsza z "biedry" działa jak trzeba. Jedynie, może niekoniecznie ze względu na różnicę w parametrach kwaszenia, ale wydaje się sensowne nie stosować soli z dodatkami przeciwzbrylającymi, zawierającej niezdrowy E536, żelazocyjanek potasu. Natomiast co ważne, woda musi być dobrej jakości. Jeśli z płytkiej studni lub jeśli są podejrzenia o jej niezbyt dobrą czystość biologiczną - przegotowana. Również nie słuchajmy modnych "blogerek", które mówią o "świeżej wodzie". Może jeszcze z górskiego potoku? Normalna woda z wodociągu zawiera wolny chlor i jeśli nie gotujemy, należy odstawić ją na kilka godzin a nie zalewać. Bakterie mlekowe są bardzo wrażliwe na działanie kwasu podchlorowego i to daje korzystne warunki do mnożenia się bakterii niepożądanych. Woda nie może być też zbyt miękka. Jeśli mamy miękką wodę, poniżej 12 stopni niemieckich i na dodatek przegotowaną, czyli z usuniętą częścią wapnia, należy dodać kilka gram chlorku wapnia. Dostępny w sklepach chemicznych. Bez obaw, to nie jest szkodliwa chemia. W większości miast woda wodociągowa ma ok 14-15'n, więc nadaje się od razu. Ciekawym dodatkiem do zalewy jest cukier. Bardzo rzadko o nim wspomina się w "babcinych przepisach". Jest nieocenionym dodatkiem aby szybciej zainicjować pierwszą fazę kiszenia i ograniczyć rozwój bakterii niepożądanych. Należy dodać 0,5-1% na ilość roztworu. Wody przygotowujemy tyle, aby przykryć ogórki z dobrym zapasem. Zapas wody będzie potrzebny później, wyjaśnienie w ostatnim akapicie. Nie rozpuszczajcie też soli w czasie gotowania wody bo nawet nierdzewny garnek zacznie rdzewieć. Najlepiej sól rozpuścić na koniec, kiedy woda już przestygnie. Zawartość pojemnika zalewamy wodą, nie gorącą, można lekko ciepłą, ale im chłodniejsza tym lepiej, przykrywamy talerzem na który warto położyć mały kamień, aby nic nie wypłynęło i odstawiamy w spokoju. Pierwsze efekty Pierwsze małosolne są już gotowe po półtorej dnia. Obok, na zdjęciu moja beczka po dwóch dniach. Niektórzy lubią takie ledwo-ledwo, kiedy jeszcze nawet nie zmienią koloru i są jeszcze intensywnie zielone. Swoją drogą, czy wiecie, że właśnie zielenie w czasie obróbki fotografii na monitorach, najłatwiej wychodzą na granicę gamutu i zaczynają wyglądać jak "radioaktywne"? Trawa ma tendencję do nabierania odcienia jak kamizelki odblaskowe, znikają detale, wszystko zaczyna się robić płaskie i oczojebne. Także ostrożnie z podkręcaniem saturacji, szczególnie na laptopach, bo skutki bywają kiepskie. Laptopy mają najczęściej przestrzenie mniejsze niż sRGB i chcąc uzyskać "mocny", "kalendarzowy" kolor, ostro się manipuluje suwakami. Z uwagi na to, że najwyższych nasyceń taki panel w ogóle nie wyświetla, cała grupa mniej nasyconych odcieni po podkręceniu, "przylepia" się do granicy gamutu i wygląda to później fatalnie. Po kolejnych około 2 dniach, kiedy fermentacja wchodzi w fazę właściwą, ogóreczki zaczynają już być takie jak lubię, czyli zmienią kolor i zacznie być wyczuwalny aromat całego dobra, jakie włożyliśmy do środka a jednocześnie nie są jeszcze hiper ukiszone. Czas jest zależny od temperatury. Im cieplej, tym proces przebiega szybciej, ale nie powinno się nastawiać w upały. Temperatura powyżej 25 st nie jest korzystna. Nie można też trzymać ich w cieple za długo, bo będą coraz mocniej kwaśniały oraz zaczną rozwijać się drożdże i szybko fermentacja przejdzie w dalsze fazy, czego, uwierzcie na słowo, na pewno nie chcecie. Oczywiście, jeśli ktoś lubi, można jeszcze chwilę zaczekać, ale moim zdaniem trzymanie ich w ciepłym miejscu tydzień, da ogórki, które o ile nie zaczną jakimś cudem gnić, nadadzą się tylko na zupę. Warto wiedzieć, że po zakończeniu fermentacji mlekowej, reakcja wcale się nie zatrzymuje. Idzie sobie dalej, ale w niezbyt pożądaną stronę, czyli rozwój bakterii gnilnych, fermentacja masłowa, octowa itd. Bardzo częstym błędem jest trzymanie pojemnika w kuchni zbyt długo i zamiast cudownego aromatu, z wiadra zaczyna zalatywać nieładnie, jakby ktoś puścił bąka. Po maksymalnie kilku dniach (48-72h) całe wiadro trzeba przestawić w chłodne miejsce, np do piwnicy. Na tym etapie należy szczelnie zamknąć pojemnik. Dopóki w czasie prób smakowych wyczuwa się jakby były szczypiące "gazowane", póty jeszcze reakcja idzie w najlepsze. Nie przejmujcie się jeśli woda zmieni kolor na brązowawy, tak ma być, liście dębu to powodują. Nie przejmujcie się też pianą. Nic nie należy zbierać z powierzchni, nie mieszać też, aby nie natleniać nastawu. Przypominam, że drobnoustroje niepożądane to bakterie tlenowe. Detailing Teraz kolejny z kluczowych kroków. Kiedy ogórki są już blisko-blisko żądanego stopnia zakwaszania, moim zdaniem, kiedy już zmienią kolor z żywo zielonego, problematycznego w sRGB podczas zbyt agresywnej obróbki, na swój właściwy, koniecznie obniżamy temperaturę. Najlepiej zapewnić warunki chłodnicze, ale mało kto zmieści wiadro do lodówki. Wyciągamy je więc z wiadra i ile się da wrzucamy do największego plastikowego pojemnika na żywność jaki się zmieści do lodówki. Ważne aby miał szczelną pokrywę. Wrzucamy ogóreczki, zalewamy wodą z wiadra (po to potrzebny jej zapas), zakrywamy i wstawiamy do lodówki. To bardzo ważny moment, bo w niskiej temperaturze zatrzymają się dalsze etapy fermentacji a i na zimno są dużo smaczniejsze niż w temperaturze pokojowej. Po jednym dniu w lodówce, niebo w gębie. Coś cudownego. Jeśli zrobiliśmy więcej niż się zmieści do lodówki, wiadro zostawiamy w piwnicy w jak najchłodniejszym miejscu. Im zimniej tym dłużej postoją. Jeśli będzie za ciepło, okres przechowywania mocno się skróci. Będą tam sobie powolutku dojrzewać i po zjedzeniu tego co w lodówce, idziemy po kolejną porcję. Ja nastawiam, zależnie w wiadrze czy beczce 5-10 kg i po kilka razy dokładam do lodówki. W tej sposób mam kilka wersji zakiszenia, trudno powiedzieć które lepsze. Przepis jest wynikiem moich wielu eksperymentów i szukania najlepszego smaku. Szczerze zachęcam do sprawdzenia, jest spora szansa, że spodoba się Wam taka wersja. :)   Masz pytanie, wątpliwości albo sugestie do tego artykułu? Wyślij... Więcej...
Z dnia 28 lip 2018