@Stepan, круто) подскажите пожалуйста, где формат вывода проверить? у меня gtx 1050 и DELL 2516, не чужие люди, проконсультируйте все, с вашего скриншота понял)
И не трудитесь, лучше почитайте что Степан написал и избавил меня от необходимости объяснять вам прописные истины. А ваши быдляческие "как два пальца..." я не понимаю, потрудитесь человеческим языком изъясняться.
Если включён режим HDR то будет показывать 10 бит и цветовое пространство HDR, если выключить то будет 8 бит и SDR
@Serg SSA, А видеокарта какая? А то мне втирали что только проф.карты умеют выводить в 10бит, типа quadro или от радеона что-то подобное (хотя по спекам даже встройки интела в 10 бит уметь должны).
В скрине же написано GTX1080 ))) Все 900 серии и выше могут выводить 10 бит. Про младшие не знаю, а 1080 может выводить до 12 бит.
@Stepan, у вас "смешались в кучу кони люди..." для себя вам надо понять ОСНОВНОЕ предназначение монитора. Это видео или фото. Я (если быть честным) глубоко не вникал в тему видео....но понимаю то, что кодировки разнятся именно в видео и фото (обычном режиме).Если Вам важно видео , то необходимо искать монитор который поддерживает полное соответствие YCbCr. ( и это отдельная и большая тема. больше чем sRGB vs P3). Если у вас что то идёт не так , сбросьте монитор в заводские настройки и драйвер NVIDIA тоже. Не надо там ( в настройках ) включать режим ограниченный. Именно он для видео. И категорически не годится для фото. На видеокартах РАДЕОН я не могу прокомментировать, так как сам много лет сидел на NVidia а в новых настройках драйверов Радеона не до конца разобрался... Так что не ТЕОРЕТИЧЕСКИ, а именно практически верно то, что вы описали.
@Skier, спасибо. У вас, получается, используется всего 8 бит на канал. Я хорошо понимаю что такое YCbCr, и что такое RGB, и почему в моем случае не стоит выбирать "по умолчанию". Приведу еще одну картинку Возможность выбора формата кодирования цвета при передаче на монитор означает, что он (монитор) этот формат поддерживает. Об этом он сообщает видеокарте по I2C шине в формате EDID. Если хотите погрузиться в тему- можете посмотреть форум на хоботе, на первой странице довольно подробно описан процесс. YCbCr совсем не значит, что речь идет о видео. Однако этот формат действительно чаще используется в работе в видео, и не в последнюю очередь по причине того что YCbCr444 легко преобразуется в 422 и 400, что влечет значительное снижение требований к ширине канала, и значительно снижает битрейт видеопотока, позволяя сохранить качество картинки (с точки зрения человека) на приемлемом уровне. Все мне известные видеокодеки при компрессии сигнала первым делом преобразуют цвет в YCbCr, после чего первыми жертвами компрессии становятся CbCr во славу Y.
@Stepan, я сам обратил внимание что не могу изменить 8 бит на 10.... причину не могу понять.....возможно надо переставить систему с нуля , дабы исключить влияние старых драйверов нвидиа.
я был в очень большой запарке... Сейчес только могу констатировать, что-то не так в отображении win и битности. ....видимо это связано с радеоном. Ответа пока нет, но надо разбираться. Тестерные сайты обходят в деталях это тему, но там и уровень компетенции минимален. Например, мне писали о страшных цветных искажениях в ЧБ градиентах (моего монитора) , именно после калибровки. Но по факту оказалось как раз наоборот.
Если не для полиграфии готовить продукцию, то и не нужны 10 бит. Я спецом выключаю на мониторе HDR (10 бит) и работаю только с 8 бит.
спасибо!. наверное. однако потыкал в настройках и не нашел 10 бит. 8 и все. вот теперь думаю, что у меня не так))
Монитор поддерживает 10 бит? Если нет, то карта не будет предлагать. Если да, то Вкл. "Использование HDR" и появится в драйвере возможность поставить 10 бит.
а где это включается? у вас винда 10? у меня семерка. в описании монитора не нашел пока, какую разрядность поддерживает