Для фотографий, если их не готовить для печати а только для показа в браузерах нужно только sRGB, как-то по ошибке отправил знакомым фото в AdobeRGB, так они плевались что фото некрасивые... С тех пор только sRGB )))
ну, если очень хочется и дальше писать, то стоит разобраться в вопросе)) я не утверждаю, что вы кругом не правы, лень все читать. но либо уже двое не правы, а вы спец либо вы внятно мысль не смогли донести
где-то уже обсуждали это. некоторые браузеры и сайты начали поддерживать расширенный охват. может и режут его как-то, но нет такого блеклого кошмара, как раньше. а для просмотра на обычном мониторе таки да, лучше не надо
Вы конечно правы, HDR и цветовой охват это несколько разные вещи и путаница в понятиях есть... Если монитор с РЦО (расширенный цветовой охват) он будет передавать больше оттенков даже на 8 битах, а вот простые 8-ми битные мониторы зачастую и sRGB плохо передают. На моём мониторе по факту цветовой охват увеличивается если поставить режим HDR (10 бит). Когда обычно говорят HDR - имеют ввиду увеличение глубины цвета до 1млрд в отличает от 16 млн. (8бит) т.е. градации - динамический диапазон, просто есть эффект, что на многих дисплеях это приводит и к некоторому увеличению цветового охвата. Но повторюсь, вы правы - HDR и цветовой охват это разные вещи.
вас совсем трудно понять)) я прекрасно понимаю, что такое разрядность, а что такое цветовой охват. и меня интересовало только, как включить 10 бит и как посмотреть, что поддерживает монитор. к чему был пост о "вас обманывают", так и не понял. кстати, если я правильно посмотрел характеристики вашего монитора, он адоб ргб и близко не видит. DCI-P3 вы каким образом из него выжать пытаетесь?
много интересного прочитал. где-то пишут, что по каким то корыстным причинам для карт gtx отключена поддержка 10 бит) где-то пишут, что для поддержки 10 бит нужно подключение по дисплей порт. завтра куплю провод, попробую.
Думаю всё получится ))) Я возможно ввёл вас в заблуждение про то что требуется Win 10, драйвера, Intel 7 поколения и т.д. , всё это относилось к HDR видео ))) , его раскодированием. Для работы с фото после подключения по DP 10 бит появится.
угу, вот я и думаю, десятка вряд ли необходимым условием является. а интел у меня хоть и древний, но 7-й.
Я просто сейчас пытаюсь смотреть ролики на ютуб которые 4к и HDR вот и столкнулся с ограничениями, но у меня всё работает, ютуб научился потоковое видео 4к HDR транслировать и хром поддерживает, интересная тема )
меня признаться, 4к при небольшой диагонали в некоторое недоумение приводит. для просмотра видео наверное клево, но для фото мне кажется перебор. красиво, но как-то неправильно)) глоу эффект, как на ретине бывает
А какие вообще виндовые приложения для работы с фото (не видео и не игры) сейчас поддерживают 10-битный вывод на соответствующий монитор?
Согласен, когда купил 27", понял что для 4к нужен монитор не меньше 32" ... На моём мониторе выраженного глоу-эффекта нет, но для просмотра HDR он не соответствует требованию даже VESA400 - не дотягивает максимальная яркость до 400 нит, не говоря уже про 1000. HDR это интереснее чем просто 4к, здесь реально большой скачок по качеству картинки.
Если я правильно понимаю, то все имеют такую возможность. Обработка 10 бит с карты, применение профиля монитора - делается системой, она умеет, а дальше...