Почему у экранов разрешение не всегда кратно степени 2, как, например, 1080, вместо 1024? Разве не проще увеличить или уменьшить 10 байт?

Почему разрешения экранов обычно кратны 2, как 1080 или 1980, вместо значений вроде 1024 или 2056? В чем причина избегания некратных 2 значений, которые близки к кратным 2?
  • 11 июля 2024 г. 5:12
Ответы на вопрос 3
Разрешение экранов обычно выбирается таким образом, чтобы соответствовать стандартам видео и компьютерной графики. Например, Full HD имеет разрешение 1920x1080 пикселей, которое соответствует стандарту 16:9.

Кратность числу 2 используется в компьютерных технологиях из-за удобства работы с бинарным кодом. Все компоненты компьютера, такие как процессоры, оперативная память, видеокарты и т.д., работают в двоичной системе исчисления, где удобно работать с числами, кратными 2. Это позволяет оптимизировать процессы обработки данных и уменьшить нагрузку на оборудование.

Увеличивать или уменьшать разрешение на 10 пикселей не всегда рационально, так как это может привести к искажению изображения или нарушению пропорций. Кроме того, стандарты видео и графики учитывают оптимальные параметры разрешения для достижения качественного и четкого изображения на экране.

Таким образом, выбор кратных 2 значений для разрешений экранов обусловлен как техническими соображениями, так и удовлетворением стандартов и требований качественного отображения изображения.
Типа так сложно сделать 76 лишних пикселей?

Производители дисплеев не производят отдельные дисплеи, это невыгодно.
Вместо этого они оперируют понятием mother glass :
Я думаю что причин две. 

Первое - это медленный рост быстрой оперативной памяти для видяшек .
Trident 512k была кажется у меня второй видяшкой. И цифры в конце пишут сколько было
у нее на борту. Вот. И чтобы удвоить разрешение по двум осям - память нужно умножить на 4.
Я думаю что на то время (1997 кажется) это было технически не возможно. Или дорого.

Вторая причина - ЭЛТ мониторы . У них разрашение было низкое. В топике
выше правильно писали - что это были почти телевизоры . И типичный телевизор 90х
(по стандарту Secam) имел заявленное число строк 625 а по горизонтали - там... сложно было точно посчитать.
Аналоговый сигнал ибо. А типичный монитор (у меня Samsung) был с заявленным разрешением в
паспорте 1024х768 пикселов но в этом режиме он как-то натужно работал и мерцал и
я чаще его использовал в 800х600 - там с кадрами было как-то для глаз приятнее.

Тоесть техника того времени не могла себе позволить скачкообразно поднять в 2 раза
разрешение (железная матрица внутри ЭЛТ) и техника не могла учетверить память на видяшках.

Уже в эпоху 4К и 8К мы наблюдаем рост разрешения но при этом оно тоже не удваивается
а просто умножается на коэффициентик. И это правильно потому что домашняя сеть
тоже не может поднять траф 4х чтобы вы смотрели спорт каналы в ультра-ХД или как-там его.
Похожие вопросы