Почему разрешения экранов обычно кратны 2, как 1080 или 1980, вместо значений вроде 1024 или 2056? В чем причина избегания некратных 2 значений, которые близки к кратным 2?
Разрешение экранов обычно выбирается таким образом, чтобы соответствовать стандартам видео и компьютерной графики. Например, Full HD имеет разрешение 1920x1080 пикселей, которое соответствует стандарту 16:9. Кратность числу 2 используется в компьютерных технологиях из-за удобства работы с бинарным кодом. Все компоненты компьютера, такие как процессоры, оперативная память, видеокарты и т.д., работают в двоичной системе исчисления, где удобно работать с числами, кратными 2. Это позволяет оптимизировать процессы обработки данных и уменьшить нагрузку на оборудование. Увеличивать или уменьшать разрешение на 10 пикселей не всегда рационально, так как это может привести к искажению изображения или нарушению пропорций. Кроме того, стандарты видео и графики учитывают оптимальные параметры разрешения для достижения качественного и четкого изображения на экране. Таким образом, выбор кратных 2 значений для разрешений экранов обусловлен как техническими соображениями, так и удовлетворением стандартов и требований качественного отображения изображения.
Типа так сложно сделать 76 лишних пикселей?
Производители дисплеев не производят отдельные дисплеи, это невыгодно.
Вместо этого они оперируют понятием mother glass :
Я думаю что причин две.
Первое - это медленный рост быстрой оперативной памяти для видяшек .
Trident 512k была кажется у меня второй видяшкой. И цифры в конце пишут сколько было
у нее на борту. Вот. И чтобы удвоить разрешение по двум осям - память нужно умножить на 4.
Я думаю что на то время (1997 кажется) это было технически не возможно. Или дорого.
Вторая причина - ЭЛТ мониторы . У них разрашение было низкое. В топике
выше правильно писали - что это были почти телевизоры . И типичный телевизор 90х
(по стандарту Secam) имел заявленное число строк 625 а по горизонтали - там... сложно было точно посчитать.
Аналоговый сигнал ибо. А типичный монитор (у меня Samsung) был с заявленным разрешением в
паспорте 1024х768 пикселов но в этом режиме он как-то натужно работал и мерцал и
я чаще его использовал в 800х600 - там с кадрами было как-то для глаз приятнее.
Тоесть техника того времени не могла себе позволить скачкообразно поднять в 2 раза
разрешение (железная матрица внутри ЭЛТ) и техника не могла учетверить память на видяшках.
Уже в эпоху 4К и 8К мы наблюдаем рост разрешения но при этом оно тоже не удваивается
а просто умножается на коэффициентик. И это правильно потому что домашняя сеть
тоже не может поднять траф 4х чтобы вы смотрели спорт каналы в ультра-ХД или как-там его.