显示模式如何工作?

显示模式如何工作?

典型的显示器似乎会带有多种显示模式(不同的分辨率/刷新率)。

鉴于现代显示器(LED 等)将具有物理像素,因此具有预定义的“原始”分辨率,其他分辨率如何工作?是否有某种重新采样以支持不是原始分辨率整数分频的分辨率?这发生在显示器本身内,还是发生在 GPU 内?

最后,不同的显示模式有什么意义?这是否只是为了方便那些希望使用除原始分辨率之外的分辨率的开发人员?

答案1

是否存在某种重新采样来支持非原始分辨率整数除法的分辨率?

是的。LCD 执行的操作称为“缩放”或“插值”。这维基百科文章提供了更多细节。

这是在显示器本身内发生的,还是在 GPU 内发生的?

如果显示器接收的分辨率低于其原始分辨率,则显示器会进行重新采样,而不是 GPU。

最后,不同的显示模式有什么意义呢?

在早期的个人电脑时代,这些可能更为重要。

最初的 IBM PC 有 2 种不同的显卡,一个支持文本模式的 MDA 适配器,一个支持 MDA 文本模式或两种图形模式的 CGA 适配器 - 支持 4 种颜色的 320x200 模式,或支持 1 种颜色的 640x200 位图模式。

因此,您可以根据颜色数量或更高分辨率哪个更重要来选择适当的模式。文本模式与图形模式的工作方式截然不同。这是在 VGA 或现代 GPU 出现之前。

随后,其他显卡(如 Hercules 和 EGA)也相继问世,它们增加了更多模式和更多功能 - 但同时也需要更多视频 RAM,而这些 RAM 可能存在也可能不存在。出于兼容性考虑,如果速度比外观更重要,那么旧模式仍然可用。

现在一切都几乎是 24 位真彩色,并且速度足够快,分辨率不再那么重要 - 但在某些情况下仍然可能如此。

更新 1920x1080 像素比更新 4K 像素更快,如果使用软件渲染而不是 GPU 渲染(如某些​​模拟器),即使在更现代的硬件上,速度仍可能会受到影响。

我确实有一台 2000 年代末的旧笔记本电脑,在 4K 电视上以原始分辨率渲染时会遇到困难,而笔记本电脑 LCD 的分辨率为 1920x1080。但较新的平台和 GPU 可能可以轻松处理。

相关内容