例如,我在许多博客文章中读过这里,云服务器比专用服务器稍慢,因为它们必须经过更多层:
对于需要数据检索和快速计算的行业来说,专用服务器是最佳选择。由于它们致力于在本地处理数据,因此在处理信息时不会出现很大的性能滞后。对于电子商务等每 1/10 秒都至关重要的行业来说,计算速度是显而易见的。另一方面,云服务器通过 SAN 访问数据,这些数据会经过处理到达基础设施的后端。然后,请求会穿过虚拟机管理程序,这又会增加无法减少的额外延迟。
我想知道这是否仍然正确,如果你有一个国际网店,在巴西、美国、委内瑞拉、俄罗斯、新西兰、德国、以色列等地拥有众多用户。
在这种情况下,拥有一台云服务器而不是位于德国的一台专用服务器不是更快吗?
答案1
这幅图比您的引述显得更加微妙(但您的引述是正确的)。
粗略的经验法则是,虚拟系统(如 EC2 实例)比专用硬件慢约 5% - 但是,使用云基础设施允许您并行化请求并获得更大的吞吐量。
类似地,负载均衡器(实际上是分配负载的代理服务器)会增加轻微的延迟,但是这可以通过缓存、处理 https 加密来抵消 - 并且通常在地理位置上更靠近最终用户,从而可以减少延迟并提高整体速度。
这句话似乎还假设所有东西都在一台服务器上运行,但大多数传统的大型网站托管都会将负载分摊,前端、Web 服务器、数据库后端都放在不同的机器上,这是 15 多年来非常常见的做法——远在“云”出现之前
请注意,“云”是针对“其他人的计算机”的营销宣传,仅此而已。细节中有很多魔鬼,如果资源超额认购,共享云基础设施(不恰当地)可能会给你带来麻烦。