许多讨论应用程序性能的文章和书籍都引用 200 毫秒作为可接受的响应时间的示例。
我很好奇这200毫秒是怎么来的?为什么不是 100 毫秒或 300 毫秒? 200 毫秒背后的理由是什么?它是由硬件/网络等的当前功能和限制驱动的吗?
我正在质疑这一点。任何低于 200 的值都“几乎”是瞬时的。理想情况是少于 100 毫秒,但您需要让服务器非常靠近用户。
对于大多数用户来说,好的位置的服务器延迟将是 20-50 毫秒,中距离将增加到 70-100,远距离的位置通常会产生 150-500 毫秒
这只是服务器延迟,没有考虑服务器完成请求所花费的时间。
假设您有一个非常快的服务器,响应时间为 20 毫秒。如果用户离你的服务器不是很远,最终的响应时间将是 100-200 毫秒。