记得以前有一个100k原则和一个几秒原则(具体几秒忘了),就是说一个网页包括图片的总大小不能超过100k,总加载时间不能超过几秒,否则用户就会认为网站坏了关掉不看了。
现在的网页,搞前端工程化,一大堆不知道多复杂的前端库打一个大包扔给浏览器执行,这个js包可能就有数MB甚至数十MB,这还不算页面上各种图片字体***,还有加载之后调用api才回来的各种数据、数据指向的图片***... 讲真,就那个几秒原则,百兆带宽的网络都…。
上一篇 : HTTP/3 解决了什么问题,又引入了什么新问题?
下一篇 : Firefox是如何一步一步衰落的?
CPU 为什么很少会坏?...
为什么 lua 在游戏开发中应用普遍?...
flutter为什么不用Go语言,而用Dart?...
如何使Windows上安装的Macos虚拟机流畅运行?...