如果是多家同时宕机,大概率是云服务提供商的锅,如果是这个原因,这几家应该都是同一底层云服务商吧。
另一个说法,是B站流量如滔天洪水,崩了以后大量的用户没地方去,跑到微博,知乎,a站,豆瓣,晋江等入口吐槽,然后其他几家没抗住,也崩了……
并不是说这些网站太弱,接纳不住这么多用户,而是技能树没点这个分支。
一般来讲,没有双十一秒杀场景的话,能够支撑同时在线的用户数足够即可,所以一般网站或APP不太需要“瞬时高并发”的处理和承载能力,但是昨天这种情况,就是瞬时高并发,类似微博突然爆了个大瓜,一般网站都没有应对这种突发流量的应对方案,所以就崩了。
B站股票先跌后涨,大家都看到B站流量之大,可以冲垮其他站点,用户粘性之强,接近凌晨依然有这么大的流量,未来可期。
谢邀。正准备刷视频,发现上不了,结果害我反复开关WiFi n次。
盲猜一下吧,我觉得应该是etcd挂了。
因为表现上是B站全部的业务都挂了,而且是几乎在一瞬间。服务器返回的错误大多数是502(Bad Gateway)。也就是前端的reverse proxy无法访问到upstream的服务器。
通常来说,能造成几乎所有请求都502的,要不就是前端和后端之间的网络通路全挂了,要不就是后端的服务全都挂了。
那么现在的大型互联网公司的基础设施是怎样的呢,大多数使用了kubernetes,实现全国各地的数据中心的容器编排、网络虚拟化等。
而kubernetes的设计上,网络插件和pod编排又是相对独立的。
如果只是网络插件出问题了,那么部分服务器上的网络插件的缓存还在,一定有部分用户还能正常使用。
如果只是pod编排除了问题,也是一样的道理。
现在所有的都挂了,那只能是etcd挂掉,导致反向代理无法通过etcd找到对应的pod的虚拟ip,有无法通过网络插件与对应的pod通信。
分析个皮,现在信息都是矛盾的
这它Mother的信息是完全矛盾的,或者发生时间至少不同。因为在骨干网(包括网络基础服务例如路由,dns),区域节点,云服务商,互联网企业间反复横跳。
这知乎的IT人员是真够水的,高赞几乎都在瞎掰。
以目前的信息量,只有在问题节点上的IT人员可能分析出来。总不能凭谣言传闻debug.
目前只有一点是确定的,B站自己的服务肯定出了问题,因为牙用了比较长的时间恢复。而其它企业恢复得比较快。不过,这特马可能也是错误信息。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有