AWS 重大故障!

1 天前
 sailors
大家一睡醒就会看到这个大新闻,等待大佬们分析原因。

https://health.aws.amazon.com/health/status
6189 次点击
所在节点    Amazon Web Services
50 条回复
94
1 天前
@stinkytofux #8 ,下不下云都一样。昨天才经历某一个自建机房停电。很多服务都没必要做多活或者容灾。对比上云,自建机房成本明显高太多了。
bitmin
1 天前
好几年前去听一个中小公司的分享,他们老早就阿里云和 AWS 一起用了
killva4624
1 天前
看上去是由一个系统的异常扩散到其他系统,内部的互相依赖...
jjianwen68
1 天前
这种严重故障,协议上如何赔偿客户?
ksmiracle923
1 天前
下云的事故率可能会更高
coldle
1 天前
@Amex #10
这是真的补完东墙跨西墙 🤣
Miary
1 天前
@realpg 学啥不好学米粉 :狗头:
luodan
1 天前
所有服务都在 aws 上。这次故障主要使用的 ec2,eks,rds 都没全坏,只是响应慢点。
sugars
1 天前
realpg
1 天前
@Miary #27
我就是米粉啊 不用学 真的米粉
另外就是 说实话 这踏马是本站常态 崇洋媚外
freekindom
1 天前
盲猜 dns 配置错误,永远的单点,永远的痛
s1461a
1 天前
昨天下午 15 点就崩了,拉不动 dockerhub 看到是 aws 的原因
salmon5
1 天前
这个不是第一次,也不是最后一次。不得不说,世界就是个大草台班子,说好的多人 review 、说好的回滚、说好的层层审批
Miary
1 天前
@realpg 那太抱歉了,这里的米粉没有贬义的意思
习惯就好,画风一向如此
SSyang
1 天前
世界就是个大草台班子,这级别的故障估计在国内云的话讨论度得炸了吧。
fds
1 天前
@salmon5 #33 我觉得还是个人能力有极限。自己维护一个小组件可以尽可能完善,需要调整时可以从底层重构。系统一旦大了,很多同事一起协作,如果没人统筹,很容易就各行其是,破坏一些隐性的规则,在一些特殊情况下造成崩溃。甚至有些就是固有缺陷,当初设计权衡时确定的,后期因为需求变动得修改,不从底层改很麻烦,改底层又很危险。这些复杂性很难完全通过制度去规避,审批也只是尽可能降低风险。
NeoMatrix
1 天前
@Amex

某个 AU 的 bro 改了 us-east-1 的核心网络配置导致的,DDB 也是受影响的一方。大部分服务的核心控制面都在 us-east-1 ,所以影响很大。DDB 是通过手动恢复了 DNS recorde 来解决了。
realpg
1 天前
@Miary #34
不用抱歉 我自己都知道米粉是贬义 毕竟我有投资一个公关传媒公司 很懂这行的不为人知的秘密
yxzblue
1 天前
屎山终于爆了
Amex
1 天前
@NeoMatrix
对我写的不太清楚 不是 ddb 的问题
话说回来这么核心的网络配置改变没有 review 就上 prod 么⋯不知道这些人得写几个 coe

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1167169

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX