【编者的话】本文介绍了Instagram从AWS迁移到Facebook基础架构的过程中面临的由多数据中心带来的挑战和解决方法。
在2013年,大约是我们加入Facebook一周年后,每个月有2亿人使用Instagram而且我们存储了200亿照片。
毫不犹豫的,我们开始了“Instagration”——从AWS服务器移动到Facebook的基础架构。
两年后,Instagram已经成长为月活4亿有400亿照片和视频的社区,每秒服务超过100万请求。
为了保持对这种增长的支持和确保社区在Instagram上有一个可靠的体验,我们决定在地理上扩展我们的基础架构。
本文将讨论为什么我们要将基础架构从一个数据中心扩展到三个,和在扩展中遇到的一些技术挑战。
Mike Krieger, Instagram的联合创始人和CTO,近期写了一篇 文章
,文章中提到了一个故事,大约在2012年的时候,弗吉尼亚州的一场飓风瘫痪了将近一半的(服务器)实例。
在接下来的36小时里,这个小团队重建了几乎我们全部的基础架构,这种体验是他们永远不想重复的。
像这样的自然灾害有可能对数据中心造成临时的和永久的伤害——我们需要保证在用户体验上有最小的损失。
其他的在地理上扩容的动机包括:
所以我们怎么开始这件事情的? 首先让我们来看一下Instagram的整体基础架构栈。
扩展到多数据中心的关键是区分全局数据和局部数据。全局数据需要在不同的数据中心间复制,而局部数据在每个区域可能不同(例如web服务器创建的异步任务应该只在所在的区域被看到)。
下一个要考虑的是硬件资源。这个可以粗略的氛围三中:存储,计算和缓存。
Instagram主要是用两种后端数据库系统:PostgreSQL和Cassandra。他们都有成熟的复制框架来很好的作为全局的一致数据存储。
全局数据整齐地映射到这些服务器上存储的数据。目标是在不同的数据中心间保持这些数据的最终一致性,每一个区域有一个读复制,来避免web服务器的跨数据中心读。
但是,对PostgreSQL的写入仍然夸数据中心,因为他们总是要写到主服务集群上。
Web服务器,异步服务器都是无状态的容易分布的计算资源,并且只需要访问本地数据。Web服务器可以创建异步工作,这些异步工作被异步消息代理加入队列,然后被异步服务器消费,全都在一个区域。
缓存层是web服务器最常访问的层,并且它们需要在同一个数据中心中来避免用户请求的延迟。这意味着对一个数据中心缓存的更新不会反映到另一个数据中心中,因此对迁移到多数据中心创建了一个挑战。
想象一个用户在你的最新发表的照片上评论。在一个数据中心的情况下,服务这个请求的web服务器可以仅仅在缓存中更新这个新评论。一个关注者会从同一个缓存中看到这个新评论。
然而在多数据中心的情景下,如果评论者和关注者被不同的区域服务,关注者的区域缓存将不会被更新,这个用户就不能看到评论。
我们的解决方法是使用 PgQ , 增强它使得插入缓存失效事件到被修改的数据库中。
在主节点:
在从节点:
这解决了缓存一致性问题。另一方面,相对于单区域的例子,django服务器直接更新缓存而不重新读区数据库,多区域时会增加数据库的读负载。
为了减轻这个问题,我们使用了两种办法:1) 通过冗余计数器减少每一个读需要的计算资源;2) 通过缓存租约减少读的数量。
最常见的缓存键是计数器。例如,我们使用一个计数器来确定喜欢Justin Bieber的一个具体的帖子的人数。
当只有一个区域时,我们可以从web服务器增加memcache的计数器,所以避免一个“select count(*)”的数据库调用,这回节省几百毫秒。
但是在有两个区域和PgQ失效时,每一个新的喜欢对计数器创建了一个缓存失效事件。这会创建大量的“select count(*)”,尤其是在热点对象上。
为了减少这些操作每一个需要的资源,我们对这个帖子的喜欢数量的计数器进行冗余(译注:即在post的字段中加上likes的计数器,虽然是反范式的但带来了性能提升)。当一个新的喜欢来到时,这个计数在数据库中增加,因此,每个对这个计数的读会变成一个更有效的简单的select。
另一个在存储喜欢这个帖子的人的同一个数据库中进行冗余计数的好处是,更新可以被包含在一个事务中,似的这个更新总是原子的和一致的。虽然在改变前,缓存的计数器可能和数据库中存储的不一致,因为超时或重试等等原因。
在上面来自Justin Bieber的新的帖子的例子中,在这个帖子的最初的几分钟,浏览和点赞的都会达到峰值。对每一个赞,计数器都从缓存中删去。非常常见的情况是web服务器都尝试从缓存中获取同一个
计数器,但是会有“缓存未命中”发生。如果所有的这些web服务器都去数据库服务器来获取数据,将会导致惊群问题。
我们使用memcache租约机制来解决这个问题。它像这样工作:
总之,在以上的实现中,我们可以通过减少访问数据库的次数和每次访问的资源来减少数据库的负载。
这也提高了我们后端在一些热计数器调出缓存时的可靠性,这种情形在Instagram的早期并非不常见。每次这种情形发生都会使得工程师赶忙手动修复缓存。在这样的改变下,这些事故成为了老工程师的回忆。
目前为止,我们主要关注了当缓存变得有区域性之后的缓存一致性。数据中心之间的网络延迟是另一个影响很多设计的挑战。数据中心之间,一个60ms的网络延迟可以导致数据库复制的问题和web server更新数据库的问题。我们需要解决以下问题来支持无缝扩展:
当一个Postgres的主节点写的时候,它生成增量日至。写请求来的越快,这些日志生成的越频繁。主节点们为从节点偶尔的需求存储最近的日志文件,但是它们归档所有的日志到存储中,来保证日志被保存
并且可以被任何需要更早的主节点保留的数据的从节点的访问。这样,主节点不会耗尽硬盘空间。
当我们创建一个新的读复制时,读复制开始读主节点的一个快照。一旦完成,它需要应用从这个快照之后发生的日志。当所有的日志都应用之后,它会是最新的并且可以持续的同步主节点和服务web服务器的读请求。
然而,当一个大数据库的写比率相当高时,在从节点和存储设备中会有较多的网络延迟,有可能日志被读取的速率比日志创建的速率要慢,这样从节点将会被落的越来越远而且永远都追不上。
我们的解决方案是在读复制开始从主节点上传输基础快照时就开启第二个流来传输日志并存储到本地磁盘上,当一个快照结束传输时,读复制可以在本地读区日志,使得恢复进程更加块。
这不仅解决了我们在全美的数据库复制问题,也使建造新的复制的时间减半。现在即使主节点和从节点在同一个区域,操作效率也很大程度的提高了。
Instagram现在在全美运行了多个数据中心,给我们了更弹性的容量规划和获取,更高的可靠性,更好的为2012年发生的那样的自然灾害的准备。事实上,我们最近在一个计划的“灾难”中存活。Facebook
规律性地测试它的数据中心,通过在访问高峰的时候关闭它们。大约一个月前,我们刚刚完成迁移我们的数据到一个新的数据中心,Facebook就运行了一个测试并且关停了这个数据中心。这是一个高风险
的模拟,但是幸运的是我们不被用户注意到的度过了容量损失。Instagram迁移第二部分成功了!
原文链接: Instagration Pt. 2: Scaling our infrastructure to multiple data centers (翻译:陈光)