Kapacity 金融级分布式架构 2023-06-21 19:18 发表于浙江
KapacityStack 基于蚂蚁内部的超大规模生产业务实践,旨在为用户提供一套具备完善技术风险能力的、智能且开放的云原生容量技术,帮助用户安全稳定地实现极致降本增效,解决容量相关问题。
【资料图】
主代码仓库的 GitHub 地址为:
/traas-stack/kapacity
背景介绍
数字经济时代,社会各行各业对数据和算力的需求急速增长,但是算力需求的飙升和粗放利用却造成了大量的资源消耗和碳排放,同时也给企业带来了巨大的成本压力。在国家“双碳”战略背景下,通过数字化创新技术手段提高资源使用效率、减少资源浪费和降低碳排放成为了业界共识。
蚂蚁集团从 2019 年开始就对“绿色计算”技术进行探索,并基于“离在线混合部署、AI 弹性容量、云原生分时调度、绿色 AI”四大技术打造了绿色计算技术体系。
在 2022 年双 11 期间,蚂蚁集团通过“绿色计算”技术节省 万度电,可供一盏普通节能灯使用 1 亿 5 千万个小时;减排 947 吨二氧化碳量,约等于 79000 棵树的年碳吸存量。
近几年来,我们在云原生架构的基础上围绕蚂蚁“绿色计算”的 AI 弹性容量技术做了非常多的研究和建设,包含容量弹性、容量数据智能、容量稳定性、容量运维与资源运营等,在长年累月的生产实践中磨练出了很多优秀的算法,也沉淀了大量技术风险的最佳实践,目前已能安全稳定地为蚂蚁持续节省年均约 10w 核的算力成本。
此外,我们也积极地进行着这些技术的开放,支持了蚂蚁商业化 SOFAStack 产品与支付宝小程序云等,满足众多合作伙伴的云原生容量需求。
今天,我们将这套内部技术加以浓缩凝练,以完全云原生化的方式构建了一套开放可扩展的智能容量技术体系,将其开源为了 KapacityStack 项目 (以下简称 Kapacity ) ,希望和业界分享并共同演进云原生容量相关技术。
重点技术特性
云最大的优势在于给用户提供弹性的资源供给,在目前主流的云原生应用场景下,最常见可行的弹性手段就是对应用容器的副本数做动态扩缩容,其在社区上的代表性技术就是 Kubernetes 原生的 Pod 水平自动扩缩 (HPA) 能力,但该能力在实际大规模生产使用上的效果和实用度上却并不理想,主要由以下几个原因导致:
HPA 的自动扩缩容通过响应式的方式驱动,仅当应用负载已经超出设定水位时才会触发扩容,此时容量风险已经出现,只能起到应急的作用而非提前规避风险,尤其对于自身启动时间较长的应用,几乎起不到快速应对流量洪峰的作用。 HPA 通过简单的指标折比来计算扩缩容目标副本数,只适用于应用副本数和相关指标呈严格线性相关的理想场景,但实际生产当中应用的各类指标和副本数之间存在错综复杂的关系,该算法很难得到符合容量水位要求的副本数。 容量弹性作为变更故障率较高的一类场景,HPA 除了支持限制扩缩容速率外没有提供任何其他的风险防控手段,在稳定性要求较高的生产环境中大规模落地是很难令人放心的。 HPA 作为 Kubernetes 内置能力,一方面自然有其开箱即用的好处,但另一方面也使其绑定在了具体的 K8s 版本上,自身的行为难以被用户扩展或调整,难以满足各类用户在不同应用场景下的定制化需求。Kapacity 的第一个开源核心能力—— IHPA (全称 Intelligent Horizontal Pod Autoscaler) 就是为了解决上述所有问题应运而生的。它具有下面的几个重要技术特性:
容量弹性本质上是一个数据驱动决策的过程,而非简单的扩缩容。IHPA 支持在不同场景因地制宜地使用不同的算法,除了简单的定时与响应式算法,其还支持多种智能算法如预测式、突增式等,同时支持按自定义配置策略对算法进行组合生效,从而能够适配更多业务场景、扩缩容的决策也更为精准。
以预测式算法为例,在生产上,应用的容量水位通常会受到多条外部流量,甚至是自身定时任务、机器性能等的影响,且副本数与容量水位之间的关系也未必是线性,这为基于应用容量的副本数预测带来了很大的挑战。
为此,IHPA 引入了蚂蚁在内部大规模弹性生产实践中打磨出的一套基于机器学习的预测式算法,该算法首先通过 Swish Net for Time Series Forecasting (SNTSF) 对潜在影响应用容量水位的多条流量进行时序预测,随后通过 Linear-Residual Model 将这些组分流量和应用容量及其对应副本数进行综合建模,最终推理得出应用未来的推荐副本数。
通过这种流量驱动容量的思想,该算法能够很好地应对生产上多周期流量、趋势变化流量、多条流量共同影响容量、容量与副本数呈非线性关系等复杂场景,通用性和准确性兼具。
不同于原生 HPA 只支持工作负载扩缩容,IHPA 支持在整个弹性过程中精细化地控制工作负载下每一个 Pod 的状态,通过灵活的 Pod 状态转换提升弹性效率并降低弹性风险。
目前,Kapacity 中定义了下面几种 Pod 状态:
Online:Pod 正常对外提供服务的状态 (Running and Ready) ,也是新扩容 Pod 的默认状态。 Cutoff:Pod 流量完全摘除的状态 (Running but Not Ready) 。在实践上,支持优先缩容到此状态,并辅以一段稳定性观察期,一旦发现问题能够秒级回滚到 Online 状态。 Standby:Pod 资源被换出,保持在低水位的状态。相比于 Cutoff 状态,该状态能够实际释放 Pod 所占用资源供其他应用使用,也支持分钟级回滚到 Online 状态。 Deleted:Pod 被真正删除的状态。实际到了该状态 Pod 本身就不存在了。另外,通过上述不同状态的组合和转换可以实现更多玩法,比如蚂蚁内部的大规模分时调度技术、热池技术等就是基于多级弹性的实践。
IHPA 吸收了蚂蚁多年大规模弹性生产实践的经验教训,沉淀出了独有的弹性变更稳定性保障能力。
IHPA 在执行扩缩容时支持采用自定义灰度分批的变更策略,最大程度地减小了弹性变更的爆炸半径;同时还支持加入上文提到的 Cutoff/Standby 中间态实现多阶段灰度,提升应急回滚速度,进一步降低弹性变更风险。
下面以使用 Cutoff 作为中间态的一次灰度缩容为例:某应用的工作负载原来有 6 个 Pod,期望缩容到 2 个,此时会按照用户的灰度配置自动分批变更 Pod 为 Cutoff 状态,每次变更都会间隔一定时间进行稳定性观察。当待缩容 Pod 都切换为 Cutoff 状态后会进入最终的额外稳定性观察期,如果最后没有发现风险则再执行真正的缩容,如果期间发现风险,则能够快速回滚到 Online 状态。
在弹性变更的过程中,有时候仅仅通过观察弹性指标是否异常无法及时暴露出风险,因此,IHPA 支持用户自定义的变更期稳定性检查,包括自定义指标异常判断等,多维度地分析变更状况,一旦发现异常支持自动采取应急熔断措施,如变更暂停或变更回滚,真正做到弹性变更常态化无人值守。
Kapacity 在项目设计之初就极度关注模块化与扩展性,比如整个 IHPA 能力就拆分为了管控、决策、执行三大模块,任一模块都可以做替换或扩展,其中可扩展的部分包括但不限于:
可自定义生成应用水平画像 (目标副本数) 的具体算法以及算法所依赖的指标、参数等 可扩展多级弹性支持的工作负载、自定义 Pod 状态切换的逻辑等 可自定义变更期稳定性检查逻辑 可自定义 Pod 缩容的优先级 (对于支持的工作负载) ……借助其高度可扩展定制的特性,用户可以很轻松地将 Kapacity 和其他开源上下游方案或者内部自建系统结合使用,各取所需、各取所长,极大提升了项目的适用广度。
现状和未来
Kapacity 项目开源伊始,当前还处于早期的快速功能迭代阶段,目前发布的 版本主要包含多级弹性、灰度变更等部分精细化弹性能力,以及基本的定时与响应式扩缩容算法。
在预计 6 月份发布的 版本中,我们会将上文提到的预测式智能弹性算法开放出来。
后续我们会继续优先补齐 IHPA 弹性的各项基础能力,包括:
流量突增识别算法 稳定性检查和变更熔断能力 更完善的自定义指标支持未来,我们也会陆续开源蚂蚁在云原生容量领域沉淀的其他技术,以及更多高阶能力,比如:
保活切换 (Standby 状态) 和分时调度能力 基于智能算法的 Pod 资源规格 (CPU、内存等) 推荐与 VPA 能力 支持多维度成本与碳排放计算的可视化控制台 ......欢迎大家关注我们持续更新的 RoadMap 了解更多详细规划。
/zh-cn/docs/roadmap
加入我们
我们致力于将 Kapacity 项目打造为一个开放包容、有创造力的社区,后续的研发与讨论等工作都会以开源的形式在社区透明进行。欢迎任何形式的参与,包括但不限于提问、代码贡献、技术讨论等。非常期待收到大家的想法和反馈,一起参与到项目的建设中来,推动项目健康向前发展,打造最先进的云原生容量技术。
欢迎各种 issue、PR、Discussion,项目主仓库的 GitHub 地址为:
/traas-stack/kapacity
关键词: