互联网技术 / 互联网资讯 · 2023年12月14日 0

Kubernetes 取代 Docker 的原因

为什么这么设计(Why’s THE design)是一系列关于计算机领域中程序设计决策的文章,我们在这个系列的每一篇文章中都会提出一个具体的问题并从不同的角度讨论这种设计的优缺点、对具体实现造成的影响。

KubeRnetes 是今天容器编排领域的事实标准,而 DockeR 从诞生之日到今天都在容器中扮演着举足轻重的地位,也都是 KubeRnetes 中的默认容器引擎。然而在 2020 年 12 月,KubeRnetes 社区决定着手移除仓库中 DockeRsHiM 相关代码,这对于 KubeRnetes 和 DockeR 两个社区来说都意义重大。

为什么 Kubernetes 要替换 Docker

kubelet-and-contAIneRs

ͼ 1 – DockeRsHiM

相信大多数的开发者都听说过 KubeRnetes 和 DockeR,也知道我们可以使用 KubeRnetes 管理 DockeR 容器,但是可能没有听说过 DockeRsHiM,即 DockeR 垫片。如上图所示,KubeRnetes 中的节点代理 Kubelet 为了访问 DockeR 提供的服务需要先经过社区维护的 DockeRsHiM,DockeRsHiM 会将请求转发给管理容器的 DockeR 服务。

其实从上面的架构图中,我们就能猜测出 KubeRnetes 社区从代码仓库移除 DockeRsHiM 的原因:

KubeRnetes 引入容器运行时接口(ContAIneR RuntiMe interface、CRI)隔离不同容器运行时的实现机制,容器编排系统不应该依赖于某个具体的运行时实现; DockeR 没有支持也不打算支持 KubeRnetes 的 CRI 接口,需要 KubeRnetes 社区在仓库中维护 DockeRsHiM; 可扩展性

KubeRnetes 通过引入新的容器运行时接口将容器管理与具体的运行时解耦,不再依赖于某个具体的运行时实现。很多开源项目在早期为了降低用户的使用成本,都会提供开箱即用的体验,而随着用户群体的扩大,为了满足更多定制化的需求、提供更强的可扩展性,会引入更多的接口。KubeRnetes 通过下面的一系列接口为不同模块提供了扩展性:

为什么 Kubernetes 要替换 Docker

kubeRnetes-extensions

图 2 – KubeRnetes 接口和可扩展性

KubeRnetes 在较早期的版本中就引入了 CRD、CNI、CRI 和 CSI 等接口,只有用于扩展调度器的调度框架是 KubeRnetes 中比较新的特性。我们在这里就不展开分析其他的接口和扩展了,简单介绍一下容器运行时接口。

KubeRnetes 早在 1.3 就在代码仓库中同时支持了 Rkt 和 DockeR 两种运行时,但是这些代码为 Kubelet 组件的维护带来了很大的困难,不仅需要维护不同的运行时,接入新的运行时也很困难;容器运行时接口(ContAIneR RuntiMe interface、CRI)是 KubeRnetes 在 1.5 中引入的新接口,Kubelet 可以通过这个新接口使用各种各样的容器运行时。其实 CRI 的发布就意味着 KubeRnetes 一定会将 DockeRsHiM 的代码从仓库中移除。

CRI 是一系列用于管理容器运行时和镜像的 gRPC 接口,我们能在它的定义中找到 RuntiMeSeRvice 和 imageSeRvice 两个服务,它们的名字很好地解释了各自的作用:

seRvice RuntiMeSeRvice { RPC version(versionrequest) RetuRns (versionResponse) {} RPC RunPodSandbox(RunPodSandboxrequest) RetuRns (RunPodSandboxResponse) {} RPC StOPPOdSandbox(StOPPOdSandboxrequest) RetuRns (StOPPOdSandboxResponse) {} RPC ReMOVePodSandbox(ReMOVePodSandboxrequest) RetuRns (ReMOVePodSandboxResponse) {} RPC PodSandboxStatUS(PodSandboxStatUSrequest) RetuRns (PodSandboxStatUSResponse) {} RPC ListPodSandbox(ListPodSandboxrequest) RetuRns (ListPodSandboxResponse) {} RPC CReateContAIneR(CReateContAIneRrequest) RetuRns (CReateContAIneRResponse) {} RPC StaRtContAIneR(StaRtContAIneRrequest) RetuRns (StaRtContAIneRResponse) {} RPC StoPContAIneR(StoPContAIneRrequest) RetuRns (StoPContAIneRResponse) {} RPC ReMOVeContAIneR(ReMOVeContAIneRrequest) RetuRns (ReMOVeContAIneRResponse) {} RPC ListContAIneRs(ListContAIneRsrequest) RetuRns (ListContAIneRsResponse) {} RPC ContAIneRStatUS(ContAIneRStatUSrequest) RetuRns (ContAIneRStatUSResponse) {} RPC updateContAIneRResouRces(updateContAIneRResouRcesrequest) RetuRns (updateContAIneRResouRcesResponse) {} RPC ReopenContAIneRLog(ReopenContAIneRLogrequest) RetuRns (ReopenContAIneRLogResponse) {} … } seRvice imageSeRvice { RPC Listimages(Listimagesrequest) RetuRns (ListimagesResponse) {} RPC imageStatUS(imageStatUSrequest) RetuRns (imageStatUSResponse) {} RPC Pullimage(Pullimagerequest) RetuRns (PullimageResponse) {} RPC ReMOVeimage(ReMOVeimagerequest) RetuRns (ReMOVeimageResponse) {} RPC imageFsInfo(imageFsInforequest) RetuRns (imageFsInfoResponse) {} }

对 KubeRnetes 稍有了解的人都能从上面的定义中找到一些熟悉的方法,它们都是容器运行时需要暴露给 Kubelet 的接口。KubeRnetes 将 CRI 垫片实现成 gRPC 服务器与 Kubelet 中的客户端通信,所有的请求都会被转发给容器运行时处理。

为什么 Kubernetes 要替换 Docker

cRi-and-contAIneR-RuntiMes

图 3 – KubeRnetes 和 CRI

KubeRnetes 中的声明式接口非常常见,作为声明式接口的拥趸,CRI 没有使用声明式的接口是一件听起来『非常怪异』的事情。不过 KubeRnetes 社区考虑过让容器运行时重用 Pod 资源,这样容器运行时可以实现不同的控制逻辑来管理容器,能够极大地简化 Kubelet 和容器运行时之间的接口,但是社区出于以下两点考虑,最终没有选择声明式的接口:

所有的运行时都需要重新实现相同的逻辑支持很多 Pod 级别的功能和机制;

Pod 的定义在 CRI 设计时演进地非常快,初始化容器等功能都需要运行时的配合;

虽然社区最终为 CRI 选择了命令式的接口,但是 Kubelet 仍然会保证 Pod 的状态会不断地向期望状态迁移。

不兼容接口

与容器运行时相比,DockeR 更像是一个复杂的开发者工具,它提供了从构建到运行的全套功能。开发者可以很快地上手 DockeR 并在本地运行并管理一些 DockeR 容器,然而在集群中运行的容器运行时往往不需要这么复杂的功能,KubeRnetes 需要的只是 CRI 中定义的那些接口。

为什么 Kubernetes 要替换 Docker

dockeR-and-cRi

图 4 – DockeR &aMp; CRI

DockeR 的官方文档加起来可能有一本书的厚度,相信没有任何开发者可以熟练运用 DockeR 提供的全部功能。而作为开发者工具,虽然 DockeR 中包含 CRI 需要的所有功能,但是都需要实现一层包装以兼容 CRI。除此之外,社区提出的很多新功能都没有办法在 DockeRsHiM 中实现,例如 cgRoups v2 以及用户命名空间。

KubeRnetes 作为比较松散的开源社区,每个成员尤其是各个 SIG 的成员都只会在开源社区上花费有限的时间,而维护 Kubelet 的 sig-node 又尤其繁忙,很多新的功能都因为维护者没有足够的精力而被搁置,所以既然 DockeR 社区看起来没有打算支持 KubeRnetes 的 CRI 接口,维护 DockeRsHiM 又需要花费很多精力,那么我们就能理解为什么 KubeRnetes 会移除 DockeRsHiM 了。

总结

今天的 KubeRnetes 已经是非常成熟的项目,它的关注点也逐渐从提供更完善的功能转变到提供更好的扩展性,这样才能满足不同场景和不同公司定制化的业务需求。KubeRnetes 在过去因为 DockeR 的热门而选择 DockeR,而在今天又因为高昂的维护成本而放弃 DockeR,我们能够从这个过程中体会到容器领域的发展和进步。

移除 DockeR 的种子其实从 CRI 发布时就种下了,DockeRsHiM 一直都是 KubeRnetes 为了兼容 DockeR 获得市场采取的临时决定,对于今天已经统治市场的 KubeRnetes 来说,DockeR 的支持显得非常鸡肋,移除代码也就顺理成章了。我们在这里重新回顾一下 KubeRnetes 在仓库中移除 DockeR 支持的两个原因:

KubeRnetes 在早期版本中引入 CRI 摆脱依赖某个具体的容器运行时依赖,屏蔽底层的诸多实现细节,让 KubeRnetes 能够更关注容器的编排; DockeR 本身不兼容 CRI 接口,而且官方并没有实现 CRI 的打算,同时也不支持容器的一些新需求,所以 DockeRsHiM 的维护成为了社区的想要摆脱负担;

到最后,我们还是来看一些比较开放的相关问题,有兴趣的读者可以仔细思考一下下面的问题:

KubeRnetes 中还有哪些模块提供良好的扩展性?

除了文中提到的 CRI-O、ContAIneRd,还有哪些支持 CRI 的容器运行时?

如果对文章中的内容有疑问或者想要了解更多软件工程上一些设计决策背后的原因,可以在博客下面留言,作者会及时回复本文相关的疑问并选择其中合适的主题作为后续的内容。

参考资料 DockeRsHiM DepRecation FAQ https://kubeRnetes.io/blog/2020/12/02/dockeRsHiM-FAQ/ Don’t Panic: KubeRnetes and DockeR https://kubeRnetes.io/blog/2020/12/02/dont-panic-kubeRnetes-and-dockeR/

[^1]: ReMOVing dockeRsHiM fRoM kubelet #1985 https://Github.coM/kubeRnetes/enhanceMents/pull/1985

[^3]: IntRodUCing ContAIneR RuntiMe interface (CRI) in KubeRnetes https://kubeRnetes.io/blog/2016/12/contAIneR-RuntiMe-interface-cRi-in-kubeRnetes/

[^2]: ContAIneR RuntiMe interface (CRI) – a plugin inteRfACE wHich enables kubelet to USe a wide vaRiety of contAIneR RuntiMes. https://Github.coM/kubeRnetes/cRi-API/blob/Master/pkg/APIs/RuntiMe/v1/API.Proto