Kubernetes 1.2 新功能介绍:DaemonSet

如果您正在使用kubernetes构建你的生产环境,如果您正在寻找如何在每台计算节点上运行一个守护进程(Pod),恭喜您,

DaemonSet为您提供了答案!

什么是DaemonSet


DaemonSet能够让所有(或者一些特定)的Node节点运行同一个pod。当节点加入到kubernetes集群中,pod会被(DaemonSet)调度到该节点上运行,当节点从kubernetes集群中被移除,被(DaemonSet)调度的pod会被移除,如果删除DaemonSet,所有跟这个DaemonSet相关的pods都会被删除。

在使用kubernetes来运行应用时,很多时候我们需要在一个区域(zone)或者所有Node上运行同一个守护进程(pod),例如如下场景:

  • 每个Node上运行一个分布式存储的守护进程,例如glusterd,ceph
  • 运行日志采集器在每个Node上,例如fluentd,logstash
  • 运行监控的采集端在每个Node,例如prometheus node exporter,collectd等

在简单的情况下,一个DaemonSet可以覆盖所有的Node,来实现Only-One-Pod-Per-Node这种情形;在有的情况下,我们对不同的计算几点进行着色,或者把kubernetes的集群节点分为多个zone,DaemonSet也可以在每个zone上实现Only-One-Pod-Per-Node。

如何使用DaemonSet


在具体介绍如何使用DaemonSet之前,我们先来这样的一个场景:

  • java应用已经容器化并运行在kubernetes集群中
  • 需要实时采集java应用的日志并做相关分析,对业务监控和预警
  • 日志采集使用fluentd + kafka + elastic search + kibana实现
  • EFK技术栈都已容器化并运行在kubernetes中

在这样一个具体场景下我们如何对java日志采集?假设现在没有DaemonSet,看我们至少有以下几种方法:

  1. 将fluentd采集端集成到每个java应用的docker镜像中,随着应用启动而启动
  2. 将fluentd采集端和java应用运行在一个pod内,随着pod的创建而启动
  3. 将fluentd运行在每个计算节点(Node)上,把java应用的输出直接输出到控制台,fluentd根据规则采集所有应用的日志

比较上述三种方法,第一种很笨重,应用和fluentd耦合太紧,修改fluentd的配置,就要重新构建镜像;第二种很复杂,不同的应用日志对应不同的fluentd采集规则,耦合的因素仍在;第三种方式最为简单和优雅,但是如何才能将fluentd调度到每台计算节点上?对,就是DaemonSet。

apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
name: fluentd
namespace: default
spec:
template:
metadata:
labels:
app: fluentd
spec:
dnsPolicy: "ClusterFirst"
restartPolicy: "Always"
containers:
- name: fluentd
image: fluentd:v0.1.0
imagePullPolicy: "Always"
env:
- name: ES_HOST
value: http://elasticsearch
- name: ES_PORT
value: "9200"
volumeMounts:
- mountPath: /var/lib/docker/containers
name: docker-container
volumes:
- hostPath:
path: /var/lib/docker/containers

name: docker-container

创建DaemonSet:

kubectl create -f fluentd.yaml

kubectl get ds
NAME           DESIRED   CURRENT   NODE-SELECTOR   AGE
fluentd        4         4         <none>          2h

kubectl get nodes
NAME           STATUS    AGE
10.254.4.144   Ready     3d
10.254.5.143   Ready     3d
10.254.6.106   Ready     3d
10.254.7.106   Ready     3d

kubectl get pods

NAME                           READY     STATUS    RESTARTS   AGE

fluentd-29xri                  1/1       Running   0          2h
fluentd-j5z1k                  1/1       Running   0          2h
fluentd-oxzki                  1/1       Running   0          2h

fluentd-rsw8f                  1/1       Running   0          2h

如何维护DaemonSet的生命周期?


使用命令行工具kubectl来创建、删除、查询、修改DaemonSet:

  • 使用kubectl create -f [daemonset file]来创建DaemonSet
  • 使用kubectl get/describe [daemonsets name]来查看Daemon
  • 在删除DaemonSet时,如果设置级联删除(—casecade=true)时,要先停掉所有被DaemonSet控制的pods;如果按照默认删除方式,先删除DaemonSet,然后再删除所有的pods

在某种程度上,DaemonSet承担了Repliaction Controller的功能,它也能保证相关pods持续运行,如果一个DaemonSet的Pod被杀死、停止、或者崩溃,那么DaemonSet将会重新创建一个新的副本在这台计算节点上

几个简单的DaemonSet例子:


Google serve_hostname 事例:返回每个几点的hostname:

apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
namespace: default
name: daemons-demo
spec:
template:
metadata:
labels:
demo: daemons
spec:
containers:
- name: hostname
image: gcr.io/google_containers/serve_hostname:1.1

Nginx-Ingress-Controller的例子:

apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
name: nginx-ingress-lb
spec:
template:
metadata:
labels:
name: nginx-ingress-lb
spec:
containers:
- image: gcr.io/google_containers/nginx-ingress-controller:0.4
name: nginx-ingress-lb
imagePullPolicy: Always
livenessProbe:
httpGet:
path: /healthz
port: 10249
scheme: HTTP
initialDelaySeconds: 30
timeoutSeconds: 5
# use downward API
env:
- name: POD_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
ports:
- containerPort: 80
hostPort: 80
- containerPort: 443
hostPort: 4444
args:
- /nginx-ingress-controller
- --default-backend-service=default/default-http-backend

推荐阅读:

Kubernetes 1.2 新功能介绍:Ingress 原理及实例

Kubernetes 1.2 新功能介绍:Deployment

Kubernetes 1.2 新功能介绍:Limit Range和Resource Quota

Kubernetes 1.2 新功能介绍:ConfigMap

Kubernetes 1.2 新功能介绍:自动扩容算法

K8S中文社区微信公众号
分享到:更多 ()

评论 抢沙发

评论前必须登录!