在k8s中安装EFK组件
安装elasticsearch
查看k8s版本
kubectl get node -owide
上传压缩包
把elasticsearch-7-12-1.tar.gz、fluentd-containerd.tar.gz、 kibana-7-12-1.tar.gz上传到k8snode1机器上,手动解压
ctr -n=k8s.io images import elasticsearch-7-12-1.tar.gz ctr -n=k8s.io images import kibana-7-12-1.tar.gz ctr -n=k8s.io images import fluentd-containerd.tar.gz
把nfs-subdir-external-provisioner.tar.gz上传到k8snode1上,手动解压。
ctr -n=k8s.io images import nfs-subdir-external-provisioner.tar.gz
把fluentd-containerd.tar.gz上传到k8smaster1机器上,手动解压
ctr -n=k8s.io images import fluentd-containerd.tar.gz
安装elasticsearch组件
创建kube-logging名称空间
cat kube-logging.yaml
kind: Namespace apiVersion: v1 metadata: name: kube-logging
kubectl apply -f kube-logging.yaml
查看kube-logging名称空间是否创建成功
kubectl get namespaces | grep kube-logging
安装elasticsearch组件
创建headless service服务
cat elasticsearch_svc.yaml
kind: Service apiVersion: v1 metadata: name: elasticsearch namespace: kube-logging labels: app: elasticsearch spec: selector: app: elasticsearch clusterIP: None ports: - port: 9200 name: rest - port: 9300 name: inter-node
kubectl apply -f elasticsearch_svc.yaml
查看elasticsearch的service是否创建成功
kubectl get services --namespace=kube-logging
现在已经为 Pod 设置了无头服务和一个稳定的域名.elasticsearch.kube-logging.svc.cluster.local,接下来我们通过 StatefulSet来创建具体的 Elasticsearch的Pod 应用。
创建Storageclass,实现存储类动态供给
安装nfs服务,选择k8s集群的k8smaster1节点,k8s集群的k8smaster1节点的ip是192.168.40.110
master和node都安装nfs
yum install nfs-utils -y systemctl start nfs systemctl enable nfs.service
在k8smaster1上创建一个nfs共享目录
mkdir /data/v1 -p
编辑/etc/exports文件
vim /etc/exports /data/v1 192.168.40.0/24(rw,no_root_squash)
加载配置,使配置生效
exportfs -arv systemctl restart nfs
创建stoorageclass
cat class.yaml
apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: do-block-storage provisioner: example.com/nfs
kubectl apply -f class.yaml
注:provisioner: example.com/nfs
该值需要和nfs provisioner配置的PROVISIONER_NAME处的value值保持一致
创建nfs作为存储的供应商
创建运行nfs-provisioner需要的sa账号
cat serviceaccount.yaml
apiVersion: v1 kind: ServiceAccount metadata: name: nfs-provisioner
kubectl apply -f serviceaccount.yaml
对sa授权 :
kubectl create clusterrolebinding nfs-provisioner-clusterrolebinding --clusterrole=cluster-admin --serviceaccount=default:nfs-provisioner
通过deployment创建pod用来运行nfs-provisioner
通过百度网盘分享的文件:deployment.yaml
链接:https://pan.baidu.com/s/1ZstWt4fBVRLIAi3abIDSJw?pwd=dn6y
提取码:dn6y
vim deployment.yaml
image: registry.cn-beijing.aliyuncs.com/mydlq/nfs-subdir-external-provisioner:v4.0.0
需要修改nfs服务端所在的ip地址,nfs服务端共享的目录
env: - name: PROVISIONER_NAME value: example.com/nfs - name: NFS_SERVER value: 192.168.40.110 #这个需要写nfs服务端所在的ip地址,大家需要写自己安装了nfs服务的机器ip - name: NFS_PATH value: /data/v1 #这个是nfs服务端共享的目录 volumes: - name: nfs-client-root nfs: server: 192.168.40.110 path: /data/v1
kubectl apply -f deployment.yaml
验证nfs是否创建成功
kubectl get pods | grep nfs #如异常可查看pod细节 #kubectl get pods -A #kubectl describe pod nfs-provisioner
显示如下说明创建成功:
更新资源清单文件
通过百度网盘分享的文件:elasticsearch-statefulset.yaml
链接:https://pan.baidu.com/s/1sSTBqML5ttK-3lOefu-rig?pwd=fxpj
提取码:fxpj
kubectl apply -f elasticsearch-statefulset.yaml
查看是否有3个es-cluster
在kube-logging的名称空间中定义了一个es-cluster的StatefulSet。
然后,我们使用serviceName 字段与我们之前创建的headless ElasticSearch服务相关联。
这样可以确保可以使用以下DNS地址访问StatefulSet中的每个Pod:
es-cluster-[0,1,2].elasticsearch.kube-logging.svc.cluster.local,其中[0,1,2]与Pod分配的序号数相对应。
我们指定3个replicas(3个Pod副本),将selector matchLabels 设置为app: elasticseach。
该.spec.selector.matchLabels和.spec.template.metadata.labels字段必须匹配。
查看es的pod是否创建成功
kubectl get pods -n kube-logging
pod部署完成之后,可以通过REST API检查elasticsearch集群是否部署成功,使用下面的命令将本地端口9200转发到 Elasticsearch 节点(如es-cluster-0)对应的端口:
kubectl get svc -n kube-logging
安装kibana组件
通过百度网盘分享的文件:kibana.yaml
链接:https://pan.baidu.com/s/1VmsJ8-NQKozZqteNQRfSOA?pwd=j9lq
提取码:j9lq
cat kibana.yaml
kubectl apply -f kibana.yaml
检查kibana
kubectl get pods -n kube-logging kubectl get svc -n kube-logging
修改service的type类型为NodePort:
kubectl edit svc kibana -n kube-logging
把type: ClusterIP变成type: NodePort 保存退出
kubectl get svc -n kube-logging
在浏览器中打开http://<k8s集群任意节点IP>:32462即可,如果看到如下欢迎界面证明 Kibana 已经成功部署到了Kubernetes集群之中。
安装fluentd组件
我们使用daemonset控制器部署fluentd组件,这样可以保证集群中的每个节点都可以运行同样fluentd的pod副本,这样就可以收集k8s集群中每个节点的日志,在k8s集群中,容器应用程序的输入输出日志会重定向到node节点里的json文件中
fluentd可以tail和过滤以及把日志转换成指定的格式发送到elasticsearch集群中。除了容器日志,fluentd也可以采集kubelet、kube-proxy、docker的日志
cat fluentd.yaml
通过百度网盘分享的文件:fluentd.yaml
链接:https://pan.baidu.com/s/1PHNeM3mSxb9BjplsBZecSw?pwd=9ih7
提取码:9ih7
kubectl apply -f fluentd.yaml kubectl get pods -n kube-logging
Fluentd 启动成功后,我们可以前往 Kibana 的 Dashboard 页面中,点击左侧的Discover,可以看到如下配置页面:
在这里可以配置我们需要的 Elasticsearch 索引,前面 Fluentd 配置文件中我们采集的日志使用的是 logstash 格式,这里只需要在文本框中输入logstash-*即可匹配到 Elasticsearch 集群中的所有日志数据,然后点击下一步,进入以下页面:
点击next step,出现如下
选择@timestamp,创建索引
点击左侧的discover,可看到如下