kubernetes-master NotReady master 9h v1.14.1 kubernetes-slave1 NotReady <none> 22s v1.14.1 1. 2. 3. 4. 5. 6. 如果node 节点加入 master 时配置有问题可以在 slave 节点上使用 kubeadm reset 重置配置再使用 kubeadm join 命令重新加入即可。希望在 master 节点删除 node ,可以使用 kubeadm delete nod...
原因:kubeadm集群时,出于安全考虑Pod不会被调度到Master Node上,默认情况下,master打了污点,不参与工作负载;解决方案:手动删除master的污点; 查看污点信息 命令:kubectl get no -o yaml | grep taint -A 5 三、解决方案 删除master节点污点 命令kubectl taint nodes --all node-role.kubernetes.io/master-结果如...
[root@master ~]# mkdir ~/TLS/k8s && cd ~/TLS/k8s [root@master k8s]# cat > ca-config.json << EOF { "signing": { "default": { "expiry": "87600h" }, "profiles": { "kubernetes": { "expiry": "87600h", "usages": [ "signing", "key encipherment", "server auth", "client...
1、需要在各节点上准备kubernetes的yum源,这里推荐使用阿里云的yum源先来master节点上操作 cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernete...
出现这个问题的原因是kubectl命令需要使用kubernetes-admin来运行,解决方法如下,将主节点中的【/etc/kubernetes/admin.conf】文件拷贝到从节点相同目录下,然后配置环境变量: echo"export KUBECONFIG=/etc/kubernetes/admin.conf">> ~/.bash_profile source~/.bash_profile ...
在使用Kubernetes(K8s)进行容器编排时,有时会遇到在Master节点上部署Pod一直处于Pending状态的问题。这可能是由于多种原因导致的,下面我们将探讨可能的原因以及相应的解决方案。一、原因分析 默认设置限制:Kubernetes默认不允许在Master节点上部署Pod。这是为了保护控制平面的稳定性。在测试环境中,如果只有一个节点,并且这...
一.问题现象 我们使用二进制部署k8s的高可用集群时,在部署多master时,kube controller manager服务提示Unhealthy 这里我们查看得知kube controller manager的服务运行时提示有一些日志报错问题: 二.问题解决 这里我们推测是kube contr
#Node节点执行: echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile source ~/.bash_profile # 最后运行测试, 发现不报错了 [root@k8s-master01-15 ~]# kubectl get node NAME STATUS ROLES AGE VERSION k8s-master01-15 NotReady master 20m v1.18.6 ...
报错原因方法:因为原来的ssl证书在重启后失效了,不删除的话,即重启kubelet也无法与master通讯 解决方法: node节点:删除所有证书 cd /opt/kubernetes/ssl ls kubelet-client-2023-05-11-08-41-36.pem kubelet-client-current.pem kubelet.crt kubelet.key # 删除所有的证书 rm -rf * # 关闭开启的kubelet system...