<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>系统运维 &#187; Kubernetes</title>
	<atom:link href="http://www.osyunwei.com/archives/category/framework/cloud/k8s/feed" rel="self" type="application/rss+xml" />
	<link>https://www.osyunwei.com</link>
	<description>国产化OS/AnolisOS/openEuler/RHEL/CentOS/Rocky Linux/Debian/Ubuntu Linux FreeBSD 服务器教程 &#124; Windows Server 2003/2008/2012/2016/2019/2022/2025服务器教程</description>
	<lastBuildDate>Tue, 14 Apr 2026 10:59:22 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Kylin-Server-V10-SP3-2403-k8s单master多node在线安装部署</title>
		<link>https://www.osyunwei.com/archives/15610.html</link>
		<comments>https://www.osyunwei.com/archives/15610.html#comments</comments>
		<pubDate>Wed, 26 Mar 2025 14:29:58 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15610</guid>
		<description><![CDATA[操作系统：Kylin-Server-V10-SP3-2403 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 一、主机环境配置（三台都需要操作） 1、修改主机名和字符集 192.168.21.10 k8s-master 192.168.21.11 k8s-node1 192.168.21.12 k8s-node2 hostnamectl set-hostname k8s-master #设置主机名为k8s-master hostnamectl set-hostname k8s-node1 #设置主机名为k8s-node1 hostnamectl set-hostname k8s-node2 #设置主机名为k8s-node2 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat /etc/profile &#124; grep -i lang #查看字符集 export LANG=en_US.UTF-8 2、添加hosts解析 vi /etc/hosts 192.168.21.10 k8s-master 192.168.21.11 k8s-node1 192.168.21.12 k8s-node2 :wq! #保存退出 3、保存yum下载的安装包 vi [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15610.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15610.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>使用二进制方式部署k8s高可用集群（V1.31版本）</title>
		<link>https://www.osyunwei.com/archives/14800.html</link>
		<comments>https://www.osyunwei.com/archives/14800.html#comments</comments>
		<pubDate>Sat, 30 Nov 2024 09:13:33 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14800</guid>
		<description><![CDATA[一、服务器集群架构规划 1.1 网络规划 网段 192.168.21.0/24 网关 192.168.21.2 可用IP地址 192.168.21.3-192.168.21.254 1.2 服务器规划 角色 IP 安装组件 VIP 192.168.21.200 HAProxyKeepalived k8s-master01 k8s-master02 k8s-master03 192.168.21.201 192.168.21.202 192.168.21.203 etcd、docker、kube-apiserver、kube-controller-manager、kube-scheduler、kubectl、calico、coredns、dashboard k8s-node01 k8s-node02 192.168.21.204 192.168.21.205 docker、kubelet、kube-proxy、calico、coredns 二、主机环境配置（5台都需要操作） 服务器操作系统： AnolisOS-8.8-x86_64 2.1 修改主机名和字符集 hostnamectl set-hostname k8s-master01 #设置192.168.21.201主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置192.168.21.202主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置192.168.21.203主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置192.168.21.204主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置192.168.21.205主机名为k8s-node02 locale [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14800.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14800.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.31.1版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14774.html</link>
		<comments>https://www.osyunwei.com/archives/14774.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 09:14:14 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14774</guid>
		<description><![CDATA[离线安装包下载： 链接：https://pan.baidu.com/s/16y-U-wE6XbMCTBElSv-ZGg?pwd=dlh5 提取码：dlh5 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 containerd：1.7.23 kubernetes：v1.31.1 calico：v3.28.2 Dashboard：v-7.8.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.31.1.tar.gz部署包到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.31.1.tar.gz #解压部署包 cd /opt/k8s/packages rpm -Uvh --force --nodeps *rpm #离线安装系统依赖包 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14774.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14774.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.25.16版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14769.html</link>
		<comments>https://www.osyunwei.com/archives/14769.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 09:06:42 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14769</guid>
		<description><![CDATA[离线安装包下载： 链接：https://pan.baidu.com/s/12vGVpfSWFUNQx3ixfZ37fA?pwd=w5ej 提取码：w5ej 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 cri-dockerd：v0.3.15 kubernetes：v1.25.16 calico：v3.25.0 Dashboard：v2.7.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.25.16.tar.gz部署包到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.25.16.tar.gz #解压部署包 #离线安装系统依赖包 cd /opt/k8s/packages rpm -Uvh --force --nodeps *rpm 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14769.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14769.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14763.html</link>
		<comments>https://www.osyunwei.com/archives/14763.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 08:43:43 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14763</guid>
		<description><![CDATA[离线安装包下载地址： 链接：https://pan.baidu.com/s/1sGXw5HC9oNiqYl9rmaVtaQ?pwd=kdib 提取码：kdib 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 5、在k8s集群的3个master节点部署Keepalived+HAProxy实现API Server（kube-apiServer）的高可用和负载均衡。 6、Keepalived：绑定一个vip地址实现高可用 7、HAProxy：通过TCP端口代理实现负载均衡 8、3个master节点之间组成的集群需要的是高可用服务，用Keepalived绑定vip来实现 9、2个node节点访问master集群需要的是负载均衡，用HAProxy实现 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.23.17.tar.gz部署包到/opt/k8s 上传负载均衡软件包haproxy-3.0.5.tar.gz到/opt/k8s 上传高可用软件keepalived-2.3.1.tar.gz到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.23.17.tar.gz #解压部署包 cd /opt/k8s/rpm/packages rpm -Uvh --force --nodeps *rpm #离线安装系统依赖包 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 #ip地址和主机名对应关系 192.168.21.201 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14763.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14763.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.25.16版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14759.html</link>
		<comments>https://www.osyunwei.com/archives/14759.html#comments</comments>
		<pubDate>Wed, 23 Oct 2024 09:08:54 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14759</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 cri-dockerd：v0.3.15 kubernetes：v1.25.16 calico：v3.25.0 Dashboard：v2.7.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14759.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14759.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.31.1版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14752.html</link>
		<comments>https://www.osyunwei.com/archives/14752.html#comments</comments>
		<pubDate>Mon, 21 Oct 2024 10:06:15 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14752</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 containerd：1.7.23 kubernetes：v1.31.1 calico：v3.28.2 Dashboard：v-7.8.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14752.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14752.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下安装Kubernetes包管理器Helm</title>
		<link>https://www.osyunwei.com/archives/14733.html</link>
		<comments>https://www.osyunwei.com/archives/14733.html#comments</comments>
		<pubDate>Thu, 17 Oct 2024 02:38:52 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[helm]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[ubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14733</guid>
		<description><![CDATA[Helm简介： 1、Helm 是 K8S的包管理器，对于 K8S 的操作可以作为一个实例进行管理，不再需要去写 deployment 、service 、ingress 的 yaml，而是可以直接通过 install 命令实现服务实例的安装 2、Helm Helm是一个命令行下的客户端工具。主要用于Kubernetes应用程序Chart的创建、打包、发布及创建和管理 本地和远程的Chart仓库 3、Chart Chart是一个Helm的程序包，包含了运行一个Kubernetes应用程序所需的镜像、依赖关系和资源定义等 4、使用Helm后无须了解Kubernetes的yaml文件语法、应用部署文件，直接使用Helm下载即可在Kubernetes上安装需要的应用 5、Helm就是为了简化在Kubernetes中安装部署容器云应用的一个客户端工具，通过helm能够帮助开发者定义、安装和升级Kubernetes中的容器云应用，同时，也可以通过helm进行容器云应用的分享 6、在Kubeapps Hub中提供了包括Redis、MySQL和Jenkins等常见的应用，通过helm可以使用一条命令就能够将其部署安装在自己的Kubernetes集群中 7、Helm是一个用于kubernetes的包管理器，每个包称为一个Chart，一个Chart是一个目录（一般情况下会将目录进行打包压缩，形成name-version.tgz格式的单一文件，方便传输和存储），我们可以将Helm看作Kubernetes下的apt-get/yum 8、Repoistory Repoistory是Helm的软件仓库，Repository本质上是一个Web服务器，该服务器保存了一系列的Chart软件包 以供用户下载，并且提供了该Repository的Chart包的清单文件便于查询，Helm可以同时管理多个不同的Repository 9、使用Helm需要有kubernetes集群 官方网站： https://helm.sh/zh/ https://github.com/helm/helm 下载地址： https://get.helm.sh/helm-v3.16.2-linux-amd64.tar.gz #安装heml tar zxvf helm-v3.16.2-linux-amd64.tar.gz #解压 mv linux-amd64/helm /usr/local/bin/helm helm version #查看版本 #添加源 helm repo add stable http://mirror.azure.cn/kubernetes/charts helm repo add aliyun https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts #添加dashboard源 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14733.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14733.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下安装k8s容器运行时Containerd</title>
		<link>https://www.osyunwei.com/archives/14731.html</link>
		<comments>https://www.osyunwei.com/archives/14731.html#comments</comments>
		<pubDate>Thu, 17 Oct 2024 02:33:06 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[Containerd]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14731</guid>
		<description><![CDATA[kubernetes从1.24开始，移除了Dockershim，需要在安装docker的基础上再安装cri-dockerd才能顺利运行Pod kubernetes的容器运行时工具有以下几个 1、containerd 2、CRI-O 3、Docker Engine（使用 cri-dockerd） 容器运行时命令对比 从 Kubernetes 1.24 开始，官方强烈推荐使用 containerd 作为 Kubernetes 的容器运行时 原因包括： 更轻量级、性能更高 与 Kubernetes 原生集成良好，减少了中间层（如 Dockershim） 不过，如果你仍然想使用 Docker Engine，也可以通过安装 cri-dockerd 来继续使用 Docker 作为容器运行时 这里我们安装containerd containerd简介： 1、Docker Engine里就包含了containerd，和原先包含在Docker Engine里containerd相比，独立的containerd将具有更多的功能，可以涵盖整个容器运行时管理的所有需求 2、containerd并不是直接面向最终用户的，而是主要用于集成到更上层的系统里，比如Swarm, Kubernetes, Mesos等容器编排系统 3、containerd以Daemon的形式运行在系统上，通过暴露底层的gRPC API，上层系统可以通过这些API管理机器上的容器 4、每个containerd只负责一台机器，Pull镜像，对容器的操作（启动、停止等），网络，存储都是由containerd完成 5、具体运行容器由runC负责，实际上只要是符合OCI规范的容器都可以支持 6、对于容器编排服务来说，运行时只需要使用containerd+runC，更加轻量，容易管理 官方网站：https://containerd.io 操作系统：AnolisOS-8.8-x86_64 一、使用yum源安装containerd #配置阿里云yum源 wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo #查看yum源中containerd软件 yum list &#124; grep [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14731.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14731.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14713.html</link>
		<comments>https://www.osyunwei.com/archives/14713.html#comments</comments>
		<pubDate>Sat, 12 Oct 2024 11:36:58 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14713</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 5、在k8s集群的3个master节点部署Keepalived+HAProxy实现API Server（kube-apiServer）的高可用和负载均衡。 6、Keepalived：绑定一个vip地址实现高可用 7、HAProxy：通过TCP端口代理实现负载均衡 8、3个master节点之间组成的集群需要的是高可用服务，用Keepalived绑定vip来实现 9、2个node节点访问master集群需要的是负载均衡，用HAProxy实现 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14713.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14713.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本单master多node在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14704.html</link>
		<comments>https://www.osyunwei.com/archives/14704.html#comments</comments>
		<pubDate>Wed, 09 Oct 2024 09:30:35 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14704</guid>
		<description><![CDATA[部署方式：使用kubeadm部署 Kubeadm是Kubernetes官方提供的工具，用于快速搭建生产级别的Kubernetes集群，尤其适合初次部署和对集群稳定性要求较高的场景‌。 操作系统：AnolisOS-8.8-x86_64，3台服务器，1个master，2个node AnolisOS-8.x安装配置图解教程 https://www.osyunwei.com/archives/14613.html docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 一、主机环境配置（三台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master 192.168.21.202 k8s-node1 192.168.21.203 k8s-node2 hostnamectl set-hostname k8s-master #设置主机名为k8s-master hostnamectl set-hostname k8s-node1 #设置主机名为k8s-node1 hostnamectl set-hostname k8s-node2 #设置主机名为k8s-node2 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat /etc/profile &#124; grep -i lang #查看字符集 export LANG=en_US.UTF-8 2、添加hosts解析 vi /etc/hosts 192.168.21.201 k8s-master 192.168.21.202 k8s-node1 192.168.21.203 k8s-node2 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14704.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14704.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s集群搭建之部署Etcd集群</title>
		<link>https://www.osyunwei.com/archives/12075.html</link>
		<comments>https://www.osyunwei.com/archives/12075.html#comments</comments>
		<pubDate>Mon, 28 Mar 2022 08:33:39 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[kubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=12075</guid>
		<description><![CDATA[Etcd是一个分布式键值存储系统，Kubernetes使用Etcd进行数据存储，所以要先准备一个Etcd数据库，为解决Etcd单点故障，应采用集群方式部署，这里使用3台组建集群，可容忍1台机器故障。由于Etcd集群需要选举产生 leader，所以集群节点数目需要为奇数来保证正常进行选举。 说明： 使用5台组建集群，可容忍2台机器故障 使用7台组建集群，可容忍3台机器故障， 使用9台组建集群，可容忍4台机器故障 etcd集群也可以与k8s节点机器复用，只要apiserver能连接到就行。 这里使用三台服务器单独部署etcd集群 k8s集群搭建之安装cfssl证书生成工具 https://www.osyunwei.com/archives/12072.html 先在一台k8s-etcd服务器上操作 1、生成Etcd证书 1.1自签etcd证书颁发机构（CA） 创建工作目录 mkdir -p /opt/tls/etcd cd /opt/tls/etcd 创建ca配置文件 cat &#62; etcdca-config.json &#60;&#60; EOF { "signing": { "default": { "expiry": "87600h" }, "profiles": { "etcd": { "expiry": "87600h", "usages": [ "signing", "key encipherment", "server auth", "client auth" ] } } } } EOF 创建ca证书签名请求文件 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/12075.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/12075.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s集群搭建之安装cfssl证书生成工具</title>
		<link>https://www.osyunwei.com/archives/12072.html</link>
		<comments>https://www.osyunwei.com/archives/12072.html#comments</comments>
		<pubDate>Thu, 03 Feb 2022 05:45:45 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[kubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=12072</guid>
		<description><![CDATA[cfssl是一个开源的证书管理工具，使用json文件生成证书，相比openssl更方便使用。 在需要生成证书的服务器上安装即可，这里安装在k8s-etcd1和k8s-master1节点上。 cd /usr/local/src wget https://github.com/cloudflare/cfssl/releases/download/v1.6.1/cfssl_1.6.1_linux_amd64 wget https://github.com/cloudflare/cfssl/releases/download/v1.6.1/cfssljson_1.6.1_linux_amd64 wget https://github.com/cloudflare/cfssl/releases/download/v1.6.1/cfssl-certinfo_1.6.1_linux_amd64 #拷贝文件到/usr/local/bin/目录下 cp cfssl_1.6.1_linux_amd64 /usr/local/bin/cfssl cp cfssljson_1.6.1_linux_amd64 /usr/local/bin/cfssljson cp cfssl-certinfo_1.6.1_linux_amd64 /usr/local/bin/cfssl-certinfo #添加执行权限 chmod +x /usr/local/bin/cfssl chmod +x /usr/local/bin/cfssljson chmod +x /usr/local/bin/cfssl-certinfo 至此，k8s集群搭建之安装cfssl证书生成工具完成。 &#160;&#160;&#160;&#160;&#160;» 本文链接：https://www.osyunwei.com/archives/12072.html» 订阅本站：https://www.osyunwei.com/feed» 转载请注明来源：系统运维 » k8s集群搭建之安装cfssl证书生成工具<p><a rel="bookmark" href="https://www.osyunwei.com/archives/12072.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/12072.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s集群搭建之安装Docker</title>
		<link>https://www.osyunwei.com/archives/12062.html</link>
		<comments>https://www.osyunwei.com/archives/12062.html#comments</comments>
		<pubDate>Mon, 03 Jan 2022 07:51:45 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[kubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=12062</guid>
		<description><![CDATA[在所有的master和node以及Docker私有仓库服务器上安装docker，这里使用Docker作为k8s集群的容器引擎，也可以换成别的，例如containerd等。 这里安装二进制Docker-ce社区版本。 3.1 卸载旧版本 如果没有安装就不需要执行 yum remove docker docker-common docker-selinux docker-engine 3.2 下载Docker-ce社区版本 https://download.docker.com/linux/static/stable/x86_64/ 选择docker-19.03.9.tgz cd /usr/local/src wget https://download.docker.com/linux/static/stable/x86_64/docker-19.03.9.tgz 3.3 安装Docker-ce社区版本 #解压 cd /usr/local/src tar -zxvf docker-19.03.9.tgz #将解压出来的docker文件移动到/usr/bin/目录下 mv /usr/local/src/docker/* /usr/bin/ 3.4 设置Docker开机启动 #添加docker用户组 groupadd docker #在/usr/lib/systemd/system/目录创建编辑docker.service文件 vi /usr/lib/systemd/system/docker.service [Unit] Description=Docker Application Container Engine Documentation=https://docs.docker.com #BindsTo=containerd.service After=network-online.target firewalld.service containerd.service Wants=network-online.target Requires=docker.socket [Service] Type=notify #ExecStart=/usr/bin/dockerd -H [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/12062.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/12062.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s集群搭建之服务器系统初始化设置</title>
		<link>https://www.osyunwei.com/archives/12051.html</link>
		<comments>https://www.osyunwei.com/archives/12051.html#comments</comments>
		<pubDate>Mon, 03 Jan 2022 07:29:31 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[kubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=12051</guid>
		<description><![CDATA[服务器操作系统： CentOS7.x_x64，在所有服务器上进行操作。 2.1 修改主机名 #设置主机名为k8s-master1 hostname k8s-master1 hostnamectl set-hostname k8s-master1 vi /etc/hostname #编辑配置文件 k8s-master1 #修改localhost.localdomain为k8s-master1 :wq! #保存退出 vi /etc/hosts #编辑配置文件 127.0.0.1 localhost k8s-master1 #修改localhost.localdomain为k8s-master1 #其他服务器执行相同的操作，把主机名称分别修改为服务器角色对应的名称 2.2 安装系统依赖包 yum install -y ipset ipvsadm yum install -y openssl-devel openssl yum install -y make gcc* gcc-c++ yum install -y bzip2 tar conntrack conntrack-tools sysstat curl iptables libseccomp lrzsz [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/12051.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/12051.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
