<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>系统运维 &#187; docker</title>
	<atom:link href="http://www.osyunwei.com/archives/tag/docker-2/feed" rel="self" type="application/rss+xml" />
	<link>https://www.osyunwei.com</link>
	<description>国产化OS/AnolisOS/openEuler/RHEL/CentOS/Rocky Linux/Debian/Ubuntu Linux FreeBSD 服务器教程 &#124; Windows Server 2003/2008/2012/2016/2019/2022/2025服务器教程</description>
	<lastBuildDate>Tue, 14 Apr 2026 10:59:22 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Kylin-Server-V10-SP3-2403-k8s单master多node在线安装部署</title>
		<link>https://www.osyunwei.com/archives/15610.html</link>
		<comments>https://www.osyunwei.com/archives/15610.html#comments</comments>
		<pubDate>Wed, 26 Mar 2025 14:29:58 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15610</guid>
		<description><![CDATA[操作系统：Kylin-Server-V10-SP3-2403 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 一、主机环境配置（三台都需要操作） 1、修改主机名和字符集 192.168.21.10 k8s-master 192.168.21.11 k8s-node1 192.168.21.12 k8s-node2 hostnamectl set-hostname k8s-master #设置主机名为k8s-master hostnamectl set-hostname k8s-node1 #设置主机名为k8s-node1 hostnamectl set-hostname k8s-node2 #设置主机名为k8s-node2 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat /etc/profile &#124; grep -i lang #查看字符集 export LANG=en_US.UTF-8 2、添加hosts解析 vi /etc/hosts 192.168.21.10 k8s-master 192.168.21.11 k8s-node1 192.168.21.12 k8s-node2 :wq! #保存退出 3、保存yum下载的安装包 vi [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15610.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15610.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Windows系统下安装Docker环境</title>
		<link>https://www.osyunwei.com/archives/15454.html</link>
		<comments>https://www.osyunwei.com/archives/15454.html#comments</comments>
		<pubDate>Mon, 10 Mar 2025 06:57:14 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Docker]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[Windows]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15454</guid>
		<description><![CDATA[在Windows系统下运行Docker需要2个安装包 1、Docker Desktop on Windows Docker Desktop for Windows 提供了图形用户界面（GUI）以及一系列工具来简化 Docker 的使用过程。 Docker Desktop on Windows下载地址： https://docs.docker.com/desktop/setup/install/windows-install/ https://desktop.docker.com/win/main/amd64/Docker%20Desktop%20Installer.exe 2、WSL安装包 安装Windows Subsystem for Linux (WSL) 后，可以直接在 Windows上运行Docker Desktop WSL安装包下载地址： https://github.com/microsoft/WSL/releases https://github.com/microsoft/WSL/releases/download/2.4.11/Microsoft.WSL_2.4.11.0_x64_ARM64.msixbundle 安装部署 1、安装Docker Desktop Installer.exe 安装完成后会重启系统 2、安装Microsoft.WSL_2.4.11.0_x64_ARM64.msixbundle 安装完成后点关闭 3、修改docker镜像源，添加国内源 点Apply&#38;restart 4、查看docker版本信息 5、使用docker拉取镜像 6、使用图形界面部署镜像 Ports：80 表示把宿主机的80端口映射到容器的80端口 7、测试访问容器 至此，Windows系统下安装Docker环境完成。 &#160;&#160;&#160;&#160;&#160;» 本文链接：https://www.osyunwei.com/archives/15454.html» 订阅本站：https://www.osyunwei.com/feed» 转载请注明来源：系统运维 » Windows系统下安装Docker环境<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15454.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15454.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>使用二进制方式部署k8s高可用集群（V1.31版本）</title>
		<link>https://www.osyunwei.com/archives/14800.html</link>
		<comments>https://www.osyunwei.com/archives/14800.html#comments</comments>
		<pubDate>Sat, 30 Nov 2024 09:13:33 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14800</guid>
		<description><![CDATA[一、服务器集群架构规划 1.1 网络规划 网段 192.168.21.0/24 网关 192.168.21.2 可用IP地址 192.168.21.3-192.168.21.254 1.2 服务器规划 角色 IP 安装组件 VIP 192.168.21.200 HAProxyKeepalived k8s-master01 k8s-master02 k8s-master03 192.168.21.201 192.168.21.202 192.168.21.203 etcd、docker、kube-apiserver、kube-controller-manager、kube-scheduler、kubectl、calico、coredns、dashboard k8s-node01 k8s-node02 192.168.21.204 192.168.21.205 docker、kubelet、kube-proxy、calico、coredns 二、主机环境配置（5台都需要操作） 服务器操作系统： AnolisOS-8.8-x86_64 2.1 修改主机名和字符集 hostnamectl set-hostname k8s-master01 #设置192.168.21.201主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置192.168.21.202主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置192.168.21.203主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置192.168.21.204主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置192.168.21.205主机名为k8s-node02 locale [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14800.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14800.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.31.1版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14774.html</link>
		<comments>https://www.osyunwei.com/archives/14774.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 09:14:14 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14774</guid>
		<description><![CDATA[离线安装包下载： 链接：https://pan.baidu.com/s/16y-U-wE6XbMCTBElSv-ZGg?pwd=dlh5 提取码：dlh5 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 containerd：1.7.23 kubernetes：v1.31.1 calico：v3.28.2 Dashboard：v-7.8.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.31.1.tar.gz部署包到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.31.1.tar.gz #解压部署包 cd /opt/k8s/packages rpm -Uvh --force --nodeps *rpm #离线安装系统依赖包 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14774.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14774.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.25.16版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14769.html</link>
		<comments>https://www.osyunwei.com/archives/14769.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 09:06:42 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14769</guid>
		<description><![CDATA[离线安装包下载： 链接：https://pan.baidu.com/s/12vGVpfSWFUNQx3ixfZ37fA?pwd=w5ej 提取码：w5ej 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 cri-dockerd：v0.3.15 kubernetes：v1.25.16 calico：v3.25.0 Dashboard：v2.7.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.25.16.tar.gz部署包到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.25.16.tar.gz #解压部署包 #离线安装系统依赖包 cd /opt/k8s/packages rpm -Uvh --force --nodeps *rpm 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14769.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14769.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本多master多node高可用集群离线安装部署</title>
		<link>https://www.osyunwei.com/archives/14763.html</link>
		<comments>https://www.osyunwei.com/archives/14763.html#comments</comments>
		<pubDate>Thu, 24 Oct 2024 08:43:43 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14763</guid>
		<description><![CDATA[离线安装包下载地址： 链接：https://pan.baidu.com/s/1sGXw5HC9oNiqYl9rmaVtaQ?pwd=kdib 提取码：kdib 知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 5、在k8s集群的3个master节点部署Keepalived+HAProxy实现API Server（kube-apiServer）的高可用和负载均衡。 6、Keepalived：绑定一个vip地址实现高可用 7、HAProxy：通过TCP端口代理实现负载均衡 8、3个master节点之间组成的集群需要的是高可用服务，用Keepalived绑定vip来实现 9、2个node节点访问master集群需要的是负载均衡，用HAProxy实现 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 准备篇（5台都需要操作） mkdir -p /opt/k8s #创建部署包存放目录 上传AnolisOS-8.8-x86_64-k8s-offline-installer-v1.23.17.tar.gz部署包到/opt/k8s 上传负载均衡软件包haproxy-3.0.5.tar.gz到/opt/k8s 上传高可用软件keepalived-2.3.1.tar.gz到/opt/k8s 上传tar-1.30-9.0.1.an8.x86_64.rpm解压缩工具到/opt/k8s cd /opt/k8s #进入目录 rpm -Uvh tar-1.30-9.0.1.an8.x86_64.rpm #安装解压缩工具 tar zxvf AnolisOS-8.8-x86_64-k8s-offline-installer-v1.23.17.tar.gz #解压部署包 cd /opt/k8s/rpm/packages rpm -Uvh --force --nodeps *rpm #离线安装系统依赖包 部署篇 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 #ip地址和主机名对应关系 192.168.21.201 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14763.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14763.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.25.16版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14759.html</link>
		<comments>https://www.osyunwei.com/archives/14759.html#comments</comments>
		<pubDate>Wed, 23 Oct 2024 09:08:54 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14759</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 cri-dockerd：v0.3.15 kubernetes：v1.25.16 calico：v3.25.0 Dashboard：v2.7.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14759.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14759.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.31.1版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14752.html</link>
		<comments>https://www.osyunwei.com/archives/14752.html#comments</comments>
		<pubDate>Mon, 21 Oct 2024 10:06:15 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14752</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 操作系统：AnolisOS-8.8-x86_64 containerd：1.7.23 kubernetes：v1.31.1 calico：v3.28.2 Dashboard：v-7.8.0 kube-vip：v0.8.3 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14752.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14752.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下安装k8s容器运行时Containerd</title>
		<link>https://www.osyunwei.com/archives/14731.html</link>
		<comments>https://www.osyunwei.com/archives/14731.html#comments</comments>
		<pubDate>Thu, 17 Oct 2024 02:33:06 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[Containerd]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14731</guid>
		<description><![CDATA[kubernetes从1.24开始，移除了Dockershim，需要在安装docker的基础上再安装cri-dockerd才能顺利运行Pod kubernetes的容器运行时工具有以下几个 1、containerd 2、CRI-O 3、Docker Engine（使用 cri-dockerd） 容器运行时命令对比 从 Kubernetes 1.24 开始，官方强烈推荐使用 containerd 作为 Kubernetes 的容器运行时 原因包括： 更轻量级、性能更高 与 Kubernetes 原生集成良好，减少了中间层（如 Dockershim） 不过，如果你仍然想使用 Docker Engine，也可以通过安装 cri-dockerd 来继续使用 Docker 作为容器运行时 这里我们安装containerd containerd简介： 1、Docker Engine里就包含了containerd，和原先包含在Docker Engine里containerd相比，独立的containerd将具有更多的功能，可以涵盖整个容器运行时管理的所有需求 2、containerd并不是直接面向最终用户的，而是主要用于集成到更上层的系统里，比如Swarm, Kubernetes, Mesos等容器编排系统 3、containerd以Daemon的形式运行在系统上，通过暴露底层的gRPC API，上层系统可以通过这些API管理机器上的容器 4、每个containerd只负责一台机器，Pull镜像，对容器的操作（启动、停止等），网络，存储都是由containerd完成 5、具体运行容器由runC负责，实际上只要是符合OCI规范的容器都可以支持 6、对于容器编排服务来说，运行时只需要使用containerd+runC，更加轻量，容易管理 官方网站：https://containerd.io 操作系统：AnolisOS-8.8-x86_64 一、使用yum源安装containerd #配置阿里云yum源 wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo #查看yum源中containerd软件 yum list &#124; grep [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14731.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14731.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本多master多node高可用集群在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14713.html</link>
		<comments>https://www.osyunwei.com/archives/14713.html#comments</comments>
		<pubDate>Sat, 12 Oct 2024 11:36:58 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14713</guid>
		<description><![CDATA[知识储备： 1、Kubernetes集群要保证高可用,至少需要三个master节点和多个node节点，master节点建议为奇数，一般集群3个master节点就足够了，node节点2个以上都可以。 2、在3个master的Kubernetes集群中，当1个master节点坏掉，剩余的2个节点master可以选举出新的Leader，这是因为在Raft协议中，需要超过一半的节点在线才能进行选举。 3、在3个master节点的集群中，坏掉了1个节点，此时还有2个节点在线，超过了一半，所以可以选举和运行，集群不受影响。 4、在3个master节点的集群中，1个节点坏掉：集群可继续运行；2个节点坏掉：无法选举，集群不可用。 5、在k8s集群的3个master节点部署Keepalived+HAProxy实现API Server（kube-apiServer）的高可用和负载均衡。 6、Keepalived：绑定一个vip地址实现高可用 7、HAProxy：通过TCP端口代理实现负载均衡 8、3个master节点之间组成的集群需要的是高可用服务，用Keepalived绑定vip来实现 9、2个node节点访问master集群需要的是负载均衡，用HAProxy实现 操作系统：AnolisOS-8.8-x86_64 docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 k8s集群说明： 3个master节点，并且做高可用和负载均衡设置，2个node节点。 vip地址：192.168.21.200 一、主机环境配置（5台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master01 192.168.21.202 k8s-master02 192.168.21.203 k8s-master03 192.168.21.204 k8s-node01 192.168.21.205 k8s-node02 hostnamectl set-hostname k8s-master01 #设置主机名为k8s-master01 hostnamectl set-hostname k8s-master02 #设置主机名为k8s-master02 hostnamectl set-hostname k8s-master03 #设置主机名为k8s-master03 hostnamectl set-hostname k8s-node01 #设置主机名为k8s-node01 hostnamectl set-hostname k8s-node02 #设置主机名为k8s-node02 locale #查看默认字符集 echo "export [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14713.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14713.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s-1.23.17版本单master多node在线安装部署</title>
		<link>https://www.osyunwei.com/archives/14704.html</link>
		<comments>https://www.osyunwei.com/archives/14704.html#comments</comments>
		<pubDate>Wed, 09 Oct 2024 09:30:35 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14704</guid>
		<description><![CDATA[部署方式：使用kubeadm部署 Kubeadm是Kubernetes官方提供的工具，用于快速搭建生产级别的Kubernetes集群，尤其适合初次部署和对集群稳定性要求较高的场景‌。 操作系统：AnolisOS-8.8-x86_64，3台服务器，1个master，2个node AnolisOS-8.x安装配置图解教程 https://www.osyunwei.com/archives/14613.html docker-ce：v20.10.24 kubernetes：v1.23.17 calico：v3.25.0 Dashboard：v2.5.1 一、主机环境配置（三台都需要操作） 1、修改主机名和字符集 192.168.21.201 k8s-master 192.168.21.202 k8s-node1 192.168.21.203 k8s-node2 hostnamectl set-hostname k8s-master #设置主机名为k8s-master hostnamectl set-hostname k8s-node1 #设置主机名为k8s-node1 hostnamectl set-hostname k8s-node2 #设置主机名为k8s-node2 locale #查看默认字符集 echo "export LANG=en_US.UTF-8" &#62;&#62; /etc/profile #设置字符集 cat /etc/profile &#124; grep -i lang #查看字符集 export LANG=en_US.UTF-8 2、添加hosts解析 vi /etc/hosts 192.168.21.201 k8s-master 192.168.21.202 k8s-node1 192.168.21.203 k8s-node2 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14704.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14704.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>使用Harbor搭建Docker私有镜像仓库</title>
		<link>https://www.osyunwei.com/archives/14664.html</link>
		<comments>https://www.osyunwei.com/archives/14664.html#comments</comments>
		<pubDate>Tue, 08 Oct 2024 06:20:57 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Docker]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[Harbor]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14664</guid>
		<description><![CDATA[Harbor简介： Harbor是由VMware公司开源的企业级的Docker Registry管理项目，它包括权限管理(RBAC)、LDAP、日志审核、管理界面、自我注册、镜像复制和中文支持等功能 可以用Harbor来搭建私有Docker镜像仓库 Harbor官网： https://goharbor.io/ https://github.com/goharbor/harbor 截止目前最新版本的离线安装包下载地址（需要科学上网）： https://github.com/goharbor/harbor/releases/download/v2.11.1/harbor-offline-installer-v2.11.1.tgz 部署Harbor需要提前安装docker和Docker-Compose Linux下安装部署Docker二进制版本 https://www.osyunwei.com/archives/13930.html 安装部署Harbor 1、为Harbor生成自签名证书 1.1. 生成CA私钥 openssl genrsa -out ca.key 2048 1.2. 生成自签名CA证书 openssl req -new -x509 -days 36500 -key ca.key -subj "/C=CN/ST=GD/L=SZ/O=Acme, Inc./CN=Acme Root CA" -out ca.crt 1.3. 生成服务器私钥和CSR，CN=192.168.21.201 表示证书的通用名称 openssl req -newkey rsa:2048 -nodes -keyout server.key -subj "/C=CN/ST=GD/L=SZ/O=Acme, Inc./CN=192.168.21.201" -out server.csr 1.4. 使用CA签发服务器证书并添加SAN [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14664.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14664.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Docker安装部署ELK Stack</title>
		<link>https://www.osyunwei.com/archives/13979.html</link>
		<comments>https://www.osyunwei.com/archives/13979.html#comments</comments>
		<pubDate>Fri, 18 Aug 2023 08:02:11 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Docker]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[elk]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=13979</guid>
		<description><![CDATA[什么是ELK： ELK主要由ElasticSearch、Logstash和Kibana三个开源工具组成，还有其它轻量型数据采集器，如filebeat等组成的日志收集分析系统。 Elasticsearch ：分布式搜索引擎，具有高可伸缩、高可靠、易管理等特点，可以用于全文检索、结构化检索和分析，并能将这三者结合起来，Elasticsearch 是用Java 基于 Lucene 开发，现在使用最广的开源搜索引擎之一。 Logstash ：数据收集处理引擎，支持动态的从各种数据源搜集数据，并对数据进行过滤、分析、丰富、统一格式等操作，然后存储以供后续使用。 Kibana ：可视化化平台。它能够搜索、展示存储在 Elasticsearch 中索引数据。使用它可以很方便的用图表、表格、地图展示和分析数据。 Filebeat：轻量级数据收集引擎。Filebeat 所占用的系统资源几乎是微乎及微。它是基于原先 Logstash-fowarder 的源码改造出来。换句话说：Filebeat就是新版的 Logstash-fowarder，也会是 ELK Stack 在 Agent 的第一选择。 安装说明： 1、Elasticsearch、Logstash、Kibana、Filebeat安装的版本号必须全部一致，不然会出现kibana无法显示web页面。 2、部署组件的服务器时间必须一致，否则会出现日志无法显示。 安装部署 1、安装elasticsearch 官方网站： https://www.elastic.co/cn/downloads/elasticsearch https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-8.9.1-linux-x86_64.tar.gz Elasticsearch的功能：搜索、全文检索、分析数据、处理海量数据PB,对海量数据进行近实时的处理(ES可以自动将海量数据分散到多台服务器上去存储和检索)、高可用高性能分布式搜索引擎数据库 Elasticsearch的应用场景：网页搜索、新闻搜索、商品标签、日志收集分析展示 elasticsearch的安装方式：二进制包（elasticsearch-8.9.1-linux-x86_64.tar.gz）安装，依赖于java，所以首先安装java环境-jdk、docker方式安装 我们使用docker方式安装 Linux下安装部署Docker二进制版本 https://www.osyunwei.com/archives/13930.html 1.1创建用于elk的网络 docker network create elk 1.2部署docker镜像 #创建Elasticsearch容器 docker run --restart=always  -d \ --name=elasticsearch \ -v es-data:/usr/share/elasticsearch/data \ -e [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/13979.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/13979.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下安装部署Docker二进制版本</title>
		<link>https://www.osyunwei.com/archives/13930.html</link>
		<comments>https://www.osyunwei.com/archives/13930.html#comments</comments>
		<pubDate>Mon, 24 Jul 2023 10:07:45 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Docker]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[linux]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=13930</guid>
		<description><![CDATA[准备工作 在安装Docker之前，确保已经关闭SELINUX、关闭或卸载firewall、创建了Docker用户组，并且安装了iptables防火墙，系统内核版本为Linux 3.10及其以上版本。 1、关闭selinux #执行以下命令 setenforce 0 sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config 2、关闭firewall systemctl stop firewalld.service #停止firewall systemctl disable firewalld.service #禁止firewall开机启动 systemctl mask firewalld systemctl stop firewalld yum -y remove firewalld 3、添加docker用户组 groupadd docker #添加普通用户myuser到docker组，使其具有docker命令的执行权限 sudo usermod -aG docker myuser sudo usermod -aG wheel  myuser #添加用户到wheel组，用户可以使用sudo权限 #刷新用户组 newgrp docker 4、安装iptables防火墙 yum -y install iptables-services #安装 systemctl [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/13930.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/13930.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>k8s集群搭建之部署Etcd集群</title>
		<link>https://www.osyunwei.com/archives/12075.html</link>
		<comments>https://www.osyunwei.com/archives/12075.html#comments</comments>
		<pubDate>Mon, 28 Mar 2022 08:33:39 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[docker]]></category>
		<category><![CDATA[k8s]]></category>
		<category><![CDATA[kubernetes]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=12075</guid>
		<description><![CDATA[Etcd是一个分布式键值存储系统，Kubernetes使用Etcd进行数据存储，所以要先准备一个Etcd数据库，为解决Etcd单点故障，应采用集群方式部署，这里使用3台组建集群，可容忍1台机器故障。由于Etcd集群需要选举产生 leader，所以集群节点数目需要为奇数来保证正常进行选举。 说明： 使用5台组建集群，可容忍2台机器故障 使用7台组建集群，可容忍3台机器故障， 使用9台组建集群，可容忍4台机器故障 etcd集群也可以与k8s节点机器复用，只要apiserver能连接到就行。 这里使用三台服务器单独部署etcd集群 k8s集群搭建之安装cfssl证书生成工具 https://www.osyunwei.com/archives/12072.html 先在一台k8s-etcd服务器上操作 1、生成Etcd证书 1.1自签etcd证书颁发机构（CA） 创建工作目录 mkdir -p /opt/tls/etcd cd /opt/tls/etcd 创建ca配置文件 cat &#62; etcdca-config.json &#60;&#60; EOF { "signing": { "default": { "expiry": "87600h" }, "profiles": { "etcd": { "expiry": "87600h", "usages": [ "signing", "key encipherment", "server auth", "client auth" ] } } } } EOF 创建ca证书签名请求文件 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/12075.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/12075.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
