<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>系统运维 &#187; 集群架构</title>
	<atom:link href="http://www.osyunwei.com/archives/category/framework/feed" rel="self" type="application/rss+xml" />
	<link>https://www.osyunwei.com</link>
	<description>国产化OS/AnolisOS/openEuler/RHEL/CentOS/Rocky Linux/Debian/Ubuntu Linux FreeBSD 服务器教程 &#124; Windows Server 2003/2008/2012/2016/2019/2022/2025服务器教程</description>
	<lastBuildDate>Tue, 14 Apr 2026 10:59:22 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>minio从旧集群导出桶再上传到新集群导入桶</title>
		<link>https://www.osyunwei.com/archives/17060.html</link>
		<comments>https://www.osyunwei.com/archives/17060.html#comments</comments>
		<pubDate>Thu, 19 Mar 2026 16:18:57 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[MinIO]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=17060</guid>
		<description><![CDATA[在旧集群上操作 1、配置旧集群别名 旧集群别名：oldminio #进入安装目录 cd /data/server/minio/bin #设置旧集群别名 ./mc alias set oldminio http://192.168.253.8:6901 admin admin123 #检测别名 ./mc alias list 2、下载数据到新建临时目录 创建一个临时目录，比如 /tmp/minio_temp，然后执行递归拷贝 mkdir -p /tmp/minio_temp # 下载整个桶的内容 (保持目录结构) cd /data/server/minio/bin ./mc cp -r oldminio/filemanagementpublic /tmp/minio_temp 3、验证下载完整性 cd /data/server/minio/bin ./mc du oldminio/filemanagementpublic/ du -sh /tmp/minio_temp/filemanagementpublic # 查看本地下载的文件列表 ls -lh /tmp/minio_temp/filemanagementpublic ls -lhR /tmp/minio_temp/filemanagementpublic # 查看源端的文件列表 ./mc ls [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/17060.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/17060.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>clickhouse集群中某个节点的数据表变成只读状态修复办法</title>
		<link>https://www.osyunwei.com/archives/16696.html</link>
		<comments>https://www.osyunwei.com/archives/16696.html#comments</comments>
		<pubDate>Wed, 27 Aug 2025 03:11:33 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[clickhouse]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16696</guid>
		<description><![CDATA[情况说明： ClickHouse 是5个节点的集群，其中一个节点10.103.128.198的数据库ckdata_devops中的network_config_backup表变成只读状态了，导致程序无法写入数据，日志报错。 修复思路： 由于修复元数据状态非常困难，最简单、最可靠的也是ClickHouse官方推荐的恢复方式是在坏掉的节点上，删除并重新创建表，让集群自动同步即可。 具体操作： 1、手动清理 ZooKeeper 中的副本节点 数据表已处于异常状态，但是直接删掉表后重新创建会报错，这是因为ZooKeeper 中的副本节点 /replicas/10.103.128.198 仍然存在（防止重复注册） 进入ZooKeeper集群的其中1个节点进行操作 cd /data/server/zookeeper/bin ./zkCli.sh #查看 replicas 下的所有副本 ls /clickhouse/tables/01/network_config_backup/replicas #删除故障节点 delete /clickhouse/tables/01/network_config_backup/replicas/10.103.128.198 #退出 quit 2、在正常节点10.103.128.196上面操作 进入控制台：clickhouse-client --password show databases; #查看数据库 use ckdata_devops; #进入数据库 show tables; #查看表 #查看表结构 SHOW CREATE TABLE ckdata_devops.network_config_backup; novalocal SHOW CREATE TABLE ckdata_devops.network_config_backup; SHOW CREATE TABLE ckdata_devops.network_config_backup Query id: [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16696.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16696.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>clickhouse集群硬件故障导致节点无法启动修复办法</title>
		<link>https://www.osyunwei.com/archives/16566.html</link>
		<comments>https://www.osyunwei.com/archives/16566.html#comments</comments>
		<pubDate>Thu, 17 Jul 2025 17:23:46 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[clickhouse]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16566</guid>
		<description><![CDATA[问题描述： 线上5节点的clickhouse集群，其中有1个节点服务器内存坏掉了，导致服务器无故重启，更换新的内存启动服务器后，clickhouse服务无法启动，节点故障。 排查解决： 1、登录故障节点服务器，开启clickhouse日志 vi /etc/clickhouse-server/config.xml &#60;log&#62;/data/server/clickhouse/log/clickhouse-server.log&#60;/log&#62; #主日志文件，记录 ClickHouse 的运行日志（包括启动、查询、加载表等） &#60;errorlog&#62;/data/server/clickhouse/log/clickhouse-server.err.log&#60;/errorlog&#62; #错误日志文件，记录严重错误、异常堆栈等信息 :wq! #保存退出 chmod 755 /etc/clickhouse-server -R #设置权限 2、启动并查看最新的日志 systemctl stop clickhouse-server #关闭 systemctl start clickhouse-server #启动服务 tail -n 200 /data/server/clickhouse/log/clickhouse-server.err.log #查看最新的200条错误日志记录 #日志如下 7. ./build_docker/./src/Storages/MergeTree/MergeTreeData.cpp:1440: void std::__function::__policy_invoker&#60;void ()&#62;::__call_impl&#60;std::__function::__default_alloc_func&#60;DB::MergeTreeData::loadDataPartsFromDisk(ThreadPoolImpl&#60;ThreadFromGlobalPoolImpl&#60;false&#62;&#62;&#38;, unsigned long, std::queue&#60;std::vector&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;, std::allocator&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;&#62;&#62;, std::deque&#60;std::vector&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;, std::allocator&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;&#62;&#62;, std::allocator&#60;std::vector&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;, std::allocator&#60;std::shared_ptr&#60;DB::MergeTreeData::PartLoadingTree::Node&#62;&#62;&#62;&#62;&#62;&#62;&#38;, std::shared_ptr&#60;DB::MergeTreeSettings const&#62; const&#38;)::$_19, void ()&#62;&#62;(std::__function::__policy_storage const*) @ 0x14594b44 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16566.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16566.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下使用KVM虚拟机制作系统镜像模板</title>
		<link>https://www.osyunwei.com/archives/16548.html</link>
		<comments>https://www.osyunwei.com/archives/16548.html#comments</comments>
		<pubDate>Tue, 15 Jul 2025 11:12:30 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[KVM]]></category>
		<category><![CDATA[kvm]]></category>
		<category><![CDATA[linux]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16548</guid>
		<description><![CDATA[相关连接： 1、Rocky Linux 10.0下安装使用KVM虚拟机 2、Linux下使用KVM虚拟机安装Windows系统 在 KVM 虚拟化环境中，你可以将已经安装好的Linux虚拟机制作成系统镜像模板，供后续快速创建新虚拟机使用。 1、创建一个模板虚拟机 我们使用Rocky-10.0-x86_64-minimal.iso镜像来创建虚拟机 #创建虚拟机 virt-install \ --name rocky10 \ --vcpu 2 \ --memory 4096 \ --disk path=/data/libvirt/images/rocky10.qcow2,size=40,bus=virtio \ --cdrom /data/libvirt/iso/Rocky-10.0-x86_64-minimal.iso \ --network bridge=br0 \ --graphics vnc \ --os-variant rocky10 \ --noautoconsole #虚拟机创建完成后，我们进入web控制台安装系统，直到系统安装完成 2、登录模板虚拟机中进行操作 #模板虚拟机中安装cloud-init工具 #cloud-init工具是实现自动化配置的工具 yum install cloud-init cloud-utils-growpart #验证安装是否成功 rpm -qa &#124; grep cloud-init #查看版本 cloud-init -v [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16548.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16548.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux下使用KVM虚拟机安装Windows系统</title>
		<link>https://www.osyunwei.com/archives/16495.html</link>
		<comments>https://www.osyunwei.com/archives/16495.html#comments</comments>
		<pubDate>Fri, 11 Jul 2025 08:45:47 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[KVM]]></category>
		<category><![CDATA[kvm]]></category>
		<category><![CDATA[linux]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16495</guid>
		<description><![CDATA[相关连接：Rocky Linux 10.0下安装使用KVM虚拟机 简单介绍： 1、在KVM中安装Windows虚拟机时，必须加载virtio-win驱动才能识别virtio磁盘，否则会出现‌找不到驱动器错误。 2、virtio-win驱动下载地址： https://fedorapeople.org/groups/virt/virtio-win/ 3、Windows版本不同，需要的驱动也不一样，高版本的驱动有可能不支持低版本的Windows系统 4、我们安装Windows7和Windows Server 2025这两个操作系统为例来说明在KVM虚拟机安装Windows系统的基本步骤 5、win7适用的virtio-win驱动 https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/virtio-win-0.1.173-9/virtio-win-0.1.173.iso https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/virtio-win-0.1.173-9/virtio-win-gt-x64.msi 6、win2025适用的virtio-win驱动 https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/virtio-win-0.1.271-1/virtio-win-0.1.271.iso https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/virtio-win-0.1.271-1/virtio-win-gt-x64.msi 说明： virtio-win-0.1.173.iso和virtio-win-0.1.271.iso是安装Windows系统需要的磁盘驱动。 virtio-win-gt-x64.msi是在系统安装完成后，进入系统后安装的网卡等驱动程序。 具体操作： 1、上传Windows系统镜像文件到kvm存储池-存储卷 ssh连接到kvm宿主机，上传系统镜像和virtio-win镜像文件到/data/libvirt/iso目录 cn_windows_7_ultimate_with_sp1_x64_dvd_u_677408.iso zh-cn_windows_server_2025_updated_jan_2025_x64_dvd_7a8e5a29.iso virtio-win-0.1.173.iso virtio-win-0.1.271.iso 2、创建kvm虚拟机 2.1创建win7虚拟机 #在ssh命令行操作 virt-install \ --name win7-01 \ --vcpu 2 \ --memory 4096 \ --disk path=/data/libvirt/images/win7-01.qcow2,size=40,bus=virtio \ --cdrom /data/libvirt/iso/cn_windows_7_ultimate_with_sp1_x64_dvd_u_677408.iso \ --disk path=/data/libvirt/iso/virtio-win-0.1.173.iso,device=cdrom \ --network bridge=br0 \ --graphics vnc,port=5901 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16495.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16495.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Rocky Linux 10.0下安装使用KVM虚拟机</title>
		<link>https://www.osyunwei.com/archives/16452.html</link>
		<comments>https://www.osyunwei.com/archives/16452.html#comments</comments>
		<pubDate>Wed, 09 Jul 2025 02:40:09 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[KVM]]></category>
		<category><![CDATA[kvm]]></category>
		<category><![CDATA[linux]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16452</guid>
		<description><![CDATA[KVM虚拟机简介: Kernel-based Virtual Machine的简称，是一个开源的系统虚拟化模块，目前集成在Linux的各个主要发行版本中。 KVM的虚拟化需要硬件支持（如Intel VT技术或者AMD V技术)，是基于硬件的完全虚拟化。 Xen是基于硬件支持的完全虚拟化，但Xen本身有自己的进程调度器，存储管理模块等，所以代码较为庞大。 广为流传的商业系统虚拟化软件VMware ESX系列是基于软件模拟的Full-Virtualization。 系统安装部署：Rocky Linux 10.x系统安装配置图解教程 1、检查cpu是否支持虚拟化 1.1如果是在VMware虚拟机中安装，检查Intel VT设置 在VMware设置中将作为宿主机的Rocky Linux虚拟机的Intel VT或AMD-V功能打勾选中，开启VT虚拟化，才能在虚拟机中创建虚拟机 1.2用下列指令检查cpu是否支持vt： cat /proc/cpuinfo&#124;egrep 'vmx&#124;svm' grep -Ei 'vmx&#124;svm' /proc/cpuinfo 如果有出现vmx或者svm关键字就代表支持虚拟化，vmx代表Intel的CPU，svm代表AMD的CPU 2、关闭selinux sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config setenforce 0 3、防火墙设置 #Rocky Linux默认使用的是firewall作为防火墙 #cockpit的web界面会调用系统默认的firewalld防火墙 #默认端口为9090，需放行该端口或cockpit服务才能远程访问‌ firewall-cmd --add-service=cockpit --permanent #永久放行服务 firewall-cmd --reload #重载配置 firewall-cmd --list-ports #检查已开放端口 firewall-cmd --list-all #显示所有规则（含服务、端口、区域） 4、修改主机名 方便区分宿主机和KVM虚拟化，建议修改宿主机的主机名称 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16452.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16452.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMware ESXi 6.7和vCenter Server 6.7安装部署</title>
		<link>https://www.osyunwei.com/archives/16316.html</link>
		<comments>https://www.osyunwei.com/archives/16316.html#comments</comments>
		<pubDate>Wed, 02 Jul 2025 08:04:52 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[ESXI]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16316</guid>
		<description><![CDATA[组件介绍： 1、VMware ESXi 6.7 VMware ESXi 是 VMware 推出的一种裸金属虚拟化管理程序，可以直接安装在物理服务器上，不需要依赖操作系统。 2、vCenter Server 6.7 vCenter Server 是 VMware 提供的一个集中管理平台，用于统一管理和监控多个 ESXi 主机及其上的虚拟机。 3、分享一个资源下载站： https://sysin.org/blog/vmware/ 4、VMware-ESXi-6.7U3v-24514018-x86_64.iso 百度网盘链接：https://pan.baidu.com/s/1xkSe0hXip7OVospdrayc9Q?pwd=at2a 5、VMware-VCSA-all-6.7.0-24337536.iso 百度网盘链接：https://pan.baidu.com/s/1c1KcZy8futU3S5YsVzQ2eg?pwd=yevn 组件安装： 1、安装VMware ESXi 6.7 VMware-ESXi-6.7U3v-24514018-x86_64.iso 选择第一项安装ESXi-6.7 默认回车 F11 默认回车 默认回车 设置密码，回车 F11进行安装 等待安装完成后 回车 重启系统 正在重启系统 F2进行系统设置 输入登录密码，回车 选择网络设置Configure Management Network选项，回车 选择IPv4 Configuration 回车 用空格选择第三项，设置为静态IP，输入IP、子网掩码、网关 继续选择DNS Configuration 用空格选中第二项，使用自定义的DNS Hostname修改为你需要的主机名字 我们这里使用默认设置就行 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16316.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16316.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>vCenter Server 9.0安装部署</title>
		<link>https://www.osyunwei.com/archives/16267.html</link>
		<comments>https://www.osyunwei.com/archives/16267.html#comments</comments>
		<pubDate>Mon, 30 Jun 2025 07:44:01 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[虚拟化]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16267</guid>
		<description><![CDATA[安装前准备 1、已经安装部署好的ESXi主机 可以参考：VMware ESXi 9.0安装部署 2、vCenter的安装镜像文件 VMware-VCSA-all-9.0.0.0.24755230.iso 百度网盘链接： https://pan.baidu.com/s/13_ZCiH6SJbWNJcq5ZZBiGA?pwd=f3bw 3、客户端设备 具有管理员权限的Windows系统，与ESXi主机网络互通 4、分享一个资源下载站： https://sysin.org/blog/vmware/ 安装流程 1、第一阶段：vCenter基础部署 2、添加域名解析 vCenter 9.0 必须通过FQDN访问，使用IP安装后需手动添加域名解析，否则第二阶段会报错。 3、第二阶段：完成安装与登录验证 具体安装 1、第一阶段：vCenter基础部署 挂载安装镜像，打开vcsa-ui-installer文件夹，再打开win32文件夹，选中installer鼠标右键“以管理员方式运行”打开安装程序 vCenter 9.0已经没有中文界面了，我们使用默认的英文界面来安装 install 安装 下一步 部署vCenter Server 接受许可协议 next 下一步 输入要部署vCenter Server的VMware ESXi主机信息 192.168.21.128 443 root 输入密码 next ACCEPT 同意 设置名称和root密码 名称：VMware vCenter Server 密码：设置密码 next 选择部署大小 根据实际情况选择，我们这里使用默认大小 微型 要节省磁盘空间可以启用精简磁盘模式 NEXT 设置vCenter [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16267.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16267.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMware ESXi 7.0和vCenter Server 7.0安装部署</title>
		<link>https://www.osyunwei.com/archives/16146.html</link>
		<comments>https://www.osyunwei.com/archives/16146.html#comments</comments>
		<pubDate>Mon, 30 Jun 2025 02:27:06 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[虚拟化]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16146</guid>
		<description><![CDATA[组件介绍： 1、VMware ESXi 7.0 VMware ESXi 是 VMware 推出的一种裸金属虚拟化管理程序，可以直接安装在物理服务器上，不需要依赖操作系统。 2、vCenter Server 7.0 vCenter Server 是 VMware 提供的一个集中管理平台，用于统一管理和监控多个 ESXi 主机及其上的虚拟机。 3、分享一个资源下载站： https://sysin.org/blog/vmware/ 4、VMware ESXi 7.0U3v 百度网盘链接：https://pan.baidu.com/s/1AYA7xYoCGGzQbYoeK6INlA?pwd=hfmp 5、VMware vCenter Server 7.0 百度网盘链接：https://pan.baidu.com/s/1VW1byBgarZ9QyLfhPeJKhA?pwd=t8it 组件安装： 1、安装VMware ESXi 7.0 VMware-ESXi-7.0U3v-24723872-x86_64.iso 默认回车 F11 默认回车 默认回车 设置密码，回车 F11进行安装 等待安装完成后 回车 重启系统 F2进行系统设置 输入登录密码，回车 选择网络设置Configure Management Network选项，回车 选择IPv4 Configuration 回车 用空格选择第三项，设置为静态IP，输入IP、子网掩码、网关 继续选择DNS Configuration [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16146.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16146.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>开源虚拟化平台Proxmox VE安装部署</title>
		<link>https://www.osyunwei.com/archives/16088.html</link>
		<comments>https://www.osyunwei.com/archives/16088.html#comments</comments>
		<pubDate>Fri, 27 Jun 2025 03:00:52 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Proxmox]]></category>
		<category><![CDATA[虚拟化]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16088</guid>
		<description><![CDATA[简单介绍：Proxmox全称Proxmox Virtual Environment，简称PVE，是基于Debian的开源虚拟机平台，比ESXi轻量、功能丰富、对硬件要求低，几乎可以在所有x86硬件上运行。 Proxmox官方网站：https://www.proxmox.com/ 下载地址：https://www.proxmox.com/en/downloads/category/iso-images-pve 目前最新版本是：Proxmox VE 8.4Proxmox VE 8.4是基于 Debian 12.10 Bookworm构建的下载系统镜像，使用rufus制作U盘系统盘，注意镜像写入方式选择以DD镜像模式写入。 一、安装Proxmox VE使用系统镜像引导系统，进入下面的界面 Install Proxmox VE  #安装 I agree 同意 Next 下一步 输入c 选择 China 国家：China 时区：Asia/Shanghai 亚洲/上海 键盘默认即可 Next 下一步 设置登录密码、电子邮箱 Next 配置IP地址等信息，根据自己的需求设置 Next Install 安装 正在安装，安装完成后进入下面的界面 二、登录Proxmox VE 在浏览器中输入url地址进行登录 https://192.168.21.153:8006/ 语言切换到中文 输入账号密码，登录 忽略就行 成功登录到web控制台 三、在Proxmox VE中上传系统安装镜像文件 上传 选择下载好的系统镜像文件 点击上传 正在上传中 上传完成，关闭 四、在Proxmox VE中创建虚拟机 创建虚拟机 名称：AnolisOS-8.10 其他选项默认即可 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16088.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16088.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>开源虚拟化平台XCP-ng安装部署</title>
		<link>https://www.osyunwei.com/archives/16007.html</link>
		<comments>https://www.osyunwei.com/archives/16007.html#comments</comments>
		<pubDate>Thu, 26 Jun 2025 02:38:52 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Xen]]></category>
		<category><![CDATA[虚拟化]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16007</guid>
		<description><![CDATA[XCP-ng简单介绍： 1、XCP-ng（Xen Cloud Platform - Next Generation）是一个基于Xen的开源虚拟化平台，源自Citrix Hypervisor（原XenServer）。 2、它由原开发者和社区维护，提供企业级虚拟化功能，支持运行多个操作系统（如Linux、Windows），具备快照、实时迁移、资源池管理等高级特性。 3、适用于私有云、混合云和服务器整合等场景，具有高稳定性、灵活性和可定制性。 官方网站：https://xcp-ng.org/ 镜像下载地址：https://mirrors.xcp-ng.org/isos/8.3/xcp-ng-8.3.0-20250606.iso XCP-ng安装： xcp-ng-8.3.0-20250606.iso镜像成功引导后会进入下面的界面 默认回车即可 键盘设置，默认即可 选择ok 选择Accept EUA 接受最终用户许可协议 默认ok 选择安装磁盘ok 选择LVM磁盘分区格式 ok 我们是从本地镜像安装，选择Local Media ok 不验证安装介质，跳过 ok 设置 root 账户的密码，用来登录系统 网络设置，默认ipv4 ok 设置静态ip地址、网关 ok 设置DNS ok 设置DNS ok 选择Shanghai ok 时间服务器设置，默认即可 ok Install XCP-ng 安装 正在安装中 安装完成 ok 系统重新启动后的界面 登录web管理界面 XCP-ng默认自带一个web管理界面 打开https://192.168.21.83/ 输入管理员账号和密码进行登录 系统登录成功后的界面 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16007.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16007.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMware ESXi 9.0安装部署</title>
		<link>https://www.osyunwei.com/archives/15934.html</link>
		<comments>https://www.osyunwei.com/archives/15934.html#comments</comments>
		<pubDate>Mon, 23 Jun 2025 10:07:31 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[ESXI]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15934</guid>
		<description><![CDATA[组件介绍： 1、VMware ESXi 9.0 VMware ESXi 是 VMware 推出的裸金属虚拟化管理程序，可以直接安装在物理服务器上，不需要依赖操作系统。 2、分享一个资源下载站： https://sysin.org/blog/vmware/ 组件安装： 1、安装VMware ESXi 9.0 VMware-VMvisor-Installer-9.0.0.0.24678710.x86_64.iso 默认回车 F11 默认回车 默认回车 设置密码，回车 F11进行安装 正在安装中 回车重启系统 系统重启中 F2进行系统设置 输入登录密码，回车 选择网络设置Configure Management Network选项，回车 选择IPv4 Configuration 回车 用空格选择第三项，设置为静态IP，输入IP、子网掩码、网关 输入Y保存上面的配置信息 F12 重新系统 输入密码 F11重启系统 系统重启后，ip地址已经是我们设置的固定ip了 打开浏览器，输入账号密码登录，登录成功后，可以看到相关信息，VMware ESXi 9.0安装成功。 VMware ESXi 9.0不再支持中文界面，我们使用默认的英文界面进行操作 2、在VMware ESXi 9.0中创建虚拟机 2.1上传虚拟机镜像文件到存储目录 存储-datastore1 数据存储浏览器 创建目录 目录名称：iso 选择iso [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15934.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15934.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMware ESXi 8.0和vCenter Server 8.0安装部署</title>
		<link>https://www.osyunwei.com/archives/15703.html</link>
		<comments>https://www.osyunwei.com/archives/15703.html#comments</comments>
		<pubDate>Wed, 04 Jun 2025 03:37:16 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[ESXI]]></category>
		<category><![CDATA[vCenter Server]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15703</guid>
		<description><![CDATA[组件介绍： 1、VMware ESXi 8.0 VMware ESXi 是 VMware 推出的一种裸金属虚拟化管理程序，可以直接安装在物理服务器上，不需要依赖操作系统。 2、vCenter Server 8.0 vCenter Server 是 VMware 提供的一个集中管理平台，用于统一管理和监控多个 ESXi 主机及其上的虚拟机。 3、分享一个资源下载站： https://sysin.org/blog/vmware/ 组件安装： 1、安装VMware ESXi 8.0 VMware-VMvisor-Installer-8.0U3e-24674464.x86_64.iso 默认回车 F11 默认回车 默认回车 设置密码，回车 F11进行安装 正在安装中 回车重启系统 系统重启中 F2进行系统设置 输入登录密码，回车 选择网络设置Configure Management Network选项，回车 选择IPv4 Configuration 回车 用空格选择第三项，设置为静态IP，输入IP、子网掩码、网关 继续选择DNS Configuration 回车 用空格选中第二项，使用自定义的DNS，填写DNS Hostname修改为你需要的主机名字 回车 输入Y保存上面的配置信息 F12 重新系统 输入密码 F11重启系统 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15703.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15703.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linux系统下kafka集群使用KRaft模式安装部署</title>
		<link>https://www.osyunwei.com/archives/15684.html</link>
		<comments>https://www.osyunwei.com/archives/15684.html#comments</comments>
		<pubDate>Mon, 26 May 2025 07:10:26 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[kafka]]></category>
		<category><![CDATA[linux]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15684</guid>
		<description><![CDATA[Kafka是由Apache软件基金会开发的一个开源流处理平台，由Scala和Java编写。 操作系统：CentOS-7.x\8.x\‌AnolisOS‌\openEuler\Kylin-Server-V10等 kafka版本：kafka_2.12-3.9.1 三台服务器ip地址： 192.168.21.100，192.168.21.101，192.168.21.128 1、关闭selinux sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config setenforce 0 2、关闭防火墙 kafka默认使用tcp9092端口号，建议在内网环境下部署kafka集群，并且关闭防火墙。 CentOS-7.x默认使用的是firewall作为防火墙，关闭 systemctl stop firewalld.service #停止firewall systemctl disable firewalld.service #禁止firewall开机启动 systemctl mask firewalld systemctl stop firewalld yum remove firewalld 3、安装jdk kafka依赖Java，需要安装java环境，我们使用Java21版本 Linux系统下安装Java JDK：https://www.osyunwei.com/archives/12872.html 4、安装配置zookeeper 在 Kafka 2.8.0 及其以上版本，引入了 KRaft 模式（Kafka Raft Metadata mode），不再依赖 ZooKeeper，所有元数据由 Kafka 自己通过 Raft 协议管理。 使用 Kafka 内部的 Quorum [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15684.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15684.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>不同网段的2个minio集群进行数据迁移</title>
		<link>https://www.osyunwei.com/archives/15615.html</link>
		<comments>https://www.osyunwei.com/archives/15615.html#comments</comments>
		<pubDate>Wed, 26 Mar 2025 16:15:24 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[MinIO]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15615</guid>
		<description><![CDATA[Linux下MinIO分布式安装部署 https://www.osyunwei.com/archives/13787.html 1、源集群和目的集群之间的网络要打通，集群之间要能互访，权限要正常 2、使用MinIO自带的mc命令进行数据迁移 3、在源集群或者目的集群中的任意1个节点上面执行mc命令操作 具体操作： 1、添加minio源集群和目的集群的别名 源集群别名：srcminio 目的集群别名：destminio #进入安装目录 cd /data/server/minio/bin #设置源集群别名 ./mc alias set srcminio http://192.168.128.196:6901 admin admin123 #设置目的集群别名 ./mc alias set destminio http://192.168.253.8:6901 admin admin123 #检测别名 ./mc alias list 2、进行数据同步 cd /data/server/minio/bin ./mc mirror --watch srcminio/ destminio/ #在后台执行 nohup ./mc mirror --watch srcminio/ destminio/ &#62; /data/server/minio/logs/mirror_all_buckets.log 2&#62;&#38;1 &#38; #查看日志 tail -f /data/server/minio/logs/mirror_all_buckets.log [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15615.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15615.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
