<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>系统运维 &#187; Ollama‌</title>
	<atom:link href="http://www.osyunwei.com/archives/tag/ollama%e2%80%8c/feed" rel="self" type="application/rss+xml" />
	<link>https://www.osyunwei.com</link>
	<description>国产化OS/AnolisOS/openEuler/RHEL/CentOS/Rocky Linux/Debian/Ubuntu Linux FreeBSD 服务器教程 &#124; Windows Server 2003/2008/2012/2016/2019/2022/2025服务器教程</description>
	<lastBuildDate>Tue, 14 Apr 2026 10:59:22 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Linux下DeepSeek+Ollama‌+Dify搭建本地知识库</title>
		<link>https://www.osyunwei.com/archives/15316.html</link>
		<comments>https://www.osyunwei.com/archives/15316.html#comments</comments>
		<pubDate>Mon, 17 Feb 2025 10:42:58 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Dify]]></category>
		<category><![CDATA[Ollama‌]]></category>
		<category><![CDATA[大模型]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15316</guid>
		<description><![CDATA[组件简介： 1、DeepSeek： 提供强大的文本理解和生成能力。 作为语言模型的核心，负责生成高质量的回答。 2、Ollama： 作为一个开源框架，管理 DeepSeek 模型的加载和推理。 支持多种大模型，提供轻量级的接口。 3、Dify： Dify 是一个开源的项目，旨在为开发者和企业提供一站式的大语言模型（LLM）应用开发解决方案。 它可以帮助用户快速构建、定制和部署基于大语言模型的应用程序，而无需深入理解复杂的底层技术细节。 系统环境： 这里使用Rocky Linux 9.x系统部署 CPU ：4核 内存： 16GB 磁盘： 150GB 一、准备篇 1、禁用SELinux rpm -q grubby #确认grubby软件包是否已经安装 grubby --update-kernel ALL --args selinux=0 #添加selinux=0到内核​​命令行 shutdown -r now #重启系统 getenforce #查看结果为Disabled 2、防火墙设置 Rocky Linux 9.x默认是firewalld防火墙，因为‌Docker需要iptables，我们这里卸载firewall，安装iptables作为防火墙，并清空防火墙规则 2.1关闭firewall systemctl stop firewalld.service systemctl disable firewalld.service systemctl mask firewalld [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15316.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15316.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>DeepSeek+Ollama‌+RAGFlow搭建本地知识库</title>
		<link>https://www.osyunwei.com/archives/15250.html</link>
		<comments>https://www.osyunwei.com/archives/15250.html#comments</comments>
		<pubDate>Wed, 12 Feb 2025 07:07:06 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Ollama‌]]></category>
		<category><![CDATA[RAGFlow]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15250</guid>
		<description><![CDATA[组件简介： 1、DeepSeek： 提供强大的文本理解和生成能力。 作为语言模型的核心，负责生成高质量的回答。 2、Ollama： 作为一个开源框架，管理 DeepSeek 模型的加载和推理。 支持多种大模型，提供轻量级的接口。 3、RAGFlow： 实现检索增强生成（Retrieval-Augmented Generation）。 结合向量数据库（如 Elasticsearch 等）进行高效检索。 将检索到的相关文档片段与语言模型结合，生成更准确的回答。 系统环境： 这里使用Rocky Linux 9.x系统部署 CPU ：4核 内存： 16GB 磁盘： 150GB 准备篇 1、禁用SELinux rpm -q grubby #确认grubby软件包是否已经安装 grubby --update-kernel ALL --args selinux=0 #添加selinux=0到内核​​命令行 shutdown -r now #重启系统 getenforce #查看结果为Disabled 2、防火墙设置 Rocky Linux 9.x默认是firewalld防火墙，因为‌Docker需要iptables，我们这里卸载firewall，安装iptables作为防火墙，并清空防火墙规则 2.1关闭firewall systemctl stop firewalld.service systemctl disable firewalld.service [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15250.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15250.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Ollama+Open WebUI本地化大模型安装部署</title>
		<link>https://www.osyunwei.com/archives/14837.html</link>
		<comments>https://www.osyunwei.com/archives/14837.html#comments</comments>
		<pubDate>Tue, 31 Dec 2024 01:50:33 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Ollama‌]]></category>
		<category><![CDATA[Open WebUI]]></category>
		<category><![CDATA[大模型]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14837</guid>
		<description><![CDATA[1、Ollama简介 ‌Ollama‌是一个开源的框架，专为在本地机器上便捷部署和运行大型语言模型（LLM）而设计。它提供了一个简洁且用户友好的命令行界面，使得用户可以轻松地部署和管理各类开源的LLM。 官方网站： https://ollama.com/download https://github.com/ollama/ollama 2、‌Open WebUI‌简介 ‌Open WebUI‌是一个开源的用户界面工具，专为运行和管理大型语言模型（LLM）及其他人工智能功能设计。其主要目的是简化人工智能模型的本地部署和操作，使用户能够通过浏览器界面与各种AI模型进行交互‌。 官方网站： https://github.com/open-webui/open-webui 一、准备篇 操作系统：CentOS-7.x 1、修改默认yum源，截止目前CentOS-7.x官方已经停止维护，yum命令默认已经无法使用。 #配置中科大yum源 mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo-backup vi /etc/yum.repos.d/CentOS-Base.repo #编辑源文件 [base] name=CentOS- - Base baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/os/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [updates] name=CentOS- - Updates baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/updates/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [extras] name=CentOS- - Extras baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/extras/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [centosplus] name=CentOS- - Plus baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/centosplus/$basearch/ gpgcheck=1 enabled=0 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 :wq! #保存退出 yum clean all [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14837.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14837.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
