<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>系统运维 &#187; ai</title>
	<atom:link href="http://www.osyunwei.com/archives/tag/ai/feed" rel="self" type="application/rss+xml" />
	<link>https://www.osyunwei.com</link>
	<description>国产化OS/AnolisOS/openEuler/RHEL/CentOS/Rocky Linux/Debian/Ubuntu Linux FreeBSD 服务器教程 &#124; Windows Server 2003/2008/2012/2016/2019/2022/2025服务器教程</description>
	<lastBuildDate>Tue, 14 Apr 2026 10:59:22 +0000</lastBuildDate>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>本地部署OpenClaw+Qwen大模型+接入飞书机器人</title>
		<link>https://www.osyunwei.com/archives/16985.html</link>
		<comments>https://www.osyunwei.com/archives/16985.html#comments</comments>
		<pubDate>Thu, 05 Mar 2026 07:55:13 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Ai]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[OpenClaw]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=16985</guid>
		<description><![CDATA[简单说明： OpenClaw 是一款开源的个人 AI 助手框架，核心定位不是“陪聊机器人”，而是一个“能做事的数字员工”。 与传统 AI 只能回答问题不同，OpenClaw 能够连接你的聊天软件（如飞书、微信、Telegram 等），接收自然语言指令，并自主执行具体的电脑操作或网络任务。 1、OpenClaw的核心设计目标就是跨平台兼容，它可以部署在Linux、macOS和Windows系统上。 2、OpenClaw只能操作它所在的那个环境里的文件，并且只能操作工作区目录下的文件。 3、如果要让OpenClaw自主打开处理电脑里的文件等操作，一般建议使用本地部署，执行更方便。 4、OpenClaw 是基于 Node.js 开发的应用程序，安装OpenClaw的电脑需要先安装Node.js环境。 部署环境： 在本地的Linux系统电脑Ubuntu 24.04.4 LTS中安装部署 #安装并开启ssh服务 sudo apt update sudo apt install openssh-server -y sudo systemctl start ssh sudo systemctl enable ssh sudo ufw allow ssh 一、安装Node.js环境 openclaw需要Node.js才能运行，OpenClaw 是基于 Node.js 开发的，必须运行在 Node 环境中，通常需要 v18 (LTS) 或 v20 (LTS) 甚至更高。 [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/16985.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/16985.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>AI编程神器「Trae」安装使用教程</title>
		<link>https://www.osyunwei.com/archives/15515.html</link>
		<comments>https://www.osyunwei.com/archives/15515.html#comments</comments>
		<pubDate>Wed, 12 Mar 2025 07:05:24 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Ai]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[Trae]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=15515</guid>
		<description><![CDATA[简单介绍： ‌1、Trae‌是由字节跳动推出的国内首个AI原生集成开发环境工具（AI IDE），旨在帮助开发者与AI流畅协作，提升开发效率 2、Trae支持自然语言输入，能够根据开发者的需求自动生成代码框架、进行代码补全和Bug修复等功能 官方网站： https://www.trae.com.cn/ 下载地址： https://www.trae.com.cn/download 目前支持Mac和Windos版本 安装Trae，我们使用Windows版本 下载windows版本 下一步 下一步 安装位置选择，也可以默认 下一步 下一步 安装 正在安装中 完成 开始配置Trae 开始 主题选择，默认即可 跳过就行 跳过 需要用手机号注册登录才可以 需要手机号注册 登录 使用Trae trae有两种模式Chat模式和Builder模式 1、Chat模式适合AI问答辅助学习等流程对话 2、Builder模式则不同，像一个程序员帮你写代码，下面我通过一个自带的一个web版贪吃蛇案例来演示如何使用Builder模式。 支持豆包1.5pro和Deepseek R1、V3三款模型。 可以进行模型切换 我们使用Deepseek R1 使用Trae示例，生成一个web版本的贪吃蛇游戏 &#160; 点击最上面的Builder，即可切换到Builder模式 过程中可能需要你运行它给出的命令，你只需点击运行即可，如果在运行命令的过程中出现任何报错它也会自动帮你修复 这里点全部接受 调试运行需要有python环境 使用浏览器进行测试 打开项目存储位置，用浏览器打开index.html 开始游戏 至此，AI编程神器「Trae」安装使用教程完成。 &#160;&#160;&#160;&#160;&#160;» 本文链接：https://www.osyunwei.com/archives/15515.html» 订阅本站：https://www.osyunwei.com/feed» 转载请注明来源：系统运维 » AI编程神器「Trae」安装使用教程<p><a rel="bookmark" href="https://www.osyunwei.com/archives/15515.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/15515.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Ollama+Open WebUI本地化大模型安装部署</title>
		<link>https://www.osyunwei.com/archives/14837.html</link>
		<comments>https://www.osyunwei.com/archives/14837.html#comments</comments>
		<pubDate>Tue, 31 Dec 2024 01:50:33 +0000</pubDate>
		<dc:creator>qihang01</dc:creator>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Ollama‌]]></category>
		<category><![CDATA[Open WebUI]]></category>
		<category><![CDATA[大模型]]></category>

		<guid isPermaLink="false">https://www.osyunwei.com/?p=14837</guid>
		<description><![CDATA[1、Ollama简介 ‌Ollama‌是一个开源的框架，专为在本地机器上便捷部署和运行大型语言模型（LLM）而设计。它提供了一个简洁且用户友好的命令行界面，使得用户可以轻松地部署和管理各类开源的LLM。 官方网站： https://ollama.com/download https://github.com/ollama/ollama 2、‌Open WebUI‌简介 ‌Open WebUI‌是一个开源的用户界面工具，专为运行和管理大型语言模型（LLM）及其他人工智能功能设计。其主要目的是简化人工智能模型的本地部署和操作，使用户能够通过浏览器界面与各种AI模型进行交互‌。 官方网站： https://github.com/open-webui/open-webui 一、准备篇 操作系统：CentOS-7.x 1、修改默认yum源，截止目前CentOS-7.x官方已经停止维护，yum命令默认已经无法使用。 #配置中科大yum源 mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo-backup vi /etc/yum.repos.d/CentOS-Base.repo #编辑源文件 [base] name=CentOS- - Base baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/os/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [updates] name=CentOS- - Updates baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/updates/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [extras] name=CentOS- - Extras baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/extras/$basearch/ gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 [centosplus] name=CentOS- - Plus baseurl=https://mirrors.ustc.edu.cn/centos-vault/centos/7.9.2009/centosplus/$basearch/ gpgcheck=1 enabled=0 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 :wq! #保存退出 yum clean all [...]<p><a rel="bookmark" href="https://www.osyunwei.com/archives/14837.html" target="_blank">查看全文</a></p>]]></description>
		<wfw:commentRss>https://www.osyunwei.com/archives/14837.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
