<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>本地AI on Harry&#39;s Blog</title>
    <link>https://sudo-djug.xyz/tags/%E6%9C%AC%E5%9C%B0ai/</link>
    <description>Recent content in 本地AI on Harry&#39;s Blog</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sun, 04 May 2025 00:00:00 +0800</lastBuildDate>
    <atom:link href="https://sudo-djug.xyz/tags/%E6%9C%AC%E5%9C%B0ai/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>用Dify搭建个人AI Agent</title>
      <link>https://sudo-djug.xyz/posts/2025-05-04-dify-ai-agent/</link>
      <pubDate>Sun, 04 May 2025 00:00:00 +0800</pubDate>
      <guid>https://sudo-djug.xyz/posts/2025-05-04-dify-ai-agent/</guid>
      <description>&lt;h1 id=&#34;用dify搭建个人ai-agent&#34;&gt;用Dify搭建个人AI Agent&lt;/h1&gt;
&lt;p&gt;&lt;em&gt;Dify&lt;/em&gt; 是一个开源的 &lt;em&gt;LLM&lt;/em&gt; 应用开发平台，最近体验了一下，搭建个人 &lt;em&gt;Agent&lt;/em&gt; 比从零写代码省事太多。&lt;/p&gt;
&lt;p&gt;部署用的 &lt;em&gt;Docker Compose&lt;/em&gt;：&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;git clone https://github.com/langgenius/dify.git
cd dify/docker
docker compose up -d
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;默认会用 &lt;em&gt;OpenAI&lt;/em&gt; 的 API，但我在设置里改成了本地 &lt;em&gt;Ollama&lt;/em&gt; 的地址，这样就可以完全离线使用了。&lt;/p&gt;
&lt;p&gt;目前搭了几个小助手：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;技术文档总结助手&lt;/strong&gt;：把长文档丢进去，自动提取关键信息生成摘要&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Shell命令生成器&lt;/strong&gt;：描述需求，自动生成可执行的命令并解释原理&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;日报生成器&lt;/strong&gt;：读取 &lt;em&gt;Notion&lt;/em&gt; 里的今日笔记，自动整理成结构化日报&lt;/li&gt;
&lt;/ul&gt;
&lt;h6 id=&#34;比直接调api的优势&#34;&gt;比直接调API的优势&lt;/h6&gt;
&lt;ul&gt;
&lt;li&gt;有可视化的 &lt;em&gt;Prompt&lt;/em&gt; 编排界面&lt;/li&gt;
&lt;li&gt;内置 &lt;em&gt;RAG&lt;/em&gt; 知识库，可以挂载自己的文档&lt;/li&gt;
&lt;li&gt;工作流模式支持多步骤 &lt;em&gt;Agent&lt;/em&gt; 协作&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;p&gt;&lt;em&gt;AI Agent&lt;/em&gt; 的方向确实是趋势，未来应该会把更多日常事务交给 Agent 处理。Dify 作为入门平台很合适，等更复杂的需求再考虑自己写框架。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Ollama本地大模型体验</title>
      <link>https://sudo-djug.xyz/posts/2024-11-30-ollama-local-llm/</link>
      <pubDate>Sat, 30 Nov 2024 00:00:00 +0800</pubDate>
      <guid>https://sudo-djug.xyz/posts/2024-11-30-ollama-local-llm/</guid>
      <description>&lt;h1 id=&#34;ollama本地大模型体验&#34;&gt;Ollama本地大模型体验&lt;/h1&gt;
&lt;p&gt;大模型越来越火，但在线服务要么收费、要么有隐私顾虑。发现 &lt;em&gt;Ollama&lt;/em&gt; 之后，本地跑大模型变得异常简单。&lt;/p&gt;
&lt;p&gt;安装就是一条命令：&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;curl -fsSL https://ollama.com/install.sh | sh
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;装完之后拉模型：&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;ollama pull qwen2.5:7b
ollama run qwen2.5:7b
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;&lt;em&gt;7B&lt;/em&gt; 模型在我的 &lt;em&gt;3060 12G&lt;/em&gt; 上跑得很流畅，推理速度大概 20 tokens/s，日常问答完全够用。又试了 &lt;em&gt;llama3.1:8b&lt;/em&gt; 和 &lt;em&gt;deepseek-coder:6.7b&lt;/em&gt;，后者写代码辅助效果不错。&lt;/p&gt;
&lt;h6 id=&#34;配合其他工具使用&#34;&gt;配合其他工具使用&lt;/h6&gt;
&lt;ul&gt;
&lt;li&gt;&lt;em&gt;Open WebUI&lt;/em&gt;：给 Ollama 套一个漂亮的 Web 界面&lt;/li&gt;
&lt;li&gt;&lt;em&gt;Continue.dev&lt;/em&gt;：在 VS Code 里直接调用本地模型补全代码&lt;/li&gt;
&lt;li&gt;&lt;em&gt;Dify&lt;/em&gt;：后面打算接进去做 &lt;em&gt;Agent&lt;/em&gt; 的底层模型&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;p&gt;本地跑模型的优势是隐私和可控，劣势是参数量受限。不过日常任务 &lt;em&gt;7B-13B&lt;/em&gt; 的模型已经能应付大部分场景了。算力平民化的时代真的来了。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地部署Stable Diffusion</title>
      <link>https://sudo-djug.xyz/posts/2023-07-22-stable-diffusion-local/</link>
      <pubDate>Sat, 22 Jul 2023 00:00:00 +0800</pubDate>
      <guid>https://sudo-djug.xyz/posts/2023-07-22-stable-diffusion-local/</guid>
      <description>&lt;h1 id=&#34;本地部署stable-diffusion&#34;&gt;本地部署Stable Diffusion&lt;/h1&gt;
&lt;p&gt;&lt;em&gt;AI&lt;/em&gt; 绘画火了大半年，一直在用在线版，但免费额度总是不够用。趁着显卡降价，入了一块 &lt;em&gt;RTX 3060 12G&lt;/em&gt;，决定本地部署 &lt;em&gt;Stable Diffusion WebUI&lt;/em&gt;。&lt;/p&gt;
&lt;p&gt;部署用的是 &lt;a href=&#34;https://github.com/AUTOMATIC1111/stable-diffusion-webui&#34;&gt;AUTOMATIC1111&lt;/a&gt; 的版本，克隆仓库之后运行：&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;./webui.sh --xformers
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;第一次启动会自动下载模型，大概 4GB 左右，耐心等待即可。&lt;/p&gt;
&lt;p&gt;生成一张 512x512 的图片大概 3-5 秒，比在线版快多了。试了几个热门的 &lt;em&gt;Checkpoint&lt;/em&gt; 模型和 &lt;em&gt;LoRA&lt;/em&gt;，效果确实惊艳。&lt;/p&gt;
&lt;h6 id=&#34;显存优化小贴士&#34;&gt;显存优化小贴士&lt;/h6&gt;
&lt;ul&gt;
&lt;li&gt;开启 &lt;code&gt;--xformers&lt;/code&gt; 可以节省显存&lt;/li&gt;
&lt;li&gt;高分辨率图用 &lt;em&gt;Hires.fix&lt;/em&gt; 分步生成&lt;/li&gt;
&lt;li&gt;&lt;em&gt;ControlNet&lt;/em&gt; 插件功能很强，但需要额外显存&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;p&gt;本地跑 AI 的感觉很奇妙，算力掌握在自己手里。接下来想研究一下 &lt;em&gt;ComfyUI&lt;/em&gt; 的工作流模式，据说更灵活。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
