Tag Archives: AnythingLLM
手把手教你喂养 DeepSeek 本地模型
上篇文章《手把手教你部署 DeepSeek 本地模型》首发是在公众号,但截止目前只有500多人阅读量,而在自己博客园BLOG同步更新的文章热度很高,目前已达到50000+的阅读量,流量是公众号的100倍。 不管怎样,看来大家还是更喜欢这种真正手把手的教学模式。 在高流量加持下,也得到了更多读者的反馈,从评论区看到大家部署成功后都很兴奋,普遍认为这类教程对新手的帮助很大。 但也有困惑,就是成功部署本地模型之后,除了能在断网模式下也可以和deepseek聊天之外,还有哪些优势呢? 其实从BLOG的评论区已经有读者指出,迫切的想知道下一步究竟该如何喂养这个本地模型,让它可以成为一个更有用的本地私密知识库。 下面就开始 DeepSeek 手把手系列第二篇:《手把手教你喂养 DeepSeek 本地模型》 1.基本概念科普 2.下载 AnythingLLM 软件 3.配置 nomic-embed-text 模型 4.演示如何正确喂养个人数据 5.喂养前后效果对比和缺陷 1.基本概念科普 这里先给AI小白简单科普一下基本概念,便于更好地理解本文中的动手操作。 为什么我这里叫“喂养”DeepSeek 本地模型,是因为大模型再强大也有它天然的局限性,比如训练数据不可能包含你的私域数据,而打造自己的本地私域知识库,就需要检索这些数据,具体采用的是RAG(检索增强生成)方法。 RAG,英文全称是Retrieval-Augmented Generation。简单来讲,采用RAG就需要把你的私域数据向量化,然后存储到向量数据库中,支持向量检索配合LLM大模型一起提供更专业的回复。 2.下载 AnythingLLM 软件 官方网站: – https://anythingllm.com/desktop 下载符合你系统平台的软件,我这里是Apple Intel: 下载好的AnythingLLMDesktop.dmg,dmg文件约300M多点,双击安装并拖至应用程序中: 拖动时可以看到AnythingLLM安装程序有1G大小: 然后打开AnythingLLM,欢迎界面如下: 点击Get Started配置首选LLM,这里我们选择上一篇文章已经教大家配置好的Ollama: … Continue reading