Tag Archives: AI
PPT革命!DeepSeek+Kimi=N小时工作5分钟完成?
在之前的三篇文章中,笔者介绍了有关DeepSeek的基础操作,满足了不同类型的用户需求。 想利用大模型构建属于自己的智能知识库,无论你是想私有化部署,还是直接使用API调用,都可以在这三篇文章中找到答案。 手把手系列教程1:手把手教你部署 DeepSeek 本地模型 手把手系列教程2:手把手教你喂养 DeepSeek 本地模型 手把手系列教程3:手把手教你更优雅的享受 DeepSeek 今天,我们暂时抛开知识库这类的聊天问答场景,看看DeepSeek能直接给我们打工人带来什么直接的好处。 这个话题比较大,本期就先以我们打工人最常见的苦恼来举例吧,是什么呢? 对,就是PPT,相信每个职场人一定都经历过那种加班加点去撰写和美化PPT的场景,深夜改第8版PPT的职场人第二天还要挤早班地铁赶去给客户做汇报,充满了辛酸,打工人真是太难了! 但实际上,PPT中的核心内容,每个制作人心里都清楚,但要给客户讲解总是需要PPT做展示,做的太丑又显得不尊重客户似的。 今天就给大家带来一种利用AI制作PPT的方法,还没尝试过的同学,按照笔者下面给出的手把手教程做一遍,保准儿能彻底颠覆你的认知。 1.使用DeepSeek生成PPT内容提纲 2.使用Kimi一键生成PPT文件 1.使用DeepSeek生成PPT内容提纲 首先,我们可以直接跟DeepSeek聊天提要求,进入DeepSeek聊天界面: https://chat.deepseek.com/ 这里演示最简单的方式,就下面一句话: 请以Markdown格式输出一份关于DeepSeek的PPT,面向初学者。 拷贝DeepSeek生成的PPT内容提纲如下(Markdown格式): # DeepSeek 深度求索:AI探索者指南 ## 目录 1. 什么是DeepSeek? 2. 核心技术解析 3. 典型应用场景 4. 核心竞争优势 5. 未来发展方向 — ### … Continue reading
手把手教你更优雅的享受 DeepSeek
开始之前,首先要确定你已经配置好Ollama软件并正常运行DeepSeek本地模型。如果这一步还不清楚,请翻看之前的手把手教程《手把手教你部署 DeepSeek 本地模型》。 本文是手把手教程系列第3篇,包含内容如下: 1.如何使用浏览器调用DeepSeek 2.为何使用最小DeepSeek模型演示 3.使用API方式免费体验满血版DeepSeek 1.如何使用浏览器调用DeepSeek 先前教程中,在UI界面实现这部分,给大家推荐的是 Chatbox 桌面软件,这是为了更多的小白能够没有任何门槛的直接上手实践。 但实际上,对于有梯子的读者,还有一种更加简单、轻量且优雅的Web调用方案: 只需要在Chrome浏览器中添加扩展程序 Page Assist,就可以实现在Web端更优雅的调用本地 AI 模型。 – Page Assist – 本地 AI 模型的 Web UI 注: – 1.Page Assist插件安装好之后,也可实现在无网环境下,通过Web UI随时和本地部署的各种大模型畅快聊天。 – 2.如果你的机器是全周期无法上网的,还可以下载对应Page Assist的离线安装包,手动安装即可。 下面演示下具体步骤。 打开Chrome浏览器,在地址栏输入扩展程序的网址: – chrome://extensions/ 这里点击Chrome 应用商店并搜索扩展程序 … Continue reading
手把手教你喂养 DeepSeek 本地模型
上篇文章《手把手教你部署 DeepSeek 本地模型》首发是在公众号,但截止目前只有500多人阅读量,而在自己博客园BLOG同步更新的文章热度很高,目前已达到50000+的阅读量,流量是公众号的100倍。 不管怎样,看来大家还是更喜欢这种真正手把手的教学模式。 在高流量加持下,也得到了更多读者的反馈,从评论区看到大家部署成功后都很兴奋,普遍认为这类教程对新手的帮助很大。 但也有困惑,就是成功部署本地模型之后,除了能在断网模式下也可以和deepseek聊天之外,还有哪些优势呢? 其实从BLOG的评论区已经有读者指出,迫切的想知道下一步究竟该如何喂养这个本地模型,让它可以成为一个更有用的本地私密知识库。 下面就开始 DeepSeek 手把手系列第二篇:《手把手教你喂养 DeepSeek 本地模型》 1.基本概念科普 2.下载 AnythingLLM 软件 3.配置 nomic-embed-text 模型 4.演示如何正确喂养个人数据 5.喂养前后效果对比和缺陷 1.基本概念科普 这里先给AI小白简单科普一下基本概念,便于更好地理解本文中的动手操作。 为什么我这里叫“喂养”DeepSeek 本地模型,是因为大模型再强大也有它天然的局限性,比如训练数据不可能包含你的私域数据,而打造自己的本地私域知识库,就需要检索这些数据,具体采用的是RAG(检索增强生成)方法。 RAG,英文全称是Retrieval-Augmented Generation。简单来讲,采用RAG就需要把你的私域数据向量化,然后存储到向量数据库中,支持向量检索配合LLM大模型一起提供更专业的回复。 2.下载 AnythingLLM 软件 官方网站: – https://anythingllm.com/desktop 下载符合你系统平台的软件,我这里是Apple Intel: 下载好的AnythingLLMDesktop.dmg,dmg文件约300M多点,双击安装并拖至应用程序中: 拖动时可以看到AnythingLLM安装程序有1G大小: 然后打开AnythingLLM,欢迎界面如下: 点击Get Started配置首选LLM,这里我们选择上一篇文章已经教大家配置好的Ollama: … Continue reading
手把手教你部署 DeepSeek 本地模型
本文目标:部署 DeepSeek 本地模型,并通过 Ollama 提供 API 支持,Chatbox 提供 UI 界面。 原则:不搞那些高深的玩法,让小白也能理解并真正的上手实践。 1.下载Ollama并安装运行DeepSeek 2.下载Chatbox并配置为本地DeepSeek 3.无需联网也能和DeepSeek畅快聊天 1.下载Ollama并安装运行DeepSeek 从Ollama官方网站下载Ollama: – https://ollama.com/ 进入Ollama官方网站后,可以看到Ollama已经支持DeepSeek-R1的部署: 点击DeepSeek-R1的链接可以看到有关deepseek-r1的详细介绍: 目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b。 因为我笔记本的显卡配置较低,所以这里只能选择最小的1.5b模型来做演示: 你可以根据你的硬件情况选择,通常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源。 点击Download按钮下载符合自己平台的Ollama: 我这里选择macOS,点击下载。 下载文件大小不到200M,文件名为:Ollama-darwin.zip。 解压后打开Ollama应用程序,提示: 点击Install安装ollama。 按照提示,打开终端,使用 Command + Space 快捷键调用 terminal: 这里Ollama默认给出的例子是下载/运行llama3.2大模型, 我们这里不使用这个llama3.2模型,直接下载/运行deepseek,参数选择最小的1.5b,在终端窗口运行下面命令: ollama run deepseek-r1:1.5b jingyuzhao@jingyuzhao-mac … Continue reading
免费考AI OCP认证,附通关秘籍!
这是一个能让你快速熟悉AI相关技能的考试,由Oracle官方提供,而且限时免费。 它就是OCI Generative AI Professional。 可以看到,目前免费政策正在执行,到今年的7月31号截止,有想法的小伙伴们要抓紧学习了。 具体信息可参考OU官方的介绍:全新推出OCI Generative AI免费认证 最近刚考完这个认证,下面具体来分享实际考这个认证的经验,可作为通关秘籍,帮助大家建立信心。 整个通关过程涉及到4个部分: 其中第一部分OCI Generative AI Professional是这个认证配套的培训课程,一共6h+,非常经典,认真听讲一定会受益匪浅的。 即便你没有需求一定要通过这个考试,了解课程中讲到的一些概念,对加深AI LLM基础原理的理解也是非常有帮助,课程中举的例子都是那种相当简单易懂的类型。 在第一个部分中的重点章节会穿插有本节小测试,给出的5道题答对4道就OK,基本认真听讲都没问题,如果这里正确率没有达标,说明在课程的某些地方走神了,需要回过头来认真听再重新测试就可以。 还有个小技巧,遇到当时不能理解的,先记下来,完整听一遍后回头再看,比如T-Few这些的概念之类。 估计有很多人会习惯性的以为看完这个课程就可以直接约考试了,但实际上后面的才是秘籍所在,可以说都是实打实的帮你提升通过考试的概率。具体来说: 第二部分Prepare for OCI Generative AI Professional Certification,就是在告诉你如何答题,这个部分给出的9道示例题,很多都是在你实际考试中会出现的原题或是母题。而且讲师会手把手的带你分析如何选出正确答案。 第三部分Practice Exam: OCI Generative AI Professional Certification,更是直接给你25道题做练习测试,不过这里的设计是,你答对了会有解析,答错了就只会告诉你答错了,不会告诉你正确答案也没有解析,但这也相当于帮助你排除了一个错误答案。这些题感觉上也有不少原题或是母题,非常利于提升考试成绩。 总之,第二第三部分同样非常重要!!! 如果轻视了第二第三部分,比如只看了第一部分的课程去考试,是擦边通过的水平(40道题答对26道是65分),但若能在这个基础上,好好利用第二第三部分的内容,就会大幅提升你的考试成绩,感觉会到90分左右,这就是最关键的通关秘籍喽~ 当前面三个部分都认真完成之后,恭喜你,离成功就差一次真正的考试了,第四部分就是指导你预约一个合适的时间,准备好自己的身份证件,找一个安静的地方,按要求check in,考官提示你OK,给你一个码输入后,就可以正常开始考试了,考试通过后会收到类似这样的OCP证书,和传统DB类证书没有有效期不同,这个证书的有效期是2年: 最后祝大家都能顺利通过这个考试,同时对AI的理解更上一层楼。 Good … Continue reading
AI热点概念解读:一文搞懂这些热词
自 ChatGPT 问世以来,AI的风口就来了。 AI是一门研究如何使计算机具有类似人类智能的学科。 自从ChatGPT-3.5给大家带来了极大的震惊之后,全民都在谈论AI,在这个AI大时代背景之下,如果你想进一步了解AI相关热词含义,从而更好的理解当下AI的基础原理,本文就不容错过。 如今,当你找专业人士解释一些关于AI的基础概念,最大的问题就是,你也许只是想简单的了解一个热词的简单解释,回答者跟你解释时,却引入了更多你不熟悉的新概念。 当你不得不追问这些新概念的含义时,却发现又引入了一堆新词,此刻是不是感觉头都大了?其实这么多新词和概念也很难通过一次简短的询问来搞懂并厘清期间的关系。 如果你也有这样的困惑,无论是提问方还是解答方,都可以利用这篇文章来帮助自己理解或辅助回答。 下面我们就从最熟悉的ChatGPT切入提问,看看都有哪些AI相关高频词汇,又各自是什么意思。 ChatGPT 是什么? ChatGPT是一种LLM(大语言模型),具体是由OpenAI开发的一种聊天型生成预训练模型。它基于GPT架构,专门设计用于处理自然语言对话和生成有意义的回应。 LLM(大语言模型)是什么? LLM英文全称是:Large Language Model。 大语言模型通常是指参数规模庞大、在大规模语料库上进行训练的自然语言处理模型。 另外LLM也不止OpenAI的GPT一种,还有其他很多家,比如Meta的Llama 2,以及更专注于企业应用的Cohere等。 OpenAI 是什么? OpenAI是一个人工智能研究实验室,致力于推动人工智能的发展。 OpenAI 是许多先进语言模型的背后力量,其中最著名的就是 GPT 系列。 GPT 是什么? GPT 全称是 “Generative Pre-trained Transformer”,翻译成中文是”生成式预训练转换器”。 GPT 是 OpenAI 提出的一系列预训练语言模型,它采用了 Transformer 架构。这些模型在大规模文本数据上进行预训练,学习了丰富的语言知识,可以用于各种自然语言处理任务。 Transformer … Continue reading