本地电脑部署自己的DeepSeek大模型

image

 

准备工具

    • Ollama:用于简化大型语言模型(LLM)的本地部署和使用,可以同时支持多个大模型,开发者能够方便地在本地环境中运行和测试不同的语言模型,简单的说就是相当于一个容器。
        • 官网地址:https://ollama.com/

    • ChatBox AI:一款用于接入各种大模型的客户端,可以在使用大模型AI时更方便、美观。就是一个UI客户端,用起来更方便快捷。
        • 官网地址:https://chatboxai.app/zh

下载安装Ollama

    1. 首先先下载Ollama,进入官网,官网地址:https://ollama.com/,点击Download
    2. 这里选择自己电脑或者服务器的系统,我的是Windows系统就选择了Windows端下载
    3. 下载好了就是安装了,注意Ollama默认安装是在C盘的,以及下载的大模型数据包也是默认在C盘,所以一定要注意自己C盘的存储空间够用当然我们也有方式改变他的安装路径的(https://www.suyehe.com/?s=自定义Ollama安装路径),如果不想折腾的可以直接点击安装就可以了。
    4. 然后Ollama就会进入安装,点击Install后,Ollama安装好了就会自动启动。
    5. 安装好Ollama后Windows+R,输入CMD进入命令窗口
    6. 输入:ollama -v  有版本号就说明安装好了,在任务栏右下角有个羊驼的图标。

  1.  

  1.  

  1.  

  1.  

  1.  

下载DeepSeek R1模型

    1. 在Ollama官网(https://ollama.com/)点击Models,选择deepseek-r
    2. 这里是选择DeepSeek蒸馏后的密集模型,注意这里的模型要根据自己的电脑性能来下载,如果资源不足,下载了也会跑不起来,我这里我选择的是第一个最小的模型。数字越大,代表参数越多,所需资源也越多,1.5b=15亿参数
    3. 如图所示,复制Ollama选中模型对应的下载命令。
    4. image然后回车开始下载,这里略过下载过程,这里是下载完成后的截图。image

      image

       

    5. 但是这样在CMD窗口使用很不方便和美观,接下来我们就会用到ChatBox接入大模型了

  1.  

  1.  

  1.  

  1.  

 安装ChatBox AI并接入DeepSeek

    1. 下载ChatBox AI,https://chatboxai.app/zh,也可以使用网页版的,这里我下载了客户端,安装过程略过。

      image

       

    1. 选择Ollama API后,然后选择我们下载好的DeepSeek模型,这里如果大家还有其他模型也可以选择对应的模型。

      image

      image

       

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
留言 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码快捷回复

    暂无评论内容