先下载ollama
1.官网下载
deepseek-r1:14bhttps://ollama.com/library/deepseek-r1:14b
2.GitHub下载GitHub - ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.
两种方式
安装完后,cmd->ollama run deepseek-r1:14b
用于下载相应大小的模型,我这个是14b,具体可在官网挑选
deepseek-r1:14bhttps://ollama.com/library/deepseek-r1:14b
cmd输入对应指令,会进行下载,已经下载成功了,输入此指令会run,如下
可以输入ollama list查看电脑下载了什么模型
下载模型前,如果不想把模型下载到C盘,可以环境变量设置:OLLAMA_MODELS
OLLAMA_HOST,是因为在ragflow部署的是docker虚拟机(它翻译的是基于linux的win,我理解是基于win的linux系统),要访问本机,需要开这个端口
设置好了环境变量,记得重启,才生效
GitHub上下载ragflow代码解压
GitHub - infiniflow/ragflow: RAGFlow is an open-source RAG (Retrieval-Augmented Generation) engine based on deep document understanding.
找到docker文件夹,修改env文件
注释RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim
取消注释RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
此目的是为了安装全量版本的ragflow,GitHub上有说
在docker文件夹下打开cmd(一定要在docker页面下输入,不然会报错),输入
docker compose -f docker-compose.yml up -d
出现如下错误context canceled,我的解决方法为科学上网
成功下载后,输入docker compose -f docker-compose.yml up -d,界面为:
打开docker,不用sign in,直接continue,skip,到如下界面,可以看到已经启动,container memory usage 为9.23GB,就是前面ollama run deepseek-r1:14b,下载的模型大小。
此时右下角会有2个图标
打开网页,输入localhost:80,打开ragflow,账号密码随便注册(因为是在本地,没限制)
登录过后,点击1.右上角头像;2.模型提供商;3.待添加的模型。
找到ollama,添加模型,deepseek是chat模型,选择chat,模型名称可以在cmd-ollama list查看
url自己本机的ip加端口(前面环境变量记得设置),然后token(随便写),确定。
如果报错,如下,模型名称不要直接粘贴从ollama上复制的ollama run deepseek-r1:14b,把ollama run去掉。我个肺雾,我一直以为是网络不通,在调ip,环境变量,防火墙(还报错,可能防火墙拦截了,直接关掉)
添加成功后,知识库,创建知识库
新增文件(上传自己的知识库),记得解析(圈起来的横三角)
点击聊天,新建助理,选择前面创建的知识库
进行问答