热点排行
    边缘云论坛»论坛 云计算 GPU云主机 查看内容

    0 评论

    0 收藏

    分享

    如何利用算力云 Ollama 镜像快速部署 DeepSeek-R1

    算力云平台已在广东惠州、福建福州、中国台湾、中国香港正式上线Ollama镜像!算力云用户在该地域中选择任意GPU皆可免费使用Ollama镜像轻松部署DeepSeek-R1模型,我们已经将Ollama操作教程汇总在本文中!
    本次教程内容在算力云平台上操作,请确认已注册算力云平台的账号(算力云控制台:www.suanlix.cn)。
    算力云平台已上线 Ollama 镜像,用户需先登录算力云控制台创建GPU实例(点击查看 创建实例 教程)并选择Ollama镜像。
    本次汇总的操作方式有两种:Ollama WebUI  &  Ollama API ,任选其一即可。
    第一种:通过Ollama WebUI 直接对话创建GPU实例后,在连接方式下方点击“Ollama WebUI"进入页面
    进入网页的用户创建管理员账号与密码后,点击「确认,开始使用!
    WebUI如何下载模型在左上角的输入框中输入想要的模型模型名称以及参数或者直接粘贴复制的ollama run命令,从Ollama.com拉取模型。本教程选择“deepseek-r1”并开始下载模型。
    模型下载完成后,Ollama将自动启动DeepSeek-R1,并进入交互模式。
    关于Ollama WebUI的方法到这一步就成功了,此时,你可以直接在终端中输入问题或指令,与DeepSeek-R1进行对话:在终端中输入你的问题或指令,模型会立即生成回复。还可使用DeepSeek-R1生成代码、模型微调、AI编辑工具等任务。
    第二种:通过Ollama API 调用这个方法需要 ssh 进入服务器开启Ollama公网访问。
    先将 /etc/systemd/system/ollama.service 文件内中的  OLLAMA_HOST=localhost:7664 更改为 OLLAMA_HOST=0.0.0.0:7664 并运行以下命令重启 Ollama 服务
    systemctl daemon-reload
    systemctl restart ollama
    在控制台中查看Ollama server服务端口
    https://github.com/ollama/ollama/blob/main/docs/api.md (可直接复制使用)例如:curl http://ip.fz8.suanlix.cn:10039/api/generate -d '{  "model": "deepseek-r1:8b",   "prompt": "你是谁?",  "stream": false}'如何下载模型进入Ollama官网(https://ollama.com/)搜索想要的模型进行下载即可,例如“DeepSeek-r1”。
    再选择模型对应参数,复制运行命令,在服务器终端中运行命令即可。
    大家可以通过算力云提供的GPU资源,结合 Ollama 和 DeepSeek-R1 轻松部署和运行大模型,即使是处理复杂的任务也能提供强大的支持。快前往算力云控制台(suanlix.cn)开启你的大模型探索之旅吧。
    关于镜像使用有疑问的可联系人工客服处理。


    回复

    举报

    全部回复
    暂无回帖,快来参与回复吧
    admin
    管理员
    主题 155
    回复 0
    粉丝 0