跳到主要内容

自部署 LLM 模型

概述

方案傻瓜式部署支持 CPU有 UI 界面类型
RMKV-RunnerYY(?)Yselfhost
LocalAINYNselfhost
modelscopeYY(?)Y托管
阿里云 PAI-EASYY(?)Y托管
腾讯云 GPU 云服务器NY(?)N托管

selfhost 方案

RMKV-Runner

josStorer/RWKV-Runner - GitHub

跟 ChatGPT 兼容的 API,支持多种显存大小,支持 macOS,有 UI 界面等。但是看起来不是特别适合生产使用。

LocalAI

go-skynet/LocalAI - GitHub

比较像能投入生产使用的 selfhost 方案,部署相对较复杂。但是这个支持纯 CPU。

托管方案

魔搭社区

首页 · 魔搭社区

支持部署到阿里云 PAI-EAS 或 FC,见 文档中心 · 魔搭社区

阿里云 PAI-EAS

LLM_机器学习平台 PAI-阿里云帮助中心

直接选择镜像和模型就能启动,直接就有 API,感觉是最傻瓜式的一款,模型也比较齐全,可以使用 huggingface 或者前面 modelscope 的模型。

腾讯云 GPU 云服务器

StableDiffusion 腾讯云服务器快速部署-腾讯云开发者社区-腾讯云

腾讯云这方面跟进得比较慢,仅有 GPU 云服务器一款产品与此相关。不过基础镜像里面预装了 nvidia-docker 和 GPU 驱动,只需要拉一下对应的 docker 即可部署,勉强算半傻瓜式。