小白友好!Xinference-v1.17.1安装全攻略,附国内镜像加速方法

张开发
2026/4/12 18:11:59 15 分钟阅读

分享文章

小白友好!Xinference-v1.17.1安装全攻略,附国内镜像加速方法
小白友好Xinference-v1.17.1安装全攻略附国内镜像加速方法你是否想在自己的电脑上运行开源大模型但又担心复杂的安装过程Xinference-v1.17.1可以帮你轻松实现这个愿望。本文将手把手教你如何快速安装和使用这个强大的AI模型推理平台即使你是完全的新手也能轻松上手。1. Xinference是什么为什么选择它Xinference全称Xorbits Inference是一个开源平台它能让你在自己的电脑、服务器或云环境中轻松运行各种AI模型。与其他工具相比它有以下几个突出优势一键切换模型只需修改一行代码就能从GPT切换到其他开源大模型支持多种模型不仅能运行文本生成模型还能处理图片、语音等多模态任务硬件要求低无论你用的是高性能GPU还是普通CPU都能找到合适的运行方式简单易用提供Web界面、命令行和API三种使用方式满足不同用户需求2. 安装前的准备工作2.1 系统要求在开始安装前请确保你的电脑满足以下最低要求操作系统Windows 10/11、macOS 10.15或Linux推荐Ubuntu 20.04内存至少4GB运行大模型建议8GB以上存储空间至少10GB可用空间Python版本3.8-3.112.2 创建Python虚拟环境推荐为了避免与其他Python项目冲突我们建议先创建一个独立的虚拟环境# 创建虚拟环境 python -m venv xinference-env # 激活虚拟环境 # Windows: xinference-env\Scripts\activate # Linux/macOS: source xinference-env/bin/activate激活后你的命令行提示符前会出现(xinference-env)字样表示已在虚拟环境中。3. 安装Xinference-v1.17.13.1 基础安装在虚拟环境中执行以下命令安装Xinferencepip install xinference1.17.1这个命令会自动安装Xinference及其所有依赖项。安装完成后可以通过以下命令验证是否安装成功xinference --version如果看到输出xinference 1.17.1说明安装成功。3.2 国内用户加速安装可选如果你在国内可能会遇到下载速度慢的问题。可以使用国内镜像源加速安装pip install xinference1.17.1 -i https://pypi.tuna.tsinghua.edu.cn/simple4. 启动Xinference服务4.1 基本启动方式安装完成后可以通过以下命令启动Xinference服务xinference start --host 0.0.0.0 --port 9997参数说明--host 0.0.0.0允许从其他设备访问--port 9997指定服务端口可自定义启动成功后你会看到类似下面的输出INFO: Started server process [12345] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:9997 (Press CTRLC to quit)4.2 使用国内镜像加速模型下载重要Xinference默认从Hugging Face下载模型国内用户可能会遇到下载慢或失败的问题。可以通过以下两种方式使用国内镜像方法一通过环境变量HF_ENDPOINThttps://hf-mirror.com xinference start --host 0.0.0.0 --port 9997方法二修改配置文件在用户主目录下的.xinference文件夹中创建或修改config.json文件{ huggingface_endpoint: https://hf-mirror.com }5. 使用Xinference Web界面服务启动后打开浏览器访问http://localhost:9997你将看到Xinference的Web界面。5.1 界面主要功能Models管理已加载的模型Chat与模型进行对话Documents文档问答功能Settings系统设置5.2 加载第一个模型让我们加载一个适合新手的小模型点击Models标签页点击右上角的Add Model按钮在弹出窗口中Model Type选择LLMModel Format选择gguf适合CPU运行Model Size选择1.5BModel Name输入qwen2-1.5b-instruct点击Submit按钮等待几分钟首次使用需要下载模型模型状态变为Running后就可以使用了。6. 验证安装是否成功6.1 通过命令行验证xinference list如果看到你刚加载的模型信息说明一切正常。6.2 通过API验证可以使用curl命令测试API是否正常工作curl http://localhost:9997/v1/models应该会返回包含已加载模型信息的JSON数据。6.3 通过Web界面聊天测试点击Chat标签页选择你加载的模型输入问题如你好查看模型回复如果能看到模型的回复恭喜你安装完全成功7. 常见问题解决7.1 安装失败怎么办确保Python版本符合要求尝试使用--user参数安装pip install --user xinference1.17.1检查网络连接特别是国内用户建议使用镜像源7.2 模型下载慢或失败务必使用前面介绍的国内镜像方法检查.xinference目录下的config.json是否配置正确可以手动下载模型文件放到~/.xinference/model目录下7.3 内存不足怎么办选择更小的模型如1.5B而不是7B使用量化版本在模型名称后加-q4等关闭其他占用内存的程序8. 进阶使用建议8.1 常用命令备忘查看帮助xinference --help启动服务xinference start加载模型xinference launch --model-name 模型名 --model-type llm列出模型xinference list停止模型xinference terminate --model-id 模型ID8.2 推荐的入门模型中文小模型qwen2-1.5b-instruct1.5B参数中文效果好英文小模型phi-3-mini-4k-instruct3.8B参数英文能力强多模态模型llava-1.5-7b支持图文对话8.3 设置开机自启动Linux如果你使用的是Linux系统可以设置Xinference开机自动启动创建服务文件/etc/systemd/system/xinference.service[Unit] DescriptionXinference Service Afternetwork.target [Service] User你的用户名 ExecStart/path/to/xinference-env/bin/xinference start --host 0.0.0.0 --port 9997 Restartalways EnvironmentHF_ENDPOINThttps://hf-mirror.com [Install] WantedBymulti-user.target启用并启动服务sudo systemctl enable xinference sudo systemctl start xinference9. 总结通过本文你已经学会了如何安装Xinference-v1.17.1使用国内镜像加速安装和模型下载启动服务并加载第一个模型通过多种方式验证安装是否成功解决常见问题的方法Xinference是一个非常强大的工具它能让你轻松地在本地运行各种AI模型。现在你可以开始探索更多模型和功能了获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章