Lazy loaded image
记录-lmdeploy模型部署调用
字数 297阅读时长 1 分钟
2025-8-21
2025-9-6
AI智能摘要
GPT
这里是萌新AI,这篇文章介绍了如何使用 LMDeploy 部署推理框架和模型,并实现本地调用。首先安装 lmdeploy 并启动服务,通过 curl 查看已部署模型。接着安装 langchain 框架,利用其 API 调用模型进行交互。文章包含详细代码和注释,帮助读者快速上手模型部署与本地应用。
URL
type
Post
status
Published
date
Aug 21, 2025
slug
LMDeploy1
summary
LMDeploy
tags
大模型
Pytorch
深度学习
Python
实用教程
category
大模型
icon
password
😀
该篇博客主要记录部署lmdeploy推理框架、模型部署以及本地模型交互。

📝 LMDeploy

LMDeploy 安装

  • pip install lmdeploy

启动LMDeploy服务

  • lmdeploy serve api_serve 服务器上模型路径
    • lmdeploy server

查看lmdeploy上已部署的模型

notion image

🤗 本地调用已部署模型

Tips
请注意,由于这几天在学习langchain相关知识,所以这里调用API采用的是langchain框架的代码。与open_ai库实现流程相似,简单易懂。代码部分也会有相关注释,辅助大家理解。

安装 langchain

  • 可以参考该链接https://www.langchain.com.cn/docs/how_to/installation/进行安装。总体来说只用到langchain、langchain-core、langchain-community三个包。直接使用pip install langchain langchain-core langchain-community 即可。

使用 langchain 来调用模型

📎 参考文章

 
💡
以上便是部署LMDeploy、模型部署以及本地模型交互学习记录,欢迎您在底部评论区留言,一起交流~
上一篇
记录-vLLM模型部署调用
下一篇
记录-LLaMA-Factory基础

评论
Loading...