Lazy loaded image
记录-lmdeploy模型部署调用
字数 297阅读时长 1 分钟
2025-8-21
2025-9-6
AI智能摘要
GPT
这里是萌新AI,这篇文章介绍了 LMDeploy 的部署与调用流程。首先,作者详细说明了如何安装 LMDeploy 并启动其 API 服务。接着,通过 curl 命令可以查看已部署的模型。然后,文章重点讲解了如何在本地使用 LangChain 框架来调用已部署的模型,并提供了简单的安装和使用示例。整个过程清晰易懂,旨在帮助读者快速上手模型部署与交互。
URL
type
status
date
slug
summary
tags
category
icon
password
😀
该篇博客主要记录部署lmdeploy推理框架、模型部署以及本地模型交互。

📝 LMDeploy

LMDeploy 安装

  • pip install lmdeploy

启动LMDeploy服务

  • lmdeploy serve api_serve 服务器上模型路径
    • lmdeploy server

查看lmdeploy上已部署的模型

notion image

🤗 本地调用已部署模型

Tips
请注意,由于这几天在学习langchain相关知识,所以这里调用API采用的是langchain框架的代码。与open_ai库实现流程相似,简单易懂。代码部分也会有相关注释,辅助大家理解。

安装 langchain

  • 可以参考该链接https://www.langchain.com.cn/docs/how_to/installation/进行安装。总体来说只用到langchain、langchain-core、langchain-community三个包。直接使用pip install langchain langchain-core langchain-community 即可。

使用 langchain 来调用模型

📎 参考文章

 
💡
以上便是部署LMDeploy、模型部署以及本地模型交互学习记录,欢迎您在底部评论区留言,一起交流~
上一篇
记录-vLLM模型部署调用
下一篇
记录-LLaMA-Factory基础

评论
Loading...