书生·浦语大模型实战营(二):InternLM Demo
github:https://github.com/InternLM/Tutorial/tree/camp2
视频地址:https://www.bilibili.com/video/BV1AH4y1H78d/
工具记录
1 | # 从本地使用 ssh 连接 studio 端口 |
模型下载
6.2.1 Hugging Face
使用 Hugging Face
官方提供的 huggingface-cli
命令行工具。安装依赖:
1 | pip install -U huggingface_hub |
然后新建 python
文件,填入以下代码,运行即可。
- resume-download:断点续下
- local-dir:本地存储路径。
其中 linux 环境下需要填写绝对路径.
1 | import os |
以下内容将展示使用 huggingface_hub
下载模型中的部分文件
1 | import os |
6.2.2 ModelScope
使用 modelscope
中的 snapshot_download
函数下载模型,第一个参数为模型名称,参数 cache_dir
为模型的下载路径。
注意:cache_dir
最好为绝对路径。
安装依赖:
1 | pip install modelscope==1.9.5 |
在当前目录下新建 python
文件,填入以下代码,运行即可。
1 | import torch |
6.2.3 OpenXLab
OpenXLab
可以通过指定模型仓库的地址,以及需要下载的文件的名称,文件所需下载的位置等,直接下载模型权重文件,使用 download
函数导入模型中心的模型。
1 | import torch |
6.3 (可选参考)软链接清除方法
当我们建立安全链接之后,如果想要将其删除可以选择以下命令:
1 | unlink link_name |
我们举一个例子,当我想删除软链接 /root/demo/internlm2-chat-7b
时:
1 | cd /root/demo/ |
作业
chat:
Lagent
Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:
!https://github.com/InternLM/Tutorial/raw/camp2/helloworld/images/Lagent-1.png
Lagent 的特性总结如下:
- 流式输出:提供 stream_chat 接口作流式输出,本地就能演示酷炫的流式 Demo。
- 接口统一,设计全面升级,提升拓展性,包括:
- Model : 不论是 OpenAI API, Transformers 还是推理加速框架 LMDeploy 一网打尽,模型切换可以游刃有余;
- Action: 简单的继承和装饰,即可打造自己个人的工具集,不论 InternLM 还是 GPT 均可适配;
- Agent:与 Model 的输入接口保持一致,模型到智能体的蜕变只需一步,便捷各种 agent 的探索实现;
- 文档全面升级,API 文档全覆盖。
调用数据分析: