书生·浦语大模型实战营(二):InternLM Demo
github:https://github.com/InternLM/Tutorial/tree/camp2
视频地址:https://www.bilibili.com/video/BV1AH4y1H78d/
工具记录
1  | # 从本地使用 ssh 连接 studio 端口  | 
模型下载
6.2.1 Hugging Face
使用 Hugging Face 官方提供的 huggingface-cli 命令行工具。安装依赖:
1  | pip install -U huggingface_hub  | 
然后新建 python 文件,填入以下代码,运行即可。
- resume-download:断点续下
 - local-dir:本地存储路径。
 
其中 linux 环境下需要填写绝对路径.
1  | import os  | 
以下内容将展示使用 huggingface_hub 下载模型中的部分文件
1  | import os  | 
6.2.2 ModelScope
使用 modelscope 中的 snapshot_download 函数下载模型,第一个参数为模型名称,参数 cache_dir 为模型的下载路径。
注意:cache_dir 最好为绝对路径。
安装依赖:
1  | pip install modelscope==1.9.5  | 
在当前目录下新建 python 文件,填入以下代码,运行即可。
1  | import torch  | 
6.2.3 OpenXLab
OpenXLab 可以通过指定模型仓库的地址,以及需要下载的文件的名称,文件所需下载的位置等,直接下载模型权重文件,使用 download函数导入模型中心的模型。
1  | import torch  | 
6.3 (可选参考)软链接清除方法
当我们建立安全链接之后,如果想要将其删除可以选择以下命令:
1  | unlink link_name  | 
我们举一个例子,当我想删除软链接 /root/demo/internlm2-chat-7b 时:
1  | cd /root/demo/  | 
作业
chat:

Lagent
Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:
!https://github.com/InternLM/Tutorial/raw/camp2/helloworld/images/Lagent-1.png
Lagent 的特性总结如下:
- 流式输出:提供 stream_chat 接口作流式输出,本地就能演示酷炫的流式 Demo。
 - 接口统一,设计全面升级,提升拓展性,包括:
- Model : 不论是 OpenAI API, Transformers 还是推理加速框架 LMDeploy 一网打尽,模型切换可以游刃有余;
 - Action: 简单的继承和装饰,即可打造自己个人的工具集,不论 InternLM 还是 GPT 均可适配;
 - Agent:与 Model 的输入接口保持一致,模型到智能体的蜕变只需一步,便捷各种 agent 的探索实现;
 
 - 文档全面升级,API 文档全覆盖。
 
调用数据分析:


