diff --git a/helloworld/hello_world.md b/helloworld/hello_world.md index 90df505e0..a3f56a3fe 100644 --- a/helloworld/hello_world.md +++ b/helloworld/hello_world.md @@ -26,6 +26,8 @@ ## 2. InternLM-Chat-7B 智能对话 Demo +本小节我们将使用[InternStudio](https://studio.intern-ai.org.cn/)中的 A100(1/4) 机器和`InternLM-Chat-7B`模型部署一个智能对话 Demo。 + ### 2.1 环境准备 在[InternStudio](https://studio.intern-ai.org.cn/)平台中选择 A100(1/4) 的配置,如下图所示镜像选择`Cuda11.7-conda`,如下图所示: @@ -168,6 +170,8 @@ streamlit run web_demo.py --server.address 127.0.0.1 --server.port 6006 ## 3. Lagent 智能体工具调用 Demo +本小节我们将使用[InternStudio](https://studio.intern-ai.org.cn/)中的 A100(1/4) 机器、`InternLM-Chat-7B`模型和`Lagent`框架部署一个智能工具调用 Demo。 + Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。通过 Lagent 框架可以更好的发挥 InternLM 的全部性能。 下面我们就开始动手实现! @@ -455,6 +459,8 @@ streamlit run /root/code/lagent/examples/react_web_demo.py --server.address 127. ## 4. 浦语·灵笔图文理解创作 Demo +本小节我们将使用[InternStudio](https://studio.intern-ai.org.cn/)中的 A100(1/4) * 2 机器和`internlm-xcomposer-7b`模型部署一个图文理解创作 Demo 。 + ### 4.1 环境准备 首先在 [InternStudio](https://studio.intern-ai.org.cn/) 上选择A100(1/4)*2的配置。如下图所示: @@ -598,6 +604,8 @@ EOF ### 5.2 配置本地端口 +在本地配置端口,可以通过`ssh`连接到服务器,然后将服务器的端口映射到本地,这样就可以在本地浏览器中访问服务器的端口了。 + 首先我们需要配置一下本地的 `SSH Key` ,我们这里以`Windows`为例。 步骤①:在本地机器上打开`Power Shell`终端。在终端中,运行以下命令来生成SSH密钥对:(如下图所示) @@ -678,7 +686,7 @@ import os model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm-chat-7b', cache_dir='your path', revision='master') ``` -#### 5.3.3 OpenXlab +#### 5.3.3 OpenXLab OpenXLab 可以通过指定模型仓库的地址,以及需要下载的文件的名称,文件所需下载的位置等,直接下载模型权重文件。