检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Lite Server资源管理 查看Lite Server服务器详情 启动或停止Lite Server服务器 同步Lite Server服务器状态 切换Lite Server服务器操作系统 制作Lite Server服务器操作系统 监控Lite Server资源 NPU日志收集上传
推理精度测试 本章节介绍如何进行推理精度测试,请在Notebook的JupyterLab中另起一个Terminal,进行推理精度测试。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。
' &”。 选择运行环境:CPU、GPU或ASCEND。 勾选“我已阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》”。 图2 发布AI Gallery Notebook 界面提示成功创建分享后,返回至AI Gallery,进入示例的详情页面查看示例。
步骤总览 单机单卡 资源购买: 购买对象存储服务OBS 购买容器镜像服务SWR 创建网络 购买ModelArts专属资源池 基本配置: 权限配置 obsutils安装和配置 (可选)工作空间配置 训练: 线下容器镜像构建及调试 上传镜像 上传数据和算法至OBS(首次使用时需要) 使用Notebook进行代码调试
model_path 配置为Qwen-VL的权重路径,例:/home/ma-user/Qwen-VL-Chat git config --global http.sslVerify false bash multimodal_algorithm/QwenVL/train/aa00ed04091e
address 0.0.0.0/0 and port 8080. 安全组须包含至少一条入方向规则,对协议为TCP、源地址为0.0.0.0/0、端口为8080的请求放行。 在安全组中添加一条入方向规则:对协议为TCP、源地址为0.0.0.0/0、端口为8080的请求放行。 400 ModelArts
2整个文件夹上传到宿主机上。 Step3 构建标准镜像和容器环境 Step3 构建标准镜像和容器环境 和 Step4 构建与代码解耦的镜像和容器环境 都是搭建容器环境,任选其中一个即可。 一、构建镜像 基于官方提供的基础镜像构建自定义镜像opensora1.2:1.0。参考如下命令在宿主机上编写
Lite Server资源配置流程 在开通Lite Server资源后,需要完成相关配置才能使用,配置流程如下图所示。 图1 Lite Server资源配置流程图 表1 Server资源配置流程 配置顺序 配置任务 场景说明 1 配置Lite Server网络 Server资源开
如下命令进行预测。 curl -kv -F 'images=@/home/ma-user/work/test.png' -X POST http://127.0.0.1:8080/ 图11 预测 在调试过程中,如果有修改模型文件或者推理脚本文件,需要重启run.sh脚本。执行如下命令先停止nginx服务,再运行run
配置Lite Server软件环境 NPU服务器上配置Lite Server资源软件环境 GPU服务器上配置Lite Server资源软件环境 父主题: Lite Server资源配置
资源购买 购买弹性文件服务SFS 弹性文件服务默认为按需计费,即按购买的存储容量和时长收费。您也可以购买包年包月套餐,提前规划资源的使用额度和时长。在欠费时,您需要及时(15天之内)续费以避免您的文件系统资源被清空。SFS购买指导请参考如何购买弹性文件服务?。 购买容器镜像服务SWR
moves import urllib # 训练数据来源于yann lecun官方网站http://yann.lecun.com/exdb/mnist/ SOURCE_URL = 'http://yann.lecun.com/exdb/mnist/' TRAIN_IMAGES =
如果是AI Gallery仓库内的地址,则填写相对路径。 Infer_port 选填,推理服务提供的端口,缺省值为8080。只支持部署HTTP服务。 自定义镜像可以通过是否上传自定义推理参数文件“gallery_inference/inference_params.json”决
以下字符“\ / : * ? " < > | ' &”。 勾选“我已阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》”。 选择运行环境:CPU、GPU或ASCEND。 图2 发布AI Gallery Notebook 界面提示成功创建分享后,单击“”跳转至AI
ved-model-name参数,${container_model_path}请替换为实际使用的模型名称。 curl -X POST http://${docker_ip}:8080/v1/chat/completions \ -H "Content-Type: application/json"
使用ModelArts PyCharm插件调试训练ResNet50图像分类模型 本案例介绍如何将本地开发好的MindSpore模型代码,通过PyCharm ToolKit连接到ModelArts进行云上调试和训练。 开始使用样例前,请仔细阅读准备工作罗列的要求,提前完成准备工作。本案例的步骤如下所示:
ved-model-name参数,${container_model_path}请替换为实际使用的模型名称。 curl -X POST http://${docker_ip}:8080/v1/chat/completions \ -H "Content-Type: application/json"
ved-model-name参数,${container_model_path}请替换为实际使用的模型名称。 curl -X POST http://${docker_ip}:8080/v1/chat/completions \ -H "Content-Type: application/json"
ved-model-name参数,${container_model_path}请替换为实际使用的模型名称。 curl -X POST http://${docker_ip}:8080/v1/chat/completions \ -H "Content-Type: application/json"