检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
计算节点规格:请根据界面显示的列表,选择可用的规格,置灰的规格表示当前环境无法使用。如果公共资源池下规格为空数据,表示当前环境无公共资源。建议使用专属资源池,或者联系系统管理员创建公共资源池。 计算节点个数:默认为1,输入值必须是1-5之间的整数。 是否自动停止:启用该参数并设置时间后,服务将在指定时间后自动停止。如
4机8卡Vnt1 10 07:08:44 表3 训练各步骤性能参考 步骤 说明 预计时长 镜像下载 首次下载镜像的时间(25G)。 8分钟 资源调度 点创建训练任务开始到变成运行中的时间(资源充足、镜像已缓存)。 20秒 训练列表页打开 已有50条训练作业,单击训练模块后的时间。 6秒 日志加载
7-aarch64-snt3p IMAGE_MINDSPORE_ASCEND_310P_DESC Ascend_snt3p 是 是 训练作业 创建训练作业时,训练支持的AI引擎及对应版本如下所示。 预置引擎命名格式如下: <训练引擎名称_版本号>-[cpu | <cuda_版本号 |
分页列表的起始页,默认为0。 请求参数 无 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 create_time Long 任务创建时间。 error_code String 错误码。 error_msg String 错误信息。 export_format Integer
在“访问授权”页面,选择需要授权的“授权对象类型”,选择新增委托及其对应的权限“普通用户”,并勾选“我已经详细阅读并同意《ModelArts服务声明》”,然后单击“创建”。 完成配置后,在ModelArts控制台的权限管理列表,可查看到此账号的委托配置信息。 步骤2:订阅模型 “商超商品识别”的模型共享在AI
ee/2024-03-06。 在宿主机上创建一个空目录/home/temp,将下载的模型包存放在宿主机/home/temp/moondream2目录下,修改目录权限后,复制到容器中。 mkdir /home/temp #创建一个空目录,将下载的模型包存放在宿主机/h
镜像里面实际提供的是http,就会遇到上述错误。反之,如果您选择的是http,但镜像里面实际提供的是https,也会遇到类似错误。 您可以创建一个新的模型版本,选择正确的协议(http或者https),重新部署在线服务或更新已有在线服务。 请求预测时间过长 报错:{"error_code":
0-ubuntu18.04 CPU运筹优化求解器开发基础镜像,预置cylp,cbcpy,ortools及cplex CPU 是 是 训练作业 创建训练作业时,训练支持的AI引擎及对应版本如下所示。 预置引擎命名格式如下: <训练引擎名称_版本号>-[cpu | <cuda_版本号 |
(如CPU规格,GPU规格)由表3 predictor configs结构决定。 部署在线服务Predictor需要线上服务端根据AI引擎创建容器,较耗时;本地Predictor部署较快,最长耗时10s,可用以测试模型,不建议进行模型的工业应用。 当前版本支持部署本地服务Pred
--vllm_model=${model_path} 参数说明: max_workers:请求的最大线程数,默认为1。 service_name:服务名称,保存评测结果时创建目录,示例为:llama2-13b-chat-test。 eval_dataset:评测使用的评测集(枚举值),目前仅支持mmlu、ceval。
--deploy_method=vllm 参数说明: max_workers:请求的最大线程数,默认为1。 service_name:服务名称,保存评测结果时创建目录,示例为:qwen-14b-test。 eval_dataset:评测使用的评测集(枚举值),目前仅支持mmlu、ceval。 ser
910-xxx.zip。 准备镜像 准备推理模型适用的容器镜像。 准备Notebook 本案例在Notebook上部署推理服务进行调试,因此需要创建Notebook。 部署推理服务 在Notebook调试环境中部署推理服务 介绍如何在Notebook中配置NPU环境,部署并启动推理服务,完成精度测试和性能测试。
在“访问授权”页面,选择需要授权的“授权对象类型”,选择新增委托及其对应的权限“普通用户”,并勾选“我已经详细阅读并同意《ModelArts服务声明》”,然后单击“创建”。 图1 配置委托访问授权 完成配置后,在ModelArts控制台的权限管理列表,可查看到此账号的委托配置信息。 图2 查看委托配置信息
您的账号、用户名等信息,请参见获取用户名、用户ID、项目名称、项目ID。 如果您的华为云账号已经升级为华为账号,则账号认证方式将不可用,请创建一个IAM用户,使用IAM用户认证。 用户AK-SK认证模式 本地安装完成ModelArts SDK后,可通过用户AK-SK认证模式进行Session鉴权。示例代码如下:
ernvl_chat/internvl/model/internlm2/modeling_internlm2.py 步骤七 下载数据集 先创建文件夹用来存放数据集,再下载数据集。 cd ${container_work_dir}/InternVL/internvl_chat mkdir
响应Body参数 参数 参数类型 描述 annotated_sample_count Long 已标注样本数量。 create_time Long 任务创建时间。 data_source DataSource object 数据来源。 dataset_id String 数据集ID。 elapsed_time
T_S=600 # PYTORCH_NPU_ALLOC_CONF优先设置为expandable_segments:True # 如果有涉及虚拟显存相关的报错,可设置为expandable_segments:False export PYTORCH_NPU_ALLOC_CONF=e
s.tgz)。 方式1:手动下载以上所列权重,并将其放置在${container_work_dir}/data路径下, data目录需手动创建。 方式2:利用git下载,须确保git lfs已成功安装: mkdir -p ${container_work_dir}/data &&
附录2:Dockerfile 基于Dockerfile可以方便的构建完整可运行的自定义镜像,在宿主机创建一个空的目录,然后vi Dockerfile将上面内容复制进去,然后参考4在创建目录中下载华为插件代码包后,执行如下docker构建命令。 docker build -t sdxl-diffusers:0
2u/modelarts.vm.gpu.p4(需申请)/modelarts.vm.ai1.a310(需申请),需申请权限才能使用的规格请在华为云创建工单,由ModelArts运维工程师添加权限。 instance_count 是 Integer 模型部署的实例数,当前限制最大实例数为1