检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取数据源中某个表中所有字段 功能介绍 获取数据源中某个表中所有字段。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/fd
修改API分组 功能介绍 修改API分组属性。其中name和remark可修改,其他属性不可修改。 URI PUT /v1/{project_id}/apic/instances/{instance_id}/api-groups/{group_id} 表1 路径参数 参数 是否必选
创建设备自定义Topic 功能介绍 在ROMA Connect创建一个Topic。 URI POST /v1/{project_id}/link/instances/{instance_id}/topics 表1 参数说明 名称 类型 是否必填 描述 project_id string
使用AI市场物体检测YOLOv3_Darknet53算法训练后部署在线服务报错 问题现象 使用AI市场物体检测YOLOv3_Darknet53算法进行训练,将数据集切分后进行部署在线服务报错,日志如下:TypeError: Cannot interpret feed_dict key
GP Vnt1裸金属服务器用PyTorch报错CUDA initialization:CUDA unknown error 问题现象 在Vnt1 GPU裸金属服务器(Ubuntu18.04系统),安装NVIDIA 470+CUDA 11.4后使用“nvidia-smi”和“nvcc
日志提示“max_pool2d_with_indices_out_cuda_frame failed with error code 0” 问题现象 pytroch1.3镜像中,去升级了pytroch1.4的版本,导致之前在pytroch1.3跑通的代码报错如下: “Runtim
过站采集 执行产品在线体工位上的过站,完成批次物料扣减与序列物料采集绑定。 前提条件 已登录MBM Space,且拥有“生产过站管理”菜单栏目的操作权限。 已导入物料信息并上载批次物料。 已维护当前登录用户的所属工厂信息。 注意事项 “待采集物料”只显示工序关联“Part追溯标准”为“SN序列码”的MBOM。
入库成品 对已完成生产的产品进行入库操作。 前提条件 已登录MBM Space,且拥有“完工入库”菜单栏目的操作权限。 已维护当前登录用户的所属工厂信息。 注意事项 “入库状态”为“待入库”的产品才能进行入库操作。 操作步骤 在顶部导航栏中,选择“生产管理 > 生产入库 > 完工入库”。
质检累计器场景规则 支持维护产品质检方案中检验分组的累计规则。 前提条件 已登录MBM Space,且拥有该菜单栏目的操作权限。 注意事项 “是否有效”为“否”的数据,对外提供的查询接口将被过滤,其他功能模块也无法引用。 “是否有效”为“是”且“发布”状态的质检累计器规则才能被其他功能模块引用。
如何处理虚拟机类型环境下创建和部署组件时遇到ECS错误? 问题描述 在ServiceStage虚拟机类型环境下创建和部署组件时可能会遇到ECS服务不可用问题。 例如,在组件部署时调用ECS接口超时,查看日志详情报错如下: { "statusCode": 500, "jsonBody":
SD1.5&SDXL Diffusers框架基于DevServer适配PyTorch NPU训练指导(6.3.908) 训练场景和方案介绍 准备镜像环境 Finetune训练 LoRA训练 Controlnet训练 父主题: AIGC模型训练推理
MiniCPM-V2.0推理及LoRA微调基于DevServer适配PyTorch NPU指导(6.3.910) 本文档主要介绍如何在ModelArts Lite的DevServer环境中,使用NPU卡对MiniCPM-V2.0进行LoRA微调及推理。本文档中提供的训练脚本,是基
DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。
准备数据 本教程使用到的训练数据集是Alpaca数据集。您也可以自行准备数据集。 Alpaca数据集 本教程使用Alpaca数据集,数据集的介绍及下载链接如下。 Alpaca数据集是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite DevServer上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成
部署推理服务 本章节介绍如何使用vLLM 0.5.0框架部署并启动推理服务。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的DevServer和昇腾Snt9b资源。 安装过程需要连接互联网git clone,确保容器可以访问公网。
Finetune训练 本章节介绍SDXL&SD 1.5模型的Finetune训练过程。Finetune是指在已经训练好的模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能。 训练前需要修改数据集路径、模型路径。数据集路径格式为/datasets/pokemon-dataset/image_0
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 训练前需要修改数据集路径、模型路径。脚本里写到datasets路径即可。 run_lora_sdxl中的vae路径要准确写到sdxl_vae
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen、math_gen、gsm8k_gen、humaneval_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendC