检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询微服务实例详细信息 功能介绍 实例注册后可以根据service_id和instance_id获取该实例的详细信息。 URI GET /v4/{project_id}/registry/microservices/{service_id}/instances/{instance_id
根据环境ID查询资源开通某次历史的事件 功能介绍 此API用于根据环境ID查询资源开通某次历史的事件。 URI GET /v3/{project_id}/cas/environments/{environment_id}/iac-resources/provision-histories
根据微服务引擎ID获取所有泳道 功能介绍 此API用于根据微服务引擎ID获取所有泳道。 URI GET /v3/{project_id}/cas/swimlane 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户项目ID。获取方法,请参考获取项目
获取供应商配置 功能介绍 获取供应商配置 URI GET /v1/{project_id}/system/vendor-config 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 华为云项目ID,您可以从获取项目ID中获取。 最小长度:1
查看注册到CloudMap的数据库列表 数据库集群信息统一展示在数据库列表中,数据库列表只提供查询和展示的能力,不提供对数据库的增、删、改操作。所有的增删改操作都在WiseDBA管理台上操作,WiseDBA上的操作,会自动同步到Cloud Map的数据库列表。 查看注册到CloudMap
在业务代码中配置敏感配置解密 如果配置文件中的业务配置项有敏感字段需要解密,只要配置具体哪些配置项需要解密,使用逗号分隔,NUWA会用对应的密钥进行解密。 前提条件 在业务代码中引入STS SDK,具体操作请参见使用STS SDK(Spring Cloud框架)。 解密敏感配置 在微服务业务代码的
查看微服务引擎操作日志 在“操作日志”区域,可以查看微服务引擎的操作日志信息。 查看微服务引擎操作日志 登录ServiceStage控制台,选择“微服务引擎 > 引擎实例”。 在页面上方“微服务引擎”下拉列表,选择待查看的微服务引擎。 在“操作日志”区域,查看微服务引擎的操作日志信息
使用微服务仪表盘 您可以通过仪表盘实时查看微服务运行相关的指标,根据丰富实时的仪表盘数据,对微服务做相应的治理动作。 当使用Spring Cloud Huawei框架接入时,仪表盘上暂不支持查看中位数时延、90th时延、99th时延。 背景说明 如果微服务应用部署在ServiceStage
配置泳道组流量入口网关路由(基于流量配置) 根据实际业务需要,您可以基于流量配置泳道组流量入口网关路由。 前提条件 待操作泳道组已创建成功并关联流量入口网关,请参考创建泳道组。 待操作泳道组下已创建泳道。 创建基线泳道,请参考创建基线泳道。 创建灰度泳道,请参考创建灰度泳道。 配置泳道组流量入口网关路由
我创建的微调数据集会被其他用户调用去训练他们的大模型吗? 用户个人创建的数据集是属于个人账号下的专属数据,未经本人许可不会被其他人员查看到,且不会被其他用户在大模型训练时调用。 父主题: AI原生应用引擎
如何在工作流中定制逻辑实现特定任务,比如时间格式转换、数组对象的push等 工作流提供了Code代码节点,通过Code代码节点可以在工作流中编写Python代码,根据具体需求定制逻辑以实现特定的任务,如图1所示,具体介绍请参见Code代码。 图1 Code代码节点配置 时间格式转换代码示例
SFT全参微调训练 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中,具体参考代码上传至OBS和使用Notebook将OBS数据导入SFS Turbo。 Step1 在Notebook中修改训练超参配置 以llama2-13b SFT微调为例,执行脚本 0_pl_sft
推理性能测试 本章节介绍如何进行推理性能测试,建议在Notebook的JupyterLab中另起一个Terminal,执行benchmark脚本进行性能测试。若需要在生产环境中进行推理性能测试,请通过调用接口的方式进行测试。 benchmark方法介绍 性能benchmark包括两部分
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中
准备数据 本教程使用到的训练数据集是Alpaca数据集。您也可以自行准备数据集。 Alpaca数据集 本教程使用Alpaca数据集,数据集的介绍及下载链接如下。 Alpaca数据集是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令数据可以用来对语言模型进行指令调优
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite DevServer上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成本方案的部署
部署推理服务 本章节介绍如何使用vLLM 0.5.0框架部署并启动推理服务。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的DevServer和昇腾Snt9b资源。 安装过程需要连接互联网git clone,确保容器可以访问公网
Finetune训练 本章节介绍SDXL&SD 1.5模型的Finetune训练过程。Finetune是指在已经训练好的模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能。 训练前需要修改数据集路径、模型路径。数据集路径格式为/datasets/pokemon-dataset
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 训练前需要修改数据集路径、模型路径。脚本里写到datasets路径即可。 run_lora_sdxl中的vae路径要准确写到
MiniCPM-V2.0推理及LoRA微调基于DevServer适配PyTorch NPU指导(6.3.910) 本文档主要介绍如何在ModelArts Lite的DevServer环境中,使用NPU卡对MiniCPM-V2.0进行LoRA微调及推理。本文档中提供的训练脚本,是基于原生