检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
根据环境ID修改环境资源 功能介绍 此API用于通过环境ID修改环境资源。 URI PUT /v3/{project_id}/cas/environments/{environment_id}/resources 表1 路径参数 参数 是否必选 参数类型 描述 project_id
查看配置文件当前版本详情 本章节指导您查看已创建的配置文件当前版本基本信息和配置详情。 前提条件 待查看的配置文件已存在: 配置文件已创建,请参考创建配置文件。 配置文件已导入,请参考导入配置文件。 查看配置文件当前版本详情 登录ServiceStage控制台。 选择“配置管理”。
创建配置文件 功能介绍 此API用于创建配置文件。 URI POST /v3/{project_id}/cas/configs 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户项目ID。获取方法,请参考获取项目ID。 请求消息 表2 请求Header参数
方案概述 场景描述 本方案介绍了在ModelArts的Lite Server上使用昇腾计算资源开展DeepSeek R1和DeepSeek V3模型推理部署的详细过程。推理框架使用MindIE。 资源规划 本方案推荐用户使用W8A8量化权重,需要2台Ascend Snt9B资源。
SDXL&SD1.5 ComfyUI基于Lite Cluster适配NPU推理指导(6.3.906) ComfyUI是一款基于节点工作流的Stable Diffusion操作界面。通过将Stable Diffusion的流程巧妙分解成各个节点,成功实现了工作流的精确定制和可靠复现
性能调优 性能测试 benchmark工具也可用于性能测试,其主要的测试指标为模型单次前向推理的耗时。在性能测试任务中,与精度测试不同,并不需要用户指定对应的输入(inDataFile)和输出的标杆数据(benchmarkDataFile),benchmark工具会随机生成一个输
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Standard上的预训练和全量微调方案。 本方案目前仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Standard上的预训练和全量微调方案。 本方案目前仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。
推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)
使用Notebook进行代码调试 背景信息 Notebook使用涉及到计费,具体收费项如下: 处于“运行中”状态的Notebook,会消耗资源,产生费用。根据您选择的资源不同,收费标准不同,价格详情请参见产品价格详情。当您不需要使用Notebook时,建议停止Notebook,避免产生不必要的费用。
Step4 测试用户权限 由于4中的权限需要等待15-30分钟生效,建议在配置完成后,等待30分钟,再执行如下验证操作。 使用用户组02中任意一个子账号登录ModelArts管理控制台。在登录页面,请使用“IAM用户登录”方式进行登录。 首次登录会提示修改密码,请根据界面提示进行修改。
Hunyuan-DiT基于Lite Server部署适配PyTorch NPU推理指导(6.3.909) 混元DiT,一个基于Diffusion transformer的文本到图像生成模型,此模型具有中英文细粒度理解能力。 方案概览 本方案介绍了在ModelArts Lite S
LLaMA-VID基于Lite Server适配PyTorch NPU推理指导(6.3.910) 方案概览 本方案介绍了在ModelArts Lite Server上使用昇腾计算资源Ascend Snt9B开展LLaMA-VID的推理过程。 约束限制 本方案目前仅适用于企业客户。
Paraformer基于Lite Server适配PyTorch NPU推理指导(6.3.911) 方案概览 本方案介绍了在ModelArts Lite Lite Server上使用昇腾计算资源Ascend Snt9B开展Paraformer的推理过程。 约束限制 本方案目前仅适用于企业客户。
Yolov8基于Lite Server适配MindSpore Lite推理指导(6.3.909) 方案概览 本方案介绍了在ModelArts的Lite Server上使用昇腾Atlas 300I Duo推理卡计算资源,部署Yolov8 Detection模型推理的详细过程。 本方案目前仅适用于企业客户。
online_job_uuid 是 String 关联的在线服务的uuid。 flow_name 是 String 关联在线服务的其中一个在线流程的名称。流式训练作业所需的行为参数、模型文件路径、数据预处理信息等参数会从指定的在线服务的在线流程中获取。 online_training_config
AI特性 Global SysCache参数 备机数据修复 分隔符 Global PLsql Cache特性参数 账本数据库参数 在线创建索引 在线DDL 数据生命周期管理-OLTP表压缩 向量数据库参数 Enhanced Toast 应用无损透明 预留参数 HTAP混合负载 多租数据库
类型 位置 描述 app_key 必选 String header 访问物联网平台的应用ID,在物联网平台创建应用时由平台分配获得。 Authorization 必选 String header 访问物联网平台的认证信息,值为“Bearer {accessToken}”,其中{acc
问服务器。 当网站接入WAF后,需要把DNS解析到WAF的CNAME,这样流量才会先经过WAF,WAF再将流量转到源站,实现网站流量检测和攻击拦截。 在这种情况下,访问请求到达源站服务器之前可能经过了多层安全代理转发或加速代理转发,服务器如何获取发起请求的真实客户端IP呢? 一个
中间件-Zookeeper日志 ZooKeeper是一个分布式的、开放源码的分布式应用程序协调服务,是将复杂且容易出错的分布式一致性服务封装起来,构成一个高效可靠的系统,并以一系列简单易用的原子操作提供给用户使用。ZooKeeper的主要功能包括配置维护、域名服务、分布式同步、组