检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
charging_mode String 计费模式。 COMMON:同时支持包周期和按需 POST_PAID:按需模式 PRE_PAID:包周期 cloud_server CloudServer object 云服务信息。 endpoints_response Array of Endpoints
S Turbo文件系统。SFS Turbo提供按需扩展的高性能文件存储,还具备高可靠和高可用的特点,支持根据业务需要弹性扩容,且性能随容量增加而提升,可广泛应用于多种业务场景。 在SFS服务控制台上创建文件系统,具体步骤请参考创建SFS Turbo文件系统。同一区域不同可用区之间文件系统与云服务器互通,因此保证SFS
为了避免新设置的环境变量与系统环境变量冲突,而引起作业运行异常或失败,请在定义自定义环境变量时,不要使用“MA_”开头的名称。 如何修改环境变量 用户可以在创建训练作业页面增加新的环境变量,也可以设置新的取值覆盖当前训练容器中预置的环境变量值。 为保证数据安全,请勿输入敏感信息,例如明文密码。 训练容器中预置的环境变量
Browser+、obsutil等工具访问和管理OBS桶,将代码、模型文件、数据集等数据上传或下载进行备份。 创建VPC 虚拟私有云(Virtual Private Cloud)可以为您构建隔离的、用户自主配置和管理的虚拟网络环境,操作指导请参考创建虚拟私有云和子网。 创建SFS Turbo SFS Turbo
diffusers-sd3-inference:0.0.1 . Step4 启动镜像 启动容器镜像,推理只需要启动单卡,启动前可以根据实际需要增加修改参数。 docker run -itd --name ${container_name} -v /sys/fs/cgroup:/sys/fs/cgroup:ro
Terminated:已停止 Abnormal:异常 secondary_phase String 训练作业二级状态为内部详细状态,可能会增加、修改、删除,不建议依赖。可选值如下: Creating:创建中 Queuing:排队中 Running:运行中 Failed:运行失败 Completed:已完成
-size 。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size 。 (此参数目前仅适用于Llama3系列模型长序列训练)
pipeline,首先需要初始化MindSpore LiteModel对象,通过在OnnxStableDiffusionImg2ImgPipeline中增加mindir模型初始化函数,然后在pipeline类的__init__方法调用该函数,在pipeline初始化的时候直接初始化模型。您可以
示例: 用户zhangsan访问时,模型使用配置A;用户lisi访问时,模型使用配置B。当匹配到运行配置条件时,ModelArts会在请求里增加一个Header,传入自定义运行参数,其中Key是“配置项名称”,Value是“配置项值”。 图3 个性化配置规则支持传入自定义运行参数。
/etc/apt/sources.list && \ rm /etc/apt/apt.conf.d/00skip-verify-peer.conf # 增加 ma-user 用户 (uid = 1000, gid = 100) # 注意到基础容器镜像已存在 gid = 100 的组,因此 ma-user
为1表示开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,会影响首token时延增加5%~10%。 export USE_IFA_HIGH_PRECISION_MODE=1 # IFA算子(增量decode阶段的flas
i-server服务,负责接收推理请求,向全量或增量推理实例分发请求,收集推理结果并向客户端返回推理结果。服务调度实例不占用显卡资源,建议增加1个容器,也可以在全量推理或增量推理的容器上启动。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一
例如,您在9:00:00购买了一个按需计费的专属资源池,规格为modelarts.vm.cpu.8ud(8vCPUs 16GiB),计算节点个数为2个,并在9:30:00升配增加2个节点(升配后共4个节点),那么在9:00:00 ~ 10:00:00间会产生两条计费信息。 第一条对应9:00:00 ~ 9:30:00,按照2个计算节点个数计费。
clone,请确保ECS可以访问公网 docker build -t <镜像名称>:<版本名称> . 若无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx
Extension for PyTorch作为一个PyTorch插件,支持在不改变PyTorch表达层的基础上,动态添加昇腾后端适配,包含增加了NPU设备、hccl等一系列能力的支持。安装后可以直接使用PyTorch的表达层来运行在NPU设备上。 当前提供了自动迁移工具进行GPU
APP基本信息列表,用户只能获取自己创建的APP信息。 创建APP 创建API网关应用(简称APP)。 查询APP详情 查询指定的APP详情。 删除APP 删除指定的APP。 增加AppCode 为指定API网关应用创建新的AppCode。 重置AppCode 重置指定API网关应用的指定的AppCode。 删除AppCode
-size 。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size 。 (此参数目前仅适用于Llama3系列模型长序列训练)
自定义镜像: 如果先前基于预置框架且通过指定代码目录和启动文件的方式来创建的算法;但是随着业务逻辑的逐渐复杂,您期望可以基于预置框架修改或增加一些软件依赖的时候,此时您可以使用预置框架 + 自定义镜像的功能,即选择预置框架名称后,在预置框架版本下拉列表中选择“自定义”。 此功能与
charging_mode String 计费模式。 COMMON:同时支持包周期和按需 POST_PAID:按需模式 PRE_PAID:包周期 cloud_server CloudServer object 云服务信息。 endpoints_response Array of Endpoints
阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》。 单击“发布”。 发布数据时,数据集文件所在的OBS文件夹不能增加或删除文件,否则会引起发布前后文件数量或大小不一致,从而导致发布失败。 编辑资产详情 数据集发布成功后,发布者可以进入数据集的详情页修改该