检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用root用户SSH的方式登录GPU裸金属服务器。具体登录方式请参见SSH密钥方式登录裸金属服务器。 拉取pytorch镜像,可以选择常用的镜像源进行下载。 docker pull nvcr.io/nvidia/pytorch:21.10-py3 启动容器。 docker run -d
在页面右上方单击“控制台”,进入华为云管理控制台。 图1 控制台入口 在控制台右上角的账户名下方,单击“我的凭证”,进入“我的凭证”页面。 图2 我的凭证 在API凭证页面获取IAM用户名、用户ID、账号名和账号ID。 图3 获取IAM用户名/用户ID/账号名/账号ID 父主题: 一般性问题
# 推理工具 修改代码 将AscendSpeed代码包AscendCloud-LLM-xxx.zip在本地解压缩后。在上传代码前,需要对解压后的训练脚本代码进行修改。具体文件为:llm_train/AscendSpeed/scripts/obs_pipeline
据和资源规格后进行使用。 对于开放代码的算法,您也可以在详情页面预览或者下载对应代码。 在“代码”页签,单击右侧的“下载”将完整代码下载到本地,您也可以单击下方列表中的文件名称进行预览。 目前如下后缀结尾的文件类型支持代码预览:txt、py、h、xml、html、c、proper
常用操作指导可参见JupyterLab操作指导:JupyterLab常用功能介绍。 由于CodeLab的存储为系统默认路径,在使用“上传文件”或“下载文件至本地”时,只能使用JupyterLab页面提供的功能。 如需使用大文件上传和下载的功能,建议您前往Notebook,创建一个收费的实例进行使用。
a-user/modelarts/log/”目录下的“*.log”文件将会被自动上传至ModelArts训练作业的日志目录(OBS)。如果本地相应目录没有生成大小>0的日志文件,则对应的父级目录也不会上传。因此,PyTorch NPU的plog日志是按worker存储的,而不是按rank
# 推理工具 修改代码 将AscendSpeed代码包AscendCloud-LLM-xxx.zip在本地解压缩后。在上传代码前,需要对解压后的训练脚本代码进行修改。具体文件为:llm_train/AscendSpeed/scripts/obs_pipeline
启动脚本前的两个声明为本次训练的模型和数据集,第一次执行程序时若本地没有模型和数据集,会自动下载。但由于lambdalabs/pokemon-blip-captions数据集下载现在需要登录HuggingFace账号,请先下载数据集到本地,再挂载到对应目录。 export MODEL_NAM
S3_USE_HTTPS 访问OBS是否使用HTTPS。 “S3_USE_HTTPS=1” 表5 PIP源和API网关地址环境变量 变量名 说明 示例 MA_PIP_HOST PIP源域名。 “MA_PIP_HOST=repo.myhuaweicloud.com” MA_PIP_URL
“选择标注团队”:任务类型设置为“指定标注团队”,需在此参数中指定一个团队,同时勾选此团队中某几个成员负责标注。下拉框中将罗列当前账号下创建的标注团队及其成员。 “选择标注接口人”:任务类型设置为“指定标注管理员”,需在所有团队的“Team Manager”中选择一人作为管理员。 “自动将新增图片同步给标注团队”
co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main 下载下图中vae文件夹的内容。注意:本地下载文件时配置文件会变成vae_config.json,修改为config.json 图1 下载vae文件夹的内容 下载vgg权重,将下载好的权重放在
lusterRoleBinding)。 apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: prometheus rules: - apiGroups: [""] resources:
当Tokens的免费调用额度使用完时,操作列的“体验”会置灰。 在业务环境中调用模型服务的API进行推理。 在预置服务列表,选择所需的服务,单击操作列的“更多 > 调用”,在调用弹窗中获取API地址和调用示例,在业务环境中调用API进行体验。操作指导请参见调用MaaS部署的模型服务。 预置服务默认启用内容审核,且调用页面不显示该参数。
把ascendcloud-aigc-poc-sdxl-finetune代码文件夹文件、模型依赖包、数据集、Dockerfile文件都上传至ECS,上传步骤可参考本地Windows主机使用WinSCP上传文件到Linux云服务器。 文件上传后目录如下: <ECS_folder> ├── attention_processor
SSE协议只支持部署在线服务。 只支持自定义镜像导入模型部署的在线服务。 调用API访问在线服务时,对预测请求体大小和预测时间有限制: 请求体的大小不超过12MB,超过后请求会被拦截。 因APIG(API网关)限制,平台每次请求预测的时间不超过40秒。 SSE在线服务调用 SSE协
Issues'。训练时如果频繁进行算子编译会严重影响训练性能,可以增加两行python代码关闭算子编译。 亲和API:对应html中的'Affinity API Issues'。通过使能亲和API(NPU融合算子API如rms_norm,NPU亲和优化器如NPUFusedAdamw)可以减少算子下发数量,从而提升训练性能。
yaml”文件。 “config.yaml”文件用于配置pod,代码示例如下。代码中的“xxxx_train.sh”即为2修改的训练启动脚本。 apiVersion: batch.volcano.sh/v1alpha1 kind: Job metadata: name: yourvcjobname
ModelArts Standard开发环境 使用ModelArts PyCharm插件调试训练ResNet50图像分类模型 本案例介绍了如何将本地开发好的MindSpore模型代码,通过PyCharm ToolKit连接到ModelArts Standard进行云上调试和训练。 面向熟悉代码编写和调测的AI工程师
--profile String 否 鉴权配置项,默认是DEFAULT。 -C / --config-file String 否 配置文件本地路径,默认路径为~/.modelarts/ma-cli-profile.yaml。 配置用户名密码鉴权 以在虚拟机上使用ma-cli co
AI Gallery的数据模块支持数据集的共享和下载。在AI Gallery的“数据”中,可以查找并下载满足业务需要的数据集。也可以将自己本地的数据集发布至AI Gallery中,共享给其他用户使用。 “资产集市 > 算法”:共享了算法。 AI Gallery的算法模块支持算法的共享和订阅。在AI