检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持1~30个字符。 安全认证 支持“公开”和“AppCode认证”。 公开:无需认证,API地址可被公开访问。 AppCode认证:需使用有效的AppCode进行认证。AppCode使用API网关颁发的AppCode进行身份认证,调用者将AppCode放到请求头中进行身份认证,确保只有授权的调用者能够调用API接口。
离线训练安装包准备说明 在华为公有云平台,申请的资源一般要求连通网络。因此用户在准备环境时可以运行 scripts/install.sh 直接下载安装资源,或通过 Dockerfile 下载安装资源并构建一个新的镜像。 若用户的机器或资源池无法连通网络,并无法git clone下
FS Turbo文件系统。 图1 创建SFS Turbo 其中,文件系统类型推荐选用500MB/s/TiB或1000MB/s/TiB,应用于AI大模型场景中。存储容量推荐使用 6.0~10.8TB ,以存储更多模型文件。 图2 SFS类型和容量选择 ModelArts网络关联SFS
FS Turbo文件系统。 图1 创建SFS Turbo 其中,文件系统类型推荐选用500MB/s/TiB或1000MB/s/TiB,应用于AI大模型场景中。存储容量推荐使用 6.0~10.8TB ,以存储更多模型文件。 图2 SFS类型和容量选择 ModelArts网络关联SFS
deploy_timeout_in_seconds 否 Integer 单个模型实例部署的超时时间。 model_id 是 String 公共参数。模型ID。通过调用查询AI应用列表接口可以获取。 src_path 否 String batch服务类型必选。批量任务输入数据的OBS路径。 req_uri 否 String
内核版本不兼容,从而导致OS无法启动,或者基本功能不可用。相关高危命令如:apt-get upgrade。 高 如果需要升级/修改,请联系华为云技术支持。 切换或者重置操作系统。 服务器在进行过“切换或者重置操作系统”操作后,EVS系统盘ID发生变化,和下单时订单中的EVS ID已经不一致,
Server服务器共享网络资源。 单个弹性公网IP用于单个Server服务器 登录ModelArts管理控制台。 在左侧导航栏中,选择“AI专属资源池 > 弹性节点 Server”,进入“弹性节点 Server”列表页面。 单击Server服务器名称,进入Server服务器详情
授权技术支持定位故障 华为云技术支持在故障定位和性能诊断时,部分运维操作需要用户授权才可进行。您可在资源池详情页的节点页签下,找到对应节点,在操作列单击“更多 > 授权”,在弹出的提示框中单击“确认”即可完成授权。 正常情况下,该授权按钮为置灰状态。当华为云技术支持发起运维申请后,按钮会变为可点状态。
将专属资源池的网络打通VPC VPC下创建弹性云服务器 获取在线服务的IP和端口号 通过IP和端口号直连应用 将专属资源池的网络打通VPC 登录ModelArts控制台,进入“AI专属资源池 > 弹性集群Cluster”找到服务部署使用的专属资源池,单击“名称/ID”,进入资源池详
绑定完成后,通过MobaXterm、Xshell登录。以MobaXterm为例,填入弹性公网IP,登录节点。 图7 登录节点 方式2:通过华为云自带的远程登录功能 使用华为云账号登录CCE管理控制台。 在CCE集群详情页面,单击“节点管理”页签,在“节点”页签中单击需要登录的节点名称,跳转至弹性云服务器页面。
1 }, { "specification" : "modelarts.vm.ai1.snt3", "billing_spec" : "modelarts.vm.ai1.snt3", "category" : "NPU", "cpu_info"
/v2/{project_id}/training-jobs/{training_job_id}/actions 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 training_job_id 是 String
SUCCESS:成功 FAIL:失败 RUNNING:运行中 config Array of ServiceLogConfig objects 模型运行配置。 success_num Number 操作成功的节点数,当infer_type为edge时会返回此值。 failed_num Number
后台运行,否则SSH窗口关闭或者网络断连会影响正在运行的训练作业,命令参考: nohup your_train_job.sh > output.log 2>&1 & tail -f output.log 如果要对代码进行debug调试,步骤如下: 单击左侧“Run > Run
configs结构决定。 部署在线服务Predictor需要线上服务端根据AI引擎创建容器,较耗时;本地Predictor部署较快,最长耗时10s,可用以测试模型,不建议进行模型的工业应用。 当前版本支持部署本地服务Predictor的AI引擎为:“XGBoost”、“Scikit_Learn”、
创建处理任务 功能介绍 创建处理任务,支持创建“特征分析”任务和“数据处理”两大类任务。可通过指定请求体中的复合参数“template”的“id”字段来创建某类任务。 “特征分析”是指基于图片或目标框对图片的各项特征,如模糊度、亮度进行分析,并绘制可视化曲线,帮助处理数据集。 “
如果是在本地服务器安装Gallery CLI配置工具,则参考本节将工具包下载至本地。 下载AI Gallery CLI安装包、校验文件。 单击链接,下载AI Gallery CLI安装包。 单击链接,下载AI Gallery CLI校验文件。 将AI Gallery CLI安装包及对应的校验文件放在同一目录下
快速配置ModelArts委托授权 场景描述 为了完成AI计算的各种操作,AI平台ModelArts在任务执行过程中需要访问用户的其他服务,典型的就是训练过程中,需要访问OBS读取用户的训练数据。在这个过程中,就出现了ModelArts“代表”用户去访问其他云服务的情形。从安全角
"true"(JupyterLab训练应用程序)。 "tensorboard/enable": "true"(TensorBoard训练应用程序)。 "mindstudio-insight/enable": "true"(MindStudio Insight训练应用程序)。 表4 JobAlgorithm
参数。您可以通过复制API接口公网地址,调用服务。如果您支持APP认证方式,可以在调用指南查看API接口公网地址和授权管理详情,包括“应用名称”、“AppKey”、“AppSecret”等信息。您也可以在此处对APP应用进行“添加授权”或“解除授权”的操作。 预测 对在线服务进行