检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
身份认证与访问控制 身份认证 用户访问ModelArts的方式有多种,包括ModelArts控制台、API、SDK,无论访问方式封装成何种形式,其本质都是通过ModelArts提供的REST风格的API接口进行请求。 ModelArts的接口均需要进行认证鉴权以此来判断是否通过身
在线服务列表页面单击“名称/ID”,进入在线服务详情页面。 单击CloudShell页签,选择模型版本和计算节点,当连接状态变为时,即登录实例容器成功。 如果遇到异常情况服务器主动断开或超过10分钟未操作自动断开,此时可单击“重新连接”重新登录实例容器。 图5 CloudShell界面 部分用户登录Cloud S
rk/tensorflow_mlp_mnist_local_mode/train/model/”中,则推理文件“customize_service.py”和模型配置文件“config.json”也保存在该目录中。 创建模型运行的conda虚拟环境。 1 2 3 4 5 6 7 from
形框”标注。针对您提供的数据集,MetaValidation算子支持对图片和xml文件进行数据校验: 表1 图片类数据校验 异常情况 处理方案 图片本身损坏无法解码 过滤掉不能解码的图片 图片通道可能是1通道、2通道,不是常用的3通道 转换图片成RGB三通道 图片格式不在ModelArts支持的格式范围内
非模板参数 execution_code 否 String 执行代码存放的OBS地址,默认值为空,名称固定为“customize_service.py”。推理代码文件需存放在模型“model”目录。该字段不需要填,系统也能自动识别出model目录下的推理代码。公共参数 source_job_id
Manifest文件编写规范要求较多,推荐使用OBS目录导入方式导入新数据。一般此功能常用于不同区域或不同账号下ModelArts的数据迁移,即当您已在某一区域使用ModelArts完成数据标注,发布后的数据集可从输出路径下获得其对应的Manifest文件。在获取此Manife
保存的镜像中,安装的依赖包不丢失,持久化存储的部分(home/ma-user/work目录的内容)不会保存在最终产生的容器镜像中。VS Code远程开发场景下,在Server端安装的插件不丢失。 当镜像保存失败时,请在Notebook实例详情页查看事件,事件描述请参考查看Notebook实例事件。 建议保存
保存的镜像中,安装的依赖包不丢失,持久化存储的部分(home/ma-user/work目录的内容)不会保存在最终产生的容器镜像中。VS Code远程开发场景下,在Server端安装的插件不丢失。 当镜像保存失败时,请在Notebook实例详情页查看事件,事件描述请参考查看Notebook实例事件。 建议保存
方式二:使用Java语言发送预测请求 AK/SK签名认证方式,仅支持Body体12M以内,12M以上的请求,需使用Token认证。 客户端须注意本地时间与时钟服务器的同步,避免请求消息头X-Sdk-Date的值出现较大误差。因为API网关除了校验时间格式外,还会校验该时间值与网关收到请求的时间差,如果
情页中更新SSH的配置信息。 说明: 开启此功能的实例中会预置VS Code插件(python、jupyter等)以及VS Code Server包,会占用约1G左右的持久化存储空间。 “密钥对” 开启“SSH远程开发”功能后,需要设置此参数。 可以选择已有密钥对。 也可以单击密
ainer_notebook_cache_dir_util(cache目录的利用率) 指标维度:根据实际需求选择相应的指标维度。例如service_id:xxx,然后单击“确定”。 监控对象设置完成后,选择“统计方式”和“统计周期”。 “告警条件设置”:触发条件根据实际需求设置。
订阅免费算法 在AI Gallery中,您可以查找并订阅免费满足业务需要的算法,直接用于创建训练作业。 AI Gallery中分享的算法支持免费订阅,但在使用过程中如果消耗了硬件资源进行部署,管理控制台将根据实际使用情况收取硬件资源的费用。 前提条件 注册并登录华为云,且创建好OBS桶用于存储数据和模型。
"local_path=/xx/yy/zz;read_only=false;nfs_server_path=xxx.xxx.xxx.xxx:/" -volumes "local_path=/xxx/yyy/zzz;read_only=false;nfs_server_path=xxx.xxx.xxx.xxx:/"
os.modelarts/promotion.info 否 String 用户在运营平台选择的折扣信息。 os.modelarts/service.console.url 否 String 订购订单支付完成后跳转的url地址。 os.modelarts/order.id 否 String
可以通过从参数列表中获取--train_url参数获取" cluster_id_description = "cluster id of MapReduce Service" algorithm = wf.steps.MrsJobAlgorithm( boot_file=wf.Placeholder(name="boot_file"
save_summary_steps=save_summary_steps, save_model_secs=save_model_secs, checkpoint_path=flags.checkpoint_url, export_model=mox
{ASCEND_RT_VISIBLE_DEVICES} python -m vllm.entrypoints.openai.api_server --model ${model_path} \ --ssl-keyfile="/home/mind/model/key.pem" \
String 模型所属租户的用户id。 execution_code String 执行代码存放的OBS地址,名称固定为“customize_service.py”。 schema_doc String 模型schema文档的下载地址。 image_address String 模型打包后的镜像地址。
资源规格CPU内存。 gpu_num Integer 资源规格gpu的个数。 gpu_type String 资源规格gpu的类型。 worker_server_num Integer 训练作业worker的个数。 data_url String 训练作业的数据集。 train_url String
vllm,mindspore、openai。 --host ${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口。 --dataset:数据集路径。 --dataset-type:支持三种 "alpaca"