检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
csv 参数说明 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tokenizer:tokenizer路径,HuggingFace的权重路径。 --epochs:测试轮数,默认取值为5 --parallel-num:每轮并发数,支持多个,如
代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统,work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 driver及npu-smi需同时挂载至容器。 不要将多个容
量化系数修改为列表,列表的长度为kv的头数,列表中每一个值代表每一个kv头使用的量化系数。内容示例如下: 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数,启动kv-cache-int8-per-tensor+per-head量化服务。 --kv-cache-dtype
量化系数修改为列表,列表的长度为kv的头数,列表中每一个值代表每一个kv头使用的量化系数。内容示例如下: 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数,启动kv-cache-int8-per-tensor+per-head量化服务。 --kv-cache-dtype
量化系数修改为列表,列表的长度为kv的头数,列表中每一个值代表每一个kv头使用的量化系数。内容示例如下: 在使用OpenAI接口或vLLM接口启动推理服务时添加如下参数,启动kv-cache-int8-per-tensor+per-head量化服务。 --kv-cache-dtype
从OBS选择数据后,Schema信息的列名会自动带出,且默认为表格中的第一行数据。为确保预测代码的正确性,请您手动更改Schema信息中的“列名”为attr_1、attr_2、……、attr_n,其中attr_n为最后一列,代表预测列。 数据集输出位置 选择表格数据存储路径(OBS路径)
推理专属预置镜像列表 ModelArts的推理平台提供了一系列的基础镜像,用户可以基于这些基础镜像构建自定义镜像,用于部署推理服务。 X86架构(CPU/GPU)的推理基础镜像 表1 TensorFlow AI引擎版本 支持的运行环境 镜像名称 URI 2.1.0 CPU GPU(cuda10
Notebook中选择自定义镜像与规格 存储配置选择“弹性文件服务SFS”,并且选择已创建的SFS Turbo实例,子目录挂载可选择默认不填写。 如果该SFS Turbo多人共用,则推荐用户编辑“子目录挂载”,创建自己的子目录进行划分。 图2 Notebook中选择弹性文件服务 使用Notebook将OBS数据导入SFS
一个是模型列表对象,另一个是在线服务对象,此时在运行态通过开关的方式来控制部署/更新服务,如下图所示: 在线服务开关默认关闭,节点走部署服务的流程;如果需要更新服务,则手动打开开关,选择相应的在线服务即可。 进行服务更新时,需要保证被更新的服务所使用的模型与配置的模型名称相同。
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 Content-Type 是 String 消息体的类型(格式),取值为application/merge-patch+json。 表3 请求Body参数 参数 是否必选 参数类型 描述 metadata 否 N
=(不等于)、>(大于)、>=(大于等于)、<(小于)、<=(小于等于)、in(包含)、or(或)。 left Object 节点执行条件为true时的分支。 right Object 节点执行条件为false时的分支。 请求示例 停止step POST https://{endpoint}/v2/{proj
案例中job_step配置了相关的跳过策略,并且通过一个bool类型的参数进行控制。当name为is_skip的Placeholder参数配置为True时,condition_equal的计算结果为True,此时job_step会被置为跳过,反之job_step正常执行,其中Condition对象详情可参考构建条件节点控制分支执行。
能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主
买家中心 > 已购买的服务”页面。 在AI Gallery内订阅的免费商品只展示在AI Gallery的“我的订阅”中,不会展示在AI云商店的“买家中心”中。 云商店当前付费商品默认发布后是隐藏商品,在Gallery首页将不可见,只有在云商店卖家中心改变商品为非隐藏,Gallery首页付费资产列表才对该商品可见。
温馨提示”页面,勾选并阅读《数据安全与隐私风险承担条款》和《华为云AI Gallery服务协议》后,单击“继续订阅”才能继续进行模型订阅。 Workflow被订阅后,详情页的“订阅”按钮显示为“已订阅”,订阅成功的资产也会展示在“我的Gallery > 我的资产 > Workflow
清理镜像构建缓存 (只支持ModelArts Notebook里使用)。 debug 在ECS上调试SWR镜像是否能在ModelArts Notebook中使用 (只支持已安装docker环境的ECS)。 使用ma-cli image get-template命令查询镜像构建模板 m
set_compile_mode(jit_compile=False) 启动服务 用ifconfig命令获取容器ip(若无效可使用ip addr,或者自行寻找其他方式获取到容器ip)。 首先进入目录。 cd /home/ma-user/ComfyUI 启动服务命令如下。 python main.py --port
用户指定的network名称。 os.modelarts/workspace.id String 工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 表5 NetworkMetadataAnnotations 参数 参数类型 描述 os.
算法运行时需要依赖鉴权服务,公共资源池是否支持两者打通网络? 不支持,公共资源池不能打通网络。可通过专属资源池打通网络,使用ModelArts服务。 父主题: Standard资源池
准备MaaS资源 在使用MaaS服务时,需要先完成OBS桶、资源池等准备工作。 准备OBS桶 在ModelArts Studio大模型即服务平台创建自定义模型、调优或压缩模型时,需要在对象存储服务OBS中创建OBS桶,用于存放模型权重文件、训练数据集或者是存放永久保存的日志。 创