检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/v2/{project_id}/algorithms/{algorithm_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 algorithm_id 是 String 算法ID。 请求参数 无 响应参数 无 请求示例
可用范围 选择是否启用“申请用户可用”。 勾选启用:当用户要使用该数据集时需要提交申请,只有数据集所有者同意申请后,才能使用数据集。 不勾选不启用(默认值):所有可见资产的用户都可以直接使用数据集。 发布后,资产会处于“审核中”,审核中的资产仅资产所有者可见。 审核完成后,资产会变成“已发布”状态,并在数据集列表可见。
startOrStopService 启停边缘服务节点 service startOrStopNodesService 添加用户访问密钥 service addAkSk 删除用户访问密钥 service deleteAkSk 创建专属资源池 cluster createCluster 删除专属资源池
运行环境:6348(单核48U超线程) 性能指标:QPS 10/s(四进程) 性能约束:单次请求最大可以接受时延需小于1s 性能预期:QPS 20/s - 业务访问方式 推理业务访问:“客户端 -> 云服务” 或 “云客户端 -> 云服务”。 推理业务时延要求,客户端到云服务端到端可接受时延。 例如:当前是“客户端
等。 约束限制 适配的CANN版本是cann_8.0.rc3,驱动版本是23.0.6。 本案例仅支持在专属资源池上运行,确保专属资源池可以访问公网。 文档更新内容 6.3.912版本相对于6.3.911版本新增如下内容: 代码结构发生变化,统一了modellink和llama-factory的启动方式。
查看专属资源池磁盘信息 创建模型 使用大模型创建模型,选择从对象存储服务(OBS)中导入,需满足以下参数配置: 采用自定义引擎,开启动态加载 使用大模型要求用户使用自定义引擎,并开启动态加载的模式导入模型。用户可以制作自定义引擎,满足大模型场景下对镜像依赖包、推理框架等的特殊需求。自定义引擎的制
ration.txt 示例,latest_checkpointed_iteration.txt文件内容:20 同时开启故障快恢和断点续训时需满足以下条件: 如果用户指定${user_converted_ckpt_path} 因故障快恢读取权重的优先级最高则训练过程的权重保存路径$
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码:200 表3 响应Body参数
发送HTTP(S)费用构成:HTTP(S)+外网下行流量 运行日志(不开启则不计费) 由云日志服务(LTS)提供日志收集、分析、存储等服务。 部署服务时,开启“运行日志输出”后,日志数据超出LTS免费额度后,会产生费用。具体可云日志服务价格详情 按实际日志量付费 超过免费额度后,按实际日志存储量和存储时长收费 计费示例
Step1 模型量化 可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=tren
步骤一 模型量化 可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=tren
镜像会以快照的形式保存,保存过程约5分钟,请耐心等待。此时不可再操作实例。 镜像保存成功后,实例状态变为“运行中”,重启Notebook实例。 打开Grafana页面。 新打开一个浏览器窗口,在地址栏输入3中配置的root_url后。出现Grafana登录页面即代表在Notebook中安装和配置Gr
console的调用指南tab页签可以获取到推理请求的地址,但是不知道如何填写推理请求的header及body。 原因分析 在线服务部署完成且服务处于运行中状态后,可以通过调用指南页签的调用地址对模型发起预测请求,出于安全考虑,ModelArts会通过相关的认证鉴权机制避免在线服务被无关人员非法调用。
动态挂载OBS 功能介绍 在运行中的Notebook实例,支持将“OBS并行文件系统”挂载到实例中指定的文件目录,挂载后可以在容器中以文件系统操作方式完成OBS并行文件系统对象的读写。 接口约束 暂无约束 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API
Studio大模型即服务平台提供了丰富的开源大模型,在模型详情页可以查看模型的详细介绍,根据这些信息选择合适的模型进行训练、推理,接入到企业解决方案中。 访问模型广场 登录ModelArts管理控制台。 在左侧导航栏中,选择“ModelArts Studio”进入ModelArts Studio大模型即服务平台。
状态码: 200 OK { "success" : true } 状态码 状态码 描述 200 OK 401 Unauthorized 403 Forbidden 404 Not Found 错误码 请参见错误码。 父主题: 数据管理(旧版)
变更计费模式 在购买专属资源池后,如果发现当前计费模式无法满足业务需求,您可以变更计费模式。 如果您需要长期使用当前按需购买的ModelArts专属资源池,可以将该专属资源池转为包年/包月计费模式,以节省开支。按需计费变更为包年/包月会生成新的订单,用户支付订单后,包年/包月资源将立即生效。
方式二:通过驱动升级功能对已有的资源池驱动版本进行升级 方式一:购买资源池时通过自定义驱动参数进行配置 在购买资源池页面,部分GPU和Ascend规格资源池允许自定义安装驱动。开启自定义驱动开关并选择需要的驱动版本即可。 方式二:通过驱动升级功能对已有的资源池驱动版本进行升级 如果在购买资源池时,没配置自定义驱动,默
Insight,要求先启动MindInsight,后启动训练进程。 仅支持单机单卡训练。 运行中的可视化作业不单独计费,当停止Notebook实例时,计费停止。 Summary文件如果存放在OBS中,由OBS单独收费。任务完成后请及时停止Notebook实例,清理OBS数据,避免产生不必要的费用。
编辑AI说时,30秒钟后自动保存草稿,用户可单击“草稿箱”查看。 草稿箱可支持保存草稿记录共三条,存满后请手动删除;建议您及时发布重要内容,以免重要内容无法保存。 单击“发布”,跳转至技术文章详情页面。 发表评论 当AI说有问题求助的时候,可以在AI说发表评论求助。 请确保开启了邮箱通知。