检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
取值范围:0~1 默认值:1 top_k 选择在模型的输出结果中选择概率最高的前K个结果。 取值范围:1~1000 默认值:20 在对话框中输入问题,查看返回结果,在线体验模型服务。 图3 体验模型服务
样本状态,不传或传-1默认返回全部样本。可选值如下: -1:全部 0:保留 1:修改 2:删除 3:新增 请求参数 无 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 count Integer 结果总数。 has_more Boolean 是否已返回全部结果。 results
这些可用区通过延迟低、吞吐量高且冗余性高的网络连接在一起。利用可用区,您可以设计和操作在可用区之间无中断地自动实现故障转移的应用程序和数据库。与传统的单个或多个数据中心基础设施相比,可用区具有更高的可用性、容错性和可扩展性。 ModelArts通过对DB的数据进行备份,保证在原数据被破坏或损坏的情况下可以恢复业务。
“持续时间”可以选择永久、1天,或者自定义天数,例如 30天。 图7 手动创建的委托 在授权记录页面单击“授权”,勾选要配置的策略,单击下一步设置最小授权范围,单击确定,完成授权修改。 设置最小授权范围时,可以选择指定的区域,也可以选择所有区域,即不设置范围。 删除授权 为了更好
推理场景介绍 方案概览 本方案介绍了在ModelArts Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬
驱动升级有两种升级方式:安全升级、强制升级。 安全升级:不影响正在运行的业务,开始升级后会先将节点进行隔离(不能再下发新的作业),待节点上的存量作业运行完成后再进行升级,因需要等待作业完成,故升级周期可能比较长。 强制升级:忽略资源池中正在运行的作业,直接进行驱动升级,可能会导致运行中作业失败,需谨慎选择。
“持续时间”可以选择永久、1天,或者自定义天数,例如 30天。 图7 手动创建的委托 在授权记录页面单击“授权”,勾选要配置的策略,单击下一步设置最小授权范围,单击确定,完成授权修改。 设置最小授权范围时,可以选择指定的区域,也可以选择所有区域,即不设置范围。 删除授权 为了更好
实例ID。 name String 实例名称。 de_type String 开发环境类型,缺省时返回全部类型。 当前仅支持Notebook。 flavor String 实例的机器规格,缺省时返回全部类型。现在支持的有: modelarts.vm.cpu.free modelarts.vm
实例ID。 name String 实例名称。 de_type String 开发环境类型,缺省时返回全部类型。 当前仅支持Notebook。 flavor String 实例的机器规格,缺省时返回全部类型。现在支持的有: modelarts.vm.cpu.free modelarts.vm
"default_policy/eps:0" : "0.0" } path 否 String 服务内的推理路径,默认为"/"。 表2 predict返回参数说明 参数 描述 返回消息体 输出的参数和值,平台只做转发,不做识别。 父主题: 服务管理
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬
String 分页展示时,从第几页开始。默认为0。 app_name 否 String APP名称,支持模糊查找。 order 否 String 返回的APP列表排序方式,可选值包括asc、desc。默认为asc。 show_only 否 String APP信息。枚举值如下: AUTH:只显示已授权的APP信息。
Query参数 参数 是否必选 参数类型 描述 offset 否 Integer 数据条目偏移量。 limit 否 Integer 指定每一页返回的最大条目数,取值范围[1,100],默认为50。 order 否 String instance order start_time 否 String
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite k8s Cluster上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9
在Notebook中通过镜像保存功能制作自定义镜像 通过预置的镜像创建Notebook实例,在基础镜像上安装对应的自定义软件和依赖,在管理页面上进行操作,进而完成将运行的实例环境以容器镜像的方式保存下来。镜像保存后,默认工作目录是根目录“/”路径。 保存的镜像中,安装的依赖包不丢
false:查询数据集版本的所有任务(默认值) return_result 否 Boolean 是否返回任务结果。可选值如下: true:返回任务结果(默认值) false:不返回任务结果 sort_by 否 String 指定查询的排序方式。可选值如下: create_time:按创建时间排序(默认值)
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬
t9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图3 部署在线服务-专属资源池 单击“下一步”,再单击“提交”,开始部署服务,待服务状态显示“正常”服务部署完成。 Step4 调用在线服务 进入在线服务详情页面,选择“预测”。 若
t9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图3 部署在线服务-专属资源池 单击“下一步”,再单击“提交”,开始部署服务,待服务状态显示“正常”服务部署完成。 注:若部署在线服务出现报错starting container process
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬