检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的请求URI。
在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP Code”操作列中可获取APPCode值。 如图3,为Token认证方式的请求Header参数填写示例。
在“模型配置”中,选择已经部署的NLP大模型并进行参数配置,在“提示词配置”中,配置提示词。 如果“模型配置 > 模型选择”中没有可供选择的NLP大模型,请完成模型部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。
在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP Code”操作列中可获取APPCode值。 如图3,为Token认证方式的请求Header参数填写示例。
该工具链具备模型训练、压缩、部署、评测、推理等功能,通过高效的推理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。
与ModelArts服务的关系 盘古大模型使用ModelArts服务进行算法训练部署,帮助用户快速创建和部署模型。 与云搜索服务的关系 盘古大模型使用云搜索服务CSS,加入检索模块,提高模型回复的准确性、解决内容过期问题。
使用该功能前,请完成模型的部署操作,步骤详见创建科学计算大模型部署任务。 使用“能力调测”调用科学计算大模型可实现包括全球中期天气要素预测、全球中期降水预测、全球海洋要素、区域海洋要素、全球海洋生态、全球海浪高度场景的预测能力。
准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。
使用该功能前,请完成模型的部署操作,步骤详见创建NLP大模型部署任务。
Token计算器 用户在部署服务的过程中,建议开启“安全护栏”功能,以保证内容的安全性。 父主题: 使用前必读
用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 父主题: 安全
在调用盘古API时,获取的项目id需要与盘古服务部署区域一致,例如盘古大模型当前部署在“西南-贵阳一”区域,需要获取与贵阳一区域的对应的项目id。 图2 获取项目ID 多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。
订购盘古大模型服务 配置服务访问授权 为了能够正常的存储数据、训练模型,需要用户配置盘古访问OBS的权限。 配置服务访问授权 创建并管理盘古工作空间 平台支持用户自定义创建工作空间,并进行空间的统一管理。
盘古大模型使用周期内不支持变更配置。
单击画布中的开始节点以打开节点配置页面。 开始节点的参数默认已配置,不支持修改开始节点的参数。 图1 开始节点配置图 步骤3:配置大模型节点 大模型节点提供了使用大模型能力,可在节点中配置已部署的模型,用户可以通过编写Prompt、设置参数让模型处理相应任务。
图2 文本翻译失效 可能原因:如图3,提问器节点的Prompt指令配置有误,指令中的参数与节点配置的输出参数不对应。 图3 提问器节点配置错误示例 解决方法:按照图4,正确配置提问器节点的指令,配置正确后的试运行效果如图5。
Pangu-AI4S-Ocean_Swell_24h-20241130 2024年11月发布的版本,用于海浪预测,可支持1个实例部署推理。 Pangu-AI4S-Weather_Precip-20241030 2024年10月发布的版本,用于降水预测,支持1个实例部署推理。