检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配架构类型。 资源配置 实例数 设置部署模型是所需的实例数,单次部署服务时,部署实例个数建议不大于10,否则可能触发限流导致部署失败。 基本信息 名称 设置部署任务的名称。 描述(可选) 设置部署任务的描述。 参数填写完成后,单击“立即部署”。 父主题: 部署科学计算大模型
查看科学计算大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看
管理科学计算大模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型和修改作业配置参数,但在修改部署时模型不可替换或修改作业配置参数。 在“模型更新”或“修改部署”后进行升
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
型”,参考表1完成部署参数设置,启动模型部署。 表1 NlP大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 最大TOKEN长度
查看NLP大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看模
管理NLP大模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型,但在修改部署时模型不可替换。 在“模型更新”或“修改部署”后进行升级操作时,可选择全量升级或滚动升级两种方式:
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
购买周期计费,适用于可预估资源使用周期的场景。 按需计费模式:按需付费是后付费方式,可以随时开通/关闭对应资源,支持秒级计费,系统会根据云服务器的实际使用情况每小时出账单,并从账户余额里扣款。 父主题: 计费FAQ
部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务 调用NLP大模型 使用“能力调测”调用NLP大模型
登录ModelArts Studio大模型开发平台,进入所需空间。 单击左侧“模型开发 > 模型部署”。 若调用已部署的模型,单击状态为“运行中”的模型名称,在“详情”页签,可获取API的URL。 图1 获取已部署模型的调用路径 若调用预置服务,在“预置服务”页签中,选择所需调用的科学计算大模型
此示例演示了如何使用盘古预置NLP大模型进行对话问答,包含两种方式:使用“能力调测”功能和调用API接口。 您将学习如何使用“能力调测”功能调试模型超参数、如何调用盘古NLP大模型API以实现智能化对话问答能力。 准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型
Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 单击左侧“模型开发 > 模型部署”。 调用已部署的模型。单击状态为“运行中”的模型名称,在“详情”页签,可获取API的URL。 图2 获取已部署模型的调用路径 调用预置服务。在“预置服务”页签中,选择所需调用的NLP大模型,单
提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面: 模型优化与部署:将训练好的大模型部署到生产环境中,可能通过云服务或本地服务器进行推理服务。此时要考虑到模型的响应时间和并发能力。 模型监控与迭代:部署后的模型需要持续监控其性能,
应。 使用该鉴权方式前,请确保有已部署的大模型。 获取APPCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP
度语义理解与生成能力的人工智能大语言模型。可进行对话互动、回答问题、协助创作。 盘古大模型在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。 表1 API清单 API 功能 操作指导 NLP大模型-文本对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。
HTTP请求方法,表示服务正在请求操作类型,包括: GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时
获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的请求URI。 图1 部署后的模型调用路径 若调用预置模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“预置服务”页
提供从模型创建到部署的一站式解决方案。 该工具链具备模型训练、部署、推理等功能,通过高效的推理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP大模型 开发盘古科学计算大模型 压缩盘古大模型 部署盘古大模型 调用盘古大模型