检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何获取弹性云服务器的物理机房位置? 在网站备案后,如果还需进一步办理“经营性ICP许可证”或者“等保证明”,可能需要提供弹性云服务器的物理机房位置。 您可以在华为云管理控制台通过“提交工单”的方式获取弹性云服务器的物理机房位置。
裸金属服务器具备物理机的一切特性和优势,您的应用可以直接访问裸金属服务器的处理器和内存,无任何虚拟化开销。 了解裸金属服务器、物理机以及虚拟机的功能和性能差异,请参考裸金属服务器与物理机、虚拟机特性对比。 父主题: 通用类
配置服务访问授权 配置OBS访问授权 盘古大模型服务使用对象存储服务(Object Storage Service,简称OBS)进行数据存储,实现安全、高可靠和低成本的存储需求。因此,为了能够顺利进行存储数据、训练模型等操作,需要用户配置访问OBS服务的权限。 登录ModelArts
配置知识 配置知识的步骤如下: 在“高级配置 > 知识”,单击“添加”。 在“添加知识”窗口,单击“点此上传”,上传知识文件。 图1 添加知识 上传完成后,单击“确定”。 在“高级配置”中,可查看上传成功的知识文件。 图2 知识上传成功 父主题: 手工编排Agent应用
配置插件 配置插件的步骤如下: 在“高级配置 > 插件”,单击“添加”。 图1 配置插件 在“添加插件”窗口,选择预置插件或个人插件,单击进行添加,最后单击“确定”。若想创建插件可单击右上角“创建插件”,创建插件的步骤请参见创建插件。 图2 添加插件 添加插件后,可在“高级配置”中查看当前已添加的插件。
管理科学计算大模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型和修改作业配置参数,但在修改部署时模型不可替换或修改作业配置参数。 在“模型更新”或“修改部署”后进行升
配置Prompt builder 创建Agent的首要步骤就是撰写提示词(Prompt),为Agent设定人设、目标、核心技能、执行步骤。Agent会根据LLM对提示词的理解,来选择使用插件或知识库,响应用户问题。因此,一个好的提示词可以让LLM更好的理解并执行任务,Agent效果与提示词息息相关。
配置开场白和推荐问题 配置开场白和推荐问题的步骤如下: 在“高级配置 > 开场白和推荐问题”中,可输入自定义开场白,也可单击“智能添加”。 在推荐问中单击“添加”,可增加推荐问数量。添加后可在右侧“预览调试”中查看相应效果。 最多可以添加3个推荐问。 图1 预览调试查看开场白与推荐问效果
配架构类型。 资源配置 实例数 设置部署模型是所需的实例数,单次部署服务时,部署实例个数建议不大于10,否则可能触发限流导致部署失败。 基本信息 名称 设置部署任务的名称。 描述(可选) 设置部署任务的描述。 参数填写完成后,单击“立即部署”。 父主题: 部署科学计算大模型
Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
管理NLP大模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型,但在修改部署时模型不可替换。 在“模型更新”或“修改部署”后进行升级操作时,可选择全量升级或滚动升级两种方式:
型”,参考表1完成部署参数设置,启动模型部署。 表1 NlP大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 最大TOKEN长度
模型。使用该功能前,需完成模型的部署操作,详见创建科学计算大模型部署任务。 科学计算大模型支持全球中期天气要素预测、全球中期降水预测、全球海洋要素、区域海洋要素、全球海洋生态、全球海浪高度预测能力,在选择好模型后,根据需求选择相应的数据和模型配置信息,模型就会返回相应的预测结果。
HTTP请求方法,表示服务正在请求操作类型,包括: GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时
成工作流的基本单元。例如,大模型、插件、代码、判断等组件。 创建工作流时,工作流默认包含了开始、结束和大模型组件,每个组件需要配置不同的参数,如组件配置、输入和输出参数等。基于该工作流,开发者可通过拖、拉、拽可视化组件等方式添加更多的组件,实现复杂业务流程的编排,从而快速构建Agent。
、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建思
可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 父主题: 安全
左侧导航窗格中,选择“用户”页签,单击右上方的“创建用户”。 图6 创建用户 配置用户基本信息,单击“下一步”。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 将用户添加至创建用户组步骤中创建的用户组,单击“创建用户”,完成IAM用户的创建。
购买周期计费,适用于可预估资源使用周期的场景。 按需计费模式:按需付费是后付费方式,可以随时开通/关闭对应资源,支持秒级计费,系统会根据云服务器的实际使用情况每小时出账单,并从账户余额里扣款。 父主题: 计费FAQ
能。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
单元默认采用包周期计费,数据智算单元、数据通算单元默认采用按需计费,训练单元采用包周期和按需计费两种方式。 盘古大模型使用周期内不支持变更配置。
提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面: 模型优化与部署:将训练好的大模型部署到生产环境中,可能通过云服务或本地服务器进行推理服务。此时要考虑到模型的响应时间和并发能力。 模型监控与迭代:部署后的模型需要持续监控其性能,