检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
文本翻译失效 可能原因:如图3,提问器节点的Prompt指令配置有误,指令中的参数与节点配置的输出参数不对应。 图3 提问器节点配置错误示例 解决方法:按照图4,正确配置提问器节点的指令,配置正确后的试运行效果如图5。 图4 提问器节点配置正确示例 图5 试运行效果 父主题: 低代码构建多语言文本翻译工作流
荐模型。 例如,基模型算法池中有5个LightGBM(LGB)模型,且推荐模型数量设置为5,这意味着系统将在基模型池中的5个LightGBM模型之外,推荐5个不同的模型。最终,系统将使用10个模型进行训练,其中5个是LightGBM模型,另外5个是推荐的不同模型。 日期列名 日期
请检查插件服务是否有问题导致无法连接。 认证鉴权 110000 认证失败。 查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501 工作流认证失败。 查看认证配置。 112502 缺少必要参数。 从打印日志可以看出当前缺失何种参数。 112503
n,请求头为{"Content-Type":"application/json"},单击“下一步”。 图7 配置插件信息 配置参数信息,如图8。 图8 配置参数信息 配置完成后,单击“确定”,完成多语种翻译插件的创建。 父主题: 附录
部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务 调用NLP大模型 使用“能力调测”调用NLP大模型
Service,简称OBS)存储数据和模型,实现安全、高可靠和低成本的存储需求。 与ModelArts服务的关系 盘古大模型使用ModelArts服务进行算法训练部署,帮助用户快速创建和部署模型。 与云搜索服务的关系 盘古大模型使用云搜索服务CSS,加入检索模块,提高模型回复的准确性、解决内容过期问题。
需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服务”页签,单击状态为“运行中”的模型名称,在“详情”页签,可获取模型调用路径,如图1。 图1 获取已部署模型的调用路径 获取预置服务的调用路径。在“预置服务”页签中,选择
问答模块:准备单轮问答和检索增强的数据集。 {"context": ["请问福田英才荟卫生系统人才与福田英才荟高层次人才是不同的部门受理么?"], "target": "您好,福田英才荟卫生系统人才奖励管理办法只针对福田区属医疗卫生事业单位人员,其他高层次人才申领奖励建议咨询区人力资源局。"}
使用API调用科学计算大模型 预置模型或训练后的模型部署成功后,可以使用API调用科学计算大模型。 获取调用路径 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服
数据工程使用流程 高质量数据是推动大模型不断迭代和优化的根基,它的质量直接决定了模型的性能、泛化能力以及应用场景的适配性。只有通过系统化地准备和处理数据,才能提取出有价值的信息,从而更好地支持模型训练。因此,数据的采集、清洗、标注、评估、发布等环节,成为数据开发中不可或缺的重要步骤。
数据工程介绍 数据工程介绍 数据工程是ModelArts Studio大模型开发平台(下文简称“平台”)为用户提供的一站式数据处理与管理功能,旨在通过系统化的数据获取、加工、发布等过程,确保数据能够高效、准确地为大模型的训练提供支持,帮助用户高效管理和处理数据,提升数据质量和处理效率,为大模型开发提供坚实的数据基础。
述,单击“确定”,进入配置合成指令页面。 选择变量标识符为“双大括号{{}}”,输入指令为“请以{{topic}}为主题,写一篇字数不超过{{num}}的散文。” 单击“确定”,再单击“确定”。 图2 配置指令 按照表1进行变量配置。 表1 数据指令变量配置 变量类型 变量名称 变量类型
针对“零码”开发者(无代码开发经验),平台提供了Prompt智能生成、插件自定义等能力,方便用户快速构建、调优、运行属于自己的大模型应用,仅需几步简单的配置即可创建属于自己的Agent应用。 对于“低码”开发者(有一定代码开发经验),可以通过工作流方式,适当编写一定代码,来构建逻辑复杂、且有较
准备工作 申请试用盘古大模型服务 订购盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
用户提出的问题,作为运行工作流的输入,与工作流开始节点输入参数对应。 plugin_configs 否 List<PluginConfig> 插件配置,当工作流有配置用户自定义插件节点时,可能需要配置鉴权信息等,具体结构定义详见表4。 表4 PluginConfig参数 参数 是否必选 参数类型 描述 plugin_id
应。 使用该鉴权方式前,请确保有已部署的大模型。 获取APPCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP
理和分析功能,用户只需将其添加到应用中,即可扩展功能。 自定义插件:为了满足更个性化的需求,平台允许开发者创建自定义插件,支持将API通过配置方式快速创建为插件,并供Agent调用。这样,开发者可以根据特定需求为应用增加专属功能。 父主题: 创建与管理插件
发,全程0代码开发,极大降低大模型开发门槛。 功能强,Agent开发“好” Agent开发提供便捷搭建大模型应用功能,并提供功能强大的插件配置,让Agent能力更强,更专业。 统一管,资产管理“全” ModelArts Studio大模型开发平台数据、模型、Agent应用在统一的
在“创建评测任务”页面,参考表1完成部署参数设置。 表1 NLP大模型自动评测任务参数说明 参数分类 参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署服务、外部服务两种选项。单次最多可评测10个模型。 已部署服务:选择部署至ModelArts Studio平台的模型进行评测。
在“创建流通任务”页面,选择数据集模态,如“图片 > 图片+Caption”类型的数据集。 图1 选择数据集模态 选择数据集,单击“下一步”。 在“格式配置”选择发布格式。由于数据工程需要支持对接盘古大模型,为了使这些数据集能够被这些大模型正常训练,平台支持发布不同格式的数据集。 当前支持默认格式、盘古格式: