检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"text": "故事标题:《穿越宋朝的奇妙之旅》在一个阴雨绵绵的夜晚,一个名叫李晓的年轻人正在阅读一本关于宋朝的历史书籍。突然,他感到一阵眩晕,当他再次睁开眼睛时,他发现自己身处一个完全陌生的地方。李晓发现自己穿越到了宋朝。他身处一座繁华的城市,人们穿着古
文本翻译失效 可能原因:如图3,提问器节点的Prompt指令配置有误,指令中的参数与节点配置的输出参数不对应。 图3 提问器节点配置错误示例 解决方法:按照图4,正确配置提问器节点的指令,配置正确后的试运行效果如图5。 图4 提问器节点配置正确示例 图5 试运行效果 父主题: 低代码构建多语言文本翻译工作流
多轮问答场景的输入(“context”字段)请务必使用“[问题, 回答, 问题, 回答, 问题, ……]”的方式来构造,若您的数据是同一个角色连续多次对话的“多轮问题”,可以将同一个角色的对话采用某个分隔符拼接到一个字符串中。例如: 原始对话示例: A:xxx号话务员为您服务! A:先生您好,有什么可以帮助您的? B:你好,是这样的
增加人设可以让生成的内容更符合该领域需求。 例如,“假设你是一位银行面试官,请生成10个银行面试问题。”、“假如你是一个高级文案策划,请生成10个理财产品的宣传文案。”、“你是一个财务分析师,请分析上述财务指标的趋势。” 父主题: 提示词写作进阶技巧
问答场景中,也称为检索增强问答,如政务问答场景,行业客服智能问答场景等。 下面将以一个具体的政务问答助手为例进行说明。该场景通过收集政务问答数据和相关政务问答文档,基于检索增强问答框架,构建了一个智能化的政务问答助手。 图1 政务问答智能助手整体框架 上图给出了政务问答智能助手的
使用规则构建的优点是快速且成本低,缺点是数据多样性较低。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取有监督场景。一个比较常见的方法是,将无监督的文本按照章节、段落、字符数进行切片,让模型基于这个片段生成问答对,再将段落、问题和答案三者
查看模型训练状态 在模型训练列表中查看训练任务的状态,各状态说明详见表1。 表1 训练状态说明 训练状态 训练状态含义 初始化 模型训练任务正在进行初始化配置,准备开始训练。 已完成 模型训练已完成。 运行中 模型正在训练中,训练过程尚未结束。 创建失败 训练任务创建失败。 训练失败 模型训练过
具体格式要求详见表1。 表1 预测类数据集格式要求 文件内容 文件格式 文件样例 时序 csv 数据为结构化数据,包含列和行,每一行表示一条数据,每一列表示一个特征,并且必须包含预测目标列,预测目标列要求为连续型数据。 目录下只有1个数据文件时,文件无命名要求。 目录下有多个数据文件时,需要通过命
- 通用文本(/text/completions) Java、Python、Go、.NET、NodeJs、PHP 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。 开发环境要求 华为云盘古大模型推理SDK要求:
部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务 调用NLP大模型 使用“能力调测”调用NLP大模型
请检查插件服务是否有问题导致无法连接。 认证鉴权 110000 认证失败。 查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501 工作流认证失败。 查看认证配置。 112502 缺少必要参数。 从打印日志可以看出当前缺失何种参数。 112503
大模型开发基本概念 大模型相关概念 概念名 说明 大模型是什么 大模型是大规模预训练模型的简称,也称预训练模型或基础模型。所谓预训练模型,是指在一个原始任务上预先训练出一个初始模型,然后在下游任务中对该模型进行精调,以提高下游任务的准确性。大规模预训练模型则是指模型参数达到千亿、万亿级别的预训练模
其中,单个cls类别目录下的每个三级目录为一个样本,例如cls1文件的样本为aa和bb。 所有样本文件夹(如 aa)包含的图片数量相等,例如cls1样本aa和bb、cls1样本aa和cls2的样本cc。 每个样本文件夹(如 aa)可以视为一个视频片段,其中每张图片代表视频的一个帧,将这些帧作为一个序列来学习视
过微调之后,才可支持推理部署。 Pangu-NLP-N2-Chat-32K-20241030 32K 2024年10月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署。此模型版本差异化支持预训练特性、INT8量化特性。
n,请求头为{"Content-Type":"application/json"},单击“下一步”。 图7 配置插件信息 配置参数信息,如图8。 图8 配置参数信息 配置完成后,单击“确定”,完成多语种翻译插件的创建。 父主题: 附录
{"system":"你是一个机智幽默问答助手","context":"你好,请介绍自己","target":"哈哈,你好呀,我是你的聪明助手。"} csv格式:csv文件的第一列对应system,第二三列分别对应context、target。 "你是一个机智幽默问答助手","你好,请介绍自己"
图片元数据过滤 基于图片存储大小、宽高比属性进行图片/图文数据清洗。 图文文本长度过滤 过滤文本长度不在“文本长度范围”内的图文对。一个中文汉字或一个英文字母,文本长度均计数为1。 图文文本语言过滤 通过语种识别模型得到图文对的文本语种类型,“待保留语种”之外的图文对数据将被过滤。
数据集版本信息。 'classes': [category1',category2', ...],// 所有类别名称的列表,每个类别对应一个 label,用于标注视频中的事件或动作。 'database': { 'video_name':{
用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限
在“创建评测任务”页面,参考表1完成部署参数设置。 表1 NLP大模型自动评测任务参数说明 参数分类 参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署服务、外部服务两种选项。单次最多可评测10个模型。 已部署服务:选择部署至ModelArts Studio平台的模型进行评测。