检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置OBS访问授权。 方式1:在首页顶部单击“此处”,在弹窗中选择授权项,并单击“确认授权”。 图1 配置OBS访问授权 方式2:单击首页右上角“设置”,在“授权管理”页签,单击“一键授权”。 父主题: 准备工作
数据发布 > 数据评估”,单击界面右上角“创建评估任务”。 在“数据集选择”页签选择需要评估的加工数据集,并设置抽样样本的数量与字符数。 单击“下一步”,选择评估标准。单击“下一步”设置评估人员,单击“下一步”填写任务名称。 单击“完成创建”,将返回至“数据评估”页面,评估任务创建成功后状态将显示为“已创建”。
数据发布 > 数据评估”,单击界面右上角“创建评估任务”。 在“数据集选择”页签选择需要评估的加工数据集,并设置抽样样本的数量。 单击“下一步”,选择评估标准。单击“下一步”设置评估人员,单击“下一步”填写任务名称。 单击“完成创建”,将返回至“数据评估”页面,评估任务创建成功后状态将显示为“已创建”。
知识库介绍 平台提供了知识库功能来管理和存储数据,支持为应用提供自定义数据,并与之进行互动。 知识库支持导入以下格式的本地文档: 文本文档数据。支持上传常见文本格式,包括:txt、doc、docx、pdf、ppt、pptx格式。 表格数据。支持上传常见的表格文件格式,便于管理和分
模型资产:模型资产包括用户试用、订购或在平台上训练后发布的模型,这些模型统一存储在模型资产中,便于集中管理。用户可以查看模型的所有历史版本及操作记录,从而了解模型的演变过程。同时,平台支持一系列便捷的模型操作,如模型训练、压缩和部署,帮助用户简化模型开发和应用流程。此外,平台
数据配比”,单击界面右上角“创建配比任务”。 在“数据集选择”页签选择需要配比的文本类数据集(至少选择两个),单击“下一步”。 在“数据配比”页面,可以设置不同数据集的配比数量,单击“确定”。 页面将返回至“数据配比”页面,配比任务运行成功后,状态将显示为“运行成功”。 单击操作列“生成”,将生成“发布数据集”。
规划和分配任务,使团队协作更加高效。 此外,平台配备了完善的角色权限体系,覆盖超级管理员、管理员、模型开发工程师等多种角色。通过灵活的权限设置,每位用户能够在其对应的权限范围内安全高效地操作平台功能,从而最大程度保障数据的安全性与工作效率。 父主题: 创建并管理盘古工作空间
自监督训练: 不涉及 有监督微调: 该场景采用下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 问答模型的微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 4 训练轮数(epoch) 3 学习率(learning_rate) 3e-6 学习率衰
时,表示该标注任务创建完成。 进入“标注作业”页签,单击当前标注任务的“标注”。 如果需要将该标注任务移交给其他人员,可以单击“移交”,并设置移交人员以及移交数量,单击“确定”。 进入标注页面后,逐一对数据进行标注。 如图1,以标注单轮问答数据为例,需要逐一确认问题(Q)及答案(
入所需空间。 在左侧导航栏中选择“模型开发 > 模型评测”,单击界面右上角“创建评测任务”。 在“创建评测任务”页面,参考表1完成部署参数设置。 表1 NLP大模型自动评测任务参数说明 参数分类 参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署
在“数据集选择”页签选择需要配比的文本类数据集(至少选择两个),单击“下一步”。 在“数据配比”页面,支持两种配比方式,“按数据集”和“按标签”。 按数据集:可以设置不同数据集的配比数量,单击“确定”。 按标签:该场景适用于通过数据打标类清洗算子进行加工的文本类数据集,具体标签名称与标签值可在完成清洗文
表面变量 支持选择推理结果输出的表面变量,包括10m u风、10m v风、2米温度、海平面气压,没有选择的变量推理结果将不输出。 高空变量 设置高空变量参数,包括:4个表面层特征(10m u风、10m v风、2米温度、海平面气压),13高空层次(1000、925、850、700、6
工作流”,在所需工作流中单击“ > 复制ID”。 conversation_id 是 String 会话ID,唯一标识每个会话的标识符,可将会话ID设置为任意值,使用标准UUID格式。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String
统一管,资产管理“全” ModelArts Studio大模型开发平台数据、模型、Agent应用在统一的入口进行管理,可以快速的掌握资产的使用情况、版本情况和溯源信息等。 海量训练数据 盘古大模型依托海量且多样化的训练数据,涵盖从日常对话到专业领域的广泛内容,帮助模型更好地理解和生成自然语
训练智能客服系统大模型需考虑哪些方面 根据智能客服场景,建议从以下方面考虑: 根据企业实际服务的场景和积累的数据量,评估是否需要构建行业模型,如电商、金融等。 根据每个客户的金牌客服话术,可以对对话模型进行有监督微调,进一步优化其性能。 根据每个客户的实际对话知识,如帮助文档、案
自监督训练: 不涉及 有监督微调: 本场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 4 学习率(learning_rate) 7.5e-05 学
删除符合自定义正则表达式的数据。 自定义关键词过滤 剔除包含关键词的数据。 敏感词过滤 对文本中涉及黄色、暴力、政治等敏感数据进行自动检测和过滤。 文本长度过滤 按照设置的文本长度,保留长度范围内的数据进行。 冗余信息过滤 按照段落粒度,删除文本中的冗余信息,不改变数据条目。 例如目录封面、图注表注、标注说明、尾部信息、冗余段落和参考文献等。
提示词写作进阶技巧 设置背景及人设 明确任务需求 添加CoT思维链提示 父主题: 提示词写作实践
横向比较提示词效果 设置候选提示词 横向比较提示词效果 父主题: 开发盘古大模型提示词工程
自监督训练: 不涉及 有监督微调: 该场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表1 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 6 学习率(learning_rate) 7.5e-05 学