检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
览、数据血缘以及操作记录。 在“基本信息”页签可查看数据集的详细信息。 在“数据预览”页签可查看加工后的数据内容。 在“数据血缘”页签查看该数据集所经历的操作,如导入、合成等操作。 在“操作记录”页签可以查看数据集所经历的操作及状态等信息。 单击操作列的“删除”,可删除不需要的数据集。
设置候选提示词 用户可以将效果较好的提示词设为候选提示词,并对提示词进行比对,以查看其效果。 每个工程任务下候选提示词上限9个,达到上限9个时需要删除其他候选提示词才能继续添加。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent 开发
单击左侧导航栏“调用统计”,选择“NLP”页签。 选择当前调用的NLP大模型,可以按照不同时间跨度查看当前模型的调用总数、调用失败的次数、调用的总Tokens数、以及输入输出的Tokens数等基本信息。 此外,该功能还提供了可视化界面,可额外查看响应时长以及安全护栏拦截次数。 父主题: 调用NLP大模型
单击“任务发布”页签,可对用户自行发布的数据集执行以下操作: 查看基本信息。单击具体数据资产,可查看资产的配比详情、数据详情等基本信息。 发布至Gallery。单击操作列的“发布至Gallery”,可发布数据资产至AI Gallery。 查看发布信息。单击“查看发布信息”,查看该资产的发布信息(该操作需提前发布该数据资产至AI
error。 请检查插件服务是否有问题导致无法连接。 认证鉴权 110000 认证失败。 查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501 工作流认证失败。 查看认证配置。 112502 缺少必要参数。 从打印日志可以看出当前缺失何种参数。 112503
确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测试集进行评估。通过查看测试集样本的PPL、BLEU和ROUGE等指标,进行横向(相同训练数据+不同规格的通用模型)或纵向(不同训练数据训练的多个模型版本)对比来判断训练过程是否出现了问题。
置的模型资产执行以下操作: 查看模型历史版本。在“版本列表”页面,可查看模型的各个版本。 训练、压缩、部署操作。在“版本列表”页面,可对不同版本模型执行训练、压缩或部署操作。单击相应按钮,将跳转至相关操作页面。 查看操作记录。在“操作记录”页面,可查看当前模型的操作记录。 单击“
查看数据集基本信息。在“基本信息”页签,可以查看数据详情、数据来源以及扩展信息。 下载原始数据集。在“数据预览”页签,可以查看数据内容,单击右上角“下载”即可下载原始数据集。 查看数据血缘。在“数据血缘”页签,可以查看当前数据集所经历的完整操作,如加工、标注等。 查看操作记录。在“操作记录”页签,可以查看当前数据集
预览提示词效果 提示词撰写完成后,可以通过输入具体的变量值,组成完整的提示词,查看不同提示词在模型中的使用效果。 在撰写提示词页面,找到页面右侧变量输入区域,在输入框中输入具体的变量值信息。 输入变量值后预览区域会自动组装展示提示词。也可以直接选择已创建的变量集填入变量值信息,变
查询推理作业详情 功能介绍 根据创建推理作业的作业ID获取科学计算大模型的结果数据。 URI 获取URI方式请参见请求URI。 GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作
查询推理作业详情 功能介绍 根据创建推理作业的作业ID获取科学计算大模型的结果数据。 URI 获取URI方式请参见请求URI。 GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作
云审计服务(Cloud Trace Service,CTS)是华为云安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。
Studio大模型开发平台承载,它提供了包括盘古大模型在内的多种大模型服务,提供覆盖全生命周期的大模型工具链。 产品介绍 立即使用 在线体验 图说ECS 成长地图 由浅入深,带您玩转盘古大模型 01 了解 了解盘古大模型的概念、优势、应用场景以及模型能力与规格,您将更全面地掌握其强大功能,
erpreter,单击进行添加,再单击“确定”。 图3 添加python_interpreter插件 添加插件后,可在“技能 > 插件”中查看当前已添加的插件。 图4 已添加插件 步骤4:配置对话体验 应用支持配置对话体验功能,该功能可以提升用户与应用之间的互动质量和个性化体验,包括开场白、推荐问题。
条。 例如,“请告诉我您需要什么帮助?如:帮我预定会议室、帮我查询天气预报。 在“对话体验 > 追问”中,可选择是否开启“追问”功能,若开启,可填写追问prompt。 “对话体验”配置完成后,可在右侧“预览调试”中查看当前配置的开场白与推荐问题。 步骤7:调试应用 创建应用后,平台支持对应用执行过程的进行预览与调试。
填写评测任务描述。 参数填写完成后,单击“立即创建”,回退至“模型评测 > 自动评测”页面。 当状态为“已完成”时,可以单击操作列“评测报告”查看模型评测结果,包括模型详细的得分以及评测明细。 创建NLP大模型人工评测任务 创建NLP大模型人工评测任务步骤如下: 登录ModelArts
在评估页面,可参考评估项对当前数据的问题进行标注,且满足则单击“通过”,不满足则单击“不通过”。 全部数据评估完成后,在“人工评估”页面可查看评估进展为“100%”。 单击操作列“报告”,可查看数据集质量评估报告。 父主题: 发布视频类数据集
如图2,对于文本类数据集而言,可选中问题内容后,右键标记数据问题。 图2 标记数据集问题 全部数据评估完成后,在“人工评估”页面可查看评估进展为“100%”。 单击操作列“报告”,可查看数据集质量评估报告。 父主题: 发布文本类数据集
在评估页面,可参考评估项对当前数据的问题进行标注,且满足则单击“通过”,不满足则单击“不通过”。 全部数据评估完成后,在“人工评估”页面可查看评估进展为“100%”。 单击操作列“报告”,可查看数据集质量评估报告。 父主题: 发布图片类数据集
部署NLP大模型 创建NLP大模型部署任务 部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务