检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
打造短视频营销文案创作助手 场景介绍 随着互联网的发展,短视频已成为了日常生活中不可或缺的一部分,凭借其独特的形式和丰富的内容吸引了大量流量,并为企业和个人提供了一个全新的营销平台。短视频用户希望借助大模型快速生成高质量的口播文案,以提升营销效果和效率。在这种场景下,用户只需提供
4096 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有4K上下文能力。 盘古-NLP-N2单场景模型-32K 32768 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有32K上下文能力。
通过set_max_iterations可以设置最大迭代次数,控制Agent子规划的最大迭代步数,防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Agent-L0.C模型,或其衍生模型,使用通用模型或其他模型无法运行。如上例所示,当前的module-version需要配置为“N
登录盘古大模型套件平台,左侧导航栏中选择“数据工程 > 数据管理”,单击界面右上角“创建数据集”。 图7 数据管理 在创建数据集弹出框中选择“创建一个新的数据集”,单击“创建”。 图8 创建数据集 在新建数据集页面,依据需要进行的训练任务,选择导入数据,填写基本信息。 导入数据 选择模型类型、训练类型、数据类型、导入格式以及数据来源。
数据集创建完成后,可以使用数据清洗功能,对异常数据进行清理,或进行数据转换、过滤和去重等操作。 登录盘古大模型套件平台。 在左侧导航栏中选择“数据工程 > 数据清洗”,单击界面右上角“创建任务”。 图1 数据清洗 依据需要清洗的数据类型,选择对应的数据集和数据集版本,输出路径,设置名称、描述等信息为可选项。
通过setMaxIterations可以设置最大迭代次数,控制Agent子规划的最大迭代步数,防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Default模型,或其衍生模型,使用通用模型或其他模型无法运行。当前的moduleVersion需要配置为“N2_agent_
登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型训练”,单击界面右上角“创建训练任务”。 图1 模型训练列表 在训练配置中,选择模型类型、训练类型、训练方式、训练模型与训练参数。 其中,训练配置选择LLM(大语言模型),训练类型选择有监督训练,根据所选模型配置训练参数。
置训练参数。 表1 自监督训练参数说明 参数名称 说明 模型类型 选择“LLM”。 训练类型 选择“自监督训练”。 训练模型 选择训练所需要的模型,模型详细介绍请参见选择模型与训练方法。 训练参数 指定用于训练模型的超参数。 训练参数说明和调参策略请参见自监督微调训练参数说明。 checkpoints
口。用户可以通过在“能力调测”页面选择调用基模型或训练后的模型。 训练后的模型需要“在线部署”且状态为“运行中”时,才可以使用本章节提供的方法进行调测,具体步骤请参见部署为在线服务。 文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如,让模型依据要求写邮件、做摘要总结、生成观点见解等。
登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型评估”。 单击界面右上角“创建评估任务”,进入评估任务创建页面。 图1 模型评估列表页面 填写评估任务所需的评估配置、评估数据和基本信息。 图2 创建评估任务 评估配置: 待评估模型:支持选择多个模型版本同时评估,最多选择5个。待评估模型必须符合前提条件。
新建工单”,搜索“盘古大模型”产品,选择问题类型并提交工单。 图1 立即购买 图2 新建工单 获取购买权限后,根据需要选择计费模式,基模型需选择“N2 - 基础模型功能 & 应用增强功能”。用户可根据需求自行选择功能模型,输入资源名称,类型选择“边缘部署”,输入需要订购的推理算力,单击“确认订单”。
开通API 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。 文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如让模型依据要求写邮件、做摘要总结、生成观点见解等。 多轮
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 开通盘古大模型API。 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。
在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“部署”。 在创建部署页面,完成部署配置,填写基本信息。 表1 部署配置参数 参数名称 说明 选择模型 选择需要部署的模型。 推理资源 选择非限时免费的模型时显示。选择盘古大模型服务提供的在线推理资产。 部署方式 选择“在线部
of("pangu")) print(doc_skill.execute({"documents": docs})) Refine:基于首个文档,并循环后续文档来迭代更新答案。 from pangukitsappdev.api.embeddings.factory import Embeddings
print(doc_skill.execute({"documents": docs, "question": query})) Refine:基于首个文档,并循环后续文档来迭代更新答案。 from pangukitsappdev.api.embeddings.factory import Embeddings
选中需要评估的候选提示词,单击左上角“创建评估”按钮,跳转评估任务创建页面。 图2 创建评估 选择评估使用的变量数据集和评估方法。 数据集:根据选择的数据集,将待评估的提示词和数据集中的变量自动组装成完整的提示词,输入模型生成结果。 评估方法:根据选择的评估方法,对模型生成结果和预期结果进行比较,并根据算法给出相应的得分。
out.println(docSkill.executeWithDocs(docs, query)); Refine:基于首个文档问答,并循环后续文档来迭代更新答案。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import
System.out.println(docSkill.executeWithDocs(docs)); Refine:基于首个文档摘要,循环后续文档来迭代更新。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import
进入ModelArts服务,选择所需空间。 在左侧列表中单击“边缘资源池”,在“节点”页签中,单击“创建”。 在“创建边缘节点”页面中,填写节点名称,配置AI加速卡与日志信息,单击“确定”。 如果节点有npu设备需选择“AI加速卡 > Ascend”,并选择加速卡类型。 如果节点没有加速卡,则选择“AI加速卡