检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
低代码构建多语言文本翻译工作流 方案设计 构建流程 效果评估与优化 典型问题 附录 父主题: Agent应用实践
创建多语言文本翻译插件 准备工作 提前开通“文本翻译”服务。登录自然语言处理控制台,切换区域至华北-北京四,在“总览”页面下方开通“文本翻译”服务。 图1 开通文本翻译服务 操作流程 创建多语言文本翻译插件的流程见表1。
提示词工程不仅是关于设计和研发提示词,它包含了与大语言模型交互和研发的各种技能和技术。提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。
打造政务智能问答助手 场景介绍 大模型(LLM)通过对海量公开数据(如互联网和书籍等语料)进行大规模无监督预训练,具备了强大的语言理解、生成、意图识别和逻辑推理能力。
因此,希望借助大模型消除语义歧义性,识别用户查询意图,并直接生成支持下游操作的结构化JSON信息。大模型的NL2JSON能力可以从自然语言输入抽取关键信息并转换为JSON格式输出,以供下游操作,从而满足该场景下客户需求。
语种过滤 通过语种识别模型得到文档的语言类型,筛选所需语种的文档。 全局文本去重 检测并去除数据中重复或高度相似的文本,防止模型过拟合或泛化性降低。 数据打标 预训练文本分类 针对预训练文本进行内容分类,例如新闻、教育、健康等类别,支持分析语种包括:中文、英文。
图4 连接节点操作 配置“意图识别”节点。 鼠标拖动左侧“意图识别”节点至编排页面,连接“开始”节点和“意图识别”节点,单击“意图识别”节点进行配置。 图5 连接节点操作 在“参数配置”中,配置输入参数。 参数名称:默认参数名称为input。
解决方法:若为Token错误问题,可参考创建多语言文本翻译插件,重新获取Token并进行试运行。 父主题: 低代码构建多语言文本翻译工作流
在训练和推理过程中,通过数据脱敏、隐私计算等技术手段识别并保护敏感数据,有效防止隐私泄露,保障个人隐私数据安全。 内容安全:通过预训练和强化学习价值观提示(prompt),构建正向的意识形态。通过内容审核模块过滤违法及违背社会道德的有害信息。
附录 创建多语言文本翻译插件 父主题: 低代码构建多语言文本翻译工作流
图3 多场景测试-不同语言对 复杂对话场景:如图4,当用户在对话中频繁切换意图时,测试意图识别节点的应答能力,确保其能够理解并适应多变的对话上下文。
通过大规模的通用数据训练,模型可以掌握丰富的语言模式,如语言结构、词义关系和常见的句型。 使用大规模通用数据:通常使用海量的无监督数据(如文本语料库、百科文章),这些数据覆盖广泛的领域和语言表达方式,帮助模型掌握广泛的知识。
水印识别 识别视频中是否包含水印。 字幕识别 识别视频中是否包含字幕。 Logo识别 识别视频中是否包含Logo。 视频黑边识别 识别视频中是否包含黑边。
提问器节点:当意图识别为“文本翻译”意图时,工作流将进入提问器节点。该节点主要负责提问用户翻译需求(如翻译文本、目标语言等)。 文本翻译插件节点:在翻译意图分支中,文本翻译插件节点负责调用华为云文本翻译API,实现从源语言到目标语言的翻译过程。
图文文本语言过滤 通过语种识别模型得到图文对的文本语种类型,“待保留语种”之外的图文对数据将被过滤。 图文去重 基于结构化图片去重 判断相同文本对应不同的图片数据是否超过阈值,如果超过则去重。 图片去重 通过把图片结构化处理后,过滤重复的图片/图文对数据。
例如,若是自然语言处理任务,可能需要大量的文本数据;如果是计算机视觉任务,则需要图像或视频数据。 数据预处理:数据预处理是数据准备过程中的重要环节,旨在提高数据质量和适应模型的需求。常见的数据预处理操作包括: 去除重复数据:确保数据集中每条数据的唯一性。
意图识别节点:用于根据用户的输入进行意图分类并导向后续不同的处理流程。 提问器节点:提供了在对话过程中向用户收集更多信息的能力。 插件节点:用于引入API插件,根据节点的输入,执行用户定义的插件,将插件执行结果作为节点的输出。
概述 盘古大模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练大模型中,打造出具有深度语义理解与生成能力的人工智能大语言模型。可进行对话互动、回答问题、协助创作。 盘古大模型在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。
大模型节点配置说明 将大模型节点加入工作流,用于处理复杂的自然语言理解或生成任务。 意图识别节点配置说明 配置该节点来分析用户输入,识别其意图,以便后续处理。 提问器节点配置说明 配置一个提问器节点,用于向用户或系统提出问题,获取所需信息。
通过自动化的脚本或手动审核,识别并移除这些低质量的数据,以确保模型学习的质量。 过滤不适当内容 :大模型的训练数据可能包含不适当或有害的内容。使用自然语言处理工具和规则集来检测并过滤掉这些内容,以确保训练数据的安全性和道德性。