检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Agent效果优化 如果Agent出现无法正确调用工具的情况,可以尝试一些prompt优化技术提升效果。 优化System prompt 提示财务报销助手依赖的必要信息,如用户名称等基础信息: final String customSystemPrompt = "你是财务
启用模型内容审核 内容审核是文本的检测技术,可自动检测涉黄、涉暴、违规等内容,对用户向模型输入的内容、模型输出内容进行内容审核,帮助客户降低业务违规风险。 授权使用华为云内容审核,有效拦截大模型输入输出的有害信息,保障模型调用安全。 授权后,在调用盘古大模型能力时,模型的输入和输出将分别调用
示工程提高语言模型的安全性,也可以通过专业领域知识和外部工具赋能语言模型,增强其能力。 Prompt基本要素 您可以通过简单的提示词获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入
一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 华为云的区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目为单位进行授权,用户可以访问您账号中该区域的所有资源。如果您希望
N2基础功能模型、N4基础功能模型、经有监督微调训练以及RLHF训练后的N2、N4模型可以通过模型压缩技术在保持相同QPS目标的情况下,降低推理时的显存占用。 采用INT8的压缩方式,INT8量化可以显著减小模型的存储大小与降低功耗,并提高计算速度。 模型经过量化压缩后,不支持评估操作,但可以进行部署操作。
约束与限制 受技术等多种因素制约,盘古大模型服务存在一些约束限制。 每个模型请求的最大Token数有所差异,详细请参见模型的基础信息。 模型所支持的训练数据量、数据格式要求请参见《用户指南》“准备盘古大模型训练数据集 > 模型训练所需数据量与数据格式要求”。
打分模式:当前版本打分模式仅支持基于规则,用户不可选,且暂无人工打分。基于规则打分:使用预置的相似度或准确率打分规则对比模型生成结果与真实标注的差异,从而计算模型指标。 评估数据: 选择已创建并发布的评估数据集。 基本信息: 输入任务的名称和描述。 单击“立即创建”,创建一个模型评估任务。 父主题: 评估盘古大模型
绑定。当用户向AI助手提问时,大模型就会根据用户的问题自动规划调用相应工具,从而实现对应的功能。 AI助手具备以下核心功能: 大模型调用能力:AI助手可以根据特定的指令调用NLP大模型,以改变AI助手的回复方式,使其更好地响应用户的需求。例如,让AI助手表现得更加友好、专业,或者更加幽默。
用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要包含一个签名值,该签名值以请求者的访问密钥
调测AI助手 在AI助手的创建页面可以直接进行调测,也可以在AI助手列表页进行调测。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > AI助手”,选择需要调测的AI助手,单击“调测”按钮。 图1 AI助手 在调测页面,可以调整AI助手的指令,输入问题后,单击“运行”获得模型回复结果。
toolId。表示工具的标识,建议为英文且与实际工具含义匹配,在同一个Agent中唯一。 toolDesc。工具的描述,为重要参数,尽可能的准确简短描述工具的用途。 toolPrinciple。表示何时使用该工具,为重要参数。该描述直接影响LLM对工具使用的判断,尽量描述清楚。如
@Tool说明: name。工具的标识,建议为英文且与实际工具含义匹配,在同一个Agent中唯一。 description。工具的描述,建议为中文,尽可能的简短描述工具。 principle。何时使用该工具,为重要参数,该描述直接影响LLM对工具使用的判断,尽量描述清楚。如果Agent实际执行效果不符合预期,可以调整。
LoRA轶值 / 8、16、32、64 较高的取值意味着更多的参数被更新,模型具有更大的灵活性,但需要更多的计算资源和内存。较低的取值则意味着更少的参数更新,资源消耗更少,但模型的表达能力可能受到限制。 训练轮数 4 1~50 完成全部训练数据集训练的次数。 学习率 0.0001 0~1
开启内容审核后,可以有效拦截大模型输入、输出的有害信息,保障模型调用安全。 NLP模型在流式输出时,同样支持内容审核。特别是模型生成超长内容时,通过实时审核模型生成的内容片段,可以有效降低首token的审核时延,同时确保用户看到的内容是经过严格审核的。 图3 大模型内容审核 购买内容审核
在工程任务列表页面,找到所需要操作的工程任务,单击该工程名称,跳转工程任务下候选提示词页面。 图1 提示词工程 选中需要评估的候选提示词,单击左上角“创建评估”按钮,跳转评估任务创建页面。 图2 创建评估 选择评估使用的变量数据集和评估方法。 数据集:根据选择的数据集,将待评估的提示词和数据集中的变量自动组装成完整的提示词,输入模型生成结果。
统计模型调用量 模型调用成功后,有两种方式可以查看模型的调用量。 通过“服务管理”功能查看调用量:查看具体某个模型的调用总量、调用成功量、调用失败量,且可按时间进行筛选。 通过“运营面板”功能查看调用量:查看全部模型访问总数、模型回复时的响应时长、兜底回复比例以及输入/输出token信息。
等,但不具备对话问答能力。 功能模型:功能模型是在基模型的基础上经过微调,专门适应特定任务,并具备对话问答的能力。经过特定场景优化的功能模型能够更有效地处理文案生成、阅读理解、代码生成等任务。 专业大模型:针对特定场景优化的大模型。例如,与非专业大模型相比,BI专业大模型更适合执行数据分析、报告生成和业务洞察等任务。
LLMs.of("pangu") 基础问答:基础的模型文本问答(temperature等参数采用模型默认的设置)。 llm_api.ask("你是谁?").answer 自定义参数问答:自定义设置如temperature等参数,获得对应的效果。 from pangukitsappdev
预警,需要优化数据 <40% 红色 告警,需要优化数据 (可选)当“我的数据集”的OBS数据发生变更时,可以单击右上角“检测”按钮重新校验数据集,也可以在“我的数据集”页签中,单击操作栏中的“更多 > 检测”,重新校验数据集。历史存量未校验过的数据集也可以进行重新校验。 图2 重新校验数据集质量1
单击评估名称,进入评估任务详情页,可以查看详细的评估进度。例如,在图2中有10条评估用例,当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。通过比较