检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发布数据集 刚创建的数据集在未发布状态下,无法应用于模型训练,数据集创建、清洗完成后需要执行“发布”操作才可以将该数据集用于后续的任务中。 登录盘古大模型套件平台。 在左侧导航栏中选择“数据工程 > 数据管理”,在“我的数据集”页签找到未发布的数据集,单击操作列“版本发布”执行发布数据集操作。
违规等内容,对用户向模型输入的内容、模型输出内容进行内容审核,帮助客户降低业务违规风险。 授权使用华为云内容审核,有效拦截大模型输入输出的有害信息,保障模型调用安全。 授权后,在调用盘古大模型能力时,模型的输入和输出将分别调用一次内容审核服务,该服务为付费项,用户可按需购买。 若
以下目录结构存放下载文件,注意修改下载文件的命名。其中,docker下的certs证书会自动生成,一般无需修改。 pkgs // 包目录,用户自行命名 docker docker.tgz // docker 二进制文件,要求版本>19.0.3
AI助手 什么是AI助手 配置AI助手工具 配置知识库 创建AI助手 调测AI助手 调用AI助手API
提示词工程 什么是提示词工程 获取提示词模板 撰写提示词 横向比较提示词效果 批量评估提示词效果 发布提示词
Authorization:Bearer your-key 当LLM被定义好之后,使用方式与盘古大模型相同,开源模型也支持Agent调用,可参考实例化Agent(Java SDK)。 自定义模型 如果使用的模型不是盘古或者兼容OpenAI-API的开源模型,如,闭源模型或者裸机部署的自
训练盘古大模型 选择模型与训练方法 创建训练任务 查看训练任务详情与训练指标 常见训练报错与解决方案
评估盘古大模型 创建模型评估数据集 创建模型评估任务 查看评估任务详情
调用盘古大模型 开通盘古大模型服务 使用“能力调测”调用模型 使用API调用模型 启用模型内容审核 统计模型调用量
部署盘古大模型 部署为在线服务 部署为边缘服务
平台资源管理 管理模型资产、推理资产 获取Token消耗规则
体验盘古大模型功能 申请体验盘古大模型服务 体验盘古预置模型能力 体验盘古驱动的应用百宝箱
统一调用入口:AI助手通过一个统一的问答入口,即可解决多种问题,这使得用户可以在一个地方就能完成所有的任务。 有效分发业务问题:AI助手可以根据用户的需求和工具的定位,自动对问题进行分发,这使得AI助手可以更准确地理解用户的需求,并提供相关的服务。 父主题: AI助手
撰写提示词 创建提示词工程 撰写提示词 预览提示词效果 父主题: 提示词工程
盘古应用开发SDK 盘古应用开发SDK概述 盘古应用开发SDK使用前准备 Python Java 盘古应用开发SDK实践
Python 安装SDK(Python SDK) 配置SDK(Python SDK) 配置LLMs(Python SDK) 配置Prompt(Python SDK) 配置Memory(Python SDK) 配置Skill(Python SDK) 配置Agent(Python SDK)
),帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握提示词工程相关技能将有助于用户了解大型语言模型的能力和局限性。 提示工程不仅涉及设计和研发提示词,还包括与大型语言模型的交互和研发中的各种技能和技术。它在实现和对接大型语言模型、理解其能力方面扮演着关键角色。用户可以通过
Java 安装SDK(Java SDK) 配置SDK(Java SDK) 配置LLMs(Java SDK) 配置Prompt(Java SDK) 配置Memory(Java SDK) 配置Skill(Java SDK) 配置Agent(Java SDK) 父主题: 盘古应用开发SDK
督信号直接从数据本身派生。 有监督学习 有监督学习是机器学习任务的一种。它从有标记的训练数据中推导出预测函数。有标记的训练数据是指每个训练实例都包括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不
获取提示词模板 平台提供了多种任务场景的提示词模板,可以帮助用户更好地利用大模型的能力,引导模型生成更准确且更具针对性的输出,从而提高模型在特定任务上的性能。在创建提示词工程前,可以先使用预置的提示词模板,或基于提示词模板进行改造,如果提示词模板满足不了使用需求,可再单独创建。 提示词模板可以在平台“应用开发