正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
人工智能应用的平台,让用户可以方便地下载和使用不同的AI应用。AI资产中心有不同的类型,包括AI应用、技能等,用户可以直接使用或者二次开发后使用,享受AI带来的便利和乐趣。 操作步骤 在AI原生应用引擎的左侧导航栏选择“资产中心”。 在“资产中心”页面可依次展开平台预置的AI应用
AI应用体验 将平台预置的应用和用户自己创建的应用进行API调测,帮助开发人员发现并解决应用接口上的问题和错误。 数据管理 平台纳管了用户自定义的和平台预置的数据集,用户使用这些数据集进行模型训练、知识库构建等,快速完成平台使用并验证模型训练效果。 模型管理 用户可以将平台预置模型通过
接入运营数据 在运营中心新建数据源 新建数据接入将源端数据迁移到运营中心
构造请求 本节介绍REST API请求的组成,并以调用AppStage服务的文本对话接口说明如何调用API。 您还可以通过这个视频教程了解如何构造请求调用API:https://bbs.huaweicloud.com/videos/102987 。 请求URI 请求URI由如下部分组成。
AI原生应用引擎 我创建的微调数据集会被其他用户调用去训练他们的大模型吗? 模型微调任务一直在等待中是什么原因? 大模型微调需要的数据有要求吗? AI原生应用引擎支持所有数据集进行数据标注吗? AI原生应用引擎中预置了哪些提示语? AI原生应用引擎训练好后的模型如何获取?
配置AppStage各中心服务授权 AppStage服务的AI原生应用引擎、运维中心、运营中心与其他云服务存在交互,订购AI原生应用引擎、运维中心、运营中心之后,为保证服务正常使用,需要进行服务授权。同意服务授权后,AppStage将在统一身份认证服务为您创建名为appstage
基本概念 大模型推理服务 直接调用预置大模型提供API完成推理过程。 私有模型部署 针对已经微调训练好的模型,如需评测此模型效果,或通过应用调用此模型,则需将模型部署为线上服务。 向量知识库 通过引入多种类型和格式的企业知识,将数据转化为向量,并利用高效的存储和索引方式进行查询,实现基于检索增强的大模型能力。
镜像包 镜像包,package.json里面的type为docker,一般是以docker镜像的形式存储在镜像仓中。也可以用docker的镜像包打出tar包的形式,同时在tar包同层级目录放置package.json内容,和tar包一起,再打出zip包格式。 容器镜像地址分为四个
测试版本 在AppStage开发中心为版本制定测试计划 在AppStage开发中心创建缺陷 在AppStage开发中心进行版本测试评估
概述 Cloud Map SDK服务软件开发工具包是对服务发现(Cloud Map)服务提供的REST API进行的封装,以简化用户的开发工作。 Cloud Map是注册发现中心,主要用于注册发现微服务、中间件/数据库、一方/二方/三方服务,单体应用无需对接Cloud Map(微
日志处理 介绍SDK提供的日志配置方法以及日志格式。 日志级别配置 日志组件 SDK以SLF接口输出日志,默认使用logback输出日志,引入了logback-core-***.jar和logback-classic-***.jar这两个jar包,SLF会绑定到logback输出日志。
SDK功能介绍 运行时引擎SDK功能介绍 表1 STS SDK功能矩阵 功能 Java 读取微服务身份证书 √ 连接STS-Server获取密钥、认证凭据等 √ 连接STS-Server获取敏感配置 √ 解密敏感数据 √ 微服务间通信认证 √ 微服务间通信敏感数据加密 √ 表2 Cloud
模型中心 模型中心概述 创建模型微调流水线 调测模型 查看模型调用记录
知识中心 知识中心概述 创建微调数据集 创建知识数据集 优化提示语 标注数据
需求管理 需求管理是开发中心集成需求管理(CodeArts Req)服务中“Scrum项目”的和“IPD项目”相关需求管理的能力,是华为多年研发实践沉淀的需求管理与团队协作服务,内置多种开箱即用的场景化需求模型。 关于需求管理的常见问题请参见工作项常见问题。 父主题: 开发中心
配置服务环境 录入其他华为账号进行资源统一管理 为资源接入准备环境 将企业项目录入运维中心
查看模型调用记录 用户可以通过查看模型(包括平台预置模型及自建模型)的调用记录,获取模型调用方式、用时及调用时间等信息。 查看模型调用记录 在AI原生应用引擎的左侧导航栏选择“模型中心 > 模型调用记录”。 在“模型调用记录”页面,通过筛选调用方式、时间范围、状态,或输入模型名称
系统管理 平台租户鉴权 设置模型鉴权
长度1-64个字符,仅支持字母或下划线开头。 任务描述(可选) 自定义任务相关的描述。 模型配置 微调前模型 在下拉列表中选择微调的模型或平台的模型。 训练模式 默认为“LoRA”。 LoRA(Low-Rank Adaptation,低秩适应),是一种将预训练模型权重冻结,并将可
s持续交付高效自动化,缩短应用TTM(Time to Market)交付周期,提升研发效率。 流水线服务本质上是一个可视化的自动化任务调度平台,需要配合软件开发生产线中编译构建、代码检查、测试计划、部署等服务的自动化任务使用。根据用户需要的场景,如开发测试环境应用部署、生产环境应