华为云用户手册

  • 操作流程 本实践操作流程如下所示: 步骤一:添加Task节点:为已有的 MRS 集群新增Task节点组。 步骤二:添加资源池:通过管理控制台将新增的节点配置为租户资源池。 步骤三:添加租户:新创建一个租户。 步骤四:队列配置:修改租户对应的资源队列配置及资源分布策略,将其与新资源池绑定。 步骤五:创建用户:新创建一个MRS集群用户并绑定租户。 步骤六:使用spark-submit提交任务:使用指定的队列运行作业任务。 步骤七:删除Task节点:释放资源。
  • 步骤三:添加租户 在集群详情页,单击“租户管理”。 单击“添加租户”,打开添加租户的配置页面,参见以下表格内容为租户配置属性(以MRS 3.x版本集群为例)。 表2 租户参数一览表 参数名 描述 名称 例如:tenant_spark 租户类型 选择“叶子租户”。当选中“叶子租户”时表示当前租户为叶子租户,无法再添加子租户。当选中“非叶子租户”时表示当前租户可以再添加子租户。 计算资源 选择“Yarn”,系统将自动在Yarn中以租户名称创建任务队列。计算资源不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源选择“Yarn”时,“配置模式”可选“基础”或“高级”。 基础:需配置“默认资源池容量 (%)”,配置当前租户在“default”资源池中使用的计算资源百分比。 高级:需配置如下参数。 权重:资源分配权重,取值范围从0到100。租户资源占比=租户权重/同级别租户总权重之和。 最小资源:保证租户能获得的资源(有抢占支持)。取值可以是父租户资源的百分比或绝对值。当租户作业量比较少时,资源会自动借给其他租户,当租户能使用的资源不满足最小资源时,可以通过抢占来要回之前借出的资源。 最大资源:租户最多能使用的资源,租户不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 预留资源:租户最多能使用的资源,租户不能得到比最大资源设定更多的资源。取值可以是父租户资源的百分比或绝对值。 默认资源池容量 (%) 配置当前租户在“default”资源池中使用的计算资源百分比,例如“20%”。 储存资源 选择“HDFS”,第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。存储资源不选择“HDFS”时,系统不会在HDFS中创建存储目录。 文件/目录数上限 例如:100000000000 存储空间配额 配置当前租户使用的HDFS存储空间配额。最小值为“1”,最大值为父租户的全部存储配额。单位为MB或GB。例如:50000,单位为MB。此参数值表示租户可使用的HDFS存储空间上限,不代表一定使用了这么多空间。如果参数值大于HDFS物理磁盘大小,实际最多使用全部的HDFS物理磁盘空间。 说明: 为了保证数据的可靠性,HDFS中每保存一个文件则自动生成1个备份文件,即默认共2个副本。HDFS存储空间表示所有副本文件在HDFS中占用的磁盘空间大小总和。例如“存储空间配额”设置为“500MB”,则实际只能保存约500/2=250MB大小的文件。 存储路径 例如:“tenant/spark_test”,系统默认将自动在“/tenant”目录中以租户名称创建文件夹。例如租户“spark_test”,默认HDFS存储目录为“tenant/spark_test”。第一次创建租户时,系统自动在HDFS根目录创建“/tenant”目录。支持自定义存储路径。 服务 配置当前租户关联使用的其他服务资源,支持HBase。单击“关联服务”,在“服务”选择“HBase”。在“关联类型”选择“独占”表示独占服务资源,选择“共享”表示共享服务资源。 描述 配置当前租户的描述信息。 单击“确定”保存,完成租户添加。 保存配置需要等待一段时间,界面右上角弹出提示“租户创建成功。”,租户成功添加。 创建租户时将自动创建租户对应的角色、计算资源和存储资源。 新角色包含计算资源和存储资源的权限。此角色及其权限由系统自动控制,不支持通过“角色管理”进行手动管理。 使用此租户时,请创建一个系统用户,并分配Manager_tenant角色以及租户对应的角色。
  • 步骤一:添加Task节点 在MRS集群的集群详情页面,选择“节点管理”页签,单击“新增节点组”,进入“新增节点组”页面。 根据需求配置参数。 表1 新增节点组参数说明 参数名称 描述 节点规格 选择节点组内主机的规格类型。 节点数量 设置新增节点组内的节点数量。 系统盘 设置新增节点的系统盘的规格与容量。 数据盘/数据盘数量 设置新增节点的数据盘的规格与容量及数量。 部署角色 添加“NodeManager”角色。 单击“确定”。
  • 步骤四:队列配置 在集群详情页,单击“租户管理”。 单击“队列配置”页签。 在租户队列表格,指定租户队列的“操作”列,单击“修改”。 在“租户管理”页签左侧租户列表,单击目标的租户,切换到“资源”页签,单击也能打开修改队列配置页面(仅适用于MRS 3.x之前版本)。 一个队列只能绑定一个非default资源池。 默认资源标签选择步骤二:添加资源池时填写的标签,其他参数请根据实际情况填写。 单击“确定”。 在集群详情页,单击“租户管理”。 单击“资源分布策略”页签,资源池选择步骤二:添加资源池创建的资源池。 在租户tenant_spark“操作”列,单击“修改”。 权重:20 最小资源:20 最大资源:80 预留资源:10 单击“确定”。
  • 步骤六:使用spark-submit提交任务 使用root用户登录客户端节点,执行如下命令: cd 客户端安装目录 source bigdata_env source Spark2x/component_env 安全集群(开启kerberos认证)执行命令kinit spark_test,普通模式(关闭kerberos认证)无需执行。 输入密码,完成认证(第一次登录需要修改密码)。 使用认证后的用户提交Spark作业任务。 cd Spark2x/spark/bin sh spark-submit --queue tenant_spark --class org.apache.spark.examples.SparkPi --master yarn-client ../examples/jars/spark-examples_*.jar
  • 方案架构 租户是MRS大数据平台的核心概念,使传统的以用户为核心的大数据平台向以多租户为核心的大数据平台转变,更好的适应现代企业多租户应用环境,如图1所示。 图1 以用户为核心的平台和以多租户为核心的平台 对于以用户为核心的大数据平台,用户直接访问并使用全部的资源和服务。 用户的应用可能只用到集群的部分资源,资源利用效率低。 不同用户的数据可能存放在一起,难以保证数据安全。 对于以租户为核心的大数据平台,用户通过访问租户来使用需要的资源和服务。 按照应用需求分配和调度出需要的资源,以租户来统一使用,资源利用效率高。 用户通过分配不同的角色获得使用不同租户资源的权限,以保障访问安全。 不同的租户之间数据隔离,以保证数据安全。
  • 步骤一:配置 云搜索服务 索引并下载jar包 在 云搜索 服务的“集群管理”页面上,单击集群“操作”列的“Kibana”访问集群,在Kibana的左侧导航中选择“Dev Tools”,进入Console界面,输入以下命令创建索引“ddj_study_card_ratio_v12”: PUT ddj_study_card_ratio_v12 { "mappings" : { "properties" : { "uniq_id" : { "type" : "text", "fields" : { "keyword" : { "type" : "keyword", "ignore_above" : 256 } } } } } } 返回如下结果表示索引创建成功: { "acknowledged" : true, "shards_acknowledged" : true, "index" : "ddj_study_card_ratio_v12" } 执行以下命令向“ddj_study_card_ratio_v12”索引中插入数据: POST /ddj_study_card_ratio_v12/_doc/_bulk {"index":{}} {"id":"1", "uniq_id":"23323"} 当返回结果信息中“errors”字段的值为“false”时,表示导入数据成功。 根据当前 CSS 服务中的Elasticsearch版本在Past Releases下载对应的Jar包。 例如:Elasticsearch 7.6.2对应的Jar包为“elasticsearch-hadoop-7.6.2.jar”。 Jar包版本需与 CS S服务的Elasticsearch版本保持一致,本章节以开启安全模式的“Elasticsearch 7.6.2”集群为例进行相关操作,具体请以实际情况为准。 若有额外的自定义模块,也单独打包成一份Jar包。
  • 应用场景 利用Elasticsearch-Hadoop插件,完成Hive和CSS服务的Elasticsearch直接的数据交互,通过Hive外部表的方式,可以快速将Elasticsearch索引数据映射到Hive表中。 Elasticsearch-Hadoop (ES-Hadoop) 连接器将Hadoop海量的数据存储和深度加工能力与Elasticsearch实时搜索和分析功能结合在一起。 它能够让您快速深入了解大数据,并让您在Hadoop生态系统中更好地开展工作。
  • 方案架构 Hive是建立在Hadoop上的 数据仓库 框架,提供大数据平台批处理计算能力,能够对结构化/半结构化数据进行批量分析汇总完成数据计算。提供类似SQL的Hive Query Language语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务,从而完成对Hadoop集群中存储的海量数据进行查询和分析。 图1 Hive结构 云搜索服务(Cloud Search Service,简称CSS)是一个基于Elasticsearch、OpenSearch且完全托管的在线分布式搜索服务,为用户提供结构化、非结构化文本、以及基于AI向量的多条件检索、统计、报表。云搜索服务是华为云ELK生态的一系列软件集合,为您全方位提供托管的ELK生态云服务,兼容Elasticsearch、Logstash、Kibana、Cerebro等软件。
  • 数据迁移常用端口 表1 MRS数据迁移常用组件 组件 配置参数 默认端口 端口说明 HDFS dfs.namenode.rpc.port 9820 Hadoop 2.x和Hadoop 3.x版本。 迁移过程中,需要访问NameNode获取文件列表。 dfs.datanode.port 25009 迁移过程中,需要访问DataNode读取具体文件数据。 ZooKeeper clientPort 2181 ZooKeeper客户端连接ZooKeeper服务器。 Kerberos kdc_ports 21732 Kerberos服务认证,非Kerberos集群不涉及。 Hive hive.metastore.port 9083 Hive 2.x和Hive3.x版本。 MetaStore提供Thrift服务的端口。迁移过程中,需要访问该端口查询表元数据信息。 HBase hbase.master.port 16000 HBase1.x和HBase 2.x版本。 HMaster RPC端口。该端口用于HBase客户端连接到HMaster。 hbase.regionserver.port 16020 RS (RegoinServer) RPC端口。该端口用于HBase客户端连接到RegionServer。 Manager N/A 28443 FusionInsight /MRS Manager页面端口。 CDM 迁移时候访问该地址获取集群配置。 N/A 20009 FusionInsight/MRS Manager CAS协议端口,用于登录认证。
  • 数据迁移网络方案说明 进行大数据迁移时,需要保证源端集群和目的端集群之间的网络互通,例如使用hadoop distcp命令跨集群复制数据时需要所有DataNode节点网络互通。根据不同的迁移场景需要使用不同的方式先打通两套集群之间网络连接。 客户线下数据中心迁移数据到华为云MRS集群,通过云专线服务为用户搭建本地数据中心与云上VPC之间的专属连接通道。可以使用华为云的云专线服务或使用第三方的云专线服务来连通华为云网络。 图1 线下数据中心迁移 客户在华为云上自建大数据集群(或老版本的MRS集群)需要迁移到华为云MRS集群,且在同一个Region区域和VPC子网,可以使自建集群和MRS集群使用相同安全组、VPC、子网网络,从而保证网络连通。 图2 线上同Region同VPC迁移 客户在华为云上自建大数据集群(或老版本的MRS集群)需要迁移到华为云MRS集群,且在同一个Region区域,但是使用不同VPC子网。需要使用VPC对等连接方式配置网络连通。 图3 线上同Region不同VPC迁移 客户在华为云上自建大数据集群(或老版本的MRS集群)需要迁移到华为云MRS集权,但在不同Region区域,可以通过使用云连接构建跨区域VPC的网络连接。 图4 线上不同Region迁移
  • 应用场景 Kafka是一个分布式的消息发布-订阅系统。它采用独特的设计提供了类似JMS的特性,主要用于处理活跃的流式数据。 Kafka有很多适用的场景:消息队列、行为跟踪、运维数据监控、日志收集、流处理、事件溯源、持久化日志等。 Kafka有如下几个特点: 高吞吐量 消息持久化到磁盘 分布式系统易扩展 容错性好 MRS服务提供了Kafka多种场景下的样例开发工程,本章节以最常见的WordCount样例Demo进行说明,对应示例场景的开发思路: 使用Kafka客户端创建两个Topic,用于输入Topic和输出Topic。 开发一个Kafka Streams完成单词统计功能,通过读取输入Topic中的消息,统计每条消息中的单词个数,从输出Topic消费数据,将统计结果以Key-Value的形式输出。
  • 方案架构 生产者(Producer)将消息发布到Kafka主题(Topic)上,消费者(Consumer)订阅这些主题并消费这些消息。 在Kafka集群上一个服务器称为一个Broker。对于每一个主题,Kafka集群保留一个用于缩放、并行化和容错性的分区(Partition)。每个分区是一个有序、不可变的消息序列,并不断追加到提交日志文件。分区的消息每个也被赋值一个称为偏移顺序(Offset)的序列化编号。 图1 Kafka结构
  • 步骤1:创建MRS集群 创建并购买一个包含有Kafka组件的MRS集群,详情请参见购买自定义集群。 本文以购买的MRS 3.1.0版本的集群为例,组件包含Hadoop、Kafka组件,集群未开启Kerberos认证。 集群购买成功后,在MRS集群的任一节点内,安装集群客户端,具体操作可参考安装并使用集群客户端。 例如客户端安装在主管理节点中,安装目录为“/opt/client”。 客户端安装完成后,在客户端内创建“lib”目录,用于放置相关jar包。 将安装客户端过程中解压的目录中Kafka相关jar包复制到“lib”目录。 例如客户端软件包的下载路径为主管理节点的“/tmp/FusionInsight-Client”目录,执行以下命令: mkdir /opt/client/lib cd /tmp/FusionInsight-Client/FusionInsight_Cluster_1_Services_ClientConfig scp Kafka/install_files/kafka/libs/* /opt/client/lib
  • 步骤二:配置MRS Spark SQL访问DWS表 准备数据,在 GaussDB (DWS)集群中创建数据库和表: 登录GaussDB(DWS)管理控制台,单击DWS集群“操作”列的“登录”。 登录现有GaussDB(DWS)集群的默认数据库gaussdb,执行以下命令,创建数据库“dws_test”。 CREATE DATABASE dws_test; 连接到创建的新数据库,执行以下命令,创建表“dws_order”。 CREATE SCHEMA dws_data; CREATE TABLE dws_data.dws_order ( order_id VARCHAR, order_channel VARCHAR, order_time VARCHAR, cust_code VARCHAR, pay_amount DOUBLE PRECISION, real_pay DOUBLE PRECISION ); 执行以下命令插入数据到表“dws_order”中。 INSERT INTO dws_data.dws_order VALUES ('202306270001', 'webShop', '2023-06-27 10:00:00', 'CUST1', 1000, 1000); INSERT INTO dws_data.dws_order VALUES ('202306270002', 'webShop', '2023-06-27 11:00:00', 'CUST2', 5000, 5000); 查询表数据,验证数据是否插入。 SELECT * FROM dws_data.dws_order; 下载GaussDB(DWS)数据库JDBC驱动并上传到MRS集群。 登录GaussDB(DWS)管理控制台,单击左侧的“连接管理”,下载JDBC驱动,如下图所示: 解压,获取“gsjdbc200.jar”文件,并上传到MRS集群主Master节点,例如上传到“/tmp”目录下。 使用root用户登录MRS集群主Master节点,执行如下命令: cd {客户端安装目录} source bigdata_env kinit sparkuser (首次认证需要修改密码,未开启Kerberos认证,则无需执行kinit命令。) hdfs dfs -put /tmp/gsjdbc200.jar /tmp 在MRS Spark中创建数据源表,并访问DWS表: 登录Spark客户端节点,执行如下命令: cd 客户端安装目录 source ./bigdata_env kinit sparkuser spark-sql --master yarn 执行如下命令,添加驱动程序jar: add jar hdfs://hacluster/tmp/gsjdbc200.jar; 执行如下命令,在Spark中创建数据源表,访问DWS数据: CREATE TABLE IF NOT EXISTS spk_dws_order USING JDBC OPTIONS ( 'url'='jdbc:gaussdb://192.168.0.228:8000/dws_test', 'driver'='com.huawei.gauss200.jdbc.Driver', 'dbtable'='dws_data.dws_order', 'user'='dbadmin', 'password'='xxx'); 查询Spark表,验证显示的数据是否与DWS数据相同: SELECT * FROM spk_dws_order; 可以验证返回的数据与1中所示的数据相同。
  • 应用场景 华为云提供 MapReduce服务 (MRS),可在云上快速构建和运营全栈云原生大数据平台。它包含HDFS、Hive、HBase、Spark等大数据组件,专为分析海量企业数据而量身定制。 Spark提供了类似SQL的Spark SQL语言,用于对结构化数据进行操作。使用Spark SQL,可以访问不同的数据库,用户可以从这些数据库中提取数据,处理并加载到不同的数据存储中。 本实践演示如何使用MRS Spark SQL访问GaussDB(DWS)数据。
  • 方案架构 Spark的应用运行架构如图1所示,运行流程如下所示: 应用程序(Application)是作为一个进程的集合运行在集群上的,由Driver进行协调。 在运行一个应用时,Driver会去连接集群管理器(Standalone、Mesos、YARN)申请运行Executor资源,并启动ExecutorBackend。然后由集群管理器在不同的应用之间调度资源。Driver同时会启动应用程序DAG调度、Stage划分、Task生成。 然后Spark会把应用的代码(传递给SparkContext的JAR或者Python定义的代码)发送到Executor上。 所有的Task执行完成后,用户的应用程序运行结束。 图1 Spark应用运行架构
  • 管理关键风险 在“测试评估”页面选择“关键风险”页签,然后单击“新增”。 在“新增关键风险”页面,如图6所示,参数说明请参见表6。 图6 新增关键风险 表6 关键风险参数说明 参数名 参数说明 风险描述 风险问题的描述。 级别 区分三个级别:低、中、高 影响分析 风险问题的相关影响分析。 规避措施和计划 规避该风险问题的相关措施和计划。 单击“确定”。新增的关键风险显示在风险列表中。 (可选)在风险列表“操作”列单击“编辑”,在“编辑关键风险”页面可编辑风险问题的相关信息,参数说明可参见表6。 (可选)在风险列表“操作”列单击“删除”,在“删除风险”对话框确认删除的风险问题并单击“确定”,即可删除相应的风险问题。
  • 管理单项测试结论 在“测试评估”页面选择“测试结论”页签,系统预置了四个测试类型:遗留DI值、功能评估、性能评估和安全评估。 单击“新增”,在“新增测试结论”页面,设置测试结论相关参数,如图5所示,参数说明请参见表5,设置完成后单击“确定”。 图5 编辑测试结论 表5 测试结论参数说明 参数名 参数说明 测试类型 输入测试类型。 测试结论 根据实际情况可设置为:通过、不通过或不涉及。 评估说明(可选) 测试评估的相关说明。 附件(可选) 单击“添加文件”,最多可上传一个附件文件辅助测试评估的说明,且只能上传ZIP、RAR、DOCX、DOC、XLS、XLSX格式文件,文件不能超过50MB。 说明: 用户需对自己上传文件的安全风险负责,开发中心不对用户自己上传的文件做任何处理。 添加文件后,如需变更文件,可光标移至文件,在文件右侧单击,将旧文件删除后,再单击“添加文件”重新上传新文件。 (可选)在测试结论列表操作列单击“编辑”,在“编辑测试结论”页面可编辑测试评估的相关信息,参数说明可参见表5。 (可选)在测试结论列表操作列单击“删除”,在“删除测试结论”对话框单击“确定”,可删除不需要的测试类型及其结论。 系统预置的四个测试类型(遗留DI值、功能评估、性能评估、安全评估)不可删除。
  • 管理交付件 交付件是版本开发过程不同阶段所需或交付的必要文档,在管理交付件页面,系统内置了例如产品需求文档、升级指导书、版本配套表等交付件的模板,可下载后参考模板写作完成后再上传至版本团队进行管理和交付,保证版本开发过程阶段性成果沉淀以及过程可追溯。 在“交付件管理”页面的交付件列表中,在无文档的交付件所在行的“操作”列单击“创建文档”。 在“上传文档”对话框,选择“交付方式”为“离线文档”,单击“添加文件”将本地已准备好的文档进行上传(只能上传ZIP、RAR、DOCX、DOC、XLS、XLSX格式的文件,且文件大小不能超过50MB)。 单击“确定”,上传离线文档成功。 (可选)如需更新离线文档,具体操作如下: 返回“交付件管理”页面的交付件列表中,在“交付方式”为“离线文档”的交付件所在行的“操作”列单击“更新文档”。 在“更新文档”对话框中,鼠标移至已有文档所在行并单击。 在“删除文件”对话框,单击“确认”,删除旧离线文档。 单击“添加文件”,将本地已准备好的新文档进行上传。 单击“确定”,更新离线文档成功。 (可选)如需删除离线文档,具体操作如下: 返回“交付件管理”页面的交付件列表中,在“交付方式”为“离线文档”的交付件所在行的“操作”列单击“删除文档”。 在“删除文件”对话框,单击“确认”,即可删除不需要的离线文档。
  • 操作指引 图1 编排Agent的流程 表1 编排Agent的流程详解 序号 流程环节 说明 1 创建及发布Agent 将准备好的模型服务、工具、工作流、知识库等编排成Agent应用,并将应用程序及相关组件进行发布,使其能够正常运行。 2 体验Agent Agent体验是指以对话的形式,对创建的Agent或平台资产中心预置的AI应用进行体验调测,以发现并解决Agent接口上的问题和错误。 3 使用Agent 支持通过API接口调用或Web界面访问两种方式使用Agent。
  • 创建索引配置 知识数据集创建完成后,单击“下一步”,进入索引配置页面。 在索引配置页面,参照表2进行相关参数的配置。 表2 索引配置参数说明 参数 说明 索引配置名称 自定义索引配置名称。支持中英文、数字、下划线(_),长度2-50个字符,以中英文、数字开头。 索引描述 索引配置的描述信息。 向量化模型 选择向量化模型,向量化模型是将文本数据转换为数值向量的过程。常用于将文本转换为机器可以处理的形式,以便进行各种任务,如文本分类、情感分析、 机器翻译 等。 当前向量化模型支持的最大长度为512 token,对应的中文约为512个字,英文与符号约900个字符,请注意分片长度。 长文本截断策略 截断模式:如果待向量化分片字段token长度超过向量化模型限制的token总数,则进行截断,取前top k个token。 智能模式:如果待向量化分片字段token超过向量化模型限制的token总数,首先利用对话大模型对超长分片进行重写,如果仍然超长则进入截断模式。 默认模式:如果待向量化分片字段token长度超过了向量化模型限制的token总数,则创建知识库失败。 切片配置 根据需要勾选如下参数: 向量化检索字段:对相应的切片片段进行向量化。 文本过滤字段:设置相应的切片片段为过滤字段。 检索返回字段:检索返回相应的切片片段。 单击“创建数据集和索引配置”,创建的数据集和索引配置显示在“知识数据集”页面的数据集列表中。
  • 前提条件 通过OBS( 对象存储服务 )接入数据时,操作账号需获得OBS只读权限,具体操作请参见对其他账号授予桶的读写权限。 需具备充足的知识库容量包资源(包含OBS存储配额和向量库存储配额,两者比例为5:1),每个租户默认具备5G的OBS存储配额,默认配额用完后,请参考购买AppStage购买知识库容量包。 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
  • 使用Agent Web UrI 直接打开Web链接访问应用。 如果创建Agent时,使用配置变量的方式实现了记忆能力,体验时输入变量值,作为Agent记忆信息存储,单击“保存”。 在Agent的对话输入框输入问题,按Enter键或单击使用Agent。 如果创建Agent时,使用配置变量的方式实现了记忆能力,在使用Agent时,会自动识别对话与变量匹配的内容,自动更新变量取值,单击页面右上角的“变量”,可以查看变量使用效果。 如果创建Agent时,开启了“片段记忆”,在使用Agent时,会自动识别并保留用户个性化信息,单击页面右上角的“片段记忆”,可以查看片段记忆使用效果。 如果创建Agent时,开启了“文件盒子”,根据以下操作体验文件盒子: 单击对话框右上角的“文件盒子”,上传文件。 只支持上传pdf、docx、txt等纯文本文件,文件大小小于10M。 文件上传完成后,在“编辑文件盒子”弹窗中,单击文件列表操作列的。 在对话输入框对引用文件提问,Agent会根据输入问题对引用文件进行回答、解读。 对于Agent生成的答案可以进行复制、点赞、点踩等。 :重新生成答案。 :复制答案。 :对答案点赞。 :对答案点踩。 API地址 可参考调用Agent进行使用。
  • 下载SDK并校验完整性 登录AI原生应用引擎,鼠标光标移至右上角登录的用户名,弹出“账户信息”页面。 单击“下载SDK”,进入下载SDK页面。 在“操作流程”区域,单击“下载SDK”,可获取完整的AI原生应用开发套件。 生成SDK包的SHA256哈希值,用于校验SDK完整性。生成方法如下: Windows系统SHA256哈希值生成方法 执行Windows+R,唤起任务调用,输入cmd打开命令行调用窗口。 执行certutil -hashfile 绝对路径下文件 校验值。 例如:certutil -hashfile C:\Users\xxxx\tcp.xml sha256 Linux系统SHA256哈希值生成方法 打开终端,进入到SDK文件所在目录。 执行sha256sum 文件名,生成该文件的SHA256。 例如:sha256sum tcp.xml Mac系统SHA256哈希值生成方法 打开终端,进入到SDK文件所在目录。 执行shasum -a 256 文件名,生成该文件的SHA256。 例如:shasum -a 256 tcp.xml 将生成的SHA256哈希值与“操作流程”区域展示的原始SHA256进行对比,验证文件的完整性。 如果两者一致,说明SDK包在下载过程中未被篡改或损坏;如果不一致,则说明存在问题,建议重新下载。
  • AI原生应用引擎使用前准备 使用AI原生应用引擎前,需要先准备如表1所示内容。 表1 准备事项 准备事项 说明 购买AI原生应用引擎 首次使用需要先购买AI原生应用引擎,具体操作请参见购买AppStage。 为AppStage关联组织 首次购买AppStage后,其账号需创建并关联使用AppStage的组织(仅可关联一个组织),才能使用AppStage服务及后续购买AppStage相关产品套餐或增量包等,具体操作请参见关联组织。 添加部门/成员信息 为已关联的组织添加部门及成员,完善组织架构,具体操作请参见组织管理。 申请权限 已添加成员在使用AI原生应用引擎前需要先申请AI原生应用引擎权限,具体操作请参见申请权限。
  • 前提条件 已创建知识数据集。 通过OBS接入数据时,操作账号需获得OBS(对象存储服务)只读权限,具体操作请参见对其他账号授予桶的读写权限。 需具备充足的知识库容量包资源(包含OBS存储配额和向量库存储配额,两者比例为5:1),每个租户默认1G的向量库存储配额,默认配额用完后,请参考购买AppStage购买知识库容量包。 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
  • 体验资产中心预置的AI应用 在AI原生应用引擎的左侧导航栏选择“资产中心”。 在资产中心页面,选择“AI应用”页签。 将鼠标光标移至应用卡片上,单击“体验”。 在Agent体验页面的对话输入框输入问题,按Enter键或单击进行体验。 对于Agent生成的答案可以进行复制、点赞、点踩等。 :重新生成答案。 :复制答案。 :对答案点赞。 :对答案点踩。 单击应用卡片,进入Agent详情页面,在“对话日志”页签中可以查看所有问答的对话日志。
  • 发布Agent 发布Agent前需要订购智能应用运行时引擎资源,订购方法请参见购买AI原生应用引擎。 Agent发布后,用户即可通过API接口调用或Web界面进行访问。 Agent创建完成后,在创建页面单击“发布”。 也可以在“我创建的”列表中,单击Agent列表操作列的“发布Agent”,进入发布页面。 选择发布渠道并设置发布密钥,单击“发布”。 表4 发布参数说明 参数 说明 选择发布渠道 API:以API的方式发布Agent,发布成功后可复制API地址进行分享。 Web UrI:以Web Url的方式发布Agent,发布成功后可复制Web链接进行分享。 设置发布密钥 设置该密钥是确保发布分享Agent后,用户能正常调用Agent相关联的模型、工具、工作流和知识库。 API Key:输入API Key。 说明: 仅AI原生应用引擎管理员角色可以创建API Key,请通过管理员获取API Key。 发布后,在Agent列表的“复制发布地址”列,单击或,复制发布地址进行分享。
  • 操作指引 图1 模型使用操作指引 表1 模型使用流程详解 序号 流程环节 说明 1 基于微调数据集进行模型微调 创建微调数据集 对于需要个性化定制模型或者在特定任务上追求更高性能表现的场景,往往需要对大语言模型进行模型微调以适应特定任务。微调数据集是模型微调的基础,通过在微调数据集上进行训练从而获得改进后的新模型。 创建模型微调任务 模型微调是指调整大型语言模型的参数以适应特定任务的过程,适用于需要个性化定制模型或者在特定任务上追求更高性能表现的场景。这是通过在与任务相关的微调数据集上训练模型来实现的,所需的微调量取决于任务的复杂性和数据集的大小。在深度学习中,微调用于改进预训练模型的性能。 2 生成模型服务 将已有模型部署为模型服务 接入模型服务 模型需要部署成功后才可正式提供模型服务。部署成功后,可以对模型服务进行模型调测,并支持在创建Agent时使用或通过模型调用接口调用。 3 调测模型 通过调测模型,可检验模型的准确性、可靠性及反应效果,发现模型中存在的问题和局限性,确保模型能够在实际应用中正常运行,并且能够准确地预测和处理数据。
共100000条