华为云用户手册

  • 更多操作 您还可以对HDFS进行以下操作。 表3 HDFS管理 操作名称 操作步骤 导入 在HDFS页面单击“导入”。 上传文件。 查看导入进度 在HDFS页面单击“查看导入进度”。 导出 在HDFS页面列表中,勾选需要导出的HDFS路径。 单击列表上方的“导出”。 HDFS查看预览 在HDFS页面单击“HDFS查看预览”。 在HDFS Query页面查看具体信息。 也可以选择集群或者HDFS路径过滤查看。 编辑Tags 在HDFS页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 在HDFS页面列表中,单击待关联Tags的HDFS路径所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 说明: 关联Tags之前须先编辑并新建Tags。 编辑HDFS路径 在HDFS页面列表中,单击待编辑HDFS路径所在行的“编辑”。 删除HDFS路径 在HDFS页面列表中,单击待删除HDFS路径所在行的“删除”。 查看操作历史 在HDFS页面列表中,单击待查看操作历史的HDFS路径所在行的“操作历史”。 查看历史版本信息 在HDFS页面列表中,单击待查看历史版本信息的HDFS路径所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • 编辑任务 在HDFS页面列表中,单击待编辑任务的HDFS所在行的“编辑任务”,进入该路径详情页面。 单击“创建导流任务”,进入“导流任务配置”页面。 配置任务参数,参数说明如表2所示。配置完成后,单击“确定”。 表2 导流任务配置参数说明 参数名称 参数说明 Kafka Topic 选择已申请的Kafka Topic。 执行集群 选择执行的集群。 执行队列 选择执行队列。 批次大小 每次写入的数据条数。默认为10000,一般不需要修改。对于每条消息比较大的topic,需要调小批次大小。 从头开始消费Kafka 选择是否从头开始消费Kafka。 HDFS文件生成周期 - Kafka Group Id -
  • 更多操作 您还可以对ClickHouse汇聚任务进行以下操作。 表1 ClickHouse汇聚任务管理 操作名称 操作步骤 编辑任务 在ClickHouse汇聚任务列表中,单击待编辑的任务所在行“操作”列的“编辑”。 编辑任务后,单击“更新任务”。 撤销申请 在ClickHouse汇聚任务列表中,单击待撤销申请的任务所在行“操作”列的“编辑”。 单击“撤销申请”。 停止任务 在ClickHouse汇聚任务列表中,单击待停止的任务所在行“操作”列的“停止”。 删除任务 在ClickHouse汇聚任务列表中,单击待删除的任务所在行“操作”列的“删除”。 补数据 在ClickHouse汇聚任务列表中,单击待补数据的任务所在行“操作”列的“补数据”。 查看操作历史 在ClickHouse汇聚任务列表中,单击待查看操作历史的任务所在行“操作”列的“操作历史”。 查看历史记录 在ClickHouse汇聚任务列表中,单击待查看历史记录的任务所在行“操作”列的“历史记录”。 查看执行计划 在ClickHouse汇聚任务列表中,单击待查看执行计划的任务所在行“操作”列的“执行计划”。 查看任务详情 在ClickHouse汇聚任务列表中,单击待查看详情的任务所在行“操作”列的“详情”。
  • 更多操作 您还可以对Hive进行以下操作。 表1 Hive管理 操作名称 操作步骤 导入 在Hive页面单击“导入”。 上传文件。 查看导入进度 在Hive页面单击“查看导入进度”。 导出 在Hive页面列表中,勾选需要导出的Hive表。 单击列表上方的“导出”。 查看临时查询历史 在Hive页面单击“临时查询历史”。 在Query History页面查看临时查询历史。 编辑Tags 在Hive页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 在Hive页面列表中,单击待关联Tags表所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 说明: 关联Tags之前须先编辑并新建Tags。 编辑Hive表 在Hive页面列表中,单击待编辑Hive表所在行的“编辑”。 删除Hive表 在Hive页面列表中,单击待删除Hive表所在行的“删除”。 查看操作历史 在Hive页面列表中,单击待查看操作历史的Hive表所在行的“操作历史”。 查看历史版本信息 在Hive页面列表中,单击待查看历史版本信息的Hive表所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • 更多操作 您还可以对已创建应用进行以下操作。 表3 应用管理操作 操作名称 操作步骤 升级应用 在应用列表,单击待升级的应用所在行“操作”列的“升级”。 回滚应用 在应用列表,单击待回滚的应用所在行“操作”列的“回滚”。 删除应用 在应用列表,单击待删除的应用所在行“操作”列的“删除”。 批量升级应用 在应用列表,勾选待升级的应用,然后单击列表左上方的“批量升级”。 批量删除应用 在应用列表,勾选待删除的应用,然后单击列表左上方的“批量删除”。 导出资源内容 在应用列表,勾选待导出资源内容的应用,然后单击列表左上方的“导出资源内容”。
  • 更多操作 您还可以对 CSS 进行以下操作。 表2 CS S管理 操作名称 操作步骤 导入 在CSS页面单击“导入”。 上传文件。 查看导入进度 在CSS页面单击“查看导入进度”。 导出 在CSS页面列表中,勾选需要导出的CSS索引。 单击列表上方的“导出”。 编辑Tags 在CSS页面单击“编辑Tags”。 在“编辑Tags”页面单击“新建Tags”。 输入Tags并单击“保存”。 单击“确定”。 关联Tags 编辑并新建Tags后,在CSS页面列表中,单击待关联Tags索引所在行的“关联Tags”。 选择已新建的Tags。 单击“确定”。 查看索引状态 在CSS页面列表中,单击待查看状态的CSS索引所在行的“索引状态”。 编辑索引 在CSS页面列表中,单击待编辑CSS索引所在行的“编辑”。 删除索引 在CSS页面列表中,单击待删除CSS索引所在行的“删除”。 查看操作历史 在CSS页面列表中,单击待查看操作历史的CSS索引所在行的“操作历史”。 查看历史版本信息 在CSS页面列表中,单击待查看历史版本信息的CSS索引所在行的“历史版本信息”。 (可选)可单击历史版本所在行的“对比当前版本”,查看版本差异。
  • 更多操作 创建任务后,支持实例级、Schema级、sql文件级的任务执行,操作说明如表1所示。 表1 操作说明 操作 说明 批量执行 - 批量风险评估 - 刷新 - 查看详情 单击“详情”,可以执行单个sql文件,包括风险评估和对应执行的sql文件和sql语句。 风险评估:风险评估状态有高危、中危、低危、无四种状态,如果存在高危语句,请用户自行评估风险在确定是否要执行。 执行任务 执行选项: 并行执行:默认关闭,默认SQL变更任务下所有子任务都会串行执行。 预检查:默认关闭,主要是检查是否存在长事务和锁,此时任务状态为“预检查中”。 忽略重复执行的错误:默认关闭,默认在执行中遇到任何错误都会停止执行。 说明: SQL变更工具在用户单击执行按钮后会花费1分钟左右的时间对数据库进行预检查,此过程时间较长, 自行评估是否要选择。 主要是检查是否存在长事务和锁,此时任务状态为“预检查中”。 预检查成功后会自动执行,预检查失败会报出提示信息,并且任务状态重新退回“准备就绪”。 此时用户需要对数据库进行检查,是否此时负载较高,或者存在长事务,或者是否有大数据量的查询语句一直在执行未结束等等。 检查完毕后可重新单击“执行”,如果确定该问题不影响SQL语句的执行,则可单击“执行(忽略预检查)”。
  • 隔离域概述 隔离域是一个逻辑上的安全分组,为具有相同安全保护需求并相互信任的服务提供访问策略。当服务器加入到隔离域后,即受到这些访问规则的保护。 创建隔离域需要选择站点、环境、安全区域和VPC信息,其中VPC主要用于决定网络资源(子网、安全组、ACL)在哪里创建。创建隔离域后,再基于隔离域创建子网,然后再创建ACL或者安全组。 隔离域提供访问策略的实现,现在有ACL和安全组两种,ACL和安全组都是规则的集合。 父主题: 隔离域
  • 修订记录 发布日期 修订记录 2024-05-08 第十一次正式发布。 开发中心: 新增版本基线化 修改如下章节: 使用流程 账号信息管理 创建版本 规划交付件 管理交付件 测试评估 标准发布 调测发布 流水线管理 删除如下章节: 规划版本需求(基线类型的版本) AI原生应用引擎: 新增查看模型调用记录 修改如下章节: 使用流程 AI工作空间 创建及管理模型服务 创建及管理知识库 创建及管理应用 创建及管理模型 调测模型 创建微调数据集 创建知识库数据集 删除“接入数据”章节 2024-04-22 第十次正式发布。 控制台: 修改如下章节: AppStage业务控制台主页(管理员视角) 快速上手流程 AppStage业务控制台主页(企业成员视角) 查看产品与服务信息 删除如下章节: 标签管理 定义标签 配置标签作用域 2024-03-30 第九次正式发布。 控制台: 修改如下章节: 配置服务授权 关联CodeArts 配置凭证授权 AI原生应用引擎: 同步产品框架变更刷新AI原生应用引擎全文 开发中心: 新增如下章节: 测试 发布配置 修改如下章节: 配置服务授权 关联CodeArts 配置凭证授权 添加开发中心用户 申请成为开发中心用户 审批成为开发中心用户的申请 团队空间概览 查看需求详情(仅支持基线类型的版本) 需求管理 代码仓管理 缺陷管理 配置服务扩展信息 运维中心: 新增如下章节: 纳管VPC 查看OpsAgent历史任务 修改如下章节: 弹性云服务器 纳管主机 运营中心: 新增如下章节: 数据表管理 用户基础分析 店铺销售分析 应用事件分析 应用销售分析 元数据管理 运营分析 公共屏幕模板 修改如下章节: 数据模型 指标管理 2024-03-08 第八次正式发布。 运营中心: 修改如下章节: 指标模板库 数据模型 指标管理 看板管理 2024-02-29 第七次正式发布。 开发中心: 新增调测发布 修改如下章节: 使用流程 标准发布 2024-02-20 第六次正式发布。 运维中心: 新增如下章节: 网络规划 安全规划 2024-02-08 第五次正式发布。 控制台: 修改购买AppStage AI原生应用引擎: 新增AI原生应用引擎 2024-01-31 第四次正式发布。 控制台: 新增如下章节: 关联CodeArts 配置凭证授权 开发中心: 申请成为开发中心用户 审批成为开发中心用户的申请 配置服务扩展信息 2024-01-05 第三次正式发布。 运营中心: 新增埋点数据接入 2023-12-31 第二次正式发布。 开发中心: 新增如下章节: 账号信息管理 添加开发中心用户 运营中心: 新增数据管理 2023-11-25 第一次正式发布。
  • 更多操作 您还可以对已创建应用进行以下操作。 表3 应用管理操作 操作名称 操作步骤 升级应用 在应用列表,单击待升级的应用所在行“操作”列的“升级”。 回滚应用 在应用列表,单击待回滚的应用所在行“操作”列的“回滚”。 删除应用 在应用列表,单击待删除的应用所在行“操作”列的“删除”。 批量升级应用 在应用列表,勾选待升级的应用,然后单击列表左上方的“批量升级”。 批量删除应用 在应用列表,勾选待删除的应用,然后单击列表左上方的“批量删除”。 导出资源内容 在应用列表,勾选待导出资源内容的应用,然后单击列表左上方的“导出资源内容”。
  • 示例 创建简单的HStore表: CREATE TABLE warehouse_t1 ( W_WAREHOUSE_SK INTEGER NOT NULL, W_WAREHOUSE_ID CHAR(16) NOT NULL, W_WAREHOUSE_NAME VARCHAR(20) , W_WAREHOUSE_SQ_FT INTEGER , W_STREET_NUMBER CHAR(10) , W_STREET_NAME VARCHAR(60) , W_STREET_TYPE CHAR(15) , W_SUITE_NUMBER CHAR(10) , W_CITY VARCHAR(60) , W_COUNTY VARCHAR(30) , W_STATE CHAR(2) , W_ZIP CHAR(10) , W_COUNTRY VARCHAR(20) , W_GMT_OFFSET DECIMAL(5,2) )WITH(ORIENTATION=COLUMN, ENABLE_HSTORE=ON); CREATE TABLE warehouse_t2 (LIKE warehouse_t1 INCLUDING ALL);
  • 注意事项 创建HStore表的用户需要拥有schema cstore的USAGE权限。 表级参数enable_delta与enable_hstore无法同时开启,因为enable_delta用于控制普通列存表的delta开启,会与enable_hstore冲突。 每一个HStore表绑定一张delta表,delta表的oid记录在pg_class中reldeltaidx字段(reldelta字段被列存表的delta表使用)。
  • 参数说明 IF NOT EXISTS 指定IF NOT EXISTS时,若不存在同名表,则可以成功创建表。若已存在同名表,创建时不会报错,仅会提示该表已存在并跳过创建。 table_name 要创建的表名。 表名长度不超过63个字符,以字母或下划线开头,可包含字母、数字、下划线、$、#。 column_name 新表中要创建的字段名。 字段名长度不超过63个字符,以字母或下划线开头,可包含字母、数字、下划线、$、#。 data_type 字段的数据类型。 LIKE source_table [ like_option ... ] LIKE子句声明一个表,新表自动从这个表中继承所有字段名及其数据类型。 新表与原表之间在创建动作完毕之后是完全无关的。在原表做的任何修改都不会传播到新表中,并且也不可能在扫描原表的时候包含新表的数据。 被复制的列并不使用相同的名字进行融合。如果明确的指定了相同的名字或者在另外一个LIKE子句中,将会报错。 HStore表只能从HStore表中进行继承。 WITH ( { storage_parameter = value } [, ... ] ) 这个子句为表指定一个可选的存储参数。 ORIENTATION 指定表数据的存储方式,即时序方式、行存方式、列存方式,该参数设置成功后就不再支持修改。对于HStore表,应当使用列存方式,同时设置enable_hstore为on。 取值范围: TIMESERIES,表示表的数据将以时序方式存储。 COLUMN,表示表的数据将以列存方式存储。 ROW,表示表的数据将以行方式存储。 默认值:ROW。 COMPRESSION 指定表数据的压缩级别,它决定了表数据的压缩比以及压缩时间。一般来讲,压缩级别越高,压缩比越大,压缩时间也越长;反之亦然。实际压缩比取决于加载的表数据的分布特征。 取值范围: HStore表和列存表的有效值为YES/NO和/LOW/MIDDLE/HIGH,默认值为LOW。 行存表的有效值为YES/NO,默认值为NO。 COMPRESSLEVEL 指定表数据同一压缩级别下的不同压缩水平,它决定了同一压缩级别下表数据的压缩比以及压缩时间。对同一压缩级别进行了更加详细的划分,为用户选择压缩比和压缩时间提供了更多的空间。总体来讲,此值越大,表示同一压缩级别下压缩比越大,压缩时间越长;反之亦然。该参数只对时序表和列存表有效。 取值范围:0~3 默认值:0 MAX_BATCHROW 指定了在数据加载过程中一个存储单元可以容纳记录的最大数目。该参数只对时序表和列存表有效。 取值范围:10000~60000 默认值:60000 PARTIAL_CLUSTER_ROWS 指定了在数据加载过程中进行将局部聚簇存储的记录数目。该参数只对时序表和列存表有效。 取值范围:600000~2147483647 enable_delta 指定了在列存表是否开启delta表。对HStore表不能开启该参数。 默认值:off enable_hstore 指定了是否创建为H-Store表(基于列存表实现)。该参数只对列存表有效。该参数仅8.2.0.100及以上集群版本支持。云原生3.0暂不支持该参数。 默认值:off 打开该参数时必须设置以下GUC参数用于保证H-Store表的清理,推荐值如下: autovacuum=true,autovacuum_max_workers=6,autovacuum_max_workers_hstore=3。 SUB_PARTITION_COUNT 指定二级分区的个数。该参数用于设置在导入阶段二级分区个数。在建表时进行设置,建表后不支持修改。不建议用户随意设置该默认值,可能会影响导入和查询的性能。 取值范围:1~1024 默认值:32 DELTAROW_THRESHOLD 指定HStore表导入时小于多少行(SUB_PARTITION_COUNT * DELTAROW_THRESHOLD)的数据进入delta表。 取值范围:0~60000 默认值:60000 COLVERSION 指定存储格式的版本。 HStore表只支持2.0版本。 取值范围: 1.0:列存表的每列以一个单独的文件进行存储,文件名以relfilenode.C1.0、relfilenode.C2.0、relfilenode.C3.0等命名。 2.0:列存表的每列合并存储在一个文件中,文件名以relfilenode.C1.0命名。 默认值:2.0 DISTRIBUTE BY 指定表如何在节点之间分布或者复制。 取值范围: HASH (column_name ) :对指定的列进行Hash,通过映射,把数据分布到指定DN。 TO { GROUP groupname | NODE ( nodename [, ... ] ) } TO GROUP指定创建表所在的Node Group,目前不支持hdfs表使用。TO NODE主要供内部扩容工具使用,一般用户不应该使用。 PARTITION BY 指定HStore表的初始分区。
  • 语法格式 1 2 3 4 5 6 7 8 9 10 11 12 13 14 CREATE TABLE [ IF NOT EXISTS ] table_name ({ column_name data_type | LIKE source_table [like_option [...] ] } } [, ... ]) [ WITH ( {storage_parameter = value} [, ... ] ) ] [ TABLESPACE tablespace_name ] [ DISTRIBUTE BY HASH ( column_name [,...])] [ TO { GROUP groupname | NODE ( nodename [, ... ] ) } ] [ PARTITION BY { {RANGE (partition_key) ( partition_less_than_item [, ... ] )} } [ { ENABLE | DISABLE } ROW MOVEMENT ] ]; 其中like选项like_option为: { INCLUDING | EXCLUDING } { DEFAULTS | CONSTRAINTS | INDEXES | STORAGE | COMMENTS | PARTITION | RELOPTIONS | DISTRIBUTION | ALL }
  • 列存表的Delta表差异 表1 HStore表与列存表的辅助Delta表差异 数仓类型 列存的delta表 HStore的delta表 表结构 与列存主表的表定义一致 与主表表定义不一样。 功能 用于暂存小批量insert的数据,满阈值后再merge到主表,避免直接insert到主表产生大量小CU。 用于持久化存储update/delete/insert信息。在故障拉起后用于恢复内存更新链等管理并发更新的内存结构。 缺陷 来不及merge导致delta表膨胀,影响查询性能,同时无法解决并发update的锁冲突问题 依赖后台常驻autovacuum来做merge操作。
  • autovacuum_max_workers_hstore 参数说明:设置Autovacuum_max_workers里面,能同时运行的专用于清理hstore的自动清理线程的最大数量。 参数类型:SIGHUP 取值范围:整型 默认值:0 当需要使用hstore表时,一定要同步修改以下参数的默认值,否则会导致hstore表性能严重劣化,推荐的修改配置是: autovacuum_max_workers_hstore=3,autovacuum_max_workers=6,autovacuum=true。
  • autovacuum_max_workers 参数说明:设置能同时运行的自动清理线程的最大数量,该参数的取值上限与max_connections和job_queue_processes大小有关。 参数类型:SIGHUP 取值范围:整型 最小值为0,表示不会自动进行autovacuum。 理论最大值为262143,实际最大值为动态值。计算公式为“262143 - max_inner_tool_connections - max_connections - job_queue_processes - 辅助线程数 – autovacuum的launcher线程数 - 1”,其中辅助线程数和autovacuum的launcher线程数由两个宏来指定,当前版本的默认值分别为20和2。 默认值:3
  • 示例 创建进行MERGE INTO的目标: 1 2 CREATE TABLE target(a int, b int)WITH(ORIENTATION = COLUMN, ENABLE_HSTORE = ON); INSERT INTO target VALUES(1, 1),(2, 2); 创建数据源表: 1 2 CREATE TABLE source(a int, b int)WITH(ORIENTATION = COLUMN, ENABLE_HSTORE = ON); INSERT INTO source VALUES(1, 1),(2, 2),(3, 3),(4, 4),(5, 5); 执行MERGE INTO操作: 1 2 3 4 5 6 7 MERGE INTO target t USING source s ON (t.a = s.a) WHEN MATCHED THEN UPDATE SET t.b = t.b + 1 WHEN NOT MATCHED THEN INSERT VALUES (s.a, s.b) WHERE s.b % 2 = 0;
  • 参数说明 INTO子句 指定正在更新或插入的目标表。 table_name 目标表的表名。 alias 目标表的别名。 取值范围:字符串,符合标识符命名规范。 USING子句 指定源表,源表可以为表、视图或子查询。 ON子句 关联条件,用于指定目标表和源表的关联条件。不支持更新关联条件中的字段。ON关联条件可以是ctid, xc_node_id, tableoid这三个系统列。 WHEN MATCHED子句 当源表和目标表中数据针对关联条件可以匹配上时,选择WHEN MATCHED子句进行UPDATE操作。 不支持更新分布列、系统表以及系统列。 WHEN NOT MATCHED子句 当源表和目标表中数据针对关联条件无法匹配时,选择WHEN NOT MATCHED子句进行INSERT操作。 不支持INSERT子句中包含多个VALUES。 WHEN MATCHED和WHEN NOT MATCHED子句顺序可以交换,可以缺省其中一个,但不能同时缺省。 不支持同时指定两个WHEN MATCHED或WHEN NOT MATCHED子句。
  • 语法格式 1 2 3 4 5 6 7 8 9 10 11 12 13 14 MERGE INTO table_name [ [ AS ] alias ] USING { { table_name | view_name } | subquery } [ [ AS ] alias ] ON ( condition ) [ WHEN MATCHED THEN UPDATE SET { column_name = { expression | DEFAULT } | ( column_name [, ...] ) = ( { expression | DEFAULT } [, ...] ) } [, ...] [ WHERE condition ] ] [ WHEN NOT MATCHED THEN INSERT { DEFAULT VALUES | [ ( column_name [, ...] ) ] VALUES ( { expression | DEFAULT } [, ...] ) [, ...] [ WHERE condition ] } ];
  • Step3 查看精度测试结果 默认情况下,评测结果会按照result/{service_name}/{eval_dataset}-{timestamp} 的目录结果保存到对应的测试工程。执行多少次,则会在{service_name}下生成多少次结果。 单独的评测结果如下: {eval_dataset}-{timestamp} # 例如: mmlu-20240205093257 ├── accuracy │ ├── evaluation_accuracy.xlsx # 测试的评分结果,包含各个学科数据集的评分和总和评分。 ├── infer_info │ ├── xxx1.csv # 单个数据集的评测结果 │ ├── ...... │ ├── xxxn.csv # 单个数据集的评测结果 ├── summary_result │ ├── answer_correct.xlsx # 回答正确的结果 │ ├── answer_error.xlsx # 保存回答了问题的选项,但是回答结果错误 │ ├── answer_result_unknow.xlsx # 保存未推理出结果的问题,例如超时、系统错误 │ ├── system_error.xlsx # 保存推理结果,但是可能答非所问,无法判断是否正确,需要人工判断进行纠偏。
  • 操作场景 容器镜像服务 企业版支持与其他仓库之间同步容器镜像,可实现单点推送及全球自动同步分发,方便企业在全球多个地域快速部署更新容器业务。当前支持与如下类型仓库之间同步: 容器 镜像服务 :即SWR共享仓库中的镜像。 容器镜像服务企业版:支持华为云不同地域的企业仓库以及客户基于开源harbor搭建的私有仓库。 镜像同步功能允许用户自定义创建同步规则,可指定某个仓库内的部分资源同步至另一个仓库内的命名空间。例如,用户可选择同步资源类型(容器镜像、Helm Chart、或是全部同步),通过正则表达式过滤镜像及版本,可选择是否覆盖已有的同名镜像,避免历史数据覆盖丢失。
  • 设置访问控制与 域名 解析 公网访问 设置公网访问控制和域名解析,您可以使用公网并通过自定义域名的方式访问SWR仓库。配置公网的访问控制,详情请参考配置公网访问。 进入云解析服务控制台。 在左侧树状导航栏,选择“公网域名”, 进入域名列表页面。 【可选】如果没有自定义域名后缀的公网域名, 单击右上角的“创建公网域名”,输入域名,单击“确定”。 单击您的域名名称进入详情页。 单击“添加记录集”,进入“添加记录集”页面设置参数,然后单击“确定”。 表1 添加记录集参数设置 参数 配置 主机记录 输入自定义域名的前缀。 类型 CNAME。 线路类型 指域名访问者所在的地区和使用的运营商网络,本例中为全网默认。 TTL 为缓存时间,数值越小,修改记录各地生效时间越快,默认为5分钟。 值 设置为仓库的默认域名。 内网访问 设置内网访问控制和内网域名,您可以在指定VPC内的云服务器通过内网拉取SWR仓库中的镜像。配置内网访问控制,详情请参考配置内网访问。 进入云解析服务控制台。 在左侧树状导航栏,选择“内网域名”, 进入域名列表页面。 【可选】如果没有自定义域名后缀的内网域名, 单击右上角的“创建内网域名”,输入域名,选择区域,以及与仓库打通网络的VPC,单击“确定”。 单击您的域名名称进入详情页。 单击“添加记录集”,进入“添加记录集”页面设置参数,然后单击“确定”。 表2 添加记录集参数设置 参数 配置 主机记录 输入自定义域名的前缀 类型 CNAME 线路类型 指域名访问者所在的地区和使用的运营商网络,本例中为全网默认。 TTL 为缓存时间,数值越小,修改记录各地生效时间越快,默认为5分钟。 值 设置为仓库的默认域名。
  • 前提条件 需要开通云服务:云解析服务 DNS、 云证书管理服务 (Cloud Certificate Manager,CCM)。 欲使用域名管理功能,您的账户需要具备查询证书列表权限(scm:cert:list)以及证书导出的权限(scm:cert:export)。 已拥有域名。您可以通过 域名注册服务 注册域名,详细介绍请参见什么是域名注册服务?。 如果您的SWR仓库在中国境内,那么如果您要在公网环境中使用自定义域名,则域名需要备案。如果您的SWR仓库在境外,则域名无需备案。 已为域名签发证书。您可通过 云证书管理 CCM服务购买证书,并确认已绑定仓库需要使用的自定义域名。
  • 操作步骤 登录云容器引擎CCE控制台。 在左侧导航栏上单击“插件市场”。 在插件市场页面上方搜索框输入“cosign”并搜索。 在下方的搜索结果中找到“容器镜像签名验证”插件,单击“安装”。 填写“安装插件”页面的相关参数。 选择集群:选择镜像所在集群。该插件只能在K8S V1.23及以上版本集群上安装。 对集群某个命名空间进行镜像验签时,需要先为该命名空间添加 policy.sigstore.dev/include:true 标签。 选择版本:选择插件版本 规格配置 单仓库:当前插件只支持在1个仓库上使用。 高可用:当前插件支持在2个仓库上使用。 自定义:自定义仓库数、CPU配额、容器配额。 表1 swr-cosign插件规格配置 参数 参数说明 插件规格 该插件可配置“单实例”、“高可用”或“自定义”规格。 实例数 选择上方插件规格后,显示跟插件规格匹配的实例数。 选择“自定义”规格时,您可根据需求调整插件实例数。 容器 选择“自定义”规格时,您可根据需求调整插件实例的容器规格。 参数配置 KMS密钥:选择一个创建非对称密钥中创建好的密钥。 验签镜像:单击,选择需要验签的镜像。 表2 swr-cosign插件参数配置 参数 参数说明 KMS密钥 选择一个密钥,仅支持 EC_P256、EC_P384、SM2 类型的密钥。 您可以前往密钥管理服务新增密钥。 验签镜像 验签镜像地址通过正则表达式进行匹配,例如填写docker.io/**表示对docker.io镜像仓库的镜像进行验签。如需对所有镜像验签,请填写**。 填写完成后,单击“安装”。 待插件安装完成后,选择对应的集群,然后单击左侧导航栏的“插件中心”,可筛选“已安装插件”查看相应的插件。
  • 添加命名空间标签 登录容器镜像服务控制台,单击左侧菜单栏“企业版”。 选中要添加命名空间标签的仓库,单击仓库名称,进入仓库详情页。 单击仓库详情页左侧导航栏“命名空间”,进入命名空间列表页。单击页面右上角的图标,以列表形式展示命名空间列表。 选择要添加标签的命名空间,单击右侧“标签管理”,进入标签管理页面。 图1 命名空间管理列表页 在标签管理页面,单击,新增一个标签。 图2 标签管理 参考标签命名规则,填写标签的键和值。
  • 使用Helm客户端上传及下载Helm Chart 安装Helm客户端 本文以在Linux操作系统的节点上安装为例,如在其他平台安装请下载对应安装包。 依次执行以下命令,下载并安装Helm客户端。关于安装Helm的更多信息,请参见Installing Helm。 curl -fsSL -o get_helm.sh https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3 chmod 700 get_helm.sh ./get_helm.sh “get_helm.sh”脚本会自动拉取最新的Helm版本进行安装,如需安装其他版本,请从官方下载需要的Helm版本。 推送Helm Chart 安装Helm Push插件。 在安装Helm Push插件前,需要预先安装Git。 helm plugin install https://github.com/chartmuseum/helm-push 在节点上执行如下命令,创建一个Chart。 helm create [Chart名称] 示例:helm create chart-demo 执行如下命令,推送指定目录至Chart仓库。 helm push [Chart名称] [本地仓库名称] 示例: helm push chart-demo group 您还可以将Chart文件打包为tgz压缩包,然后直接上传。 helm push [Chart名称]-[Chart版本].tgz [本地仓库名称] 示例: tar zcvf chart-demo-1.0.0.tgz chart-demo/ # 压缩Chart文件 helm push chart-demo-1.0.0.tgz group # 上传Chart压缩包 下载Helm Chart 在节点上执行如下命令,更新本地仓库Chart信息。 helm repo update 下载指定版本Chart。 helm pull [本地仓库名称]/[Chart名称] --version [Chart版本] 示例: helm pull group/chart-demo --version 1.0.0
  • 背景信息 Kubernetes提供了统一模式的API,能以YAML格式的文件定义Kubernetes集群中的资源,包括Pod、Service、Deployment、StatefulSet、Job等等。这些资源种类繁多,且分散的kubernetes应用配置文件难以管理、编辑和更新,因此云原生社区衍生了一个更高维度的概念及其实现工具,即Chart和Helm。 Chart是描述相关的一组Kubernetes集群内资源的文件集合。 Helm是一个命令行程序,用于管理这些Chart,以及其运行态Release。 容器镜像服务企业版支持Helm客户端实现Chart的上传和下载。
  • 计费周期 按需计费VPCEP资源按秒计费,每一个小时整点结算一次费用(以UTC+8时间为准),结算完毕后进入新的计费周期。计费的起点以VPCEP实例购买成功的时间点为准,终点以实例删除时间为准。 VPC终端节点 服务在用户成功购买终端节点后开始计费,按照终端节点在用户账号中保留的小时数收取费用,无论其与终端节点服务的关联状态如何或者是否产生交互。 如果终端节点服务被删除,或者其所有者拒绝让您的终端节点与其服务连接,此时终端节点将无法使用且持续计费,建议及时删除。
  • 计费示例 以基础型终端节点为例,假设您在2023/07/01 9:59:30购买了一个终端节点,然后在2023/07/01 10:45:46将其删除,则: 第一个计费周期为9:00:00 ~ 10:00:00,在9:59:30 ~ 10:00:00间产生费用,该计费周期内的计费时长为30秒。 第二个计费周期为10:00:00 ~ 11:00:00,在10:00:00 ~ 10:45:46间产生费用,该计费周期内的计费时长为2746秒。 您需要为每个计费周期付费,产品价格详情中标出了资源的每小时价格,您需要将每小时价格除以3600,得到每秒价格。 计费公式如表2所示。 表2 计费公式 资源类型 计费公式 资源单价 终端节点 规格单价*购买时长 请参见VPC终端节点价格详情中的“规格价格”。
共100000条