云服务器内容精选

  • 计费项 付费实例包含以下计费项。 标 * 的计费项为必选计费项。 表1 计费项说明 计费项 计费单价 计费公式 *实例基础费用(仅付费实例) 0.075元/实例/小时 付费实例基础费用单价*付费实例数量*计费时长 超出存储空间收费 赠送5GB SQL存储空间,超过5GB:0.0072元/GB/小时 超出存储容量单价*超出存储容量(GB)*超出时长 说明: 超出时长:存储数据超过免费赠送存储空间的使用时长。
  • 计费示例 假设您在2023/04/18 8:32:16成功设置了15个付费实例,然后在2023/04/18 11:55:25将其恢复成免费实例,则: 计费周期为8:00:00 ~ 9:00:00,9:00:00 ~ 10:00:00,10:00:00 ~ 11:00:00,11:00:00 ~ 12:00:00,在8:32:16~11:55:25间产生费用,该计费周期内的计费时长为4小时。 图1给出了上述示例付费实例的费用计算过程。 付费实例计费金额如果遇小数点,则保留小数点后两位,第三位四舍五入。如遇四舍五入后不足¥0.01,则按¥0.01展示。 图1 付费实例费用计算示例
  • 超出免费赠送空间对计费的影响 如果您在设置付费实例后存储数据容量超出免费赠送的5GB存储空间,则会增加新的计费项。 例如,您在9:00:00设置一个付费实例,在16:45:00时存储空间超过5GB,那么在在9:00:00 ~ 17:00:00会产生两条计费信息。 第一条对应9:00:00 ~ 17:00:00,按实例基础费用计费。 第二条对应16:00:00 ~ 17:00:00,按超出存储空间计费。
  • 计费周期 付费实例按小时进行计费,每一个小时整点结算一次费用(以UTC+8时间为准),不足一小时按一小时计费,结算完成后进入新的计费周期。计费的起点以设置付费实例成功的时间点为准,终点以恢复成免费实例时间为准。 例如,您在8:45:30成功设置了一个付费实例,然后在10:45:30将其恢复成免费实例,则计费周期为8:00:00 ~ 9:00:00,9:00:00 ~ 10:00:00,10:00:00 ~ 11:00:00,在8:45:30 ~ 10:45:30间产生费用,该计费周期内的计费时长为3小时。
  • 计费策略 表2 DBA智能运维(新版)计费策略 一级功能模块 二级功能模块 免费实例 计费实例 性能 - √ √ SQL 慢SQL √(保存1小时数据) √(最大保存30天数据,数据空间按量计费) SQL洞察 √(保存1小时数据) √(最大保存180天数据,数据空间按量计费) SQL诊断 √ √ SQL限流 √ √ 自治限流 × √ 锁&事务 锁分析 √ √ 历史事务 √(保存7天数据) √(保存7天数据) 容量预估 磁盘空间、Top库表 √ √ 表智能诊断 × √ binlog - √ √ 日报 - √ √ 新版性能指标数据保留时长请参见指标数据保留多长时间。 表3 DBA智能运维(旧版)计费策略 一级功能模块 二级功能模块 免费实例 计费实例 性能 历史性能 √(保存7天数据) √(保存30天数据) 性能趋势对比查看 √(保存7天数据) √(保存30天数据) 自定义图表 √(保存7天数据) √(保存30天数据) SQL 慢SQL √(保存1小时数据) √(最大保存30天数据,数据空间按量计费) 全量SQL洞察 √(保存1小时数据) √(最大保存180天数据,数据空间按量计费) SQL诊断 √ √ SQL限流 √ √ 锁&事务 锁分析 √ √ binlog - √ √ 日报 - √ √
  • 使用须知 当需要进行数据备份或迁移时,您可以将数据导入目标数据表,目标 CS V表数据类型须与待导入表数据类型保持一致,SQL文件同理。 导入单文件大小最大可达1GB。 可以支持导入的数据文件类型包括CSV格式和SQL文件格式。如果实例表数量超过10万,则不能使用CSV格式。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 不支持PostgreSQL增强版实例进行数据导入操作。
  • 使用须知 如果导出数据时未勾选“生成单表文件”,则导出的数据文件后缀为“.zip”格式,此格式的数据文件暂不支持直接导入,需要解压后才可再次导入。 如果导出数据时勾选了“生成单表文件”,则导出的数据文件为每个单表的数据文件(“.sql”或者“.csv”格式),该情况下导出的数据文件可直接再次导入。 如果导出的PostgreSQ L实例 表数量超过10万时,使用导出数据库功能会报错表数量过多,无法导出数据。此时请使用导出SQL结果集功能。 不支持PostgreSQL增强版实例进行数据导出操作。
  • 参数说明 表5 DLI 数据表 参数 是否必选 说明 基本属性 表名 是 数据表的名称。只能包含英文小写字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 别名 否 数据表的别名,只能包含中文字符、英文字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 数据连接类型 是 数据表所属的数据连接类型。系统默认。 数据连接 是 数据表所属的数据连接。系统默认。 数据库 是 数据表所属的数据库。系统默认。 数据位置 是 选择数据存储的位置: OBS DLI 数据格式 是 选择数据的格式。“数据位置”为“OBS”时,配置该参数。 parquet:支持读取不压缩、snappy压缩、gzip压缩的parquet数据。 csv:支持读取不压缩、gzip压缩的csv数据。 orc:支持读取不压缩、snappy压缩的orc数据。 json:支持读取不压缩、gzip压缩的json数据。 路径 是 选择数据存储的OBS路径。“数据位置”为“OBS”时,配置该参数。 如果OBS路径不存在或者OBS桶不存在,系统支持可以自动创建OBS目录。 说明: 如果OBS桶创建超过上限,系统会自动提示“创建obs目录失败,错误原因:[Create OBS Bucket failed:TooManyBuckets:You have attempted to create more buckets than allowed]”。 表描述 否 数据表的描述信息。 表结构 列类型 是 选择列类型。包含分区列和普通列。系统默认普通列。 列名 是 填写列名,列名不能重复。 类型 是 选择数据类型,具体说明请参见《 数据湖探索 SQL语法参考》的数据类型。 列描述 否 填写列的描述信息。 操作 否 单击,增加列。 单击,删除列。 表6 DWS数据表 参数 是否必选 说明 基本属性 表名 是 数据表的名称。只能包含英文字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 别名 否 数据表的别名,只能包含中文字符、英文字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 数据连接类型 是 数据表所属的数据连接类型。系统默认。 数据连接 是 数据表所属的数据连接。系统默认。 数据库 是 数据表所属的数据库。系统默认。 模式 是 选择数据库的模式。 表描述 否 数据表的描述信息。 高级选项 否 提供以下高级选项: 选择数据表的存储方式 行存模式 列存模式 选择数据表的压缩级别 行存模式:压缩级别的有效值为YES/NO。 列存模式:压缩级别的有效值为YES/NO/LOW/MIDDLE/HIGH,还可以配置列存模式同一压缩级别下不同的压缩水平0-3(数值越大,表示同一压缩级别下压缩比越大)。 表结构 列名 是 填写列名,列名不能重复。 数据分类 是 选择数据类型的类别: 数值类型 货币类型 布尔类型 二进制类型 字符类型 时间类型 几何类型 网络地址类型 位串类型 文本搜索类型 UUID类型 JSON类型 对象标识符类型 类型 是 选择数据类型,具体说明请参见《 数据仓库 服务开发指南》的数据类型。 列描述 否 填写列的描述信息。 是否建ES索引 否 单击复选框时,表示需要建立ES索引。建立ES索引时,请同时在“CloudSearch集群名”中选择建立好的 CSS 集群。如何创建CSS集群,请参见《 云搜索服务 用户指南》的创建集群。 ES索引数据类型 否 选择ES索引的数据类型: text keyword date long integer short byte double boolean binary 操作 否 单击,增加列。 单击,删除列。 表7 MRS Hive数据表 参数 是否必选 说明 基本属性 表名 是 数据表的名称。只能包含英文小写字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 别名 否 数据表的别名,只能包含中文字符、英文字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 数据连接类型 是 数据表所属的数据连接类型。系统默认。 数据连接 是 选择数据表所属的数据连接。系统默认。 数据库 是 选择数据表所属的数据库。系统默认。 表描述 否 数据表的描述信息。 表结构 列名 是 填写列名,列名不能重复。 数据分类 是 选择数据类型的类别: 原始类型 ARRAY MAP STRUCT UNION 类型 是 选择数据类型,具体说明请参见LanguageManual DDL。 列描述 否 填写列的描述信息。 操作 否 单击,增加列。 单击,删除列。 表8 MRS Spark数据表 参数 是否必选 说明 基本属性 表名 是 数据表的名称。只能包含英文小写字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 别名 否 数据表的别名,只能包含中文字符、英文字母、数字、“_”,不能为纯数字,不能以“_”开头,且长度为1~63个字符。 数据连接类型 是 数据表所属的数据连接类型。系统默认。 数据连接 是 选择数据表所属的数据连接。系统默认。 数据库 是 选择数据表所属的数据库。系统默认。 表描述 否 数据表的描述信息。 表结构 列名 是 填写列名,列名不能重复。 数据分类 是 选择数据类型的类别: 原始类型 ARRAY MAP STRUCT UNION 类型 是 选择数据类型,具体说明请参见LanguageManual DDL。 列描述 否 填写列的描述信息。 操作 否 单击,增加列。 单击,删除列。
  • 相关操作 查看表详情:在脚本开发导航栏,选择,展开下方的数据连接至数据表层级,右键单击表名称,选择“查看表详情”,可查看如表4所示的数据表信息。 表4 表详情页面 页签名称 说明 表信息 显示数据表的基本信息和存储信息。 字段信息 显示数据表的字段信息。 数据预览 预览数据表的10条记录。 DDL 显示DLI/DWS/MRS Hive数据表的DDL。 删除表:在脚本开发导航栏,选择,展开下方的数据连接至数据表层级,右键单击表名称,选择“删除”后,在弹出的页面中单击“确定”完成删除。 删除操作不可撤销,请谨慎操作。
  • 禁止/允许删除数据 您可以对某个数据设置禁止删除。设置禁止删除后,该目录只能添加数据,不支持删除数据。也可以通过“允许删除”取消禁止删除设置。 图7 开启禁止删除数据 支持设置最多15个数据的禁止删除状态。 如果平台或者父目录设置禁止删除状态,则对应的数据根路径或者子路径均为禁止删除状态,子路径不支持同时设置允许删除状态;如果平台或者父目录设置允许删除,则之前子路径设置的禁止删除权限失效,全部子路径允许删除。
  • 恢复数据 平台支持数据的恢复机制,您可以将归档的核心数据进行恢复,避免造成损失。 数据归档成功后,可以在“归档”页面查看归档记录,并进行恢复、删除操作。归档恢复时,您可以将数据恢复至本项目或有权限的其他项目。 数据归档成功后,选择“归档”页签。 图10 选择归档页签 选择需要恢复的数据,单击操作列“恢复”。在恢复归档数据页面,选择需要恢复数据的位置和数据。 图11 选择恢复数据的位置 单击“确定”。
  • 操作步骤 单击“数据管理”,进入“数据管理”页面,如图1所示。 图1 数据管理页面 在左侧的目录树中选择待处理数据所在目录。 右侧数据列表中显示所选目录中所拥有的文件夹和数据信息。 勾选一条或多条待处理数据记录,单击“在线处理”。 在页面右侧出现“在线处理”页签,如图2所示。 图2 在线处理页签 选择应用和指定输出目录,单击“确认”进行在线处理。 “选择应用”:选择云上在线处理使用的软件。 “选择文件”:单击“从云端添加”后弹出“从云端添加”页签,选择处理结果的输出目录,单击“确定”。
  • 使用须知 如果导出数据时未勾选“生成单表文件”,则导出的数据文件后缀为“.zip”格式,此格式的数据文件暂不支持直接导入,需要解压后才可再次导入。 如果导出数据时勾选了“生成单表文件”,则导出的数据文件为每个单表的数据文件(“.sql”或者“.csv”格式),该情况下导出的数据文件可直接再次导入。 如果导出的MySQL 8.0实例表数量超过10万(5.7和5.6版本超过1万)时,使用导出数据库功能会报错表数量过多,无法导出数据。此时请使用导出SQL结果集功能。
  • 使用须知 如果导出数据时未勾选“生成单表文件”,则导出的数据文件后缀为“.zip”格式,此格式的数据文件暂不支持直接导入,需要解压后才可再次导入。 如果导出数据时勾选了“生成单表文件”,则导出的数据文件为每个单表的数据文件(“.sql”或者“.csv”格式),该情况下导出的数据文件可直接再次导入。 如果导出的MySQL 8.0实例表数量超过10万(5.7和5.6版本超过1万)时,使用导出数据库功能会报错表数量过多,无法导出数据。此时请使用导出SQL结果集功能。
  • 使用须知 如果导出数据时未勾选“生成单表文件”,则导出的数据文件后缀为“.zip”格式,此格式的数据文件暂不支持直接导入,需要解压后才可再次导入。 如果导出数据时勾选了“生成单表文件”,则导出的数据文件为每个单表的数据文件(“.sql”或者“.csv”格式),该情况下导出的数据文件可直接再次导入。 如果导出的Microsoft SQL Server实例表数量超过1万时,使用导出数据库功能会报错表数量过多,无法导出数据。此时请使用导出SQL结果集功能。