检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
续费。 图2展示了用户将两个不同时间到期的资源,同时续费一个月,并设置“统一到期日”后的效果对比。 图2 统一到期日 更多关于统一到期日的规则请参见如何设置统一到期日。 父主题: 续费
待集群转包周期成功后,集群状态更新为“运行中”。 转包周期后集群原有Task节点计费类型保持按需计费,集群在转包周期过程中已配置的弹性伸缩规则不触发新任务,请选择恰当的时间进行该操作。 父主题: 管理MRS集群
string 否 空字符串 被拼接字段名 配置需要被拼接字段名。 字段名:需填写上一个转换步骤生成的字段名,可添加多个。 map 是 无 数据处理规则 按顺序将“被拼接字段名”中配置的字段的值,通过连接符拼接后,赋给“输出字段名”。 当有字段的值为null时,会转化为空字符串,再与其它字段值拼接。
输入字段名:配置输入字段名,需填写上一个转换步骤生成的字段名。 输出字段名:配置输出字段名。 小写/大写:指定进行大写转换或小写转换。 map 是 无 数据处理规则 对字符串值做大小写转换。 传入数据为NULL值,不做转换处理。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下: abcd
/sink的各自的个数都不要超过40个,否则可能导致界面响应时间过长。 表1 Flume角色客户端所需修改的参数列表 参数名称 参数值填写规则 参数样例 名称 不能为空,必须唯一。 test spoolDir 待采集的文件所在的目录路径,此参数不能为空。该路径需存在,且对flume运行用户有读写执行权限。
/sink的各自的个数都不要超过40个,否则可能导致界面响应时间过长。 表1 Flume角色客户端所需修改的参数列表 参数名称 参数值填写规则 参数样例 名称 不能为空,必须唯一。 test spoolDir 待采集的文件所在的目录路径,此参数不能为空。该路径需存在,且对flume运行用户有读写执行权限。
可使用单引号进行转义;非加密密码中含有单引号时可用双引号进行转义,非加密密码中含有双引号应使用反斜杠\进行转义。可参考Shell的转义字符规则。 - -c <arg> 登录认证的principal。 bar -k <arg> 登录认证的keytab文件。 /opt/hadoopc
可使用单引号进行转义;非加密密码中含有单引号时可用双引号进行转义,非加密密码中含有双引号应使用反斜杠\进行转义。可参考Shell的转义字符规则。 - -c <arg> 登录认证的principal。 bar -k <arg> 登录认证的keytab文件。 /opt/hadoopc
Hudi表模型设计规范 规则 Hudi表必须设置合理的主键。 Hudi表提供了数据更新和幂等写入能力,该能力要求Hudi表必须设置主键,主键设置不合理会导致数据重复。主键可以为单一主键也可以为复合主键,两种主键类型均要求主键不能有null值和空值,可以参考以下示例设置主键: SparkSQL:
string 是 无 分割后的字段 配置分隔后的字段,可为多个: 位置:分隔后字段的位置。 输出字段名:分隔后的字段名。 map 是 无 数据处理规则 将输入字段的值按指定的分隔符分隔后,依次赋给配置的新字段。 配置分割后字段列数,大于原始数据实际可分割出来的字段列数,当前行成为脏数据。
输入字段名:配置输入字段名,需填写上一个转换步骤生成的字段名。 输出字段名:配置输出字段名。 对齐类型:配置清除方式(前空格、后空格、前后空格)。 map 是 无 数据处理规则 清空值两边的空格,支持只清除左边、只清除右边和同时清除左右空格。 传入数据为NULL值,不做转换处理。 配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。
string 是 无 分割后的字段 配置分隔后的字段,可为多个: 位置:分隔后字段的位置。 输出字段名:分隔后的字段名。 map 是 无 数据处理规则 将输入字段的值按指定的分隔符分隔后,依次赋给配置的新字段。 配置分割后字段列数,大于原始数据实际可分割出来的字段列数,当前行成为脏数据。
输入字段名:配置输入字段名,需填写上一个转换步骤生成的字段名。 输出字段名:配置输出字段名。 小写/大写:指定进行大写转换或小写转换。 map 是 无 数据处理规则 对字符串值做大小写转换。 传入数据为NULL值,不做转换处理。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下: abcd
数据导入HDFS 在MapReduce作业的Map阶段中从外部数据源抽取数据,并将数据输出到HDFS临时目录下(以“输出目录-ldtmp”命名)。 在MapReduce作业的提交阶段,将文件从临时目录迁移到输出目录中。 数据导出到关系型数据库 在MapReduce作业的Map阶段
Master节点数量大于等于9个,小于等于11个。 节点组数量总和小于等于10个,非Master节点组中节点数量总和小于等于10000个。 MRS集群服务角色部署规则说明 MRS系统由多种服务按照一定的逻辑架构组合而成,每个服务包含一个或多个角色,每个角色可以部署一个或多个实例。 服务:服务对外表现为集
在目标集群执行以下命令将10.a导出的表数据导入到表“export_test”中。 import from '/tmp/export'; 场景二 :在导入时重命名表 在源端集群执行以下命令将表“export_test”的元数据和业务数据导出到8创建的目录下。 export table export_test
用户可以方便地创建、管理、执行SQL,并且能够以Excel的形式下载执行的结果。 通过Hue可以在界面针对组件进行以下操作: HDFS: 查看、创建、管理、重命名、移动、删除文件/目录。 上传、下载文件。 搜索文件、目录、文件所有人、所属用户组;修改文件以及目录的属主和权限。 手动配置HDFS目录存储策略,配置动态存储策略等操作。
器层”。其中ROOT为根节点,传感器层的每一个节点为叶子节点。IoTDB的语法规定,ROOT节点到叶子节点的路径以“.”连接,以此完整路径命名IoTDB中的一个时间序列。例如,下图最左侧路径对应的时间序列名称为“ROOT.ln.wf01.wt01.status”。 图3 IoTDB数据模型
通常情况下,Hive以文本文件存储的表会以回车作为其行分隔符,即在查询过程中,以回车符作为一行表数据的结束符。 但某些数据文件并不是以回车分隔的规则文本格式,而是以某些特殊符号分隔其规则文本。 MRS Hive支持指定不同的字符或字符组合作为Hive文本数据的行分隔符。 Hive开源增强特性:支持基于HTTPS/HTTP协议的REST接口切换
支持字母、数字、下划线,首位必须为字母或数字,且长度不能超过128位。 单击“Bulk edit column names”右侧的,可批量对列重新命名。输入所有列的名称并使用逗号分隔。 在“Column Type”选择每个列的类型。 单击“Create Table”创建表,等待Hue显示Hive表的信息。