检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
界面中并将其连接。 例如采用Kafka Source、File Channel和HDFS Sink,如图3所示。 图3 Flume配置工具示例 双击对应的source、channel以及sink,根据实际环境并参考表1设置对应的配置参数。 如果想在之前的“properties.p
热数据迁移特性。 操作方法为: 修改HDFS服务的NameNode的如下参数值。参数修改方法请参考修改集群服务配置参数。 参数 描述 取值示例 dfs.auto.data.mover.enable 表示是否启用自动冷热数据迁移特性。默认值是“false”。 true dfs.auto
如以下语句,在集群default_cluster上创建testUser用户,设置ldap_server为6中<ldap_servers>标签下的OpenLDAP服务名,本示例为ldap_server_name。 CREATE USER testUser ON CLUSTER default_cluster IDENTIFIED
面中并将其连接。 采用SpoolDir Source、File Channel和HDFS Sink,如图2所示。 图2 Flume配置工具示例 双击对应的source、channel以及sink,根据实际环境并参考表1设置对应的配置参数。 如果对应的Flume角色之前已经配置过服
S服务全部配置页面,搜索对应参数查看),HDFS会删除多余块副本来保证集群资源利用率。 删除规则如下: 优先删除不满足任何表达式的副本。 示例:文件默认副本数为3 /test标签表达式为“LA[replica=1],LB[replica=1],LC[replica=1]”; /t
选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 日志格式 Storm的日志格式如下所示: 表3 日志格式 日志类型 格式 示例 运行日志 %d{yyyy-MM-dd HH:mm:ss,SSS} | %-5p | [%t] | %m | %logger (%F:%L)
如以下语句,在集群default_cluster上创建testUser用户,设置ldap_server为6中<ldap_servers>标签下的OpenLDAP服务名,本示例为ldap_server_name。 CREATE USER testUser ON CLUSTER default_cluster IDENTIFIED
map2(K, V), ..., mapN(K, V)) 描述:合并多个map,当key值一样时,取最后一个map的value来构造键值对。如下示例中,a就使用了最后一个map的value值10。 select map_concat(map(ARRAY['a','b'],ARRAY[1
S服务全部配置页面,搜索对应参数查看),HDFS会删除多余块副本来保证集群资源利用率。 删除规则如下: 优先删除不满足任何表达式的副本。 示例:文件默认副本数为3 /test标签表达式为“LA[replica=1],LB[replica=1],LC[replica=1]”; /t
文件内容格式(以MRS 3.x版本为例) 集群ID|集群名称|显示名称|服务名称|指标ID|采集时间|采集主机@m@子指标|单位|指标值 示例: 实际的文件中不存在对应的文件格式标题。 1|xx1|Host|Host|10000413|2019/06/18 10:05:00|10
图1 查看SQL防御规则 MRS SQL防御规则 表1 MRS SQL防御规则 规则ID 规则描述 规则适用引擎 规则变量参数 SQL语句示例 static_0001 SQL中count(distinct)出现次数超限。 Hive Spark HetuEngine count(distinct)出现次数阈值。
下载客户端”,弹出“下载客户端”信息提示框。 MRS 3.3.0及之后版本,可以在主页中直接单击“下载客户端”。 表1 客户端下载参数说明 参数 描述 示例 选择客户端类型 完整客户端:包含完整客户端软件包及配置文件,适用于非开发任务场景。 仅配置文件:仅下载客户端配置文件,适用于应用开发任务
单击“保存配置”,勾选“重新启动受影响的服务或实例。”并单击“确定”重启服务。 界面提示“操作成功。”,单击“完成”,服务成功启动。 任务示例:添加Hive自定义参数 Hive依赖于HDFS,默认情况下Hive访问HDFS时是HDFS的客户端,生效的配置参数统一由HDFS控制。 例如HDFS参数“ipc
类型是VARCHAR且Map的值类型是支持的类型之一或行的每个字段类型是支持的类型之一时支持从ARRAY、MAP或ROW进行转换。下面通过示例展示了转换的行为: SELECT CAST(NULL AS JSON);-- NULL SELECT CAST(1 AS JSON);--
单击“作业管理”,在作业列表界面单击“添加”。 “作业类型”选择“MapReduce”,并配置其他作业信息。 图1 添加MapReduce作业 表1 作业配置信息 参数 描述 示例 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 mapreduce_job 执行程序路径 待执行程
字母顺序排列。 目前规则运算表达式支持“*”或“%”用于匹配任何字符,下划线“_”用于匹配一个字符,或“|”用于条件连接两个或多个条件。 示例 SHOW MATERIALIZED VIEWS; hetuengine:tpcds_2gb> SHOW MATERIALIZED VIEWS;
选择待重启的计算实例,单击“停止”,待全部实例停止后,再单击“启动”重新启动计算实例。 日志格式 HetuEngine的日志格式如下所示: 表3 日志格式 日志类型 格式 示例 运行日志 <yyyy-MM-dd HH:mm:ss,SSS>|<Log Level>|<产生该日志的线程名字>|<log中的message>|<日志事件的发生位置>
热数据迁移特性。 操作方法为: 修改HDFS服务的NameNode的如下参数值。参数修改方法请参考修改集群服务配置参数。 参数 描述 取值示例 dfs.auto.data.mover.enable 表示是否启用自动冷热数据迁移特性。默认值是“false”。 true dfs.auto
/etc/ntp.conf server master1_ip prefer server master2_ip 图1 NTP配置文件修改示例 保存配置文件后,执行以下命令关闭NTP服务。 service ntpd stop 执行如下命令,手动同步一次时间。 /usr/sbin/ntpdate
单击“保存”,然后单击“确定”,成功后配置生效。 配置完成后即生效,不需要重启服务。 日志格式 ClickHouse的日志格式如下所示: 表4 日志格式 日志类型 格式 示例 ClickHouse运行日志 <yyyy-MM-dd HH:mm:ss,SSS>|<Log Level><产生该日志的线程名字>|<lo