检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Application Node Label Expression : <Not set> AM container Node Label Expression : <DEFAULT_PARTITION> 查看MapReduce日志获取应用运行情况。
可以增加Checkpoint保存数。 【示例】配置Checkpoint文件保存数为2: state.checkpoints.num-retained: 2 生产环境使用增量Rocksdb作为State Backend Flink提供了三种状态后端:MemoryStateBacke
下列代码片段在样例工程中com.huawei.bigdata.spark.examples包的FemaleInfoCollection类的main方法中。 基本安全认证: Spark Core和Spark SQL程序不需要访问HBase或ZooKeeper,所以使用基本的安全认证代
下列代码片段在样例工程中com.huawei.bigdata.spark.examples包的FemaleInfoCollection类的main方法中。 基本安全认证: Spark Core和Spark SQL程序不需要访问HBase或ZooKeeper,所以使用基本的安全认证代
GET/v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/log-detail √ √ 查询指定集群的标签 GET /v1.1/{project_id}/clusters/{cluster_id}/tags mrs:tag:list
refresh components client config. 界面显示以下信息表示用户名或者密码错误: login manager failed,Incorrect username or password. 该脚本会自动连接到集群并调用refreshConfig.sh脚本下载并刷新客户端配置文件。
Application Node Label Expression : <Not set> AM container Node Label Expression : <DEFAULT_PARTITION> 查看MapReduce日志获取应用运行情况。
Integer 参数解释: 当前已完成的步骤数。 为兼容历史版本,保留此参数。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 job_main_id String 参数解释: 作业主ID。 为兼容历史版本,保留此参数。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及
xx.xx" exit 1 fi if ! eval $* then echo "Failed to execute: $*" exit 1 fi } check_cmd_result [ -n "$
是否将动态过滤器下推到JDBC查询中。 true(默认值):开启下推。 false:关闭下推。 true dynamic-filtering.wait-timeout 在启动 JDBC 查询之前,HetuEngine将等待从连接的构建端收集动态过滤器的最大持续时间。使用较大的超时可能会
建议确保数据保留的时间超过最大查询执行时间。 KEEP_LATEST_COMMITS hoodie.cleaner.commits.retained 保留的提交数。因此,数据将保留为num_of_commits * time_between_commits(计划的),这也直接转化为逐步提取此数据集的数量。
alancer.sh -threshold 5 -include IP1,IP2,IP3 如果该命令执行失败,在日志中看到的错误信息为“Failed to APPEND_FILE /system/balancer.id”,则需要执行如下命令强行删除“/system/balancer
alancer.sh -threshold 5 -include IP1,IP2,IP3 如果该命令执行失败,在日志中看到的错误信息为“Failed to APPEND_FILE /system/balancer.id”,则需要执行如下命令强行删除“/system/balancer
人机”用户第一次登录时需修改密码。(普通模式不涉及) 在修改集群域名后,需要重新下载客户端,以保证客户端配置文件中kerberos.domain.name配置为正确的服务端域名。 使用Kafka客户端 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。
运行程序,案例以JDBC程序为例,其他程序运行操作相同。 右键单击“JDBCExample.java”文件,选择“Run 'JDBCExample.main() ” 图5 运行程序 查看调测结果 IoTDB应用程序运行完成后,可通过IntelliJ IDEA运行结果查看应用程序运行情况。 J
将storm-examples导入到Eclipse开发环境,请参见准备Storm应用开发环境。 参考storm-examples工程src/main/resources/flux-examples目录下的相关yaml应用示例,开发客户端业务。 获取相关配置文件。 本步骤只适用于业务中
执行hbase shell进入HBase客户端。 执行语句:scan 'flume_test' ,可以看到日志按行写入HBase列族里。 hbase(main):001:0> scan 'flume_test' ROW
执行hbase shell进入HBase客户端。 执行语句:scan 'flume_test' ,可以看到日志按行写入HBase列族里。 hbase(main):001:0> scan 'flume_test' ROW
关键代码片段如下: ... public class SparkHivetoHbase { public static void main(String[] args) throws Exception { String userPrincipal = "sparkuser";
将storm-examples导入到IntelliJ IDEA开发环境,请参见导入并配置Storm样例工程。 参考storm-examples工程src/main/resources/flux-examples目录下的相关yaml应用示例,开发客户端业务。 获取相关配置文件。 本步骤只适用于业务中