检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
下列代码片段在样例工程中com.huawei.bigdata.spark.examples包的FemaleInfoCollection类的main方法中。
下列代码片段在样例工程中com.huawei.bigdata.spark.examples包的FemaleInfoCollection类的main方法中。
project_id}/clusters/{cluster_id}/agency-mapping √ √ 查询作业日志详情 GET/v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/log-detail
root.fit.p; CREATE TIMESERIES root.fit.d1.s1 WITH DATATYPE=INT32,ENCODING=RLE; CREATE TIMESERIES root.fit.d1.s2 WITH DATATYPE=TEXT,ENCODING=PLAIN
eval $* then echo "Failed to execute: $*" exit 1 fi } check_cmd_result [ -n "$PHOENIX_HBASE_VERSION" ] check_cmd_result
true dynamic-filtering.wait-timeout 在启动 JDBC 查询之前,HetuEngine将等待从连接的构建端收集动态过滤器的最大持续时间。使用较大的超时可能会导致更详细的动态过滤器。但是也会增加某些查询的延迟,默认值:20s。
TaiShan客户端:OpenJDK:支持1.8.0_272版本。 说明: 基于安全考虑,服务端只支持TLS V1.2及以上的加密协议。
【示例】配置Checkpoint文件保存数为2: state.checkpoints.num-retained: 2 生产环境使用增量Rocksdb作为State Backend Flink提供了三种状态后端:MemoryStateBackend,FsStateBackend,和RocksDBStateBackend
10 hoodie.write.lock.client.wait_time_ms_between_retry 重试间隔。
Driver Program 是Spark应用程序的主进程,运行Application的main()函数并创建SparkContext。负责应用程序的解析、生成Stage并调度Task到Executor上。通常SparkContext代表Driver Program。
例如执行:bash /opt/client/HDFS/hadoop/sbin/start-balancer.sh -threshold 5 -include IP1,IP2,IP3 如果该命令执行失败,在日志中看到的错误信息为“Failed to APPEND_FILE /system
TaiShan客户端:OpenJDK:支持1.8.0_272版本。 说明: 基于安全考虑,服务端只支持TLS V1.2及以上的加密协议。
例如执行:bash /opt/client/HDFS/hadoop/sbin/start-balancer.sh -threshold 5 -include IP1,IP2,IP3 如果该命令执行失败,在日志中看到的错误信息为“Failed to APPEND_FILE /system
(普通模式不涉及) 在修改集群域名后,需要重新下载客户端,以保证客户端配置文件中kerberos.domain.name配置为正确的服务端域名。 使用Kafka客户端 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。
约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 job_main_id String 参数解释: 作业主ID。 为兼容历史版本,保留此参数。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 job_step_id String 参数解释: 作业步骤ID。
":"password"}' 'https://x.x.x.x:28443/web/api/v2/tools/encrypt' 其中user name:password分别为当前系统登录用户名和密码;"plainText"的password为调用“generate_keystore.sh
Driver Program 是Spark应用程序的主进程,运行Application的main()函数并创建SparkContext。负责应用程序的解析、生成Stage并调度Task到Executor上。通常SparkContext代表Driver Program。
参考storm-examples工程src/main/resources/flux-examples目录下的相关yaml应用示例,开发客户端业务。 获取相关配置文件。
hbase(main):001:0> scan 'flume_test' ROW COLUMN+CELL
hbase(main):001:0> scan 'flume_test' ROW COLUMN+CELL