检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
这控制着批量读取并一起归档的提交即时的数量。 10 hoodie.parquet.small.file.limit 该值应小于maxFileSize,如果将其设置为0,会关闭此功能。由于批处理中分区中插入记录的数量众多,总会出现小文件。Hudi提供了一个选项,可以通过将对该分区中的插入作为对现有小文件的更新来解
以实现与外部系统的集成。 几乎所有OpenTSDB功能都可通过API访问,例如查询时间序列数据,管理元数据和存储数据点。详情请参见:https://opentsdb.net/docs/build/html/api_http/index.html。 父主题: 组件介绍
LOG.info("Status Code : " + statusCode); if (statusCode != HttpStatus.SC_OK) { LOG.info("Request failed! " + response.getStatusLine());
开发。 Java API 提供Java语言的API,提供过滤、join、窗口、聚合等数据处理能力。 有关Flink的详细信息,请参见:https://flink.apache.org/ 父主题: Flink应用开发概述
1.1/hadoop-yarn/hadoop-yarn-common/yarn-default.xml MRS 3.2.0及之后版本:https://hadoop.apache.org/docs/r3.3.1/hadoop-yarn/hadoop-yarn-common/yarn-default
通过JDBC访问Spark SQL样例程序开发思路 场景说明 用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 将数据文件上传至HDFS中。 确保以多主实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。在
ergeTree、CollapsingMergeTree、VersionedCollapsingMergeTree引擎,使用方式参见:https://clickhouse.tech/docs/zh/engines/table-engines/mergetree-family/collapsingmergetree/。
<value>org.apache.hadoop.fs.obs.OBS</value> </property> 对接OBS及相关参数配置参考网址: https://support.huaweicloud.com/bestpractice-obs/obs_05_1507.html 获取集群的配置文件
位置。 数据库参数调优 通过调优数据参数,提升数据库性能,保障数据库稳定运行。 更多信息可参考ClickHouse社区文档相关调优内容https://clickhouse.com/docs/en/intro。 父主题: ClickHouse数据库调优
propertyName1=propertyValue1[&propertyName2=propertyValue2]...] 详细内容可参考https://dev.mysql.com/doc/connector-j/en/connector-j-usagenotes-j2ee-conc
host_name from system.clusters; https_port 安全集群,可以登录源集群的FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”,搜索“https_port”参数获取。 普通集群,可以登录源集群的FusionInsight
LoadBalance的HTTP、HTTPS端口。 登录FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 逻辑集群”,查看对应逻辑集群的“HTTP Balancer端口号”中的“非加密端口”及“加密端口”。 loadBalancerHttpsPort CL
LOG.info("Status Code : " + statusCode); if (statusCode != HttpStatus.SC_OK) { LOG.info("Request failed! " + response.getStatusLine());
source Spark2x/component_env 安全集群(开启kerberos认证)执行命令kinit spark_test,普通模式(关闭kerberos认证)无需执行。 输入密码,完成认证(第一次登录需要修改密码)。 使用认证后的用户提交Spark作业任务。 cd Spark2x/spark/bin
properties submit_user 提交任务的用户 developuser oozie_url_default https://Oozie业务IP:21003/oozie/ https://10.10.10.233:21003/oozie/ src\main\resources\job.properties
/opt/client source bigdata_env kinit developuser 启动流程。 命令: oozie job -oozie https://oozie server hostname:port/oozie -config job.properties文件所在路径 -run
properties submit_user 提交任务的用户 developuser oozie_url_default https://Oozie业务IP:21003/oozie/ https://10.10.10.233:21003/oozie/ src\main\resources\job.properties
Flink安全认证机制说明 Flink认证和加密 Flink集群中,各部件支持认证。 Flink集群内部各部件和外部部件之间,支持和外部部件如YARN、HDFS、ZooKeeprer进行Kerberors认证。 Flink集群内部各部件之间,如Flink client和JobMa