检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
/v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。
/v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。
r_id}/job-executions/{job_execution_id}/kill 详情请参见终止作业。 请求示例 POST: https://{endpoint}/v2/{project_id}/clusters/{cluster_id}/job-executions/{
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
start time: 1494333891969 final status: FAILED tracking URL: https://9-96-101-191:8090/proxy/application_1493689105146_0052/ user: spark2x
特定的业务场景 易于调试:CQL提供了详细的异常码说明,降低了用户对各种错误的处理难度。 关于Storm的架构和详细原理介绍,请参见:https://storm.apache.org/。 Storm原理 基本概念 表1 概念介绍 概念 说明 Tuple Storm核心数据结构,是
常。 是,处理结束。 否,执行2。 获取当前工作的Httpd服务器地址,为打开Hue页面URL中主机地址,即如果打开Hue的Url为“https://192.168.0.1:21201”,Httpd服务地址则为“192.168.0.1”。 登录Httpd服务器,排查“/var/l
路径。 /var/log/Bigdata/clickhouse/balance/stop.log ClickHouseBalancer服务关闭日志文件路径。 /var/log/coredump/clickhouse-*.core.gz ClickHouse进程异常崩溃后生成的内存转储文件压缩包。
server master1_ip prefer server master2_ip 图1 NTP配置文件修改示例 保存配置文件后,执行以下命令关闭NTP服务。 service ntpd stop 执行如下命令,手动同步一次时间。 /usr/sbin/ntpdate 主Master节点的IP地址
application.path”属性和workflowAppUri属性的值保持一致。 执行流程文件 命令: oozie job -oozie https://oozie server hostname:port/oozie -config job.properties文件所在路径 -run
/opt/client source bigdata_env kinit developuser 启动流程。 命令: oozie job -oozie https://oozie server hostname:port/oozie -config job.properties文件所在路径 -run
通过JDBC访问Spark SQL样例程序开发思路 场景说明 用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 将数据文件上传至HDFS中。 确保以多主实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。在
source Spark2x/component_env 安全集群(开启kerberos认证)执行命令kinit spark_test,普通模式(关闭kerberos认证)无需执行。 输入密码,完成认证(第一次登录需要修改密码)。 使用认证后的用户提交Spark作业任务。 cd Spark2x/spark/bin
LOG.info("Status Code : " + statusCode); if (statusCode != HttpStatus.SC_OK) { LOG.info("Request failed! " + response.getStatusLine());
开发。 Java API 提供Java语言的API,提供过滤、join、窗口、聚合等数据处理能力。 有关Flink的详细信息,请参见:https://flink.apache.org/ 父主题: Flink应用开发概述
以实现与外部系统的集成。 几乎所有OpenTSDB功能都可通过API访问,例如查询时间序列数据,管理元数据和存储数据点。详情请参见:https://opentsdb.net/docs/build/html/api_http/index.html。 父主题: 组件介绍
1.1/hadoop-yarn/hadoop-yarn-common/yarn-default.xml MRS 3.2.0及之后版本:https://hadoop.apache.org/docs/r3.3.1/hadoop-yarn/hadoop-yarn-common/yarn-default
propertyName1=propertyValue1[&propertyName2=propertyValue2]...] 详细内容可参考https://dev.mysql.com/doc/connector-j/en/connector-j-usagenotes-j2ee-conc