检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点,查看每个JobBalancer实例的日志“/var/log/Bigdata/job-gateway/balance/access_http.log”里面请求是否转发到Master节点上新添加的JobServer的IP。 分批次停止Core节点上的JobServer实例。 在
被动模式。 FTP协议 设置FTP传输协议: “FTP”:FTP协议。 “SSL_EXPLICIT”:显式SSL协议。 “SSL_IMPLICIT”:隐式SSL协议。 “TLS_EXPLICIT”:显式TLS协议。 “TLS_IMPLICIT”:隐式TLS协议。 不指定参数值,默认为FTP协议。
说明 示例 架构名称 数据库模式名。 dbo 表名 数据库表名,用于最终保存传输的数据。 说明: 表名可以使用宏定义,具体请参考配置项中使用宏定义。 test 临时表 数据库临时表表名,用于临时保存传输过程中的数据,字段需要和“表名”配置的表一致。 说明: 使用临时表是为了使得导
操作场景 在传统的HDFS中,当客户端请求读取数据时,它会与NameNode交互以确定数据块所在的DataNodes,并选择其中一个进行连接和数据传输。如果所选DataNode的响应速度较慢或者发生故障,客户端必须等待一段时间后才会尝试从其他副本中获取数据,将会导致读取延迟。开启多路读能
select cast(186 as varchar); try_cast(value AS type) → type 与cast()相似,区别是转换失败返回null。 select try_cast(1860 as tinyint); _col0 ------- NULL
true,16,27); 使用Grafana对接IoTDB。 访问Grafana,创建IoTDB数据源。 在浏览器中访问Grafana,地址为“http://Grafana所在主机的IP地址:Port”,默认的登录用户名和密码都是admin。 其中,Port为Grafana的运行端口,默认为3000。
Hive ORC数据存储优化 操作场景 “ORC”是一种高效的列存储格式,在压缩比和读取效率上优于其他文件格式。 建议使用“ORC”作为Hive表默认的存储格式。 前提条件 已登录Hive客户端,具体操作请参见Hive客户端使用实践。 操作步骤 推荐:使用“SNAPPY”压缩,适用于压缩比和读取效率要求均衡场景。
系统软件安装完成后自动清除Tomcat安装包。 应用程序目录下针对工程禁用自动部署功能,只部署了web、cas和client三个工程。 禁用部分未使用的HTTP方法,防止被他人利用攻击。 更改Tomcat服务器默认shutdown端口号和命令,避免被黑客捕获利用关闭服务器,降低对服务器和应用的威胁。
lickHouseServer实例配置搜索“tcp_port_secure”参数获取。 如果使用非ssl安全连接则默认端口为9000,不需要携带参数--secure。具体的端口值可通过ClickHouseServer实例配置搜索“tcp_port”参数获取。 --user 用户名。
'KerberosRemoteServiceName': "HTTP", "KerberosKeytabPath":
集群内ClickHouseServer节点间数据迁移 ClickHouse数据迁移工具可以将某几个ClickHouseServer实例节点上的一个或多个MergeTree引擎分区表的部分分区迁移至其他ClickHouseServer节点上相同的表中。在扩容场景中,可以使用该工具将
dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-common/FileSystemShell
dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-common/FileSystemShell
dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-common/FileSystemShell
集群内ClickHouseServer节点间数据迁移 ClickHouse数据迁移工具可以将某几个ClickHouseServer实例节点上的一个或多个MergeTree引擎分区表的部分分区迁移至其他ClickHouseServer节点上相同的表中。在扩容场景中,可以使用该工具将
p和mysqlimport命令,并且此两个命令所属MySQL客户端版本与MySQL服务器版本兼容,如果没有这两个命令或版本不兼容,请参考http://dev.mysql.com/doc/refman/5.7/en/linux-installation-rpm.html,安装MySQL
dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-common/FileSystemShell
直接执行HBase组件的客户端命令。 hbase shell HBase客户端常用命令 常用的HBase客户端命令如下表所示。更多命令可参考http://hbase.apache.org/2.2/book.html。 表1 HBase客户端命令 命令 说明 create 创建一张表,例如create
库的强依赖,将Hive元数据导出到HDFS上,与表数据一同迁移后进行恢复。 参考步骤如下: 在源集群上下载并安装Sqoop工具。 请参见http://sqoop.apache.org/。 下载相应关系型数据库的JDBC驱动放置到“${Sqoop_Home}/lib”目录。 执行如下命令导出所有Hive元数据表。
application id application_1624937999496_0017 JobManager Web Interface: http://192.168.1.150:32261 “flink.keystore”和“flink.truststore”文件路径为绝对路径时: