检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果指定,如果出现异常,会打印堆栈跟踪信息。 --config-file 配置文件的名称。 --secure 如果指定,将通过SSL安全模式连接到服务器。 --history_file 存放命令历史的文件的路径。 --param_<name> 带有参数的查询,并将值从客户端传递给服务器。
管理员工具(动态更新信息)。 version 打印版本信息。 jar <jar> 运行jar文件。 logs 获取container日志。 classpath 打印获取Hadoop JAR包和其他库文件所需的CLASSPATH路径。 daemonlog 获取或者设置服务LOG级别。 CLASSNAME
目录下,再上传到HDFS指定目录下(例如“/user/hive_examples_jars”)。创建函数的用户与使用函数的用户都需要具有该文件的可读权限。 切换至客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 认证用户。 集群已开启Kerberos认证(安全模式):
ldap”、“aliases: files ldap”。 是,执行7。 否,执行9。 用root用户登录故障节点,执行cat /etc/nscd.conf命令,查看配置文件中“enable-cache passwd”、“positive-time-to-live passwd”、“enable-cache g
目录下,再上传到HDFS指定目录下(例如“/user/hive_examples_jars”)。创建函数的用户与使用函数的用户都需要具有该文件的可读权限。 切换至客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 认证用户。 集群已开启Kerberos认证(安全模式):
令时改为小写。 以root用户登录ClickHouseServer实例所在的节点。 执行以下命令获取“clickhouse.keytab”文件路径。 ls ${BIGDATA_HOME}/FusionInsight_ClickHouse_*/install/FusionInsig
管理员工具(动态更新信息)。 version 打印版本信息。 jar <jar> 运行jar文件。 logs 获取container日志。 classpath 打印获取Hadoop JAR包和其他库文件所需的CLASSPATH路径。 daemonlog 获取或者设置服务LOG级别。 CLASSNAME
管理员工具(动态更新信息)。 version 打印版本信息。 jar <jar> 运行jar文件。 logs 获取container日志。 classpath 打印获取Hadoop JAR包和其他库文件所需的CLASSPATH路径。 daemonlog 获取或者设置服务LOG级别。 CLASSNAME
管理员工具(动态更新信息)。 version 打印版本信息。 jar <jar> 运行jar文件。 logs 获取container日志。 classpath 打印获取Hadoop JAR包和其他库文件所需的CLASSPATH路径。 daemonlog 获取或者设置服务LOG级别。 CLASSNAME
JDK。 若使用Oracle JDK,请确保Eclipse中的JDK配置为Oracle JDK。 不同的Eclipse不要使用相同的workspace和相同路径下的示例工程。 父主题: 准备HDFS应用开发环境
就不会停止,除非人工中止。 Spout Topology中产生源数据的组件,是Tuple的来源,通常可以从外部数据源(如消息队列、数据库、文件系统、TCP连接等)读取数据,然后转换为Topology内部的数据结构Tuple,由下一级组件处理。 Bolt Topology中接受数据
经由NettyServerHandler发送出去。 另外,NettyServer的端口及子网需要在“flink-conf.yaml”配置文件中配置: 端口范围 nettyconnector.sinkserver.port.range: 28444-28943 子网 nettyconnector
的principal,如“test@<系统域名>”。<path_to_keytab>表示<principal_name>对应的keytab文件路径,如“/opt/auth/test/user.keytab”。 普通模式下: jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>
的principal,如“test@<系统域名>”。<path_to_keytab>表示<principal_name>对应的keytab文件路径,如“/opt/auth/test/user.keytab”。 普通模式下: jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>
分桶表不支持insert into 分桶表(bucket table)不支持insert into,仅支持insert overwrite,否则会导致文件个数与桶数不一致。 使用WebHCat的部分REST接口的前置条件 WebHCat的部分REST接口使用依赖于MapReduce的JobH
reduceByKey((x, y) => x, numPartitions).map(_._1) 这个过程比较耗时,尤其是数据量很大时,建议不要直接对大文件生成的RDD使用。 join() : (RDD[(K, V)], RDD[(K, W)]) => RDD[(K, (V, W))],作用是将两个RDD通过key做连接。
'SPATIAL_INDEX.mygeosot.sourcecolumns'='longitude, latitude'); 准备数据 准备数据文件1:geosotdata.csv timevalue,longitude,latitude 1575428400000,116.285807
'SPATIAL_INDEX.mygeosot.sourcecolumns'='longitude, latitude'); 准备数据 准备数据文件1:geosotdata.csv timevalue,longitude,latitude 1575428400000,116.285807
${BIGDATA_HOME}/om-server/OMS/workspace/conf/chrony.keys 执行下列命令,查看key值是否与10的查询值相同。 Red Hat系统执行:diff ${BIGDATA_HOME}/om-server/OMS/workspace/conf/chrony.keys
ce和FlinkServer。 FlinkResource:提供客户端配置管理,是必须安装的角色。包括供客户端下载使用的原始lib包和配置文件,以及FlinkServer提交作业所依赖的原始lib包。无实体进程,作业运行过程不依赖FlinkResource。 FlinkServe