检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
resourcemanager.connect.retry-interval.ms,即重试次数=连接RM的等待时间最大值/重试连接RM的时间频率。 在Spark客户端机器中,通过修改“conf/yarn-site.xml”文件,添加并配置“yarn.resourcemanager.connect.max-wait
serviceDiscoveryMode=hsbroker 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSBroker_IP:HSBroker_Port是HSBroker的URL,多个URL以逗号隔开。例如:“192
'key1'='value1', 'key2'='value2') FROM root.sg.d1; 查看所有注册的UDF 在IoTDB客户端中执行下列SQL语句,可以查看所有注册的UDF: SHOW FUNCTIONS 父主题: 在IoTDBServer节点调测UDF应用
若配置业务日志与TaskManager运行日志分开打印后,业务日志不输出至taskmanager.log,无法使用Web页面进行查看相应日志信息。 修改客户端的配置文件“conf/logback.xml”,在文件中添加如下日志配置信息,加粗标注部分根据需要进行修改。 <appender name="TEST"
Job(Configuration conf, String jobName),Job(Configuration conf) 新建一个MapReduce客户端,用于配置作业属性,提交作业。 setMapperClass(Class<extends Mapper> cls) 核心接口,指定MapR
Job(Configuration conf, String jobName),Job(Configuration conf) 新建一个MapReduce客户端,用于配置作业属性,提交作业。 setMapperClass(Class<extends Mapper> cls) 核心接口,指定MapR
数据源名称(source)可设置如下: CLI:使用--source选项。 JDBC:在Connection实例上设置ApplicationName客户端信息属性。 客户端标签(clientTags)的设置方式如下: CLI:使用--client-tags选项。 JDBC:在Connection实例上设置ClientTags
要从表中读取数据,首先需要实例化该表对应的Table实例,然后创建一个Scan对象,并针对查询条件设置Scan对象的参数值,为了提高查询效率,建议指定StartRow和StopRow。查询结果的多行数据保存在ResultScanner对象中,每行数据以Result对象形式存储,Result中存储了多个Cell。 代码样例
Job(Configuration conf, String jobName),Job(Configuration conf) 新建一个MapReduce客户端,用于配置作业属性,提交作业。 setMapperClass(Class<extends Mapper> cls) 核心接口,指定MapR
进程JVM参数,设置成“true”用于打开动态设置日志级别功能。 未配置,即为false。 Driver、Executor、AM进程的JVM参数如表2所示。在Spark客户端的配置文件“spark-defaults.conf”中进行配置。Driver、Executor、AM进程的日志级别在对应的JVM参数中的“-Dlog4j
进程JVM参数,设置成“true”用于打开动态设置日志级别功能。 未配置,即为false。 Driver、Executor、AM进程的JVM参数如表2所示。在Spark客户端的配置文件“spark-defaults.conf”中进行配置。Driver、Executor、AM进程的日志级别在对应的JVM参数中的“-Dlog4j
说明 配置方法 Kerberos认证 当前只支持keytab认证方式。 从KDC服务器上下载用户keytab,并将keytab放到Flink客户端所在主机的某个文件夹下(例如/home/flinkuser/keytab)。 在“${FLINK_HOME}/conf/flink-conf
若配置业务日志与TaskManager运行日志分开打印后,业务日志不输出至taskmanager.log,无法使用Web页面进行查看相应日志信息。 修改客户端的配置文件“conf/logback.xml”,在文件中添加如下日志配置信息,加粗标注部分根据需要进行修改。 <appender name="TEST"
arkSQL模块,支持CLI或者ThriftServer两种方式访问。其中ThriftServer的连接方式也有Beeline和JDBC客户端代码两种。 spark-sql脚本、spark-shell脚本和spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy
在Linux中调测Presto应用开发 JDBC客户端运行及结果查看 执行mvn clean compile assembly:single生成jar包,在工程目录target目录下获取,比如:presto-examples-1.0-SNAPSHOT-jar-with-dependencies
serviceDiscoveryMode=hsfabric 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSFabric_IP:HSFabric_Port是HSFabric的URL,多个URL以逗号隔开。例如:“192
'key1'='value1', 'key2'='value2') FROM root.sg.d1; 查看所有注册的UDF 在IoTDB客户端中执行下列SQL语句,可以查看所有注册的UDF: SHOW FUNCTIONS 父主题: 在IoTDBServer节点调测UDF应用
to …… Beeline version 1.1.0 by Apache Hive (可选)通过beeline -help命令查看关于客户端显示的设置。如下: -u <database url> the JDBC URL to connect to
态转换。 图1 索引状态转换图 场景介绍 用户可以使用全局二级索引工具禁用/启用某个索引。 修改HBase全局二级索引状态 在HBase客户端执行以下命令可禁用/启用某个索引: hbase org.apache.hadoop.hbase.hindex.global.mapreduce
添加配置时,在配置名前增加connector名作为前缀,此处为myhive。 修改完成后,保存配置,重启Presto服务。 使用presto客户端或jdbc、UI工具连接Presto服务,执行命令show schemas from myhive; 可以看到目标集群上的database即为配置成功。