检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
properties submit_user 提交任务的用户 developuser oozie_url_default https://Oozie业务IP:21003/oozie/ https://10.10.10.176:21003/oozie/ src\main\resources\job
传入ThriftServer实例所在host和提供服务的port,根据认证凭据及配置文件新建Thrift客户端,访问ThriftServer,分别使用put和putMultiple进行写数据操作。 代码样例 方法调用 // Write data with put. putData(client, TABLE_NAME);
传入ThriftServer实例所在host和提供服务的port,根据认证凭据及配置文件新建Thrift客户端,访问ThriftServer,分别使用put和putMultiple进行写数据操作。 代码样例 方法调用 // Write data with put. putData(client, TABLE_NAME);
传入ThriftServer实例所在host和提供服务的port,根据认证凭据及配置文件新建Thrift客户端,访问ThriftServer,分别使用put和putMultiple进行写数据操作。 代码样例 方法调用 // Write data with put. putData(client, TABLE_NAME);
There is an overlap in the region chain.”或者“ERROR: (region region1) Multiple regions have the same startkey: xxx”信息,表示某些region存在overlap的问题,需要如何解决?
P服务器的配置信息。 表1 连接参数 参数名 说明 示例 名称 SFTP服务器连接的名称。 sftpName Sftp服务器的IP SFTP服务器的IP地址。 10.16.0.1 Sftp服务器端口 SFTP服务器的端口号。 22 Sftp用户名 访问SFTP服务器的用户名。 root
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
properties submit_user 提交任务的用户 developuser oozie_url_default https://Oozie业务IP:21003/oozie/ https://10.10.10.233:21003/oozie/ src\main\resources\job
"vpc:privateIps:delete", "vpc:quotas:list", "vpc:networks:get", "vpc:publicIps:list",
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
/ -rlth 图1 查看备份文件 原因分析 查看DBService的备份日志/var/log/Bigdata/dbservice/scriptlog/backup.log,其实备份已经成功,只是上传至OMS节点时失败。 失败原因是由于ssh不通。 解决办法 网络问题,联系网络工程师处理。
如何在导入Hive表时指定输出的文件压缩格式? 处理步骤 当前Hive支持以下几种压缩格式: org.apache.hadoop.io.compress.BZip2Codec org.apache.hadoop.io.compress.Lz4Codec org.apache.hadoop.io.compress
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“16007”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HiveServer,执行2。 告警上报的角色是MetaStore,执行3。 在FusionInsight Manager首页,选择“集群
在弹出的对话框中设置新的存储策略,单击“确定”。 在“静态存储策略”页签设置静态存储策略,单击“保存”。 在“动态存储策略”页签可创建、删除、修改动态存储策略,详细的参数介绍如表2所示。 表2 动态存储策略参数介绍 分类 参数 说明 规则 文件最近访问时间 按照该文件最近一次访问时间。 文件最近修改时间
B的磁盘,MemArtsCC最大可使用的缓存空间为900GB,缓存超过900GB,MemArtsCC动态淘汰缓存。 0.3 cache_reserved_space 每块盘需要动态预留的空间。 cache_reserved_space决定磁盘预留空间,默认值为512MB,建议设置
Kafka消息发布及订阅 Kudu应用开发 MapReduce应用开发 Oozie离线分析网站日志 通过Spark分析网页停留时间 Storm动态单词统计 通过JDBC访问SparkSQL 通过Manager接口管理用户 02 购买 您可以灵活选择MRS服务的计费模式、配置项,针对不
通过数据应用访问Alluxio 访问Alluxio文件系统的端口号是19998,即地址为alluxio://<alluxio的master节点ip>:19998/<PATH>,本节将通过示例介绍如何通过数据应用(Spark、Hive、Hadoop MapReduce和Presto)访问Alluxio。
参考获取MRS应用开发样例工程,下载样例工程到本地。 解压样例工程并找到kafka-examples目录。 导入样例工程到Eclipse开发环境。 打开Eclipse,选择“File > Import”。显示“Import”窗口,选择Existing Maven Projects,单击“next”按钮。