检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut."); String URL
examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut."); String URL
访问Manager页面报错“请求VPC错误” 通过专线访问Manager页面方式出现503报错 登录Manager集群页面时报错“You have no right to access the page” 登录Manager时界面报错“认证信息无效” Manager界面超时退出后无法正常登录 升级Python后无法登录Manager页面
Source配置的IP所在节点与故障节点的网络状态。 确认Flume Source是否是avro类型。 是,执行2.c。 否,执行3。 登录故障节点所在主机,执行以下命令切换root用户。 sudo su - root 执行ping Flume Source配置的IP地址命令查看对端主机是否可以ping通。 是,执行3。
自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 执行以下命令,切换至omm用户并登录omm数据库。 su - omm gsql -U omm -W omm数据库密码 -p 20015 执行命令 select
"table1", keyCols "id", colsMapping = ", name=cf1.cq1, age=cf1.cq2"); 创建好的SparkSQL表和HBase表分别保存在Hive的数据库“default”和HBase的命名空间“default”。 在Manage
"table1", keyCols "id", colsMapping = ", name=cf1.cq1, age=cf1.cq2"); 创建好的SparkSQL表和HBase表分别保存在Hive的数据库“default”和HBase的命名空间“default”。 在Manage
以保证MRS集群节点可以正常获取补丁文件。 使用具有管理权限的用户登录终端节点控制台。 单击管理控制台左上角的Region信息,选择区域和项目。 在终端节点列表中,单击终端节点ID。 选择进入“策略”页面,单击“编辑”,修改策略信息。 例如只允许VPC1内的服务器下载账号A的桶mybucket中的对象。
17:12:45,605 INFO internal.RestStorageService: OkHttp cost 19 ms to apply http request 2022-02-28 17:12:45,606 WARN internal.RestStorageService:
strategy”为“capacity”。 Kafka创建Topic时,支持基于“机架感知” 和 “跨AZ特性” 两种选项组合生成分区及副本的分配方案且支持 “--zookeeper” 和 “--bootstrap-server”两种方式 禁用机架策略 & 禁用跨AZ特性 (默认策略)。
s方法中。 本样例实现了删除user_table表的idx_id_age索引。 /** * dropIndex */ public void testDropIndex() { LOG.info("Entering testDropIndex.");
0-LTS及之后的版本中,Spark2x服务改名为Spark,服务包含的角色名也有差异,例如JobHistory2x变更为JobHistory。相关涉及服务名称、角色名称的描述和操作请以实际版本为准。 kinit sparkuser 上传CSV中的文件到HDFS的“/data”目录: hdfs
examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut."); String URL
赖区分列是否有创建索引。 mysql-fastpath-connector:MySQL数据库专用连接器,使用MySQL的mysqldump和mysqlimport工具进行数据的导入导出,相对generic-jdbc-connector来说,导入导出速度更快。 sftp-connector:SFTP数据源连接器。
查看“server.port”的值,默认为“29900”。 192.168.1.1:29900 区域 当前请求发起方所属区域,只能包数字和下划线。 0755_01 接收超时时长(秒) 等待接收数据的超时时长(单位:秒)。 60 Task总超时时长(秒) 每个跨域Task执行的总超时时长(单位:秒)。
下面代码片段仅为演示,具体代码参见SparkOnHbaseJavaExample中JavaHBaseDistributedScanExample文件: public static void main(String[] args) throws IOException{ if (args.length
下面代码片段仅为演示,具体代码参见SparkOnHbaseJavaExample中JavaHBaseDistributedScanExample文件: public static void main(String[] args) throws IOException{ if (args.length
分析集群HDFS使用情况,增加HDFS分配给Hive使用的容量上限。 登录MRS集群详情页面,单击“组件管理 > Hive > 服务配置”,将“基础配置”切换为“全部配置”,然后查找“hive.metastore.warehouse.size.percent”,调大该配置项。设配置项的值为A,H
examples包的“HIndexExample”类的addIndicesExample方法中: addIndices(): 将索引添加到没有数据的表中 public void addIndicesExample() { LOG.info("Entering Adding a Hindex.");
下面代码片段仅为演示,具体代码参见SparkOnHbaseJavaExample中HBaseBulkDeleteExample文件: public static void main(String[] args) throws IOException { if (args.length