检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用Scan API读取HBase表数据 功能简介 要从表中读取数据,首先需要实例化该表对应的Table实例,然后创建一个Scan对象,并针对查询条件设置Scan对象的参数值,为了提高查询效率,建议指定StartRow和StopRow。查询结果的多行数据保存在ResultScanner对象中
使用Scan API读取HBase表数据 功能简介 要从表中读取数据,首先需要实例化该表对应的Table实例,然后创建一个Scan对象,并针对查询条件设置Scan对象的参数值,为了提高查询效率,最好指定StartRow和StopRow。查询结果的多行数据保存在ResultScanner对象中
创建委托”,在创建委托页面设置如下参数,并单击“下一步”: 委托名称:填写委托名称,例如:mrs_ecs_obs。 委托类型:选择“云服务”。 云服务:选择“弹性云服务器 ECS 裸金属服务器 BMS”。 持续时间:选择“永久”。 在弹出授权页面的搜索框内,搜索“OBS OperateAccess”策略,并勾选“OBS
如需在Linux调测程序,需要确保当前用户对“src/main/resources”目录下和依赖库文件目录下的所有文件,均具有可读权限。同时保证已安装JDK并已设置java相关环境变量。 在Windows中调测程序 确保本地的hosts文件中配置了远程集群所有主机的主机名和业务IP映射关系。 通过IntelliJ
使用Scan API读取HBase表数据 功能简介 要从表中读取数据,首先需要实例化该表对应的Table实例,然后创建一个Scan对象,并针对查询条件设置Scan对象的参数值,为了提高查询效率,建议指定StartRow和StopRow。查询结果的多行数据保存在ResultScanner对象中
设置了HDFS存储目录的磁盘空间配额,CarbonData为什么会发生异常? 问题 设置了HDFS存储目录的磁盘空间配额,CarbonData为什么会发生异常。 回答 创建、加载、更新表或进行其他操作时,数据会被写入HDFS。若HDFS目录的磁盘空间配额不足,则操作失败并发生以下异常。
如需在Linux调测程序,需要确保当前用户对“src/main/resources”目录下和依赖库文件目录下的所有文件,均具有可读权限。同时保证已安装JDK并已设置java相关环境变量。 在Windows中调测程序 确保本地的hosts文件中配置了远程集群所有主机的主机名和业务IP映射关系。 通过IntelliJ
登录AOM服务控制台。 在左侧导航栏选择“Prometheus监控 > 实例列表”,然后单击“创建Prometheus实例”。 设置实例名称、企业项目和实例类型信息,设置完成后单击“确定”。 表1 创建Prometheus实例 参数名称 说明 实例名称 Prometheus实例的名称。 只
如需在Linux调测程序,需要确保当前用户对“src/main/resources”目录下和依赖库文件目录下的所有文件,均具有可读权限。同时保证已安装JDK并已设置java相关环境变量。 在Windows中调测程序 确保本地的hosts文件中配置了远程集群所有主机的主机名和业务IP映射关系。 通过IntelliJ
如果Windows开发环境中使用IBM JDK,不支持在Windows环境中直接运行应用程序。 需要在运行样例代码的本机hosts文件中设置访问节点的主机名和IP地址映射,主机名和IP地址请保持一一对应。 操作步骤 单击IDEA右边Maven窗口的“Reimport All Maven
Structure”页面,选择“Artifacts”,单击“+”并选择“JAR > Empty”。 图3 添加Artifacts 根据实际情况设置jar包的名称、类型以及输出路径。 图4 设置基本信息 选中“'kafka-examples' compile output”,右键选择“Put into Output
bytes”值,若超过此配置项值,则抛出上述异常。 解决办法 在初始化建立Kafka消费者实例时,设置此配置项“max.partition.fetch.bytes”的值。 例如,参考本例,可以将此配置项设置为“5252880”: ...... // 安全协议类型 props.put(securityProtocol
> 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端配置文件压缩包为“FusionInsight_Cluster_1_Services_Client.tar”,解压后得
ID”,若为-1表示未匹配到策略。 action:表示执行的操作权限,对应策略中的“Permissions”中勾选的操作权限。 access:表示执行的操作,各个组件支持的access各不相同。 Admin Ranger上操作审计信息,例如安全访问策略的创建/更新/删除、组件权限策略的创建/删除、role的创建/更新/删除等。
用户A如何查看用户B创建的Hive表? MRS 3.x之前版本: 登录MRS Manager,选择“系统设置 > 权限配置 > 角色管理”。 单击“添加角色”,输入“角色名称”和“描述”。 在“权限”的表格中选择“Hive > Hive Read Write Privileges”。
yaml”中的“jobmanager.web.access-control-allow-origin”和“jobmanager.web.allow-access-address”配置项中,IP地址之间使用英文逗号分隔。 jobmanager.web.access-control-allow-origin:
如何修改FlumeClient的日志为标准输出日志? Hadoop组件jar包位置和环境变量的位置在哪里? 如何查看HBase日志? HBase表如何设置和修改数据保留期? 如何修改HDFS的副本数? 如何修改HDFS主备倒换类? DynamoDB的number在Hive表中用什么类型比较好?
-m最大保留个数 OMS备份组件审计日志默认最大保留90个,可选值为“0”到“365”,如果设置的保留个数越大,会占用更多的磁盘空间。 显示如下结果,说明修改成功: Modify log config successfully 父主题: 查看MRS集群日志
如何在不同的namespaces上逻辑地分割数据 问题 如何在不同的namespaces上逻辑地分割数据? 回答 配置: 要在不同namespaces之间逻辑地分割数据,必须更新HDFS,Hive和Spark的“core-site.xml”文件中的以下配置。 改变Hive组件将改
与Session程序一样。 前提条件 已安装IoTDB客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 导出Jar包。 构建Jar包方式有以下两种: 方法一: 选择“Maven