检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
或者环境变量中密文存放,使用时解密,确保安全; // 本示例以密码保存在环境变量中来实现身份验证为例,运行本示例前,请先在本地环境中设置环境变量HETUENGINE_PASSWORD properties.setProperty("user", "YourUserName");
组件业务用户 代码认证: 通过获取客户端的principal和keytab文件在应用程序中进行认证。 MapReduce的安全认证代码 目前使用统一调用LoginUtil类进行安全认证。 在MapReduce样例工程的“com.huawei.bigdata.mapreduce.exampl
memstore阶段的Region重新创建。 再创建该表时,将temp目录拷贝到HBase数据目录时,由于HBase数据目录不为空,导致调用HDFS rename接口时,数据目录变为temp目录最后一层追加到HBase的数据目录下,如$rootDir/data/$nameSpa
pattern配置项设置单副本的数据文件和目录。 MRS 1.9.3.9及其后续补丁安装后,需要重新下载安装全量的客户端,包含Master节点的原始客户端和虚拟私有云的其他节点使用的客户端(即用户自行搭建的客户端)。如果集群之前安装了1.9.3.8补丁,不需要做此操作。 主Master节点的原始客
_1_Flume_ClientConfig/Flume/FlumeClient/flume/conf/plugin.conf文件,定义具体调用的脚本、相关参数。 配置如下: RUN_PLUGIN="PLUGIN_LIST_1" LOG_TO_HDFS_PATH="/yxs" LO
在实例列表单击上述创建的Prometheus实例名称,单击“设置”,查看并保存如下参数值。 表2 Prometheus实例信息 类别 参数 示例 调用凭证 AppSecret 0000000100000001070C6Axxx0E2EF73 服务地址 “内网”中“Remote Write
xml”中(例如“客户端安装路径/HDFS/hadoop/etc/hadoop/”)配置如下参数。 表1 参数描述 参数 描述 默认值 io.compression.codecs 为了使LZC压缩格式生效,在现有的压缩格式列表中增加如下值: “com.huawei.hadoop.datasight.io.compress
包年/包月 包年/包月是一种先付费再使用的计费模式,适用于对资源需求稳定且希望降低成本的用户。本文将介绍包年/包月MRS集群资源的计费规则。 适用场景 包年/包月计费模式需要用户预先支付一定时长的费用,适用于长期、稳定的业务需求。 以下是一些适用于包年/包月计费模式的业务场景: 用户基于业务需求可预估资源使用周期。
xml”中(例如“客户端安装路径/HDFS/hadoop/etc/hadoop/”)配置如下参数。 表1 参数描述 参数 描述 默认值 io.compression.codecs 为了使LZC压缩格式生效,在现有的压缩格式列表中增加如下值: “com.huawei.hadoop.datasight.io.compress
Config/batch_upgrade”。 选择“集群 > 客户端管理”,进入客户端管理界面,单击“导出全部”,将所选的客户端信息导出到本地。 解压导出的客户端信息,将client-info.cfg文件上传到客户端解压目录的batch_upgrade目录下。 参考以下操作,补全“client-info
方法如下: 方法1:使用HBase shell客户端,在客户端手动执行major_compact操作。 方法2:编写HBase客户端代码,调用HBaseAdmin类中的compact方法触发HBase的compaction动作。 如果compact无法解决HBase端口占用现象,
组件业务用户 代码认证: 通过获取客户端的principal和keytab文件在应用程序中进行认证。 MapReduce的安全认证代码 目前使用统一调用LoginUtil类进行安全认证。 在MapReduce样例工程的“com.huawei.bigdata.mapreduce.exampl
kinit 组件业务用户 代码认证 通过获取客户端的principal和keytab文件在应用程序中进行认证。 安全认证代码 目前是统一调用LoginUtil类进行安全认证。 在MapReduce样例工程代码中,test@HADOOP.COM、user.keytab和krb5.
停止当前应用,保证服务端句柄不再疯狂增加影响服务正常运行。 优化应用代码,解决句柄泄露问题。 建议:全局尽量使用一个Producer对象,在使用完成之后主动调用close接口进行句柄关闭。 父主题: 使用Kafka
MemStore阶段的Region重新创建。 再创建该表时,将temp目录复制到HBase数据目录时,由于HBase数据目录不为空,导致调用HDFS rename接口时,数据目录变为temp目录最后一层追加到HBase的数据目录下,如$rootDir/data/$nameSpa
建议Scan时指定StartRow和StopRow,一个有确切范围的Scan,性能会更好些。 可以设置Batch和Caching关键参数。 Batch 使用Scan调用next接口每次最大返回的记录数,与一次读取的列数有关。 Caching RPC请求返回next记录的最大数量,该参数与一次RPC获取的行数有关。
方法如下: 方法1:使用HBase shell客户端,在客户端手动执行major_compact操作。 方法2:编写HBase客户端代码,调用HBaseAdmin类中的compact方法触发HBase的compaction动作。 如果compact无法解决HBase端口占用现象,
com/huaweicloud/huaweicloud-mrs-example,切换分支为与MRS集群相匹配的版本分支,然后下载压缩包到本地后解压,即可获取各组件对应的样例代码工程。 当前MRS提供以下IoTDB相关样例工程: 表1 IoTDB相关样例工程 样例工程位置 描述
Content-Length: 0 根据获取的Location地址信息,可在HDFS文件系统上创建“/huawei/testHdfs”文件,并将本地“testFile”中的内容上传至“testHdfs”文件。 执行如下命令访问HTTP: linux1:/opt/client # curl
contexts: Client,KafkaClient Security Cookie 认证 - 在Flink客户端的“bin”目录下,调用“generate_keystore.sh”脚本,生成“Security Cookie”、“flink.keystore”文件和“flink