检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
* 步骤如下: * 打包成Jar包,然后在客户端命令行上面进行提交 * 远程提交的时候,要先将该应用程序和其他外部依赖(非excemple工程提供,用户自己程序依赖)的jar包打包成一个大的jar包 * 再通过storm客户端中storm
组件审计日志转储失败时,如果组件本地老化这部分审计日志,审计日志将无法找回,影响分析排查组件的业务行为。 可能原因 服务审计日志过大。 OMS备份路径存储空间不足。 服务所在某一个主机的存储空间不足。 处理步骤 检查是否服务审计日志过大。 打开FusionInsight Manager页面,在告警列表中,单击
单击root,进入存储组资源类型,在对应的存储组权限上勾选“读”,表示在该存储组递归的所有路径上的时间序列,具有读取数据的权限。 单击指定的存储组,进入时间序列资源类型,在对应的时间序列权限上勾选“读”,则表示具有向该时间序列读取数据的权限。 设置用户删除时间序列的权限 在“配置资源权限”的表格中选择“待操作集群的名称
Manager登录地址及admin账号。 操作步骤 使用omm用户登录到主OMS节点,备份$NODE_AGENT_HOME/bin/nodeagent_ctl.sh文件。 cp $NODE_AGENT_HOME/bin/nodeagent_ctl.sh /tmp 执行命令vi $NODE_AGENT_HO
权限。HetuEngine中还包含拥有者权限“OWNERSHIP”和集群管理员权限“ADMIN”。 数据文件权限,即HDFS文件权限 HetuEngine的数据库、表对应的文件保存在HDFS中。默认创建的数据库或表保存在HDFS目录“/user/hive/warehouse”。系
开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。 X86客户端:Oracle JDK支持1.8版本;IBM JDK支持1.8.5.11版本。 TaiShan客户端:OpenJDK:支持1
开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。 X86客户端:Oracle JDK,支持1.8版本;IBM JDK,支持1.8.5.11版本。 TaiShan客户端:OpenJDK,支持1
开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。 X86客户端:Oracle JDK:支持1.8版本;IBM JDK:支持1.8.5.11版本。 TaiShan客户端:OpenJDK:支持1
),如图1所示。使用IoTDB存储并管理这些数据的业务操作流程为: 创建存储组“root.集团名称”以表示该集团。 创建时间序列,用于存储具体设备传感器对应的指标数据。 模拟传感器,录入指标数据。 使用SQL查询指标数据信息。 业务结束后,删除存储的数据。 图1 数据结构 操作步骤
代码样例 用户在开发前需要使用对接安全模式的Kafka,则需要引入FusionInsight的kafka-clients-*.jar,该jar包可在Kafka客户端目录下获取。下面列出producer和consumer,以及Flink Stream SQL Join使用主要逻辑代码作为演示。
* 步骤如下: * 打包成Jar包,然后在客户端命令行上面进行提交 * 远程提交的时候,要先将该应用程序和其他外部依赖(非excemple工程提供,用户自己程序依赖)的jar包打包成一个大的jar包 * 再通过storm客户端中storm
监测实时数据量,单位:字节(由于空间放大,通常小于SST文件大小) state.backend.rocksdb.metrics.total-sst-files-size true 监测所有版本的SST文件的总大小,单位:字节。文件太多,可能会降低查询的速度 state.backend
kerberos.keytab=<keytab文件路径>--conf spark.kerberos.principal=<Principal账号> 执行bin/spark-submit的命令中添加如下参数来指定认证信息。 --keytab<keytab文件路径>--principal<Principal账号>
kerberos.keytab=<keytab文件路径> --conf spark.kerberos.principal=<Principal账号> 执行bin/spark-submit的命令中添加如下参数来指定认证信息。 --keytab <keytab文件路径> --principal <Principal账号>
2.0及以后版本。 HetuEngine自适应查询介绍 一般来说,大任务的SQL语句(例如在从整个表中扫描大量数据的情况)会占用大量的资源,在资源紧张的情况下,会影响其他任务的负载。这不仅导致用户体验不佳,也会提高运维成本。为了解决上述问题,HetuEngine提供了自适应查询执
扩容MRS集群 MRS的扩容不论在存储还是计算能力上,都可以简单地通过增加Core节点或者Task节点来完成,不需要修改系统架构,降低运维成本。集群Core节点不仅可以处理数据,也可以存储数据。可以在集群中添加Core节点,通过增加节点数量处理峰值负载。集群Task节点主要用于处理数据,不存放持久数据。
elete数据,可以是一行数据也可以是数据集。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testDelete方法中 public void testDelete() { LOG.info("Entering
二级索引不支持修改,如果需要修改,请先删除旧的然后重新创建。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的createIndex方法中。 public void createIndex() { LOG.info("Entering
二级索引不支持修改,如果需要修改,请先删除旧的然后重新创建。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的createIndex方法中。 public void createIndex() { LOG.info("Entering
代码样例 用户在开发前需要使用对接安全模式的Kafka,则需要引入FusionInsight的kafka-clients-*.jar,该jar包可在Kafka客户端目录下获取。 下面列出producer和consumer,以及Flink Stream SQL Join使用主要逻辑代码作为演示。