检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
_1_Services_ClientConfig.tar 执行以下命令进入安装包所在目录,安装客户端: cd FusionInsight_Cluster_1_Services_ClientConfig 执行如下命令安装客户端到指定目录(绝对路径),例如安装到“/opt/client”目录,等待客户端安装完成。
切换到运行目录,执行以下命令,运行Jar包。 java -jar doris-rest-client-example-*.jar 否,执行4。 导出样例项目依赖的jar包。 在IDEA的下方Terminal窗口或其他命令行工具进入“pom.xml”所在目录。执行命令以下命令: mvn de
备份ClickHouse业务数据 操作场景 为了确保ClickHouse日常用户的业务数据安全,或者集群用户需要对ClickHouse进行重大操作(如升级或迁移等),需要对ClickHouse数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。
创建的同名用户A提交作业会失败。 删除用户残留文件夹操作方法为:依次登录MRS集群的Core节点,在每个Core节点上执行如下两条命令,其中如下命令中“$user”为具体的以用户名命名的文件夹。 cd /srv/BigData/hadoop/data1/nm/localdir/usercache/
ALM-45637 FlinkServer作业task持续背压 适用于MRS 3.1.2及之后版本。 告警解释 系统以用户配置的告警周期检查作业Task持续背压时间,如果FlinkServer作业Task持续背压时间达到用户配置的阈值,则发送告警。当作业Task背压恢复或者作业重启成功,则告警恢复。
ALM-45638 FlinkServer作业失败重启次数超阈值 适用于MRS 3.1.2及至3.2.0之间版本。 告警解释 系统以用户配置的告警周期检查FlinkServer作业重启次数,如果重启次数超过用户配置的阈值,则发送告警。当作业重启成功,则告警恢复。 告警属性 告警ID 告警级别
DataNode只有在执行文件操作发生错误时,才会去检查磁盘是否正常,若发现数据损坏,则将此错误上报至NameNode,此时NameNode才会在HDFS Web UI显示数据损坏信息。 当错误修复后,需要重启DataNode。当重启DataNode时,会检查所有数据状态并上传损坏数据信息至Na
restrict.create.grant.external.table”参数用于配置允许有目录读权限和执行权限的用户和用户组创建Hive外部表,而不必检查用户是否为该目录的属主,并且禁止外表的Location目录在当前默认warehouse目录下。同时在外表授权时,禁止更改其Location目录对应的权限。
以omm用户通过管理节点IP登录主管理节点。 执行以下命令,切换到目录。 cd ${BIGDATA_HOME}/om-server/om/meta-0.0.1-SNAPSHOT/kerberos/scripts 执行以下命令,修改LDAP管理账户密码。 ./okerberos_modpwd
_1_Services_ClientConfig.tar 执行以下命令进入安装包所在目录,安装客户端: cd FusionInsight_Cluster_1_Services_ClientConfig 执行如下命令安装客户端到指定目录(绝对路径),例如安装到“/opt/client”目录,等待客户端安装完成。
Topic创建成功后,执行以下命令运行程序。 java -cp /opt/client/lib/*:/opt/client/src/main/resources com.huawei.bigdata.kafka.example.WordCountDemo 重新打开一个客户端连接窗口,执行以下命令,使用“
Topic创建成功后,执行以下命令运行程序。 java -cp /opt/client/lib/*:/opt/client/src/main/resources com.huawei.bigdata.kafka.example.WordCountDemo 重新打开一个客户端连接窗口,执行以下命令,使用“
Topic创建成功后,执行以下命令运行程序。 java -cp /opt/client/lib/*:/opt/client/src/main/resources com.huawei.bigdata.kafka.example.WordCountDemo 重新打开一个客户端连接窗口,执行以下命令,使用“
用,它包含了少量普通用户可以执行的命令,比如jar、logs。而大部分只有管理员有权限使用。 用户可以通过以下命令查看YARN用法和帮助: yarn --help 用法:进入Yarn客户端的任意目录,执行source命令导入环境变量,直接运行命令即可。 格式如下所示: yarn [--config
t目录生成storm-examples-1.0.jar。 执行命令提交拓扑。 keytab方式下,若用户修改了keytab文件名,如修改为“huawei.keytab”,则需要在命令中增加第二个参数进行说明,提交命令示例(拓扑名为hdfs-test): storm jar /op
由于“$SPARK_HOME/jars/streamingClient010/*”默认没有添加到classpath,所以需要手动配置。 在提交应用程序运行时,在命令中添加如下参数即可,详细示例可参考在Linux环境中调测Spark应用。 --jars $SPARK_CLIENT_HOME/jars/s
生的数据将被保存到配置的文件系统中,如FsStateBackend或者RocksDBStateBackend。 触发一个savepoint $ bin/flink savepoint <jobId> [targetDirectory] 以上命令将触发ID为jobId的作业产生一个
生的数据将被保存到配置的文件系统中,如FsStateBackend或者RocksDBStateBackend。 触发一个savepoint $ bin/flink savepoint <jobId> [targetDirectory] 以上命令将触发ID为jobId的作业产生一个
生的数据将被保存到配置的文件系统中,如FsStateBackend或者RocksDBStateBackend。 触发一个savepoint $ bin/flink savepoint <jobId> [targetDirectory] 以上命令将触发ID为jobId的作业产生一个
查看、修改文件属组 查看、设置用户磁盘配额 HDFS管理操作权限: 查看webUI页面状态 查看、设置HDFS主备状态 进入、退出HDFS安全模式 检查HDFS文件系统 登录FTP服务 请参见修改MRS集群组件运行用户密码。 hbase Hbase@123 HBase,HBase1~4系统管理员,用户权限: