检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 参数解释: 作业ID。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 create_at Long 参数解释: 作业创建时间,十三位时间戳。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 update_at Long 参数解释: 作业更新时间,十三位时间戳。
14003 重要 说明: MRS 3.1.5版本告警级别为“紧急”。 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 NameService名 产生告警的NameService名称。
告警属性 告警ID 告警级别 是否自动清除 14001 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 NameService名 产生告警的NameService名称。
UNION ALL的查询将读取基础数据三次。这就是当数据源不具有确定性时,使用UNION ALL的查询可能会产生不一致的结果的原因。 --创建一个航运表 create table shipping(origin_state varchar(25),origin_zip integer
python样例代码调测。 HBase支持使用自带的ThriftServer2服务通过python来访问HBase服务。python样例仅支持在Linux环境中运行,调测HBase python样例程序需有与集群环境网络相通的ECS,详情请参见准备本地应用开发环境,并需要安装python环境,安
" --query="INSERT INTO testdb.csv_table FORMAT CSV" < /opt/data 数据表需提前创建好。 CSV格式数据导出 导出数据为CSV格式的文件,可能存在CSV注入的安全风险,请谨慎使用。 clickhouse client --host
HBase/hbase/conf/hbase-site.xml”文件中“hbase.fs.tmp.dir”参数所配置的HBase临时目录中创建partition文件。因此客户端(kerberos用户)应该在指定的临时目录上具有rwx的权限来执行ImportTsv操作。“hbase
<Kafka集群IP:21007>--command-config config/client.properties --topic <Topic名称> 创建Topic,由管理员用户操作。 shkafka-topics.sh --create --zookeeper <ZooKeeper集群IP:2181/kafka>
<Kafka集群IP:21007>--command-config config/client.properties --topic <Topic名称> 创建Topic,由管理员用户操作。 shkafka-topics.sh --create --zookeeper <ZooKeeper集群IP:2181/kafka>
<Kafka集群IP:21007>--command-config config/client.properties --topic <Topic名称> 创建Topic,由管理员用户操作。 bin/kafka-topics.sh --create --zookeeper <ZooKeeper集群IP:2181/kafka>
<Kafka集群IP:21007>--command-config config/client.properties --topic <Topic名称> 创建Topic,由管理员用户操作。 bin/kafka-topics.sh --create --zookeeper <ZooKeeper集群IP:2181/kafka>
在“配置资源权限”选择“待操作的集群 > Doris”,勾选“Doris管理员权限”,单击“确定”。 选择“用户 > 添加用户”,在新增用户界面,创建一个人机用户,例如developuser,并绑定2新建的角色。 使用developuser用户重新登录FusionInsight Manager,修改该用户初始密码。
如何获取Spark Jar包? 华为提供开源镜像站(网址为https://mirrors.huaweicloud.com/),各服务样例工程依赖的jar包都可在华为开源镜像站下载,剩余所依赖的开源jar包请直接从Maven中央库或者其他用户自定义的仓库地址下载。 本地环境使用开发
安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全模式下,“机机”用户需要下载keytab文件。“人机”用户第一次登录时需修改密码。 使用Oozie客户端 以客户端安装用户,登录安装客户端的节点。
skip_bootstrap_scripts 否 Boolean 参数解释: 扩容时是否在新增节点上跳过执行创建集群时指定的引导操作。 约束限制: 不涉及 取值范围: true:跳过执行创建集群时指定的引导操作。 false:不跳过执行创建集群时指定的引导操作。 默认取值: true scale_without_start
安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全模式下,“机机”用户需要下载keytab文件。“人机”用户第一次登录时需修改密码。 使用Oozie客户端 以客户端安装用户,登录安装客户端的节点。
UI两种方式对运行中的拓扑日志进行动态修改。 性能提升:与之前的版本相比,Storm的性能得到了显著提升。虽然,拓扑的性能和用例场景及外部服务的依赖有很大的关系,但是对于大多数场景来说,性能可以提升3倍。 父主题: Storm
postinstall.log 服务安装日志。 prestart.log prestart脚本日志。 start.log 启动日志。 FlinkServer服务日志、审计日志和HA相关日志。 FlinkServer服务日志、审计日志和HA相关日志默认100MB滚动存储一次,服务日志最多保留30天,审计日志最多保留90天。
ClickHouse逻辑集群名称,保持默认值。 databaseName testdb 样例代码工程中需要创建的数据库名称,可以根据实际情况修改。 tableName testtb 样例代码工程中需要创建的表名称,可以根据实际情况修改。 batchRows 10000 一个批次写入数据的条数。 batchNum
{用于认证的业务用户} 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /data(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -put data /data,上传数据文件。 在样例代码中配置相关参数。