检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper”,单击“资源”,在精细化监控“资源使用(按二级Znode)”中,单击“按容量”查看顶级Znode目录是否被写入较多数据。 是,记录被写入较多数据的目录,执行3。 否,执行5。 确认被写入较多数据的目录中数据是否可以进行删除。
FROM Orders WHERE id = 10 WITH语句 WITH子句提供了一种用于更大查询而编写辅助语句的方法。这些语句通常被称为公用表表达式,表达式可以理解为仅针对某个查询而存在的临时视图。 语法: WITH <with_item_definition> [ , ..
如果告警原因是“提交任务失败”,则查看“附加信息”中的错误细节信息,同时到Loader界面查看该任务的历史执行记录。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 重新提交任务。 查看任务是否成功执行。
拷贝数据功能。 操作步骤 登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行distcp命令的用户所属的用户组必须为supergroup组,且执行以
以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令进入Kafka客户端的bin目录。
以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env命令设置环境变量。 如果集群采用安全版本,要进行安全认证。 执行kinit hdfs命令,按提示输入密码(向MRS集群管理员获取密码)。 执行如下命令,检
SparkLauncher的方式依赖Spark客户端,即运行程序的节点必须已安装Spark客户端,且客户端可用。运行过程中依赖客户端已配置好的环境变量、运行依赖包和配置文件, 在Spark应用程序运行节点,执行如下命令使用SparkLauncher方式提交。 java -cp $SPAR
Manager主机管理界面查看。 是,执行5。 否,执行3。 修复网络连接,然后重新配置SFTP服务端密码,单击“确定”,重新下发一次配置。 2分钟后,查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行5。 检查用户名、密码和转储目录是否正确。 查看转储配置页面中当前的第三
MinHash用于估计两个集合的Jaccard相似系数。它通常用于数据挖掘,用于大规模检测近乎相同的网页。通过使用这些信息,搜索引擎有效地避免了在搜索结果中显示两个几乎相同的网页。 以下示例展示了如何使用Set Digest函数来简单估计文本之间的相似性。通过使用函数ngrams()将输入文
迁移任务执行过程中,可单击“取消”取消正在执行的迁移任务,若取消任务,则会回退掉迁入节点上已迁移的数据。 可以单击“更多 > 详情”查看迁移过程中的日志信息。 迁移完成后,选择“更多 > 结果”查看迁移结果;选择“更多 > 删除”清理ZooKeeper以及迁出节点上该迁移任务相关的目录。 父主题: ClickHouse运维管理
64 否 max_result_rows 限制返回结果行数,默认为0不限制。 0 100000 否 distributed_product_mode 默认SQL中的子查询不允许使用分布式表,修改为local表示将子查询中对分布式表的查询转换为对应的本地表。 deny 根据场景定: d
的形式指示YARN。 下面使用HTTP作为URL的一部分,并且只有HTTP将得到支持。 Superior Scheduler接口 查询Application 查询scheduler engine中的所有 application。 URL GET http://<SS_REST_SERV
property_value, ...)。 视图可以包含Limit和ORDER BY子句,如果关联视图的查询语句也包含了这类子句,则最后执行结果将根据视图的子句运算后得到。例如视图V指定了返回5条数据,而关联查询为select * from V limit 10,则最终只有5条数据返回。 限制 以上两种语法不可混用。
符拼接后,赋给“输出字段名”。 当有字段的值为null时,会转化为空字符串,再与其他字段值拼接。 样例 通过“CSV文件输入”算子,生成三个字段A、B和C。 源文件如下图: 配置“拼接转换”算子,“分隔符”为空格,生成新字段D: 转换后,依次输出A、B、C和D,结果如下: 父主题:
PLAINTEXT_PASSWORD BY 'password'; 给用户赋予指定数据库的查询权限: grant select on default.* to user_01 on cluster default_cluster; 查询用户权限: select * from system.grants
操作。删除外部表时,只删除掉元数据。 根据已有表创建新表,使用CREATE LIKE句式,完全复制原有的表结构,包括表的存储格式。 根据查询结果创建新表,使用CREATE AS SELECT句式。 这种方式比较灵活,可以在复制原表表结构的同时指定要复制哪些字段,不包括表的存储格式。
本端域” 查看;主机名为hadoop,服务名为hive。 conf = {"krb_host":"hadoop.<系统域名>", "krb_service":"hive"} 创建连接,执行HQL,样例代码中仅执行查询所有表功能,可根据实际情况修改HQL内容,输出查询的列名和结果到控制台。
println("Inserted " + numRows + " rows"); 示例代码中,numRows是要写入的记录条数;需要特别注意写入请求的响应结果。 父主题: 开发Kudu应用
println("Inserted " + numRows + " rows"); 示例代码中,numRows是要写入的记录条数;需要特别注意写入请求的响应结果。 父主题: 开发Kudu应用
DBCServer。 客户端发送SQL语句给ProxyServer,ProxyServer将语句转交给真正连上的JDBCServer处理。最后JDBCServer服务将结果返回给ProxyServer,ProxyServer再将结果返回给客户端。 在HA方案中,每个ProxySe