检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
* 查询信息 * @param 查询信息所在的topic *@recordId 查询信息的ID */ RegisterRecord query(String topic, int recordId) throws Exception; /** * 查询某个Topic是否存在
实例IP地址:MySQL数据库实例端口', 'MySQL数据库名', 'MySQL数据库用户名', 'MySQL数据库用户名密码'); 切换到新建的数据库mysql_db,并查询表数据。 USE mysql_db; 在ClickHouse中查询MySQL数据库表数据。 SELECT
IoTDB > 实例”,查看待连接的IoTDBServer所在的节点IP。 RPC端口可通过登录FusionInsight Manager,选择“集群 > 服务 > IoTDB > 配置 > 全部配置”,搜索参数“IOTDB_SERVER_RPC_PORT”获得。 安全模式下,登
xml”,配置方式参考使用Hue提交Oozie Hive2作业。 单击Oozie编辑器右上角的。 保存完成后,单击,提交该作业。 作业提交后,可通过Hue界面查看作业的详细信息、日志、进度等相关内容。 父主题: 使用Hue提交Oozie作业
jdbc.SimpleJDBCTopology jdbc-test 结果查看 当拓扑提交完成后,用户可以去数据库中查看对应表中是否有数据插入,具体过程如下: 执行SQL语句select * from goal; 查询“goal”表中的数据,如果goal表中有数据添加,则表明整个拓扑运行成功。
query”。 查看历史: 单击“Query History”,可查看HiveQL运行情况,支持显示所有语句或只显示保存的语句的运行情况。历史记录存在多个结果时,可以在输入框使用关键字进行搜索。 高级查询配置: 单击右上角的,对文件、函数、设置等信息进行配置。 查看快捷键: 单击右上角的,可查看所有快捷键信息。
使用HDFS 修改RPC端口后HDFS NameNode实例都变为备状态 通过公网IP连接使用HDFS客户端报错 使用Python远程连接HDFS的端口失败 HDFS容量达到100%导致上层服务HBase、Spark等不可用 启动HDFS和Yarn服务报错“Permission denied”
单击“查询历史记录”,可查看SparkSql运行情况,支持显示所有语句或只显示保存的语句的运行情况。历史记录存在多个结果时,可以在输入框使用关键字进行搜索。 查看执行结果 在“SparkSql”的执行区,默认显示“查询历史记录”。 单击结果查看已执行语句的执行结果。 管理查询语句 单击“保存的查询”。
starting:查询启动中的集群列表。 running:查询运行中的集群列表。 terminated:查询已删除的集群列表。 failed:查询失败的集群列表。 abnormal:查询异常的集群列表。 terminating:查询删除中的集群列表。 frozen:查询已冻结的集群列表。
> 实例”,进入Storm实例管理页面。 查看是否存在状态为“故障”或者是“正在恢复”的Supervisor实例。 是,执行3。 否,执行5。 勾选状态为“故障”或者“正在恢复”的Supervisor角色实例,选择“更多 > 重启实例”,查看是否重启成功。 是,执行4。 否,执行10。
hdfs-servers</name> <value>hdfs://source_ip:source_port,hdfs://target_ip:target_port</value> </property> </configuration>
访问Spark应用的聚合日志页面报“DNS查找失败”错误 问题 采用http(s)://<spark ip>:<spark port>的方式直接访问Spark JobHistory页面时,如果当前跳转的Spark JobHistory页面不是FusionInsight代理的页面(
参数说明 url jdbc:XXX://HSBroker1_IP:HSBroker1_Port,HSBroker2_IP:HSBroker2_Port,HSBroker3_IP:HSBroker3_Port/catalog/schema?serviceDiscoveryMode=hsbroker
Streaming任务,确认有数据输入后,发现没有任何处理的结果。打开Web界面查看Spark Job执行情况,发现如下图所示:有两个Job一直在等待运行,但一直无法成功运行。 图1 Active Jobs 继续查看已经完成的Job,发现也只有两个,说明Spark Streaming都没有触发数据计算的任务(Spark
单击用户名,在下拉列表中单击“我的凭证”。 在“API凭证”页面的项目列表中查看项目ID。 多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。 图1 查看项目ID 调用API获取项目ID 项目ID可以通过调用查询指定条件下的项目信息API获取。 获取项目ID的接口为“GET ht
在“分配角色权限”中单击“选择并绑定角色”。 绑定Manager_tenant角色,则该账号拥有租户管理的查看权限。 绑定Manager_administrator角色,则该账号拥有租户管理的查看和操作权限。 单击“确定”完成修改。 MRS 3.x及之后版本: 登录FusionInsight
filter-entity-list-by-user 严格视图启用开关,开启后,登录用户只能查看该用户有权限查看的内容。当要开启该功能时,同时需要设置参数“yarn.acl.enable”为true。 true 查看Mapreduce服务配置参数 参考修改集群服务配置参数进入Mapreduce
使用具有Manager界面管理权限的用户登录FusionInsight Manager。 选择“集群 > SQL防御”,打开SQL防御页面。 可以单击“查看所有支持规则”查看当前集群所有支持的SQL防御规则。 单击“添加规则”,验证当前用户密码后,打开添加规则页面。 配置相关参数后,单击“确定”。 参数
检查并修改resources目录下hiveclient.properties文件中“zk.port”和“zk.quorum”参数的值: zk.port:为访问FusionInsight ZooKeeper的端口,通常保持默认,根据实际使用情况修改。 zk.quorum:为访问ZooKeeper
检查并修改resources目录下hiveclient.properties文件中“zk.port”和“zk.quorum”参数的值: zk.port:为访问FusionInsight ZooKeeper的端口,通常保持默认,根据实际使用情况修改。 zk.quorum:为访问ZooKeeper