检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
准备HDFS应用开发环境 准备本地应用开发环境 准备HDFS应用开发用户 准备Eclipse与JDK 准备HDFS应用运行环境 导入并配置HDFS样例工程 父主题: HDFS开发指南
准备Spark应用开发环境 准备本地应用开发环境 导入并配置Spark样例工程 新建Spark样例工程(可选) 配置Spark Python3样例工程 父主题: Spark2x开发指南(普通模式)
} if (connection != null) { try { //关闭Hbase连接. connection.close() } catch { case e: IOException
} if (connection != null) { try { //关闭Hbase连接. connection.close() } catch { case e: IOException
调测IoTDB应用 在本地Windows环境中调测IoTDB应用 在Linux中调测JDBC或Session应用 在Flink WebUI和Linux中调测Flink应用 在Linux环境中调测Kafka应用 在IoTDBServer节点调测UDF应用 父主题: IoTDB开发指南(普通模式)
卸载UDF 语法 DROP FUNCTION <UDF-NAME> 示例 在IoTDB客户端执行以下命令,卸载名称为“example”的UDF。 DROP FUNCTION example 父主题: 在IoTDBServer节点调测UDF应用
卸载UDF 语法 DROP FUNCTION <UDF-NAME> 示例 在IoTDB客户端执行以下命令,卸载名称为“example”的UDF。 DROP FUNCTION example 父主题: 在IoTDBServer节点调测UDF应用
defaultFS)? 答: 当前不建议在服务端修改或者新增集群内HDFS NameSpace(fs.defaultFS),如果只是为了客户端更好的识别,则一般可以通过修改客户端内“core-site.xml”,“hdfs-site.xml”两个文件的相关参数进行实现。 父主题: 组件配置类
这种情况是由于磁盘存在IO错误,处理方法如下: 方法一:登录FusionInsight Manager页面,检查Manager界面上是否磁盘IO异常的告警,如果有,可参考对应的告警帮助文档,通过更换硬盘恢复。 方法二:登录FusionInsight Manager页面,重启ClickHouse实例,恢复磁盘状态。
这种情况是由于磁盘存在IO错误,处理方法如下: 方法一:登录FusionInsight Manager页面,检查Manager界面上是否磁盘IO异常的告警,如果有,可参考对应的告警帮助文档,通过更换硬盘恢复。 方法二:登录FusionInsight Manager页面,重启ClickHouse实例,恢复磁盘状态。
准备Spark应用开发环境 准备Spark本地应用开发环境 配置Spark应用安全认证 导入并配置Spark样例工程 新建Spark样例工程(可选) 配置Spark Python3样例工程 父主题: Spark2x开发指南(安全模式)
Hive”,勾选“Hive管理员权限”。 说明: 用户绑定Hive管理员角色后,在每个维护操作会话中,还需要执行以下操作: 以客户端安装用户,登录安装Hive客户端的节点。 执行以下命令配置环境变量。 例如,Hive客户端安装目录为“/opt/hiveclient”,执行source /opt/hiveclient/bigdata_env
恢复目录的类型。 表1 恢复数据 路径类型 参数说明 LocalDir 表示从主管理节点的本地磁盘上恢复数据。 选择此参数值,还需要配置: “源端路径”:表示要恢复的备份文件,具体需要登录主OMS所在节点,进入2复制的备份路径,记录元数据压缩包名,例如,“备份任务名_数据源_任务执行时间
调测IoTDB应用 在本地Windows环境中调测IoTDB应用 在Linux环境中调测JDBC或Session应用 在Flink WebUI和Linux环境中调测Flink应用 在Linux环境中调测Kafka应用 在IoTDBServer节点调测UDF应用 父主题: IoTDB开发指南(安全模式)
告警的主机地址。 以root用户登录主管理节点,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 如果当前故障节点为主管理节点,当登录主管理节点时无法登录,则说明可能为主管理节点网络故障,请执行4。
查看MRS组件角色实例日志 在线检索MRS集群日志 下载MRS集群日志 采集MRS集群服务堆栈信息 配置MRS组件默认日志级别与归档文件大小 配置MRS集群审计日志本地备份数 配置MRS集群审计日志转储 父主题: MRS集群运维
hadoop-<SSH_USER>-jhshadaemon-<hostname>.log 守护进程(Daemon)的运行日志。 hadoop-<SSH_USER>-<process_name>-<hostname>.out MR运行环境信息日志。 historyserver-<SSH_USER>-<DATE>-<PID>-gc
hadoop-<SSH_USER>-jhshadaemon-<hostname>.log 守护进程(Daemon)的运行日志。 hadoop-<SSH_USER>-<process_name>-<hostname>.out MR运行环境信息日志。 historyserver-<SSH_USER>-<DATE>-<PID>-gc
JDBC样例代码,需要使用公网访问Presto。 问题分析 登录MRS Manager上查看Presto全部配置,Coordinator角色配置: PRESTO_COORDINATOR_FLOAT_IP = 内网IP地址 登录Coordinator角色所在主实例节点确认该地址为网卡:eth0:PRESTO。
如需对Presto的操作进行权限控制,开启Kerberos认证的集群配置用户名“omm”、“hive”和登录客户端的用户名,未开启Kerberos认证的集群配置用户名“omm”和登录客户端的用户名。 如需使用Hive在beeline模式下创建表时,配置内置用户“hive”。 单击“确定”。