检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用Hue提交Oozie SSH作业 使用Hue提交Coordinator定时调度作业 使用Hue提交Bundle批处理作业 在Hue界面中查询Oozie作业结果 配置Oozie节点间用户互信 父主题: 使用Oozie
administrator”角色,主组为“hive”。 使用1创建的用户登录FusionInsight Manager(首次登录需要修改密码),选择“集群 > 服务 > Hue”,单击“Hue WebUI”右侧的链接,进入Hue WebUI界面。 在界面左侧导航栏单击 ,选择“W
administrator”角色,主组为“hive”。 使用1创建的用户登录FusionInsight Manager(首次登录需要修改密码),选择“集群 > 服务 > Hue”,单击“Hue WebUI”右侧的链接,进入Hue WebUI界面。 在界面左侧导航栏单击 ,选择“W
6 data points in 0.012s (504.0 points/s) 扫描OpenTSDB的指标数据 tsdb命令可以使用“tsdb query”命令批量查询导入的指标数据,例如执行tsdb query 0 1h-ago sum sys.cpu.user host=web01命令。
ckpoint,则需要对应用中的DStream checkpoint对象进行序列化,序列化时会用到dstream.context。 dstream.context是Streaming Context启动时从output Streams反向查找所依赖的DStream,逐个设置context。如果Spark
ckpoint,则需要对应用中的DStream checkpoint对象进行序列化,序列化时会用到dstream.context。 dstream.context是Streaming Context启动时从output Streams反向查找所依赖的DStream,逐个设置context。若Spark
Python3样例工程章节,获取样例代码,获取hetu-jdbc-XXX.jar文件,并复制到自定义目录中。 参考通过HSFabric的KeyTab认证实现查询HetuEngine SQL任务章节,获取“user.keytab”和“krb5.conf”文件,并放置到自定义目录中。 编辑样
使用root登录客户端安装节点,执行如下命令: cd 客户端安装目录 执行以下命令环境变量并认证用户: source bigdata_env kinit 创建的业务用户(未开启Kerberos认证的用户请跳过该操作) 将以下参数添加到“Spark/spark/conf/spark-defaults.conf”文件中并保存:
说明 set <key>=<value> 设置特定配置变量(键)的值。 说明: 若变量名拼错,Beeline不会显示错误。 set 打印由用户或Hive覆盖的配置变量列表。 set -v 打印Hadoop和Hive的所有配置变量。 add FILE[S] <filepath> <filepath>*