检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
apache.hadoop.mapreduce.Job - Job job_1468241424339_0002 completed successfully 58908 [main] INFO org.apache.hadoop.mapreduce.Job - Counters:
return; // } LOG.info("Security prepare success."); } // 是否使用异步发送模式 final boolean
storeKey=true debug=true; }; 参数keyTab和principal根据实际情况修改。 从/opt/FusionInsight_Cluster_<集群ID>_Flume_ClientConfig/Flume/config目录下获取core-site.xml和hdfs-site
/opt/client/HetuEngine/hetuserver/jars/hetu-cli-*-executable.jar --catalog hive --deployment-mode on_yarn --server https://10.112.17.189:24002,10.112.17.228:24002
apache.hadoop.mapreduce.Job - Job job_1468241424339_0002 completed successfully 58908 [main] INFO org.apache.hadoop.mapreduce.Job - Counters:
return; // } LOG.info("Security prepare success."); } // 是否使用异步发送模式 final boolean
storeKey=true debug=true; }; 参数keyTab和principal根据实际情况修改。 从/opt/FusionInsight_Cluster_<集群ID>_Flume_ClientConfig/Flume/config目录下获取core-site.xml和hdfs-site
appName, [SparkHome], [jars]) 参数介绍: master:连接字符串,连接方式有local、yarn-cluster、yarn-client等。 appName:构建的Application名称。 SparkHome:集群中安装Spark的目录。 jars:应用程序代码和依赖包。
appName, [SparkHome], [jars]) 参数介绍: master:连接字符串,连接方式有local、yarn-cluster、yarn-client等。 appName:构建的Application名称。 SparkHome:集群中安装Spark的目录。 jars:应用程序代码和依赖包。
appName, [SparkHome], [jars]) 参数介绍: master:连接字符串,连接方式有local、yarn-cluster、yarn-client等。 appName:构建的Application名称。 SparkHome:集群中安装Spark的目录。 jars:应用程序代码和依赖包。
使用Grafana对接IoTDB数据库 应用场景 IoTDB(物联网数据库)是一体化收集、存储、管理与分析物联网时序数据的软件系统。 IoTDB支持对接Grafana,对接成功后,即可通过Grafana丰富的图形报表展示能力,对IoTDB中的时序数据进行图形化展示,以分析时序数据的变化趋势等信息。
web是否使用SSL加密传输,仅在全局开关security.ssl开启时有。 false 是 jobmanager.web.accesslog.enable web操作日志使能开关,日志会存放在webaccess.log中。 true 是 jobmanager.web.x-frame-options htt
Out”退出当前用户,使用rangeradmin用户重新登录Ranger管理界面。 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。 在“Access”页签单击“Add New Policy”,配置以下参数并单击“Add”: Policy Name:设置策略名称,例如:test_hive。
bond0 否,如下所示,则该节点未配置bond模式,执行14。 # ls -l /proc/net/bonding/ ls: cannot access /proc/net/bonding/: No such file or directory 执行cat /proc/net/bond
理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。 在“Access”页签单击“Add New Policy”,添加Spark2x权限控制策略。 根据业务需求配置相关参数。 表1 Spark2x权限参数
client Use the username and password authentication mode Authentication success. Sqoop Shell: Type 'help' or '\h' for help. sqoop:000> 进入批量模式命令 进入批量模式有两种方式:
委托类型:选择“云服务”。 云服务:选择“弹性云服务器 ECS 裸金属服务器 BMS”。 持续时间:选择“永久”。 图4 创建委托 在弹出授权页面的搜索框内,搜索“OBS OperateAccess”策略,并勾选“OBS OperateAccess”策略。 单击“下一步”,在“选择权限范围方案”中选择“全局服务资源”,单击“确定”。
理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。 在“Access”页签单击“Add New Policy”,添加Spark2x权限控制策略。 根据业务需求配置相关参数。 表1 Spark2x权限参数
Out”退出当前用户,使用rangeradmin用户重新登录Ranger管理界面。 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。 在“Access”页签单击“Add New Policy”,配置以下参数并单击“Add”: Policy Name:设置策略名称,例如:test_hive。
New Policy”,添加CDL权限控制策略。 根据业务需求配置相关参数。 表1 CDL权限参数 参数名称 描述 Policy Type Access。 Policy Conditions IP过滤策略,可自定义,配置当前策略适用的主机节点,可填写一个或多个IP或IP段,并且IP填写支持“*”通配符,例如:192