检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SparkSQL的权限管理是指SparkSQL中管理用户操作数据库的权限系统,以保证不同用户之间操作数据库的独立性和安全性。如果一个用户想操作另一个用户的表、数据库等,需要获取相应的权限才能进行操作,否则会被拒绝。 SparkSQL权限管理部分集成了Hive权限管理的功能。使用SparkSQL权限管理功能需要使用
进入“/tmp/logs/执行用户名/bucket-logs-tfile/任务ID/Flink任务ID”目录,将该目录下文件全部下载到本地。 图6 获取作业日志文件 在2.c下载的文件中搜索“root.sg.d1”,如下图显示则表示数据从IoTDB中读取成功。 图7 读取IoTDB数据成功
<kafkaService> <kafkaDomain> <topic> <checkpointLocation>,其中<brokers>指获取元数据的Kafka地址(需使用21007端口),<subscribe-type> 指定kakfa的消费方式,<kafkaProtocol>
该任务以Derby数据库为例。Derby是一个小型的,java编写的,易于使用却适合大多数应用程序的开放源码数据库。 Derby数据库的获取。在官网下载最新版的Derby数据库(本示例使用10.14.1.0),通过WinScp等工具传入Linux客户端,并解压。 在Derby的
<kafkaService> <kafkaDomain> <topic> <checkpointLocation>,其中<brokers>指获取元数据的Kafka地址(需使用21007端口),<subscribe-type> 指定kakfa的消费方式,<kafkaProtocol>
bigdata_env命令设置环境变量。 如果集群采用安全版本,要进行安全认证。 执行kinit hdfs命令,按提示输入密码。向MRS集群管理员获取密码。 执行hdfs dfs -ls 文件或目录路径命令,检查该目录下的文件或目录是否是可以删除的无用文件。 是,执行8。 否,执行9。 执行hdfs
一组指标值的给定任务。 /jobs/<jobid>/vertices/<vertexid>/subtasks/accumulators 获取流图顶点的所有子任务的所有用户定义的累加器。 这些是通过请求“/ jobs / <jobid> / vertices / <vertexid>
一组指标值的给定任务。 /jobs/<jobid>/vertices/<vertexid>/subtasks/accumulators 获取流图顶点的所有子任务的所有用户定义的累加器。 这些是通过请求“/ jobs / <jobid> / vertices / <vertexid>
source bigdata_env 如果集群采用安全版本,要进行安全认证。执行kinit hbase命令,按提示输入密码(向MRS集群管理员获取密码)。 执行以下命令进入hbase shell,查看目前负载均衡功能是否打开: hbase shell balancer_enabled
er/etc/iotdb-datanode.properties”中搜索“iotdb_server_kerberos_principal”获取。 /** * Get kerberos token as password * @return kerberos
<checkpointDir>。<checkpointDir>指checkpoint文件存放路径。 <kafkaBootstrapServers>指获取元数据的Kafka地址。 <maxEventDelay>指数据从生成到被流处理引擎的最大延迟时间。 <reqTopic>指请求事件的topic名称。
<maxClickDelay> <triggerInterver> <checkpointDir>。 <kafkaBootstrapServers>指获取元数据的Kafka地址。 <maxEventDelay>指数据从生成到被流处理引擎的最大延迟时间。 <reqTopic>指请求事件的topic名称。
一组指标值的给定任务。 /jobs/<jobid>/vertices/<vertexid>/subtasks/accumulators 获取流图顶点的所有子任务的所有用户定义的累加器。 这些是通过请求“/ jobs / <jobid> / vertices / <vertexid>
hdfs-clean-acls-java.log HDFS清除已删除角色的ACL信息的日志。 hdfs-haCheck.log NameNode主备状态获取脚本运行日志。 <process_name>-jvmpause.log 进程运行中,记录JVM停顿的日志。 hadoop-<SSH_USE
如果当前组件使用了Ranger进行权限控制,须基于Ranger配置相关策略进行权限管理,具体操作可参考添加Hive的Ranger访问权限策略。 前提条件 获取一个拥有管理员权限的用户,例如“admin”。 请参考创建Hive角色,在Manager界面创建一个角色,例如“hrole”,不需要设置H
g.tar.sha256 FusionInsight_Cluster_1_Services_ClientConfig.tar: OK 解压获取的安装文件。 tar -xvf FusionInsight_Cluster_1_Services_ClientConfig.tar 进入安
配置参数 开源默认端口 定制默认端口 端口说明 port 9092 21005 Broker提供数据接收、获取服务 ssl.port 9093 21008 Broker提供数据接收、获取服务的SSL端口 sasl.port 21007 21007 Broker提供SASL安全认证端口,提供安全Kafka服务
sys 0m0.696s 第一次读取数据后会将数据放在内存中,Alluxio再次读取时可以提高访问该数据的速度。例如:在通过cat命令获取文件后,用ls命令再查看文件的状态。 alluxio fs ls /mnt/obs/test_data.csv 294520189
hdfs-clean-acls-java.log HDFS清除已删除角色的ACL信息的日志。 hdfs-haCheck.log NameNode主备状态获取脚本运行日志。 <process_name>-jvmpause.log 进程运行中,记录JVM停顿的日志。 hadoop-<SSH_USE
一组指标值的给定任务。 /jobs/<jobid>/vertices/<vertexid>/subtasks/accumulators 获取流图顶点的所有子任务的所有用户定义的累加器。 这些是通过请求“/ jobs / <jobid> / vertices / <vertexid>