检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
有对HBase中“default”namespace下的“test1”表中“cf1:name”列有Create和select的权限,而对于其他列则没有任何的访问权限。 参见快速使用HBase进行离线数据分析更新并登录HBase客户端,验证Ranger是否已经完成集成HBase。
务、健康检查等来指定操作类型查询对应的审计日志。 在“服务”中,用户可选择相应的服务来查询审计日志。 在服务中选择“--”,表示除服务以外其他类型的审计日志。 在“操作结果”中,用户可选择所有、成功、失败和未知来查询审计日志。 单击手动刷新当前页面,也可在修改审计表格显示的列。
待操作集群的名称 > 服务 > HDFS”。 在“基本信息”区域,单击“NameNode(主)”,显示HDFS WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS
组中的testuser用户将对Hive的“test”数据库中的表“table1”的“name”列有Create和select的权限,而对于其他列则没有任何的访问权限。 参见快速使用Hive进行数据分析登录Hive客户端,验证Ranger是否已经完成集成Hive。 以客户端安装用户
from x1 where deviceinformationid='111'; 在执行数据查询操作后,如果查询结果中某一列的结果含有中文字等其他非英文字符,会导致查询结果中的列不能对齐,这是由于不同语言的字符在显示时所占的字宽不尽相同。 执行以下命令退出Spark运行环境。 !quit
访问Loader页面,默认显示Loader作业管理页面。 如果集群启用了Kerberos认证,则默认显示所有当前用户创建的作业,不支持显示其他用户的作业。 如果集群未启用Kerberos认证,则显示集群中全部的作业。 在“Sqoop作业”中输入指定作业的名称或连接类型,可以筛选该作业。
VARCHAR IoTDB数据源功能增强 IoTDB可为时间序列设置任意标签字段,HetuEngine侧查询可将IoTDB的这些标签字段与其他数据源进行融合查询。 IoTDB数据库节点到时间序列中的任意节点,均可作为HetuEngine侧查询的表进行数据查询。 添加IoTDB数据源约束
如需自动扩缩容,将“高级配置”中的“是否开启动态伸缩”开关置于“是”,并参考表1配置参数,开启动态伸缩: 处于“运行中”的计算实例会即时根据设置的动态伸缩参数进行扩缩容;其他状态的计算实例仅保存配置,保存的配置将在计算实例重启时生效。 表1 动态伸缩参数说明 参数 描述 取值样例 负载采集周期 每进行一次实例负载采集间隔的时间。单位:秒。
待操作集群的名称 > 服务 > HDFS”。 在“基本信息”区域,单击“NameNode(主)”,进入HDFS WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS
基于安全考虑,服务端只支持TLS V1.2及以上的加密协议。 安装和配置IntelliJ IDEA 开发环境的基本配置,建议使用2019.1或其他兼容版本。 说明: 若使用Oracle JDK,请确保IntelliJ IDEA中的JDK配置为Oracle JDK。 若使用Open JDK,请确保IntelliJ
rver连接到Spark SQL。 CarbonData结构 CarbonData作为Spark内部数据源运行,不需要额外启动集群节点中的其他进程,CarbonData Engine在Spark Executor进程之中运行。 图2 CarbonData结构 存储在CarbonData
户端配置、用户认证密钥文件。 快速建立数据连接:通过数据连接功能配置访问一个组件。创建“数据连接类型”为“HDFS”类型时需创建集群连接,其他数据连接类型的“认证类型”为“KERBEROS”需创建集群连接,“认证类型”为“SIMPLE”不需创建集群连接。 “数据连接类型”为“Ka
待操作集群的名称 > 服务 > HDFS”。 在“基本信息”区域,单击“NameNode(主)”,显示HDFS WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS
户端配置、用户认证密钥文件。 快速建立数据连接:通过数据连接功能配置访问一个组件。创建“数据连接类型”为“HDFS”类型时需创建集群连接,其他数据连接类型的“认证类型”为“KERBEROS”需创建集群连接,“认证类型”为“SIMPLE”不需创建集群连接。 “数据连接类型”为“Ka
当前实例中正在RUNNING的DRIVERS数量 BYTES/SEC 当前实例中每秒读取的数据量 Blocked Queries 当前实例中由于资源或其他原因被阻塞的任务数 RESERVED MEMORY (B) 当前实例中使用正在RUNNING状态的任务占用的内存 WORKER PARALLEISM
如果使用SSH登录ECS的默认端口“22”被修改,请将“主机端口”设置为新端口。 “存放路径”最多可以包含256个字符。 “登录用户”设置为“root”。 如果使用其他用户,请确保该用户对保存目录拥有读取、写入和执行权限。 在“登录方式”选择“密码”或“SSH私钥”。 密码:输入创建集群时设置的root用户密码。
滚动重启10节点耗时约40分钟。 HBase 直接重启 重启期间无法进行HBase数据读写。 直接重启耗时约5分钟。 滚动重启 重启时客户端重试连接其他节点,不影响整体服务。 滚动重启10个节点耗时约30分钟。 Hive 直接重启 重启期间无法运行HiveSQL。 直接重启耗时约5分钟。 滚动重启
职称信息为例,其他用户类似。 alter table user_info add columns(education string,technical string); 根据用户编号查询用户姓名和地址。 以查询编号为12005000201的用户姓名和地址为例,其他用户类似。 select
使用admin账户登录Manager页面。 MRS 2.x及之前版本,单击页面右上角用户名,选择“修改密码”。 MRS 3.x及之后版本,移动鼠标到界面右上角的“Hello, admin”,在弹出菜单中单击“修改密码”。 在修改密码页面,输入“旧密码”、“新密码”、“确认新密码”。
进入Spark客户端目录,调用bin/spark-submit脚本运行代码。 由于Spark Streaming Kafka的依赖包在客户端的存放路径与其他依赖包不同,如其他依赖包路径为“$SPARK_HOME/jars”,而Spark Streaming Kafka依赖包路径为“$SPARK_HOME