检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设置角色“配置资源权限”请参见表1。 “Hive管理员权限”:Hive管理员权限。 “Hive读写权限”:Hive数据表管理权限,可设置与管理已创建的表的数据操作权限。 Hive角色管理支持授予Hive管理员权限、访问表和视图的权限,不支持数据库的授权。 Hive管理员权限不支持管理HDFS的权限。 如果
外一个集群时,需要使用DistCp工具。DistCp工具依赖于集群间复制功能,该功能默认未启用。两个集群都需要配置。 该任务指导MRS集群管理员在MRS修改参数以启用集群间复制功能。 对系统的影响 启用集群间复制功能需要重启Yarn,服务重启期间无法访问。 前提条件 两个集群HDFS的参数“hadoop
配置MapReduce集群管理员列表 配置场景 该功能主要用于指定MapReduce集群管理员。 其中,集群管理员列表由参数“mapreduce.cluster.administrators”指定,集群管理员admin具有所有可以操作的权限。 配置描述 进入Mapreduce服务
Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 查询数据连接列表成功 错误码 请参见错误码。 父主题: 数据连接管理
使用root用户登录Spark客户端节点,调高“spark-defaults.conf”文件中“spark.driver.memory”参数值。 父主题: 作业管理类
“指定作业”,在作业列表中勾选需要迁移的作业。 单击“确定”,开始作业迁移。当弹出框中进度条显示100%,则说明作业迁移完成。 父主题: 管理Loader作业
单击“导入”,进入作业导出界面。 在“导入”界面中选择要导入的配置文件的路径。 单击“上传”,开始导入作业。当弹出框中进度条显示100%,则说明作业导出完成。 父主题: 管理Loader作业
“是否导出密码”:导出时是否导出连接器密码,勾选时,导出加密后的密码串。 单击“确定”,开始导出作业。当弹出框中进度条显示100%,则说明作业导出完成。 父主题: 管理Loader作业
息,重新导入后,这些信息将会重新生成。 导出实例配置文件:勾选待导出的实例,然后单击“导出”,可将当前实例配置文件导出至本地。 父主题: 管理HetuEngine计算实例
Node上保存region和IoTDBServer的映射关系,IoTDBServer保存region数据,直接使用操作系统自身的文件系统来管理元数据和数据文件。 容量规格 ConfigNode容量规格 当创建新的存储组时,IoTDB默认为该存储组分配10000个槽位,数据写入时根
unner-DefaultSinkProcessor] | SRCIP=null OPERATION=close 父主题: Flume运维管理
jar文件,大小不能超过200MB。 上传UDF 访问Flink WebUI,请参考访问FlinkServer WebUI界面。 单击“UDF管理”进入UDF管理页面。 单击“添加UDF”,在“本地Jar文件”参数后选择并上传本地已准备好的UDF jar文件。 填写UDF名称以及描述信息后,单击“确定”。
安全模式下Yarn和HBase的权限管理默认是开启的,因此在安全模式下默认需要配置Yarn和HBase权限。 在普通模式下,Yarn和HBase的权限管理默认是关闭的,即任何用户都有权限,因此普通模式下默认不需要配置Yarn和HBase权限。如果用户修改了YARN或者HBase的配置来开启权限管理,则修改后也需要配置Yarn和HBase权限。
安全模式下Yarn和HBase的权限管理默认是开启的,因此在安全模式下默认需要配置Yarn和HBase权限。 在普通模式下,Yarn和HBase的权限管理默认是关闭的,即任何用户都有权限,因此普通模式下默认不需要配置Yarn和HBase权限。如果用户修改了Yarn或者HBase的配置来开启权限管理,则修改后也需要配置Yarn和HBase权限。
spark.history.store.maxDiskUsage JobHistory本地磁盘缓存的最大可用空间。 10g 父主题: Spark运维管理
例如在Master2节点更新客户端,则登录该节点使用客户端,具体参见更新客户端(3.x之前版本)。 执行以下命令切换用户。 sudo su - omm 执行以下命令,切换到客户端目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source
在Linux环境新建运行目录,将“target”目录下的“doris-rest-client-example-*.jar”放到该路径下。 切换到运行目录,执行以下命令,运行Jar包。 java -jar doris-rest-client-example-*.jar 否,执行4。
参考打包Strom样例工程应用执行打包,并将jar包命名为“example.jar”。 将导出的Jar包复制到Linux环境的“/opt/test/lib”目录下。 切换到“/opt/test”,执行以下命令,运行Jar包。 java -classpath /opt/test/lib/*:/opt/test/src/main/resources
可以单独将topic的数据保留期改为较短时间来释放磁盘空间,该方式无需重启Kafka服务即可生效。具体请参见8。 登录Manager页面,在Kafka的服务配置页面,切换为“全部配置”并搜索“log.retention.hours”配置项,该值默认为7天,请根据需要进行修改。 可以单独将这些磁盘上的topi
开启跨AZ高可用之后,同一个shard的所有副本节点在一个AZ内。 处理步骤 修改副本节点AZ 以客户端安装用户,登录安装客户端的节点。执行以下命令,切换到客户端安装目录。 cd {客户端安装路径} 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证(普通模式跳过此步骤)。