检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
WebUI界面。 在界面左侧导航栏单击,选择“Bundle”,打开Bundle编辑器。 在作业编辑界面中单击“My Bundle”修改作业的名称。 单击“+添加Coordinator”选择需要编排的Coordinator作业。 根据界面提示设置Coordinator任务调度的开始、结束时间,然后单击右上角的保存作业。
括32G和32G-HeapBaseMinAddress的值。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HBase > 实例”,选择失败实例,选择“更多 > 重启实例”来重启失败实例。 父主题: HBase故障排除
storm.example.wordcount.WordCountTopology。 执行storm list命令,查看已经提交的应用程序,如果发现名称为word-count的应用程序,则说明任务提交成功。 如果业务设置为本地模式,且使用命令行方式提交时,请确保提交环境为普通模式环境,当前
调测ClickHouse Springboot样例程序 在本地Windows环境中调测ClickHouse Springboot样例程序 编译并运行程序 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。在开发环境IntelliJ
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
examples中的HdfsMain类。 /** * 设置存储策略 * @param policyName * 策略名称能够被接受: * <li>HOT * <li>WARM * <li>COLD * <li>LAZY_PERSIST
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
Manager页面,选择“集群 > 服务 > Spark > 配置”。 搜索“自定义”,在所有的“hive-site.xml”参数文件中新增名称为“hive.metastore-ext.balance.connection.enable”,值为“true”的自定义参数,单击“保存”,保存配置。
WEBUI中删除该默认public组策略,并赋予需要查看的用户权限。 处理步骤 登录Ranger WebUI界面。 在“Service Manager”区域内,单击Hive组件名称,进入Hive组件安全访问策略列表页面。 分别单击“all - database”和“default database tables columns”策略所在行的按钮。
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
执行以下命令,解锁LDAP用户或管理账户: ./ldapserver_unlockUsers.sh USER_NAME 其中,USER_NAME表示将要解锁的用户名称。 例如,解锁LDAP管理账户“cn=krbkdc,ou=Users,dc=hadoop,dc=com”的方法如下: ./ldapserver_unlockUsers
tableIdentifier/tablelocation; 参数描述 表1 参数描述 参数 描述 tableIdentifier Hudi表的名称。 tablelocation Hudi表的存储路径。 hoodie.archive.file.cleaner.policy 清理归档文件
query]; 参数描述 表1 INSERT INTO参数 参数 描述 CARBON TABLE 需要执行INSERT命令的CarbonData表的名称。 select query Source表上的SELECT查询(支持CarbonData、Hive和Parquet表)。 注意事项 表必须已经存在。
如果不存在overlap,执行3。 如果存在overlap,执行1。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HBase > 更多 > 执行HMaster倒换”,完成HMaster主备倒换。 执行hbase hbck -j ${CL
参数修改入口:在FusionInsight Manager系统中,选择“集群 > 服务 > Kafka > 配置”,展开“全部配置”页签,在搜索框中输入相关参数名称。 配置后应重启对应服务使参数生效。 Kafka服务端的传输加密相关配置参数如表1所示。 表1 Kafka服务端传输加密参数 配置项 描述
表3 日志格式 日志类型 格式 示例 运行日志 [<yyyy-MM-dd HH:mm:ss>] <Log Level>: [<产生该日志的脚本名称:行号>]: <log中的message> [2020-12-19 15:56:42] INFO [postinstall.sh:653]
如果不存在overlap,执行3。 如果存在overlap,执行1。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HBase > 更多 > 执行HMaster倒换”,完成HMaster主备倒换。 执行hbase hbck -j ${CL
Doris用户权限说明 Doris目前支持的权限如表1所示。 表1 Doris权限列表 权限名称 权限介绍 Node_priv 节点变更权限。包括FE、BE、DBroker节点的添加、删除、下线等操作。 该权限只能赋予Global级别。 Admin_priv 除Node_priv以外的所有权限。
以下命令,查看当前节点是否占用了Hue的浮动IP。 ifconfig | grep -B2 <浮动ip> 是,执行ifconfig <网卡名称> down解绑网卡,然后执行6。 否,请联系技术支持。 重复4~5,直到4能够通过浮动IP连接到Hue主实例并成功访问Hue WebUI。
UDF开发建议 不要执行大量数据的复制操作,防止堆栈内存溢出。 应避免使用大量字符串拼接操作,否则会导致内存占用过高。 Java UDF应该使用有意义的名称,以便其他开发人员能够轻松理解其用途。建议使用驼峰式命名法,并以UDF结尾,例如:MyFunctionUDF。 Java UDF应该指定返