检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
resources”目录下的“springclient.properties”文件,按需修改如下表1中提供的参数: 表1 配置说明表 配置名称 含义 principal 准备开发用户时创建的用户名。 user.keytab.path 准备开发用户时创建的用户的认证文件“user.keytab”所在路径。
WebUI界面。 在界面左侧导航栏单击,选择“Bundle”,打开Bundle编辑器。 在作业编辑界面中单击“My Bundle”修改作业的名称。 单击“+添加Coordinator”选择需要编排的Coordinator作业。 根据界面提示设置Coordinator任务调度的开始、结束时间,然后单击右上角的保存作业。
expression]; 参数描述 表1 DELETE RECORDS参数 参数 描述 CARBON TABLE 在其中执行删除操作的CarbonData表的名称。 注意事项 删除segment将删除相应segment的所有二级索引。 如果查询的表设置了carbon.input.segments属性
括32G和32G-HeapBaseMinAddress的值。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HBase > 实例”,选择失败实例,选择“更多 > 重启实例”来重启失败实例。 父主题: HBase故障排除
SUCCESS”,表示编译成功,如下图所示。编译成功后将会在样例工程的target下生成“hcatalog-example-*.jar”包。 以上Jar包名称仅供参考,具体名称以实际生成为主。 将1中在“target”目录下生成的“hcatalog-example-*.jar”上传至Linux的指定路径,
表3 日志格式 日志类型 格式 示例 运行日志 [<yyyy-MM-dd HH:mm:ss>] <Log Level>: [<产生该日志的脚本名称:行号>]: <log中的message> [2020-12-19 15:56:42] INFO [postinstall.sh:653]
r_id),所以需要先在管理控制台上获取到集群ID。集群ID获取步骤如下: 登录MRS管理控制台。 选择“现有集群”,单击待操作集群的集群名称,进入集群详情页面。 选择“概览”页签,在基本信息区域获取“集群ID”。 图1 集群ID 获取作业ID 在调用作业相关接口的时候,部分UR
访问。 重置组件数据库用户密码 在FusionInsight Manager界面,选择“集群 > 服务”。 单击待重置数据库用户密码的服务名称,例如“Kafka”,然后在服务概览页面中单击“停止服务”。 在弹出窗口中输入当前登录的用户密码确认身份,单击“确定”。 确认停止服务的影响后,等待服务成功停止。
expression]; 参数描述 表1 DELETE RECORDS参数 参数 描述 CARBON TABLE 在其中执行删除操作的CarbonData表的名称。 注意事项 删除segment将删除相应segment的所有二级索引。 如果查询的表设置了carbon.input.segments属性
配置参数 参数入口: 在Manager系统中,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.parquet.compression.codec 对于非分区parquet表,设置其存储文件的压缩格式。
调测springboot样例程序 在本地Windows环境中调测ClickHouse Springboot样例程序 编译并运行程序 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。在开发环境IntelliJ ID
storm.example.wordcount.WordCountTopology 执行storm list命令,查看已经提交的应用程序,如果发现名称为word-count的应用程序,则说明任务提交成功。 如果业务设置为本地模式,且使用命令行方式提交时,请确保提交环境为普通模式环境,当前
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
行配置。 单击“确定”完成创建。 查看数据连接信息 登录MRS管理控制台,在导航栏选择“数据连接”。 在数据连接列表的单击待查看的数据连接名称,在弹出的页面查看该数据连接的详细信息。 例如查看RDS服务MySQL数据库数据连接信息如下: 图1 查看RDS服务MySQL数据库数据连接信息
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val sparkConf = new SparkConf().setAppName("FemaleInfo") val
> LoaderServer(角色) > 清除”出现如下图所示配置项,可参考表1调整以下参数配置。 表1 清除Loader历史数据参数 参数名称 描述 推荐修改值 loader.submission.purge.interval 清理任务被调用的时间间隔(分钟)。 60 loader
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
WEBUI中删除该默认public组策略,并赋予需要查看的用户权限。 处理步骤 登录Ranger WebUI界面。 在“Service Manager”区域内,单击Hive组件名称,进入Hive组件安全访问策略列表页面。 分别单击“all - database”和“default database tables columns”策略所在行的按钮。
examples中的HdfsMain类。 /** * 设置存储策略 * @param policyName * 策略名称能够被接受: * <li>HOT * <li>WARM * <li>COLD * <li>LAZY_PERSIST