正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
上述示例将创建名为“productdb.productNameIndexTable”的二级表并加载所提供列的索引信息。 系统响应 将创建二级索引表,加载与所提供的列相关的索引信息到二级索引表中,并将成功消息记录在系统日志中。 父主题: DML
步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 如果队列需要清除与某个资源池的绑定关系,该资源池不能作为队列的默认资源池,需要先将队列的默认资源池更改为其他资源池,请参见配置MRS租户队列。 清除队列配置 进入资源分布策略页面。
至少需要包含大写字母、小写字母、数字、特殊字符~`!@#$%^&*()-+_=\|[{}];:",<.>/?中的3种类型字符。 不可和用户名相同或用户名的倒序字符相同。 不可与前20个历史密码相同。 超期时间格式为xxxx-xx-xx,例如:2020-10-31。 显示如下结果,则修改成功: ALTER ROLE 父主题:
用户管理”,在用户名中选择hbaseuser,然后在右侧“操作”列中选择“更多 >下载认证凭据”,保存后解压得到用户的user.keytab文件与krb5.conf文件,用于在样例工程中进行安全认证,如图4所示。 图4 下载认证凭据 参考信息 如果修改了组件的配置参数,需重新下载客户端配置文件并更新运行调测环境上的客户端。
新建集群Consumer消费数据失败,提示“GROUP_COORDINATOR_NOT_AVAILABLE” 问题背景与现象 新建Kafka集群,部署Broker节点数为2,使用Kafka客户端可以正常生产,但是无法正常消费。Consumer消费数据失败,提示GROUP_COOR
字符串逆序转换 概述 “字符串逆序转换”算子,用于配置已生成的字段通过逆序,转换出新的字段。 输入与输出 输入:需要逆序的字段 输出:逆序转换后的字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 逆序转换的字段 配置字符串逆序转换的字段相关信息: 输入字段名
doAs”为“true”时已经支持,本次增加当“hive.server2.enable.doAs”为“false”时的功能支持。 本功能参数调整与配置Hive目录旧数据自动移除至回收站添加的自定义参数相同。 操作步骤 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理
登录FusionInsight Manager,选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 在“配置资源权限”中,选择“待操作集群的名称 > Kafka”。 根据业务需求选择权限,具体配置项,请参见表1 表1 配置项说明 任务场景
字符串逆序转换 概述 “字符串逆序转换”算子,用于配置已生成的字段通过逆序,转换出新的字段。 输入与输出 输入:需要逆序的字段 输出:逆序转换后的字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 逆序转换的字段 配置字符串逆序转换的字段相关信息: 输入字段名
下方的“选项”按钮。弹出下拉选项,在“时区”中选择“Asia/Shanghai”。 单击编辑器右上角的,设置定时任务执行的时间范围的起始值与结束值,然后单击“提交”提交作业。 因时区转化的原因,此处时间有可能会与当地系统实际时间差异数个小时。 父主题: 使用Hue提交Oozie作业
但它的生命周期和Spark Streaming任务相同,并且占用一个核的计算资源。 在调试和测试等经常使用默认配置的场景下,要时刻注意核数与Receiver个数的关系。 父主题: Spark Streaming
集群管理员已根据业务需要规划权限。 操作步骤 登录Manager。 选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 设置角色“配置资源权限”。 FlinkServer权限类型: FlinkServer管理员权限:是最高权限,具有FlinkServer所有应用的业务操作权限。
用户管理”,在用户名中选择test,然后在右侧“操作”列中选择“更多 >下载认证凭据”下载,保存后解压得到用户的user.keytab文件与krb5.conf文件,用于在样例工程中进行安全认证,如5.2.6-准备kerberos认证所示。 图1 下载认证凭据 父主题: 准备MapReduce应用开发环境
用户管理”,在用户名中选择opentsdbuser,修改密码后,在右侧“操作”列中选择“更多 >下载认证凭据”下载认证凭据,保存后解压得到用户的user.keytab文件与krb5.conf文件。用于在样例工程中进行安全认证,如图4所示。 图4 下载认证凭据 父主题: 准备OpenTSDB应用开发环境
将IntelliJ IDEA中的代码打包成jar包。 打包Storm样例工程应用 打包业务 将IntelliJ IDEA代码生成的jar包与工程依赖的jar包,合并导出可提交的source.jar。 打包Storm业务 提交拓扑 指导用户将开发好的程序提交运行。 提交Storm拓扑
提交Spark任务时Driver端提示运行内存超限 问题背景与现象 运行内存超限导致提交Spark任务失败。 原因分析 在Driver日志中直接打印申请的executor memory超过集群限制。 ... INFO Client: Verifying our application
允许并发写入文件,但是不允许并发提交commit,提交commit操作封装到事务中。 提交commit时,执行冲突检查:若本次提交的commit中,修改的文件列表,与本次instanceTime之后的commit存在重叠文件,则提交失败,本次写入无效。 使用并发机制需要注意问题 Hudi当前并发机制无法保证写入后表主键唯一,
下方的“选项”按钮。弹出下拉选项,在“时区”中选择“Asia/Shanghai”。 单击编辑器右上角的,设置定时任务执行的时间范围的起始值与结束值,然后单击“提交”提交作业。 因时区转化的原因,此处时间有可能会与当地系统实际时间差异数个小时。 父主题: 使用Hue提交Oozie作业
允许并发写入文件,但是不允许并发提交commit,提交commit操作封装到事务中。 提交commit时,执行冲突检查:如果本次提交的commit中,修改的文件列表,与本次instanceTime之后的commit存在重叠文件,则提交失败,本次写入无效。 使用并发机制需要注意问题 Hudi当前并发机制无法保证写入后表主键唯一,
上述示例将创建名为“productdb.productNameIndexTable”的二级表并加载所提供列的索引信息。 系统响应 将创建二级索引表,加载与所提供的列相关的索引信息到二级索引表中,并将成功消息记录在系统日志中。 父主题: CarbonData语法参考