检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MRS控制台:在集群详情页,选择“租户管理 > 资源分布策略”。 在“资源池”选择指定的资源池。 在资源分配列表指定队列的“操作”列,单击“清除”。 在弹出的对话框中单击“是”,清除队列在当前资源池的配置。 如果用户未配置队列的资源容量策略,则清除功能默认不可用。 父主题: 管理MRS租户资源
是,处理完毕。 否,执行4。 收集故障信息。 在FusionInsight Manager首页,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“MemArtsCC”。 单击右上角的编辑按钮设置日志收集的“开始时间”和“结束时间”,分别为告警产生时间的前后10分钟,单击“下载”。
/opt/client/FusionInsight_Cluster_1_Flume_Client.tar 删除host_info.cfg文件中的密码信息。 批量安装完成后,请立即删除host_info.cfg文件中的密码信息,否则会存在密码泄露的风险。 Flume客户端Cgroup使用指导 该操作指导用户加入、退出C
表的示例,在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的HBaseSample方法中。 private TableName tableName = null; private Connection conn =
将实时结果打印输出,如: apple:1 orange:1 apple:2 功能分解 根据上述场景进行功能分解,如表1所示。 表1 在应用中开发的功能 序号 步骤 代码示例 1 创建一个Spout用来生成随机文本 请参见创建Storm Spout 2 创建一个Bolt用来将收到的随机文本拆分成一个个单词
表的示例,在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的HBaseSample方法中。 private TableName tableName = null; private Connection conn =
以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testModifyTable方法中 public void testModifyTable() { LOG.info("Entering testModifyTable
配置ClickHouse默认用户密码 登录集群Manager页面,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”。 在搜索栏中搜索参数“users.default.password”,并修改参数密码,如图1所示: 图1 修改默认用户密码 登录安装客户端的节点,执行以下命令,切换到客户端安装目录。
0及之后版本。 操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置”。 在搜索框中搜索参数“hive.metastore-ext.balance.connection.enable”,修改该参数值为“true”。 单击“保存”,保存配置。
PORT”中自行配置。 运行该命令后,根据实际需求指定业务用户名(集群未启用Kerberos认证(普通模式)使用root用户登录): 指定业务用户名,则输入“yes”,并根据提示输入业务用户名和对应的业务用户密码: 不指定业务用户名,则输入“no”;此时,则使用1.d中的用户执行后续操作:
14:50 /user 当前路径下不存在“huawei”目录。 执行图3中的命令创建以“huawei”为名的目录。其中,用1中查找到的主机名或IP和端口分别替代命令中的<HOST>和<PORT>,在<PATH>中输入想要创建的目录“huawei”。 用主机名或IP代替<HOST>都
“类名”需与上传的UDF jar文件中UDF函数全限定类名一一对应。 上传UDF jar文件后,服务器默认保留5分钟,5分钟内单击确定则完成UDF创建,超时后单击确定则创建UDF失败并弹出错误提示:本地UDF文件路径有误。 在UDF列表中,可查看当前应用内所有的UDF信息。可在
/apps/ssh 定时任务 客户端安装目录/Oozie/oozie-client-*/examples/apps/cron 其他任务样例中已包含HDFS任务样例。 样例目录下需关注文件如表2所示。 表2 文件说明 文件名称 描述 job.properties 工作流的参数变量定义文件。
r为其返回应答,该应答中包含多种信息(如ApplicationId、可用资源使用上限和下限等)。ResourceManager收到请求后,会为ApplicationMaster寻找合适的节点,并在该节点上启动它。ApplicationMaster是Yarn中的角色,在Spark中
cluster模式。 客户端向ResourceManager发送Spark应用提交请求,ResourceManager为其返回应答,该应答中包含多种信息(如ApplicationId、可用资源使用上限和下限等)。Client端将启动ApplicationMaster所需的所有信息
和“结束时间”分别为告警产生时间的前后10分钟。打开日志文件查找“Result=FAIL”关键字筛选执行错误语句的日志信息,再根据日志信息中的“UserName”查看执行错误语句的用户。 输入正确的HQL语句,观察命令是否正确执行。 是,执行12。 否,执行4。 检查HBase服务是否异常。
访问Hue WebUI,请参考访问Hue WebUI界面。 在界面左侧导航栏单击,选择“计划”,打开Coordinator编辑器。 在作业编辑界面中单击“My Schedule”修改作业的名称。 单击“选择Workflow...”选择需要编排的Workflow。 选择好Workflow,
support_timestamp 当hudi表存在timestamp类型字段时,需指定此参数为true,以实现同步timestamp类型到hive元数据中。该值默认为false,默认将timestamp类型同步为bigInt,默认情况可能导致使用sql查询包含timestamp类型字段的hudi表出现错误。
单击“Deactivate”,转化当前拓扑为去激活状态。 重部署拓扑 单击“Rebalance”,将当前拓扑重新部署执行,需要输入执行重部署的等待时间,单位为秒。一般在集群中节点数发生变化时进行,以更好利用集群资源。 删除拓扑 单击“Kill”,将当前拓扑删除,需要输入执行操作的等待时间,单位为秒。 采样、停止采样拓扑消息
<tsd_ip>:所需访问Opentsdb服务的TSD实例IP或主机名。 <start=3y-ago\&m=sum:testdata>:在请求中可能无法识别“&”符号,需对其进行转义。 <python -m json.tool>(可选): 把响应的请求转换为json格式。 [