检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用来更新的值 与字段类型相匹配 否 无 条件逻辑连接符 配置条件逻辑连接符,可配置“AND”或“OR”。 enum 是 AND 条件 配置过滤条件相关信息: 输入字段名:配置输入字段名,需填写上一个转换步骤生成的字段名。 操作:配置操作符。 比较值:配置比较值,可直接输入值或输入“#{已存在的字段名}”格式引用字段的具体值。
Manager,选择“集群 > 服务 > HetuEngine”,进入HetuEngine服务页面。 单击“概览”,在概览页签下的“基本信息”区域,单击“HSConsole WebUI”后的链接,进入HSConsole界面。 在“计算实例”页签,展开计算实例所属租户,确保待修改的计算实例状态为“停止”状态。
MEMORY”。 修改参数值适当增加内存大小。仅支持整数值,且需要输入单位M或者G。例如输入512M。 参考信息 DRIVER内存不足时,查询操作可能遇到以下错误提示信息: 2018-02-11 09:13:14,683 | WARN | Executor task launch
移量位置。然后,每个batch的Job被运行,而对应偏移量的数据在Kafka中已准备好。这些偏移量信息也被可靠地存储在checkpoint文件中,应用失败重启时可以直接读取偏移量信息。 图1 Direct Kafka接口数据传输 需要注意的是,Spark Streaming可以在
MEMORY”。 修改参数值适当增加内存大小。仅支持整数值,且需要输入单位M或者G。例如输入512M。 参考信息 DRIVER内存不足时,查询操作可能遇到以下错误提示信息: 2018-02-11 09:13:14,683 | WARN | Executor task launch
单击“组件管理”,查看各服务的角色操作状态,如果存在“未启动”的角色,单击“更多 > 启动实例”,启动该实例。 如果启动失败,根据任务列表里中任务的报错信息进行修复再尝试重启。 如果异常角色较多,可单击右上角的“管理操作”选择启动所有组件。 如果存在其他情况导致服务异常无法解决,请联系技术服务协助处理。
有多少条记录. SELECT COUNT(*) FROM employees_info; -- 查询使用以“cn”结尾的邮箱的员工信息. SELECT a.name, b.tel_phone FROM employees_info a JOIN employees_contact
有多少条记录. SELECT COUNT(*) FROM employees_info; -- 查询使用以“cn”结尾的邮箱的员工信息. SELECT a.name, b.tel_phone FROM employees_info a JOIN employees_contact
有多少条记录. SELECT COUNT(*) FROM employees_info; -- 查询使用以“cn”结尾的邮箱的员工信息. SELECT a.name, b.tel_phone FROM employees_info a JOIN employees_contact
p Address地址进入DataNode详情。 将url的“datanode.html”改为“jmx”就能获取到DataNode的JMX信息。 搜索“XceiverCount”指标,当该指标的值*Block块的大小超过DataNode磁盘的容量,就说明预约写Block的磁盘空间不足。
容量进行条件过滤。 预估费用为按显示的磁盘容量预估的费用,可能不准确,实际费用以节点实际的磁盘容量计算为准。所以建议数据盘扩容前先同步磁盘信息,预估费用会更准确。 若某节点组下节点进行过数据盘扩容,后续若该节点组扩容节点或进行集群克隆,则节点数据盘将按磁盘扩容后的容量创建。 当选
配置HDFS多路读 该章节仅适用于MRS 3.3.1及之后版本。 操作场景 在传统的HDFS中,当客户端请求读取数据时,它会与NameNode交互以确定数据块所在的DataNodes,并选择其中一个进行连接和数据传输。如果所选DataNode的响应速度较慢或者发生故障,客户端必须
、转换、分析。 MetaStore 一个集群内可部署多个MetaStore,负荷分担。提供Hive的元数据服务,负责Hive表的结构和属性信息读、写、维护和修改。 提供Thrift接口,供HiveServer、Spark、WebHCat等MetaStore客户端来访问,操作元数据。
MRS多租户使用流程 多租户使用说明 租户主要用于资源控制、业务隔离的场景。在实际业务中,用户需要先明确使用集群资源的业务场景,规划租户。 多租户使用包含三类操作:创建租户、管理租户和管理资源。各操作的具体动作如表1所示。 表1 使用租户的各种操作 操作 具体动作 说明 创建租户
Workflow”),可以直接单击该名称进行修改,例如“Spark-Workflow”。 保存完成后,单击,提交该作业。 作业提交后,可通过Hue界面查看作业的详细信息、日志、进度等相关内容。 父主题: 使用Hue提交Oozie作业
执行run.sh脚本,运行Jar包。 sh /opt/client/IoTDB/iotdb/run.sh 查看调测结果 运行结果会有如下成功信息: 图3 运行结果 父主题: 调测IoTDB应用
面无法访问。 如果遇到上述问题,可参考以下两种方法解决。 重新访问这个Spark应用的HistoryServer页面,即可查看到正确的页面信息。 如果用户场景需要同时访问50个以上的Spark应用时,需要调大“spark.history.retainedApplications”参数的值。
DEFAULT”的默认配置到Spark2x的URI配置项,如果Spark2x仅需要连接两个MetaStore实例,则根据需要仅保留两个节点信息(具体以实际为准),单击“保存”。 选择“集群 > 服务 > Spark2x > 实例”,勾选配置过期的实例,选择“更多 > 重启实例”,
重命名:重命名样例。 编辑:编辑步骤转换,参考6.c。 删除:删除样例。 也可使用快捷键“Del”删除。 单击“编辑”,编辑步骤转换信息,配置字段与数据。 步骤转换信息中的具体参数设置请参考算子帮助。 使用sftp-connector或ftp-connector导入数据时,在数据转换步骤中
重命名:重命名样例。 编辑:编辑步骤转换,参考6.c。 删除:删除样例。 也可使用快捷键“Del”删除。 单击“编辑”,编辑步骤转换信息,配置字段与数据。 步骤转换信息中的具体参数设置请参考Loader算子帮助。 使用sftp-connector或ftp-connector导入数据时,在数