检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何对Hive表大小数据进行监控 问题 如何对Hive中的表大小数据进行监控? 回答 当用户要对Hive表大小数据进行监控时,可以通过HDFS的精细化监控对指定表目录进行监控,从而到达监控指定表大小数据的目的。 前提条件 Hive、HDFS组件功能正常 HDFS精细化监控功能正常
数据连接管理 查询数据连接列表 创建数据连接 测试创建数据连接 查询单个数据连接信息 更新数据连接信息 删除数据连接 父主题: 管理中心API
mongos节点命令行中,切换至config数据库。 use config 执行如下命令,开启Balancer功能。 sh.setBalancerState(true) 关闭Balancer 通过Mongo Shell连接集群实例。 在dds mongos节点命令行中,切换至config数据库。 use config
基于几何数据转换引擎将工业CAD模型转换至指定格式 方案概述 资源和成本规划 实施步骤 附录 文档修订历史
CDN中国大陆集成配置服务 《华为云CDN集成配置服务总结报告》 CDN海外集成配置服务 CDN运维保障服务 服务名称 交付件 CDN中国大陆运维保障服务 《华为云CDN运维保障服务总结报告》 CDN海外运维保障服务 CDN中国大陆运维保障量化服务-每Gbps CDN中国大陆运维保障量化服务-每10Gbps
2008镜像的云服务器为例,假设变更规格前,云服务器挂载有1块系统盘、2块数据盘,如图1所示。 图1 变更规格前磁盘挂载情况 变更规格后,查看磁盘挂载情况,如图2所示。 图2 变更规格后磁盘挂载情况 只查询到1块系统盘。因此,变更规格前后,显示的磁盘个数不一致,表示数据盘处于“脱机”状态。 将磁盘设置为“联机”状态。
已完成:已完成元数据采集任务。 运行中:正在运行元数据采集任务。 运行失败:元数据采集任务运行失败。 调度中:元数据采集任务已添加成功,待运行。 部分完成:已完成部分元数据采集任务。 运行时长 任务开始运行到结束运行用的时间 相关操作 您还可以在任务的操作栏对当前元数据采集任务进行“编辑”或“删除”操作。
Job 功能 通过CDM Job节点执行一个预先定义的CDM作业,实现数据迁移功能。 如果CDM作业中配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替换为(数据开发作业计划启动时间-偏移量),而不是(CDM作业实际启动时间-偏移量)。
上传软件包及证书文件 介绍如何将本地的软件安装包上传到虚拟机。 操作步骤 使用FileZilla将采集Agent安装包“NAIE_Collector_20.5.1_Linux_x64.tar.gz”、签名文件“NAIE_Collector_20.5.1_Linux_x64.tar
查看任务详情 实时迁移任务的配置信息,包括任务信息、迁移实例信息和迁移信息。迁移任务创建成功后,可查看迁移任务详细信息 。 前提条件 已登录数据复制服务控制台。 已成功创建迁移任务。 操作步骤 任务列表中,仅展示当前登录用户所创建的全部任务,同一租户下的不同用户之间的任务不可见。
COMPRESSION = NO ) NOCOMPRESS DISTRIBUTE BY HASH ("datatype_1"); 父主题: 数据类型
数据大屏-启动大屏配置 创建大屏分为两种形式:空白创建,OneSketch,模板创建 空白创建:不携带应用数据,从0开始搭建您的大屏 OneSketch:上传大屏图片,自动配置大屏 模板创建:提供demo模板,基于导入的模板调整生成大屏 空白创建 通过首页左上角九宫格菜单中数据大
数据源相关错误码 IoTA.05000008 数据源的连通性校验失败 IoTA.05000305 用户未订阅IoTDA云服务 IoTA.05000052 用户的token权限不足 IoTA.05000005 数据源个数已经达到配额限制 IoTA.05000010 不能删除正在被使用的数据源
设备管理和业务数据规划 管理VLAN规划 核心交换机作为接入交换机、WAC/AP的管理子网网关。 接入交换机通过有线自协商管理VLAN的DHCP Option148获取云平台地址,上线云平台。 AP通过无线自协商管理VLAN的DHCP Option43获取WAC地址,上线WAC。然后WAC向云平台上报AP的设备状态。
数据集成操作列表 云审计服务(Cloud Trace Service,简称CTS)为用户提供了云账户下资源的操作记录,可以帮您记录相关的操作事件,便于日后的查询、审计和回溯。 表1 支持云审计的关键操作列表 操作名称 资源类型 事件名称 创建集群 cluster createCluster
查询该租户下能够发布的逻辑目录的节点信息 功能介绍 数据运营工程师登录到数据集中,查看该租户下能够发布的逻辑目录的节点信息。 URI URI格式 GET /softcomai/datalake/v1.0/originDataModels/datacatalog 参数说明 无。 请求
"\\"")[0]}替代Loop表达式,因为StringUtil表达式最终获取的数据类型为String,无法与标准数据Int比较大小。 作业编排如图5所示: 图5 主作业样例 其中,For Each节点的关键配置如下: 数据集:数据集就是HIVE SQL节点的Select语句的执行结果。使用EL表达式#{Job
插入数据至DCS表 功能描述 INSERT INTO命令将DLI表中的数据插入到已关联的DCS Key中。 语法格式 将SELECT查询结果插入到表中: 1 2 3 4 5 6 7 INSERT INTO DLI_TABLE SELECT field1,field2...
数据备份与恢复 备份桌面数据 恢复桌面数据