检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 在作业目录中,右键单击目录名称,选择“新建目录”。 在弹出的“新建目录”页面,配置如表1所示的参数。 表1 作业目录参数 参数 说明 目录名称 作业目录的名称,只能包
SQL执行计划介绍 SQL执行计划概述 详解 父主题: SQL调优指南
target_role 已有角色的名称。如果省略FOR ROLE/USER,则缺省值为当前角色/用户。 取值范围:已有角色的名称。 schema_name 现有模式的名称。 target_role必须有schema_name的CREATE权限。 取值范围:现有模式的名称。 role_name
单击管理控制台左上角的,选择区域和项目。 单击页面左上角的,选择“数据库 > 云数据库 RDS”,进入RDS信息页面。 在“实例管理”页面,选择指定的实例,单击实例名称,进入实例的基本信息页面。 在左侧导航栏中选择“参数修改”,在“参数”页签搜索参数名称,选择需要修改的隔离级别。 RE
数据联接 总览 数据入图
数据探索 模型图谱 探索数据 探索视图
在WiseDBA中变更数据库实例规格 可以根据业务需要对包年/包月和按需实例的规格进行变更,规格指实例的CPU/内存。 使用须知 此操作预计耗时约10分钟,程序可能会有10s以内的中断,请自行评估影响。 前提条件 需要具备AppStage服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。
第一次手动指定索引,对指定表进行聚簇,然后设置一个周期化执行的维护脚本,只需执行不带参数的CLUSTER命令,就可以实现对想要周期性聚簇的表进行自动更新。 因为优化器记录着有关表的排序的统计,在表上执行聚簇操作后,需运行ANALYZE操作以确保优化器具备最新的排序信息,否则,优化器可能会选择非最优的查询规划。
数据导入 数据准备 图像文件导入 定位信息导入 父主题: 实景三维建模
数据投递 数据投递概述 投递日志数据至其他数据管道 投递日志数据至OBS桶 投递日志数据至LTS 管理数据投递任务 父主题: 威胁管理
管理数据库和账号 创建数据库账号 修改数据库账号权限 重置数据库账号密码 删除数据库账号 获取数据库账号列表和详情 获取实例数据库列表 操作GeminiDB实例数据库 父主题: API v3(推荐)
Agent在运行时会消耗一定的系统资源(CPU不超过5%,内存不超过300MB),并有以下两个监控措施: 监控系统整体的CPU和内存。当CPU或内存超过设定的阈值(默认80%),Agent将停止运行,不进行流量获取。 监控Agent进程本身的CPU和内存。 父主题: 数据库安全审计Agent相关
数据接入 页面数据来源介绍 桥接器预置 自定义桥接器 静态数据 数据集 页面数据集 其他数据源
数据看板 数据实体统计 数据实体属性统计 数据实体实例数据统计 数据源映射统计 父主题: 模型设计
7。 “字段映射”的对应关系,表示用户数据中每一列与数据库的表字段的匹配关系。 表1 “字段映射”属性 参数 说明 列号 表示业务数据的字段顺序。 样本 表示业务数据的第一行值样例。 列族 “目的连接”为hbase-connector类型时,支持定义保存数据的具体列族。 目的字段
行组内按列进行存储,并且文件中的数据尽可能的压缩来降低存储空间的消耗。矢量化读取ORC格式的数据能够大幅提升ORC数据读取性能。在Spark2.3版本中,SparkSQL支持矢量化读取ORC数据(这个特性在Hive的历史版本中已经得到支持)。矢量化读取ORC格式的数据能够获得比传统读取方式数倍的性能提升。
行组内按列进行存储,并且文件中的数据尽可能的压缩来降低存储空间的消耗。矢量化读取ORC格式的数据能够大幅提升ORC数据读取性能。在Spark2.3版本中,SparkSQL支持矢量化读取ORC数据(这个特性在Hive的历史版本中已经得到支持)。矢量化读取ORC格式的数据能够获得比传统读取方式数倍的性能提升。
管理手动备份 GeminiDB Redis支持对“运行状态”为“正常”的实例创建手动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。手动备份为全量备份。 创建手动备份 登录管理控制台。 在服务列表中选择“数据库 > 云数据库 GeminiDB Redis 接口”。
作业配置中源端目标端均通过where语句多条件过滤,并非索引列,查询会全表扫描,且数据量在上亿行,数据量庞大,导致JDBC数据库连接失败,读取数据超时,进而导致sqoop异常,作业失败。 迁移作业是CDM作为客户端先从源数据中抽取部分数据,写到目标端,再进行下一次部分数据抽取,写入目标端,往复执行,直到抽取到写入完成
进行测试,若无问题,则可以全部切换。 1.3和1.6版本升级到1.8版本,因为证书切换,sidecar需要同时全部重启。 数据面升级结束后,请等待所有升级中的工作负载滚动升级完成。 父主题: 金丝雀升级