检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
FlinkSQL Kafka Connector支持消费drs-json格式数据 本章节适用于MRS 3.3.0及以后版本。 使用场景 FlinkSQL需要消费Kafka中drs-json格式(一种CDC消息格式)的数据。 使用方法 在创建的Kafka Connector Source流表中,设置
M需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 选择STANDALONE模式时,CDM支持在多个MRS集群的HDFS之间迁移数据。 若在一个CDM中同时连
座席已签入 座席正在通话中 场景描述 座席签入后,查询应答来话前呼叫信息。 接口方法 设置成“GET”。该接口仅支持GET方法,不支持PUT、POST和DELETE等方法。 接口URI https://ip:port/agentgateway/resource/calldata/{ag
Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI URI格式 POST https://{Endpoint}/v3/{project_id}/configurations/{config_id}/reset
Sqoop1.4.7适配MRS 3.x集群 Sqoop是专为Apache Hadoop和结构化数据库(如关系型数据库)设计的高效传输大量数据的工具。客户需要在MRS中使用sqoop进行数据迁移,MRS旧版本中未自带Sqoop,客户可参考此文档自行安装使用。MRS 3.1.0及之后版
0及以上版本) 适用于库表级数据恢复场景,将数据还原至某个指定的时间点。 恢复备份数据到本地自建数据库 集群(3.4、4.0版本支持) 副本集(3.4、4.0版本支持) 单节点(3.4、4.0版本支持) 您可以将DDS的备份文件下载到本地,将数据恢复至本地自建数据库。 通过mongorestore工具恢复数据
strings 域名协议 real_server_type Integer 源站类型 real_servers String 源站 waf_status Integer waf防护状态 enterprise_project_id String 企业项目ID 请求示例 无 响应示例 状态码: 200
盖等。 中 云防火墙提供日志分析功能,对已分析的日志,默认提供存储6个月内的日志数据,并提供实时日志分析能力。 应能对远程访问的用户行为、访问互联网的用户行为等单独进行行为审计和数据分析。 中 云防火墙提供日志分析功能,对已分析的日志,默认提供存储6个月内的日志数据,并提供实时日志分析能力。
URI POST /v2/{project_id}/datasets/{dataset_id}/workforce-tasks/{workforce_task_id}/notify 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。
0/19 网络配置流程 其他云数据库添加白名单及安全组规则。 其他云数据库需要添加Migration资源组VPC网段(例如172.16.0.0/19)访问数据库的权限。各类型数据库添加白名单的方法不同,具体方法请参考各数据库官方文档进行操作。 数据库若配置了安全组,则还需要增加入
如何使用Java调用CDM的Rest API创建数据迁移作业? CDM提供了Rest API,可以通过程序调用实现自动化的作业创建或执行控制。 这里以CDM迁移MySQL数据库的表city1的数据到DWS的表city2为例,介绍如何使用Java调用CDM服务的REST API创建、启动、查询、删除该CDM作业。
提示元数据文件中Entity ID为空、签名证书过期等内容时,需要您确认元数据文件的正确性后,重新上传或者通过手动编辑提取元数据。 单击“确定”,保存设置信息。 手动编辑元数据 单击“手动编辑”。 图5 手动编辑元数据 在“手动编辑元数据”页面中,输入从企业IdP元数据文件中获取的“Entity
对源和前置区或者前置区和共享区、共享区和消费者之间数据交换的数据量进行监控。对作业执行的数据总量(条数)等进行监控统计。 通过从提供者的纬度来对数据指标进行显示。其主要功能包括: 节点到节点之间数据交换总量统计 库到库之间数据交换总量统计 表和表之间数据交换总量统计 缓存统计(定期计算统计维度指标)
上传驱动文件。 接口约束 目前仅支持DB2 for LUW为源的同步场景使用。 仅支持部分Region使用,详情参考终端节点。 URI POST /v5/{project_id}/driver 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
设置在磁盘数据均衡中可容忍的两磁盘之间的数据密度阈值差。如果任意两个磁盘数据密度差值的绝对值超过了此阈值,意味着对应的磁盘应该进行数据均衡。取值范围[1-100]。 10 dfs.disk.balancer.top.nodes.number 该参数用来指定集群中需要执行磁盘数据均衡的Top
执行备份 设置TaurusDB标准版同区域备份策略 设置TaurusDB标准版跨区域备份策略 创建TaurusDB标准版手动备份 父主题: 数据备份
利用ERP基础数据同步OA流模板创建流 在集成工作台-流编排-我的流模板中,选择刚才复制过来的"ERP基础数据同步到E-cologyOA_23-9-0"流模板,点击创建流 新建ERP连接器连接 在弹出的连接框里,配置账套连接地址信息,配置好账套的连接名称、访问地址、数据库名、用户名、密码、语言。
安装流程 安装前准备 校验签名文件 解压软件包 修改配置文件 安装采集Agent 安装后检查 启动采集Agent 卸载采集Agent 父主题: 数据接入
授权API调用 通过应用授权APP认证方式API 通过应用授权IAM认证方式API 通过白名单授权IAM认证方式API 父主题: 开发数据服务API
脚本开发 数据连接创建成功后,进行脚本开发,按照数仓分层规范和《数据湖开发规范》进行关系建模开发和维度建模开发。 创建spark sql脚本 在“脚本开发”功能下,在对应的脚本文件夹下创建spark sql脚本。 图1 脚本开发1 SQL脚本右上角配置数据连接和数据库 图2 脚本开发2