检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.6309", "error_msg":"The name already exists." } 状态码 状态码请参见状态码。 父主题: 连接管理API(待下线)
否 枚举 当“toJobConfig.outputFormat”(文件格式)为“BINARY_FILE”(二进制)时才有该参数,选择是否对导入的数据进行加密,以及加密方式: NONE:不加密,直接写入数据。 AES-256-GCM:使用长度为256byte的AES对称加密算法,目
DAY)}*”(这是CDM支持的日期宏变量格式,详见时间宏变量使用解析)。 图1 文件过滤 配置作业定时自动执行,“重复周期”为1天。 这样每天就可以把昨天生成的文件都导入到目的端目录,实现增量同步。 文件增量迁移场景下,“路径过滤器”的使用方法同“文件过滤器”一样,需要路径名称里带有时间字段,这样可以定期增量同步指定目录下的所有文件。
联合主键:联合主键模式,多选主键,将其的值用主键分隔符拼接写入id。 无主键:仅操作类型为CREATE时支持,无需指定主键,目的端会自动生成id作为主键写入。 单主键 导入前清空数据 定义当前任务在索引Index已经存在的情况是否需要删除数据。 是:需要删除该索引下的数据。 否:写入数据前保留数据。 否 主键分隔符
单击“增加”,添加端口映射关系。 单击“开始映射”,这时才会真正开始映射,接收数据包。 至此,就可以在CDM上通过弹性IP读取本地内网MySQL的数据,然后导入到云服务DWS中。 CDM要访问本地数据源,也必须给CDM集群配置EIP。 一般云服务DWS默认也是只允许VPC内部访问,创建CDM集群时
DAY)}*”(这是CDM支持的日期宏变量格式,详见时间宏变量使用解析)。 图1 文件过滤 配置作业定时自动执行,“重复周期”为1天。 这样每天就可以把昨天生成的文件都导入到目的端目录,实现增量同步。 文件增量迁移场景下,“路径过滤器”的使用方法同“文件过滤器”一样,需要路径名称里带有时间字段,这样可以定期增量同步指定目录下的所有文件。
删除当前空间下分配的队列资源。 1800 20 数据分类接口 表11 数据分类接口 API 说明 API流量限制(次/10s) 用户流量限制(次/10s) 导入预置分类 导入预置分类。 1800 20 查询数据分类列表 查询数据分类列表。 3600 40 数据安全诊断接口 表12 数据安全诊断接口 API
bc9505/factory/monitor/task-completion-data?type=all 响应示例 成功响应 HTTP状态码 200 { "yesterday": [ { "record_time": 1704124800000
成数据质量精细化管控文化。根据数据治理领导组的愿景和长期目标,建立和管理数据治理流程、阶段目标和计划,设计和维护数据治理方法、总则、工具和平台,协助各数据领域工作组实施数据治理工作,对整体数据治理工作进行度量和汇报,并对跨领域的数据治理问题和争议进行解决和决策。 各领域数据治理工
搜索:Elasticsearch,云搜索服务(CSS) Elasticsearch仅支持非安全模式。 云搜索服务(CSS) 导入数据到CSS推荐使用Logstash,请参见使用Logstash导入数据到Elasticsearch。 上表中非云服务的数据源,例如MySQL,既可以支持用户本地数据中心自
查询资源列表 GET /v1/b384b9e9ab9b4ee8994c8633aabc9505/resources 响应示例 成功响应 HTTP状态码 200 { "total":1, "resources":[ { "id":"b3
数据库名称:demo_sdi_db。 表名:sdi_taxi_trip_data。 导入前清空数据:是。 在本示例中,目的端作业参数“导入前清空数据”配置为“是”,表示每次作业运行都会先清空数据再导入。在实际业务中,请视情况而定,需谨慎设置,以免造成数据丢失。 图9 作业配置 在字
"desc": "test", "directory":"/resource" } 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.6241", "error_msg":"The resource
start_time=1702378620000&end_time=1702710169595&limit=3&offset=0 响应示例 成功响应 HTTP状态码 200 { "alarm_info": [ { "alarm_time": 1702710169460,
sk-statistics-overview?is_own=false&query_days=today 响应示例 成功响应 HTTP状态码 200 { "fail_count": 0, "force_success_count": 0, "freeze_count":
Base/CloudTable/MongoDB导出数据时,CDM有较大概率无法获得所有列),则可以单击后选择“添加新字段”来手动增加,确保导入到目的端的数据完整。 关系数据库、Hive、MRS Hudi及DLI做源端时,不支持获取样值功能。 SQLServer作为目的端数据源时,
SQL查询。除了使用相同的统一存储平台之外,Impala还使用与Apache Hive相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具的补充,Im
SDK使用前准备 下载SDK,并导入对应SDK到本地开发工具。 登录DataArts Studio控制台。 单击“数据服务”模块。 单击左侧菜单“共享版 > SDK”或“专享版 > SDK”。 单击SDK使用引导区域里对应语言的SDK,下载SDK包到本地。 进行SDK包完整性校验
业JSON定义”,复制其中的JSON内容,格式化为Java字符串语法,然后粘贴到此处。 *JSON消息体中一般只需要替换连接名、导入和导出的表名、导入导出表的字段列表、源表中用于分区的字段。**/ String json = "{\r\n"+ "\"jobs\": [\r\n"+
/v1/b384b9e9ab9b4ee8994c8633aabc9505/connections/connection1 响应示例 成功响应 HTTP状态码 204 父主题: 连接管理API(待下线)