检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Agent功能待下线,无需配置。 - 导入模式 COPY模式:将源数据经过DWS管理节点后复制到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 单击“保存”完成创建连接。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到DWS的任务。
in用户组的权限。 *topic主题 选择第三方平台的动态脱敏策略发布Kafka消息的Topic主题。同一个MRS集群的一个Topic主题只能对应一个订阅任务。 调度配置 调度时间 选择每天调度生效的时间段。 建议消息量大小评估调度时间,目前消费一个数据加同步大约需要2秒。 调度周期
用Token认证时必选。 表3 请求Body参数 参数 是否必选 参数类型 描述 name 否 String 数据密级名称。名称应该唯一,只能由英文字母、数字、下划线、汉字构成。 description 否 String 数据密级描述。 响应参数 状态码: 200 表4 响应Body参数
在编辑器上方,单击“保存”,保存脚本。 如果脚本是新建且未保存过的,请配置如表3所示的参数。 表3 保存脚本 参数 是否必选 说明 脚本名称 是 脚本的名称,只能包含字符:英文字母、数字、中文、中划线、下划线和点号,且长度小于等于128个字符。 描述 否 脚本的描述信息。 选择目录 是 选择脚本所属的目录,默认为根目录。
新建复合指标 表1 新建复合指标参数说明 参数名称 说明 *复合指标名称 只允许除\、<、>、%、"、'、;及换行符以外的字符。 *复合指标英文名称 只能包含英文字母、数字和下划线,且必须以英文字母开头。 *所属主题 显示所属的主题信息。您也可以单击“选择主题”进行选择。 *统计维度 选择来源于衍生指标的统计维度。
弹出的“新建网络连接”对话框输入对应参数,配置参数如下表所示: 表2 新建网络连接参数 参数 说明 连接名称 填写待创建的网络连接名称。 只能包含字母、数字和下划线。 资源组 需要和指定VPC进行网络打通的资源组。 如果创建时未选择资源组,可以在网络连接创建好后再绑定资源组。支持绑定多个资源组,可以通过单击“更多”
“自助审批”,单击“确认提交”后,主题域分组状态显示为“已发布”。 图3 发布主题 在一个主题下,还可以新建多个主题。注意,多层主题发布时只能按层级由上至下发布,只有上层主题发布后,下层主题才被允许发布。 创建主题时,如果主题创建到业务对象L3层级时,即创建主题层级出现“新建业务
弹出的“新建网络连接”对话框输入对应参数,配置参数如下表所示: 表2 新建网络连接参数 参数 说明 连接名称 填写待创建的网络连接名称。 只能包含字母、数字和下划线。 资源组 需要和指定VPC进行网络打通的资源组。 如果创建时未选择资源组,可以在网络连接创建好后再绑定资源组。支持绑定多个资源组,可以通过单击“更多”
如果需要查询其他工作空间的数据,需要带上该消息头。 表3 Connection参数说明 参数名 是否必选 参数类型 说明 name 是 String 连接名称,只能包含四种字符:英文字母、数字、中划线和下划线,且长度小于等于100个字符。连接名称不能重复。 type 是 String 连接类型,包含:
NO:不检查,请求返回200响应码(表示节点执行成功)。 返回值字段路径 是 填写Json响应消息中某个属性的路径(下称:Json属性路径),每个Rest Client节点都只能配置一个属性的路径。当“是否需要判断返回值”为“YES”时,显示该配置项。 例如,返回结果为: { "param1":
说明: 自定义异常表包含四种方式:添加表前后缀、添加表前缀、添加表后缀、选择已有表。表前缀以英文字母和下划线开头,且只能包含英文字母、数字和下划线。表后缀只能包含英文字母、数字和下划线。 当单击“选择已有表”时,需要选择表名,数据库和schema系统默认,如果未选择表名,则显示数据库名
参数类型 描述 count Integer 当前分页返回数据连接记录数。 max_records Integer 返回记录总数,一个工作空间最多只能创建的数据连接条数。 data_connection_lists Array of ApigDataSourceView objects 返回数据连接列表。
不改变原始文件格式,适用于文件到文件的迁移。 如果是文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,此处的“文件格式”只能选择与源端的文件格式一致。 说明: 当源端为MRS Hive数据源时,仅支持配置CSV格式。 当源端为FTP/SFTP数据源时,仅支持配置二进制格式。
不改变原始文件格式,适用于文件到文件的迁移。 如果是文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,此处的“文件格式”只能选择与源端的文件格式一致。 说明: 当源端为MRS Hive数据源时,仅支持配置CSV格式。 当源端为FTP/SFTP数据源时,仅支持配置二进制格式。
中需要填写CDB库的用户名和密码,不能为PDB用户名和密码,因为Oracle日志统一在存储在CDB库中,同时Oracle logminer只能运行在CDB库中。 操作步骤 本小节以Oracle到DWS的实时同步为示例,介绍如何配置Migration实时集成作业。配置作业前请务必阅读使用前自检概览,
2}为${Schema_Table2}中所选的字段。系统支持对定义关系进行语义校验。 在自定义规则模板时,在定义关系时,如果出现非数字时,只能输出运行结果,不能进行四则运算、逻辑运算和绝对值。 自定义规则模板的定义关系目前最多支持10张表20个字段。 自定义的SQL表达式有如下要求:
生成元数据功能本身,支持一次生成多对点表和边表的元数据xml文件。但考虑到Import GES节点的“边数据集”和“点数据集”参数,分别只能选择一张表,建议您在有多对点表和边表的情况下,分拆多个Import GES节点分别导入,以确保导入图数据时,元数据与每对点表和边表能够一一对应。
群增量包创建集群后使用。 包年包月 计费详情请参见数据服务专享集群增量包价格详情。 公测期间的数据服务专享集群将转为收费集群,宽限期内充值只能选择包周期,充值后不存在宽限期。超过宽限期后集群状态转为冻结期。 说明: 数据服务专享版在每个DataArts Studio实例下具有创建
HLL(HyperLogLog) 类型是一个二进制类型。HLL 类型只能用于聚合类型的表(Aggregation Table),并且必须指定聚合类型为 HLL_UNION。 HLL 类型主要用于非精确快速去重场景下,对数据进行预聚合。 HLL列只能通过配套的 hll_union_agg、hll_cardinality、hll_hash
输入数据库或Schema信息,表示存储异常数据的数据库或Schema。 设置异常表的表前缀和表后缀,表示存储异常数据的表前缀和后缀。 异常表的前后和后缀只能包含英文字母、数字和下划线。 配置好以后,单击保存异常数据配置信息。 系统支持配置where表达式,可依据用户输入的where条件对字段进行过滤。