检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
TEXT格式:将整条消息内容作为文本直接同步。 消费组ID:由用户指定,标识当前实时处理集成作业的消费组。 当迁移作业消费DMS Kafka集群某一Topic的消息后,在Kafka集群的“消费组管理”可以看到此处配置的消费组ID、在“消息查询”可以查到消费属性group.id。因为Kafka把消费消息
Y 编辑数据标准 Y Y N N 数据集成 权限点 管理员 开发者 运维者 访客 新建集群 Y Y N N 删除集群 Y Y N N 操作集群 Y Y Y N 查询集群 Y Y Y Y 编辑集群 Y Y N N 操作连接 Y Y Y N 查询连接 N N N N 操作作业 Y Y
选择已创建的日志组名称,进入该日志组页面。 单击“创建日志流”,在弹出框内,输入日志流名称。 单击“确定”,创建完成。 配置云服务访问日志转储 登录数据服务专享版页面,选择集群,选择日志转储,选择LTS云服务日志。 图2 LTS转储 查看访问日志 当您配置了访问日志,可以查看访问日志的详细信息。 通过“云日志服务
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 cluster_id 是 String 集群ID。 job_name 是 String 作业名称。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
维管理,如查看运行状态,对任务进行终止、重跑等操作。 只有支持委托提交作业的MRS集群,才支持对账作业周期调度。 支持委托方式提交作业的MRS集群有: MRS的非安全集群。 MRS的安全集群,集群版本大于 2.1.0,并且安装了MRS 2.1.0.1以上的补丁。 表3 配置周期调度参数
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
服务,支持自建和云上的文件系统,以及关系数据库,数据仓库,NoSQL,大数据云服务,对象存储等数据源。 数据集成 支持的数据源 创建CDM集群 创建CDM与数据源之间的连接 新建表/文件迁移作业 数据目录(元数据采集) 为了在DataArts Studio对迁移到云上的原始数据层
数据开发 数据开发可以创建多少个作业,作业中的节点数是否有限制? DataArts Studio支持自定义的Python脚本吗? 作业关联的CDM集群删除后,如何快速修复? 作业的计划时间和开始时间相差大,是什么原因? 相互依赖的几个作业,调度过程中某个作业执行失败,是否会影响后续作业?这时该如何处理?
DataArts无法直接与非全托管服务进行连接,需要提供DataArts Studio与非全托管服务通信的代理。CDM集群可以提供通信代理服务,请选择一个CDM集群,如果没有可用的CDM集群,请先通过数据集成增量包进行创建。 数据集成配置 测试地址 是 测试连通性地址,返回200则视为连接认证成功。
放的API,这样即可不受每天最多访问1000次的规格限制。 专享版默认发布到数据服务专享版集群上,发布成功后API调用者可以通过内网调用该API。值得一提的是,只有将API发布到专享版集群上,才不存在每天最多可以访问1000次的限制,可自由调用API。 您也可以选择“更多”,将API发布到APIG专享版或ROMA
host2:port2”。 llinkConfig.host 是 String MRS Manager的浮动IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 linkConfig.user 是 String 登录MRS Manager平台的用户名。 linkConfig
从下拉列表中选择数据连接类型中已创建的数据连接,若未创建请参考创建DataArts Studio数据连接新建连接。 *集群名称 无需选择,自动匹配数据连接中的数据源集群。 *数据库 选择敏感数据所在的数据库。 *数据表 选择敏感数据所在的数据表。 单击“确定”,完成动态水印策略创建。
服数据迁移,快速构建所需的数据架构。 已发布区域:全部 数据集成 集群管理 集群管理实现的能力如下: 集群创建。 集群EIP的绑定/解绑。 集群配置修改。 集群配置/日志查看/数据监控。 监控指标配置。 创建集群 连接管理 连接管理实现的能力如下: 支持DLI、MRS Hive、Spark
示。右侧为API发送的请求信息和API请求调用后的返回结果回显。 表1 调试API 参数名称 说明 参数配置 Query的参数与参数值。 集群配置 仅专享版支持,选择调试API所依托的实例。 不同类型的请求,调试界面展现的信息项有差异。 添加请求参数后,单击“开始测试”。 右侧返
管理员权限。 配置方法详见检查集群版本与权限。 如果希望在快速模式下权限配置时能够展示数据连接中数据库、表以及字段等元数据提示信息,则需要在数据目录组件,对数据表成功进行过元数据采集,详见元数据采集任务。 约束与限制 当前仅支持为MRS和DWS集群创建角色。 由于空间权限集主要用
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
业列表。 在质量作业列表,单击“导入”。 图13 批量导入质量作业 在弹出的导入窗口中,选择从旧空间导出的质量作业文件,然后选择数据连接、集群和目录等的映射路径,“重名处理策略”默认选择“终止”,最后单击“导入”。 图14 质量作业导入 在导入记录中,可查看导入状态,显示为成功后即成功导入。
参数值支持使用EL表达式。 若关联的Flink SQL脚本,脚本参数发生变化,可单击刷新按钮同步。 UDF Jar 否 当作业所属集群选择独享集群时,该参数有效。在选择UDF Jar之前,您需要将UDF Jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源。