检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
egion对应的项目ID、账号ID和用户ID。 注册并登录管理控制台。 在用户名的下拉列表中单击“我的凭证”。 在“API凭证”页面,查看账号名和账号ID、IAM用户名和IAM用户ID,在项目列表中查看项目和项目ID。 KMS密钥 是 通过KMS加解密数据源认证信息,选择KMS中的任一默认密钥或自定义密钥即可。
择集群后的“作业管理”。 单击“表/文件迁移”显示作业列表,可对单个作业执行如下操作: 修改作业参数:单击作业操作列的“编辑”可修改作业参数。 运行作业:单击作业操作列的“运行”可手动启动作业。 查看历史记录:单击作业操作列的“历史记录”进入历史记录界面,可查看该作业的历史执行记
在配置作业调度时,可以选择每个月的最后一天执行。如果您需要配置作业的调度时间为每月最后一天,请参考下面两种方法。 表1 配置每月最后一天进行调度 配置方法 优势 如何配置 调度周期配置为天,通过条件表达式进行判断是否为每月最后一天 可以灵活适用多种场景。只需要编写条件表达式就可以灵活调度作业去运行。例如,每月最后一天,每月七号等。
注册并登录管理控制台。 在用户名的下拉列表中单击“我的凭证”。 在“API凭证”页面,查看账号名和账号ID、IAM用户名和IAM用户ID,在项目列表中查看项目和项目ID。 数据集成配置 访问标识(AK) 是 适用组件勾选数据集成后,呈现此参数。 访问DLI数据库时鉴权所需的AK和SK。 您
Administrator系统角色有权限进行如下操作: 配置空间权限集 配置行级权限访问控制 同步用户 配置空间资源权限 配置细粒度认证 配置队列权限 如需配置安全管理员,则需要以具有DAYU Administrator系统角色权限的账号登录数据安全总览页面,选择某个IAM子用户或者用
ic参数值的报错)。 参数类型分为数值型Number与字符型String两大类。Number参数对应数据库中int、double、long等数值数据类型,String参数对应数据库中char、vachar、text等文本数据类型。 是否必填、允许空值以及默认值。 如果设定为必填,则API在访问时,必须传入指定参数。
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 CDM集群名称 是 选择CDM集群。如需查看集群列表,请单击下拉框右侧的。系统最多允许选择16个集群。 CDM作业消息体 是 输入CDM作业消息体,作业消息体内容为JSON格式。 消息体JSON内容获取方法如下:
csv 否 目录层次 自定义目录层次选择是时显示该参数。 指定文件的目录层次,支持时间宏(时间格式为yyyy/MM/dd)。源端为关系型数据库数据源时,目录层次为源端表名+自定义目录,其他场景下为自定义目录。 ${dateformat(yyyy/MM/dd, -1, DAY)} 文件名前缀
输入使用场景说明,选择对应数据连接、数据库和数据表。 选择需要申请的表/列权限。 申请单张表/列权限。 勾选自己当前无权限但需要使用的表权限/列权限。 申请多张表/列权限。 批量选择多张表后,在权限信息页面依次勾选需要使用的表/列权限。 图1 申请表/列权限信息 单击“确定”,系统弹出
I审核。 申请自己的API推荐采用API主动授权/续约,无需审核。 自己的应用推荐采用APP解除授权,无需预留准备时间。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/service/apis/authorize/action 表1 路径参数
如果选择写入到OBS,此参数表示相应的OBS桶下的目录,例如:“/data/dirtydata/”。 throttlingConfig.maxErrorRecords 否 String 单个分片的最大错误记录数。单个map的错误记录超过设置的最大错误记录数时,任务自动结束,已经导入的数据不回退。 schedulerConfig
性可以考虑设置为false关闭compaction操作,将Hudi Compaction单独拆成Spark作业交由MRS执行,具体可以参考如何配置Hudi Compaction的Spark周期任务?。 compaction.delta_commits int 40 实时处理集成生成compaction
com”。 端口:OBS服务器的端口,例如“443”。 OBS桶类型:根据实际情况下拉选择即可。 访问标识(AK)、密钥(SK):访问OBS数据库的AK、SK。可在管理控制台单击用户名,选择“我的凭证 > 访问密钥”后获取。 单击“保存”,系统回到连接管理界面。 选择“表/文件迁移 >
若选择SQL语句方式,数据开发模块将无法解析您输入SQL语句中携带的参数。 数据连接 是 默认选择SQL脚本中设置的数据连接,支持修改。 模式 是 默认选择SQL脚本中设置的数据库,支持修改。 脚本参数 否 关联的SQL脚本如果使用了参数,此处显示参数名称,请在参数名称后的输入框配置参数值。参数值支持使用EL表达式。
表名+列名”。系统定义的Hive与Hetu间的策略映射关系如表2所示。 表2 Hive与Hetu的策略映射关系 Hive Hetu 资源映射关系 hive数据源 Hetu Catalog hive数据库 Hetu Schema hive表 Hetu表 hive列 Hetu列 权限映射关系
连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 dli_link 访问标识(AK) 访问DLI数据库时鉴权所需的AK和SK。 您需要先创建当前账号的访问密钥,并获得对应的AK和SK。 登录控制台,在用户名下拉列表中选择“我的凭证”。 进入“我的凭证”页面,选择“访问密钥 > 新增访问密钥”,如图1所示。
port=21050, auth_mechanism='GSSAPI', kerberos_service_name='impala',database='default') cursor = conn.cursor() cursor.execute("show databases;")
21600 240 码表管理接口 表6 码表管理接口 API 说明 API流量限制(次/min) 用户流量限制(次/min) 查询码表列表 查询码表列表。 21600 240 创建码表 创建码表。 10800 120 删除码表 删除码表。 10800 120 修改码表 修改码表。 10800
该节点将会再次重试。 失败重试 如果作业执行失败,可选择自动重试三次或者不重试。推荐值:不重试。 建议仅对文件类作业或启用了导入阶段表的数据库作业配置自动重试,避免自动重试重复写入数据导致数据不一致。 说明: 如果通过DataArts Studio数据开发使用参数传递并调度CDM
作业名称 是 输入DLI Spark作业名称。 作业名称只能包含英文字母、数字、下划线和中划线,且长度为1~64个字符。 DLI队列 是 选择DLI队列。 Spark版本 否 2.3.2 2.4.5 3.1.1 作业特性 否 用户作业使用的Spark镜像类型(当前支持基础型、AI增强型和自定义的Spark镜像)。