检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
只能包含英文字母、数字和下划线。 *时间配置 可选择“按年”、“按月”、“按日”、“按小时”或“按分钟”,然后根据需要选择“快速选择”或“自定义”进行时间条件的设置。 自定义时,“-”表示从当前时间向前的时间段,“+”表示从当前时间向后的时间段。例如,过去一年到未来三年,可以按年自定义为“-1到+3”或“+3到-1”。
回收用户的资产权限 选择“数据表权限 > 用户权限”,单击账号后操作列的“回收”,可回收该账号所有的资产权限。 选择“数据表权限 > 用户权限”,勾选用户名前的复选框,单击左上角“回收”,支持批量回收用户资产权限。 图4 回收用户的资产权限 对用户授权 图5 授权 在资产上管理用户的权限 选择“数据表权限
CustomMetadata objects 自定义元数据信息。 update_time String 修改时间。 user_name String 用户名。 path String 路径。 last_run_time String 最后一次执行时间。 start_time String 开始时间。
参数 参数类型 描述 id String 记录id,主键标识。 user_id String 用户id。 user_name String 用户名。 domain_id String 租户id。 domain_name String 租户名。 display_user_name String
REBOOT_FAILURE:重启失败。 type String 节点类型,只支持一种类型“cdm”。 id String 节点的虚拟机ID。 name String 节点的虚拟机名称。 isFrozen String 节点是否冻结:0:否。1:是。 components String 组件。 config_status
送的数据中,单击“测试运行”,然后在节点上右键查看日志,日志中会把EL表达式的值打印出来。 使用Shell节点。 前提:您需要具备弹性云服务器ECS。 方法:创建一个主机连接,将EL表达式直接通过echo打印出来,单击“测试运行”之后查看日志,日志中会打印出EL表达式的值。 使用Create
时,才有该参数。 选择“是”后,迁移对象文件时会复制源文件的Content-Type属性,主要用于静态网站的迁移场景。 归档存储的桶不支持设置Content-Type属性,所以如果开启了该参数,目的端选择写入的桶时,必须选择非归档存储的桶。 toJobConfig.quoteChar
分库分表同步适用于将本地数据中心或在ECS上自建的数据库,同步到云上的数据库服务或大数据服务中,适用于多库多表同步场景。 支持分库分表同步的数据源如下所示: 源端为RDS(MySQL)时支持分库分表同步。 整库同步支持的数据源类型 整库同步适用于将本地数据中心或在ECS上自建的数据库,同步到云
10 查询发布包列表 用于查询发布包的列表信息。 100 10 查询指定发布包详情 用于查询指定的发布包详情信息。 100 10 设置作业标签 此设置作业标签。 100 10 查询告警通知记录 查询指定时间段内的告警通知记录。 100 10 发布任务包 目前支持发布包管理中相关包的发布,支持发布多个任务包。
/恢复API。 设置API工作流可见:在API工作流列表页面,单击对应工作流操作栏中的“更多 > 设置可见”,即可弹出API工作流设置可见窗口。 设置API工作流可见可以修改API工作流在服务目录中的可见范围。设置可见流程与API设置可见流程基本一致,可参考设置API可见。 复制
策略。 责任人 设置所选作业的责任人,只能从当前工作空间中的用户选择。 如果设置为保持不变,则各作业保持原来的责任人。 周期作业实例并发数 设置所选作业并行处理的数量。 如果设置为保持不变,则保持原来的周期作业实例并发数。 是否清理超期等待运行的作业实例 如果设置为取消运行,需要
支持。 单击右上角的,设置相关脚本的环境变量。举例如下所示: 设置Hive SQL脚本的环境变量: --hiveconf hive.merge.mapfiles=true; --hiveconf mapred.job.queue.name=queue1 设置Spark SQL脚本的环境变量:
是否必选 参数类型 描述 user_id 否 String 用户id,从获取工作空间用户信息列表中获取。 user_name 否 String 用户名,从获取工作空间用户信息列表中获取。 domain_id 否 String 租户id,从获取工作空间用户信息列表中获取。 domain_name
如果是导入到数据仓库服务(DWS),则还需在目的字段中选择分布列,建议按如下顺序选取分布列: 有主键可以使用主键作为分布列。 多个数据段联合做主键的场景,建议设置所有主键作为分布列。 在没有主键的场景下,如果没有选择分布列,DWS会默认第一列作为分布列,可能会有数据倾斜风险。 如CDM不支持源端迁移
admin账号即可作为Ranger管理员账号,安全集群需要使用rangeradmin作为Ranger管理员账号,rangeradmin默认密码请参考用户账号一览表章节。 图3 登出当前账号 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。 在“Access”
如果是导入到数据仓库服务(DWS),则还需在目的字段中选择分布列,建议按如下顺序选取分布列: 有主键可以使用主键作为分布列。 多个数据段联合做主键的场景,建议设置所有主键作为分布列。 在没有主键的场景下,如果没有选择分布列,DWS会默认第一列作为分布列,可能会有数据倾斜风险。 如CDM不支持源端迁移
如果是导入到数据仓库服务(DWS),则还需在目的字段中选择分布列,建议按如下顺序选取分布列: 有主键可以使用主键作为分布列。 多个数据段联合做主键的场景,建议设置所有主键作为分布列。 在没有主键的场景下,如果没有选择分布列,DWS会默认第一列作为分布列,可能会有数据倾斜风险。 如CDM不支持源端迁移
究、国际贸易促进等方面。 在这之前,H公司采用其自建的大数据集群,并安排专人维护,每年固定购买电信联通双线专用带宽,在机房、电力、专网、服务器、运维方面进行高额投入,但其在面对客户不断变化的业务诉求时,因为人员投入不足,大数据集群能力不匹配,而无法聚焦业务创新,使得存量100T的数据只有4%的利用率。
当“作业调度身份是否可配置”设置为“是”,该参数可见。 配置委托后,作业执行过程中,以委托的身份与其他服务交互。 作业优先级 自动匹配创建作业时配置的作业优先级,此处支持修改。 实例超时时间 配置作业实例的超时时间,设置为0或不配置时,该配置项不生效。如果您为作业设置了异常通知,当作业实
配置开发生产环境隔离 配置两套数据湖服务,进行开发与生产环境隔离。 对于集群化的数据源(例如MRS、DWS、RDS、MySQL、Oracle、DIS、ECS等),DataArts Studio通过管理中心的创建数据连接区分开发环境和生产环境的数据湖服务,在开发和生产流程中自动切换对应的数据湖。