检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
row_level_security 否 String 行级策略。无效参数,待下线。 url 否 String url路径名称, MRS存算分离或者HIVE指定location场景下使用。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 id String id。 permission_set_id
点将被跳过。 此Demo中使用的EL表达式为“#{Job.getNodeStatus("node_name")}”,这个表达式的作用为获取指定节点的执行状态,成功状态返回success,失败状态返回fail。本例使用中,IF条件表达式分别为: 上面的A分支IF条件表达式为: #{(Job
Studio部署时通过物理区域划分,为项目级服务。授权时,“授权范围方案”如果选择“所有资源”,则该权限在所有区域项目中都生效;如果选择“指定区域项目资源”,则该权限仅对此项目生效。IAM用户授权完成后,访问DataArts Studio时,需要先切换至授权区域。 图7 设置最小授权范围
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
taArts Studio实例时自动创建的数据集成集群。 用户名:数据库的用户名,创建DWS集群时指定的用户名,默认为dbadmin。 密码:数据库的访问密码,创建DWS集群时指定的密码。 图2 DWS连接配置参数 DWS连接创建完成后,跳转到数据开发页面。 图3 跳转到数据开发页面
API连接方式下不支持选择数据库。 运行程序参数 配置运行参数。 举例如下: 参数配置为--queue,参数值配置为default_cr,该示例表示配置了MRS集群的指定队列。同时在MRS集群的作业管理下,在操作的“更多 > 查看详情”里面可以查看该作业的详细信息。 说明: 为本次执行的作业配置相关优化参数
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
Spark数据连接适用于数据治理场景。 为保证数据开发场景下,支持为每个Spark SQL作业独立配置需要的资源(例如线程、内存、CPU核数并指定MRS资源队列等),连接方式需要配置为“MRS API连接”。注意,代理连接不支持为每个Spark SQL作业独立配置资源。 为保证数据架
12345,目的端数据会被截取为2023-03-27 00:00:00.123。 Hive作为迁移的目的时,如果存储格式为Textfile,在Hive创建表的语句中需要显式指定分隔符。例如: CREATE TABLE csv_tbl( smallint_value smallint, tinyint_value tinyint
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
scheduleOffTime 否 String 定时关机的时间,定时关机时系统不会等待未完成的作业执行完成。 vpcId 否 String 指定虚拟私有云ID,用于集群网络配置。 name 否 String 集群名称。 sys_tags 否 Array of sys_tags objects
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
Hive开启LDAP认证时配置的密码。 OBS支持 否 适用组件勾选数据集成后,呈现此参数。 需服务端支持OBS存储。在创建Hive表时,您可以指定将表存储在OBS中。 使用委托 否 适用组件勾选数据集成后,呈现此参数。 开启委托功能,即可以在无需持有永久AKSK的情况下创建数据连接,
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
对云服务进行操作。 DataArts Studio部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DataArts
Hive开启LDAP认证时配置的密码。 OBS支持 否 适用组件勾选数据集成后,呈现此参数。 需服务端支持OBS存储。在创建Hive表时,您可以指定将表存储在OBS中。 使用委托 否 适用组件勾选数据集成后,呈现此参数。 开启委托功能,即可以在无需持有永久AKSK的情况下创建数据连接,