检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请务必确保您的账户下已在数据仓库服务(DWS)里创建了DWS集群。 如何创建DWS集群,请参考《数据仓库服务管理指南》中“创建集群”章节。 请确保已创建DWS数据库表。 该场景作业需要运行在DLI的独享队列上,因此要与DWS集群建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。
如果target为NULL,则返回一个空行。 如果target包含两个或多个连续出现的分隔符时,则返回长度为零的空子字符串。 如果target未包含指定分隔符,则返回目标字符串。 separator VARCHAR 指定的分隔符,当前仅支持单字符分隔。 示例 准备测试输入数据 表2 测试源表disSource数据和分隔符
PG_TERMINATE_BACKEND(pid) from pg_stat_activity WHERE state='idle'; 检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。 在GaussDB(DWS) 控制台设置会话闲置超时时长session_timeou
appName("datasource-hbase").getOrCreate() 通过SQL API访问 创建DLI跨源访问HBase的关联表 如果对接的HBase集群未开启Kerberos认证,样例代码参考如下。 sparkSession.sql( "CREATE TABLE testhbase(id
4”以上版本。 CSS集群已开启“安全模式”。 Password DWS、RDS、DDS、Redis - 表3 Flink OpenSource SQL 1.12支持跨源认证的数据源 表类型 跨源认证类型 数据源 约束与限制 源表 Kerberos HBase MRS安全集群已开启Kerberos认证。
F1后,后续作业使用新的F1函数逻辑,但是已执行完一半的作业使用旧的函数逻辑。 表2 携带OR REPLACE场景说明 序号 场景说明 场景举例 生效机制 操作影响 场景一 修改了原有程序包类的实现逻辑,重新创建的函数指定的JAR包名和类名保持和原有一致。 在Spark SQL队列下已创建自定义函数F1,指定类名C1,Jar包名J1。
flink_taskmanager_Status_Network_AvailableMemorySegments TaskManager未使用的内存segments的个数 flink_taskmanager_Status_Network_TotalMemorySegments
user (已废弃)访问DDS集群用户名。 password (已废弃)访问DDS集群密码 passwdauth 跨源密码认证名称。跨源认证信息创建方式请参考《数据湖探索用户指南》>《跨源认证》。 encryption 使用跨源密码认证时配置为“true”。 如果在DDS中已存在co
源。 前提条件 账号A已配置DLI云服务委托,且委托需包含DLI Datasource Connections Agency Access,具备访问和使用VPC、子网、路由、对等连接的权限。详细操作请参考配置DLI云服务委托权限。 作为资源所有者的账号A已创建共享VPC和子网,并指定资源使用者为账号B。
Doris,请在增强型跨源的主机信息中添加MRS集群所有节点的主机ip信息。 详细操作请参考《数据湖探索用户指南》中的“修改主机信息”章节描述。 集群未启用Kerberos认证(普通模式) 使用admin用户连接Doris后,创建具有管理员权限的角色并绑定给用户。 注意事项 创建Flink OpenSource
上传数据相关API(废弃) 对已创建的上传作业进行鉴权(废弃) 父主题: 历史API
dli_management_agency委托包含的权限 适用场景 委托名 权限说明 基础使用 IAM ReadOnlyAccess DLI对未登录过DLI的用户进行授权时,需获取IAM用户相关信息。因此需要IAM ReadOnlyAccess权限。 IAM ReadOnlyAcce
在弹出的对话框中,输入新的所有者用户名(已存在的用户名),单击“确定”。 在“SQL编辑器”页面修改数据库所有者。 在管理控制台左侧,单击“SQL编辑器”。 在左侧导航栏单击选择“数据库”页签,鼠标左键单击对应数据库右侧的,在列表菜单中选择“修改数据库”。 在弹出的确认对话框中,输入新的所有者用户名(已存在的用户名),单击“确定”。
用户指南> 数据管理> 程序包管理> 内置依赖包”),这些常用算法库满足了大部分用户的使用场景。对于用户的PySpark程序依赖了内置算法库未提供的程序库该如何呢?其实PySpark本身就已经考虑到这一点了,那就是基于PyFiles来指定依赖,在DLI Spark作业页面中可以直接
CDC源表来监控MySQL的数据变化,并将变化的数据信息插入到DWS数据库中。 前提条件 已创建RDS MySQL实例。本示例创建的RDS MySQL数据库版本选择为:8.0。 具体步骤可参考购买RDS for MySQL实例。 已创建DWS实例。 具体创建DWS集群的操作可以参考创建DWS集群。 整体作业开发流程
not heard from server in 90069ms for connection id 0x0 A:跨源未绑定或未绑定成功,或是HBase集群安全组未配置放通DLI队列的网段地址。参考增强型跨源连接重新配置跨源,或者HBase集群安全组放通DLI队列的网段地址。 父主题:
not heard from server in 90069ms for connection id 0x0 A:跨源未绑定或未绑定成功,或是HBase集群安全组未配置放通DLI队列的网段地址。参考增强型跨源连接重新配置跨源,或者HBase集群安全组放通DLI队列的网段地址。 父主题:
数据库的URL connector.table 是 读取数据库中的数据所在的表名 connector.driver 否 连接数据库所需要的驱动。若未配置,则会自动通过URL提取 connector.username 否 访问数据库所需要的账号 connector.password 否 访问数据库所需要的密码
Doris,请在增强型跨源的主机信息中添加MRS集群所有节点的主机ip信息。 详细操作请参考《数据湖探索用户指南》中的“修改主机信息”章节描述。 集群未启用Kerberos认证(普通模式)。 使用admin用户连接Doris后,创建具有管理员权限的角色并绑定给用户。 注意事项 创建Flink
否,执行2购买“SQL队列”类型的队列。 选择“资源管理 > 弹性资源池”,选择已购买的弹性资源池,单击操作列的“添加队列”,其中队列类型选择“SQL队列”,选择其他参数后提交创建。 在CDM侧重新配置迁移作业的DLI目的连接参数,其中资源队列”参数选择已创建的DLI“SQL队列”。 CDM重新提交迁移作业,查看作业执行日志。