正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
建议排查代码,确认是否有内存泄漏。 图2 Full GC 处理步骤 如果频繁Full GC, 建议排查代码,是否有内存泄漏。 增加单TM所占的资源。 联系技术支持,修改集群心跳配置参数。 父主题: 运维指导
状态码 描述 200 查询成功。 400 请求失败。 500 内部服务器错误。 错误码 调用接口出错后,将不会返回上述结果,而是返回错误码和错误信息,更多介绍请参见错误码。 父主题: 队列相关API(推荐)
e函数用于返回当前日期值。返回值格式为yyyy-mm-dd。 命令格式 getdate() 参数说明 无 返回值说明 返回STRING类型的日期值,格式为yyyy-mm-dd hh:mi:ss。 示例代码 假设当前时间为2023-08-10 10:54:00,返回2023-08-10
date 是 DATE 或 STRING 代表需要处理的日期。 格式为: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 format 是 STRING 代表需要转换的目标日期格式。 STRING类型常量,不支持日期扩展格式。
metadata怎么办? 首先测试地址连通性。 操作方法请参考测试地址连通性。 若果网络不可达,需要先配置网络连通。确保DLI 队列与外部数据源的网络连接性正常。 配置详情请参考配置网络连通。 父主题: 运维指导
用户已上传到DLI资源管理系统的类型为file的资源包名。也支持指定OBS路径,例如:obs://桶名/包名。 modules Array of Strings 依赖的系统资源模块名,具体模块名可通过查询组内资源包(废弃)接口查看。 DLI系统提供了用于执行跨源作业的依赖模块,各个不同的服务对应的模块列表如下:
STRING类型。 需要截取的数据。 decimal_places 否 BIGINT类型。 默认为0,截取位置的小数点位。 返回值说明 返回DOUBLE或DECIMAL类型。 返回规则如下: number为DOUBLE、DECIMAL类型时会返回相应的类型。 number为STR
date 是 DATE 或 STRING 代表需要处理的日期。 格式为: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 format 是 STRING 代表需要转换的目标日期格式。 STRING类型常量,不支持日期扩展格式。
e函数用于返回当前日期值。返回值格式为yyyy-mm-dd。 命令格式 getdate() 参数说明 无 返回值说明 返回STRING类型的日期值,格式为yyyy-mm-dd hh:mi:ss。 示例代码 假设当前时间为2023-08-10 10:54:00,返回2023-08-10
STRING类型。 需要截取的数据。 decimal_places 否 BIGINT类型。 默认为0,截取位置的小数点位。 返回值说明 返回DOUBLE或DECIMAL类型。 返回规则如下: number为DOUBLE、DECIMAL类型时会返回相应的类型。 number为STR
设置依赖关系provided防止Jar包冲突。 确认客户esdk-obs-java-3.1.3.jar的版本。 确认是集群存在问题。 处理步骤 设置依赖关系provided。 重启clusteragent应用集群升级后的配置。 去掉OBS依赖,否则checkpoint会写不进OBS。 父主题: Flink
n 问题现象 客户通过DLI跨源表向CloudTable Hbase导入数据,原始数据:HBASE表,一个列簇,一个rowkey运行一个亿的模拟数据,数据量为9.76GB。导入1000W条数据后作业失败。 原因分析 查看driver错误日志。 查看executor错误日志。 查看task错误日志。
名称 是否必选 参数类型 说明 sql 是 String 新增的SQL模板。 sql_name 是 String 新增SQL模板名称,该名称在当前工程下必须唯一。 description 否 String 新增SQL模板的描述信息,可以为空字符串。 group 否 String SQL模板分组名称。
String 用于过滤SQL模板的关键字。 请求参数 无 响应参数 表3 响应参数说明 名称 参数类型 说明 is_success Boolean 是否成功。 message String 系统提示信息,执行成功时,信息可能为空。执行失败时,用于显示执行失败的原因。 sql_count
通过控制台提交作业请参考《数据湖探索用户指南》中的“选择依赖资源参数说明”表说明。 通过API提交作业请参考《数据湖探索API参考》>《创建批处理作业》中“表2-请求参数说明”关于“modules”参数的说明。 完整示例代码 通过DataFrame API 访问 认证用的ak和sk硬编码到代码中或者明文
运行Spark作业,作业运行失败,作业日志中提示java server connection或container启动失败。 解决方案 确认是否已修改跨源连接的主机信息,如果没有,请参考DLI跨源连接中配置MRS主机信息修改主机信息。重新创建和提交Spark作业。 问题2:运行Spark作业,作业运
table-name、connector.key-column作为redis的key。redis的hash类型,每个key对应一个hashmap,hashmap的hashkey为源表的字段名,hashvalue为源表的字段值。 connector.use-internal-schema 否
esultZ,若没有else语句,则返回null。 注意事项 所有result的类型都必须一致。 所有condition类型都必须是布尔类型。 当没有满足的分支时,若指定else语句,则返回else的值,若没有else语句,则返回null。 示例 当units等于5时返回1,否则返回0。
esultZ,若没有else语句,则返回null。 注意事项 所有result的类型都必须一致。 所有condition类型都必须是布尔类型。 当没有满足的分支时,若指定else语句,则返回else的值,若没有else语句,则返回null。 示例 当units等于5时返回1,否则返回0。
table-name、connector.key-column作为redis的key。redis的hash类型,每个key对应一个hashmap,hashmap的hashkey为源表的字段名,hashvalue为源表的字段值。 connector.use-internal-schema 否