检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
问题现象 客户创建增强型跨源连接后,在队列管理测试网络连通性,网络不通,单击对应的跨源连接查看详情,发现绑定队列失败,报错信息如下: Failed to get subnet 86ddcf50-233a-449d-9811-cfef2f603213.
支持以下两种类型: basic:基础型 ai:AI增强型(仅SQL的x86_64专属队列支持选择) 默认值为“basic”。 说明: AI增强型即队列加载了AI镜像,该镜像在基础镜像的基础上集成了AI相关的算法包。
Flink作业输出流写入数据到OBS,通过该OBS文件路径创建的DLI表查询无数据 Flink SQL作业运行失败,日志中有connect to DIS failed java.lang.IllegalArgumentException: Access key cannot be
辅助命令语法 DESCRIBE DESCRIBE FORMATTED COLUMNS DESCRIBE DATABASE| SCHEMA EXPLAIN 父主题: HetuEngine SQL语法
· IPv4地址:192.168.x.x · IPv4+端口号:192.168.x.x:8080 · 域名:domain-xxxxxx.com · 域名+端口号:domain-xxxxxx.com:8080 图1 测试地址连通性 单击“测试”。
status 否 String 连接状态,包括以下两种状态: ACTIVE:已激活 DELETED:已删除 available_queue_info 否 Array of Objects 各个队列创建跨源连接的信息,详细信息请参考表3。
/main/config</directory> <filtering>true</filtering> <includes> <include>**/*.
ai:表示使用DLI提供的AI镜像。 spark_version 否 String 作业使用spark组件的版本号,在“feature”为“basic”或“ai”时填写,若不填写,则使用默认的spark组件版本号2.3.2。 image 否 String 自定义镜像。
{ "projects": [ { "domain_id": "65382450e8f64ac0870cd180d14e684b", "is_domain": false, "parent_id
根因分析:RETAIN 保留期过短(少于168小时),需要确认是否能清理该时间前的数据,将无法再回头查看在指定数据保留期之前创建的版本。
CALL COMMAND语法说明 CLEAN_FILE SHOW_TIME_LINE SHOW_HOODIE_PROPERTIES ROLL_BACK CLUSTERING CLEANING COMPACTION SHOW_COMMIT_FILES SHOW_FS_PATH_DETAIL
"FAILED"表示模块包上传失败。 resources 否 Array of Strings 该模块包含的资源包名列表。 description 否 String 模块描述。 create_time 否 Long 模块上传的unix时间戳。
'、 'properties.sasl.jaas.config' = 'org.apache.kafka.common.security.plain.PlainLoginModule required username=\"xxx\" password=\"xxx\";' 具体的建表操作指导请参考
FAILED 失败 跨源连接创建失败。
Flink Jar 包冲突,导致作业提交失败 Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 Flink Jar作业运行报错,报错信息为Authentication failed Flink Jar作业设置backend为OBS,报错不支持OBS文件系统 Hadoop
status String 此作业的当前状态,包含运行中(RUNNING)、规格变更中(SCALING)、提交中(LAUNCHING)、已完成(FINISHED)、已失败(FAILED)、已取消(CANCELLED)。
否 elasticsearch请求失败时的策略,默认为fail fail:当请求失败且作业失败时抛出异常 ignore:忽略 retry-rejected:对于由于es节点的队列满时,会重新请求而不抛出失败。
', -- 按照SASL_PLAINTEXT方式填写 'properties.security.protocol' = 'SASL_SSL', 'properties.sasl.jaas.config' = 'org.apache.kafka.common.security.plain.PlainLoginModule
5 6 7 8 9 10 11 12 13 14 15 16 17 import org.apache.spark.sql.SparkSession; public class java_mrs_hbase { public static void main
maxwell-json.map-null-key.mode 否 'FAIL' String 在序列化地图数据的空键时指定处理模式。当前支持的值为“FAIL”、“DROP”和“LITERAL”:选项“FAIL”将在遇到带有空键的地图时抛出异常。