检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请求消息 表2 请求参数 参数名称 是否必选 参数类型 说明 plan_name 是 String 队列扩缩容计划名称,名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 target_cu 是 Integer 队列扩缩容计划CU的目标值。 start_hour
是否必选 参数类型 描述 elastic_resource_pool_name 是 String 新建的弹性资源池名称,名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。长度限制:1~128个字符。 说明: 若名称中包含大写字母,将会自动转换为小写字母。 description
非分区表 单表数据总条数 = select count(1) from tablename(入湖时需提供); 单条数据大小 = 平均 1KB(华为建议通过select * from tablename limit 100,得出100条数据的大小,再除以100得到单条平均大小) 单表数据量大小(G)
项目编号,用于资源隔离。获取方式请参考获取项目ID。 请求消息 表2 请求参数 参数名称 是否必选 参数类型 说明 name 是 String 连接名称。 名称只能包含数字、英文字母、下划线。不能为空。 输入长度不能超过64个字符。 dest_vpc_id 是 String 对应服务的vpc的ID。具体请参考《虚拟私有云API参考》。
Jar作业分析数据。 准备工作 已注册华为账号并开通华为云,且在使用DLI前检查账号状态,账号不能处于欠费或冻结状态。 配置DLI委托访问授权 DLI使用过程中涉及到OBS、VPC、SMN等服务交互,首次使用DLI需要用户配置委托授权,允许访问这些依赖服务。 使用华为云账号登录DLI管理控制台,在左侧导航栏单击“全局配置
2021-03-24 10:02:03 0001 Alice 330106 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
在“创建定时任务”页面,设置参数。单击“确定”。 图1 创建定时任务 表1 参数说明 参数名称 描述 任务名称 输入定时任务的名称。 只能包含数字、英文字母和下划线,但不能是纯数字,不能以下划线开头,且不能为空。 输入长度不能超过128个字符。 激活任务 激活队列扩缩容定时任务。默认开启。如
2021-03-24 10:02:03 0001 Alice 330106 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:若Flink作业的日志中有如下报错信息,应该怎么解决? org.apache.flink.table.api.ValidationException: SQL validation failed
在“创建程序包”对话框,配置以下参数。 包类型:选择“JAR”。 OBS路径:程序包所在的OBS路径。 分组设置和组名称根据情况选择设置,方便后续识别和管理程序包。 单击“确定”,完成创建程序包。 图12 创建程序包 步骤7:创建Spark Jar作业 登录DLI控制台,单击“作业管理 >
表1 Flink作业授权参数说明 参数名称 描述 用户名 被授权用户的名称。 说明: 该用户名称是已存在的IAM用户名称。并且该用户需要登录过华为云,才能进行授权操作。 权限设置 全选:所有的权限都勾选上。 查看作业详情:查看此作业的作业详情。 更新作业:编辑修改此作业。 删除作业:删除此作业。
包月两种不同的计费模式的消费情况。 此案例中的单价仅为示例,且计算出的费用为估算值。单价的变动和实际场景中计算出来的费用可能会有偏差。请以华为云官网发布的数据为准。 计费模式 计算规则 付费周期 费用计算 按需计费(专属) 计算费用:计算费用=单价*CU数*小时数 1个月 计算费用:0
<key1>=<val1>;<key2>=<val2>… 说明: endpoint指DLI的终端节点,具体请参考地区和终端节点。 projectId指项目编号,从华为云“基本信息>我的凭证”页面获取项目编号。 “?”后面接其他配置项,每个配置项以“key=value”的形式列出,配置项之间以“;”隔开,详见表3
A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:如果Flink作业的日志中有如下报错信息,应该怎么解决? org.apache.flink.table.api.ValidationException: SQL validation failed
SQL作业分析数据。 准备工作 已注册华为账号并开通华为云,且在使用DLI前检查账号状态,账号不能处于欠费或冻结状态。 配置DLI委托访问授权 DLI使用过程中涉及到OBS、VPC、SMN等服务交互,首次使用DLI需要用户配置委托授权,允许访问这些依赖服务。 使用华为云账号登录DLI管理控制台,在左侧导航栏单击“全局配置
表名:选择导入到DLI的哪张表。 高级属性参数-“扩大字符字段长度”:这里选择“是”。由于MySQL和DLI存储中文时编码不一样,所需的长度也不一样,一个中文字符在UTF-8编码下可能要占3个字节。该参数选择为“是”后,在DLI中自动创表时,会将字符类型的字段长度设置为原表的3倍,避免出现DLI表的字符字段长度不够的报错。
) 或 USE CATALOG ...在 SQL 客户端中。 Hive 和 Flink SQL 具有不同的语法,例如不同的保留关键字和文字。确保视图的查询与 Flink 语法兼容。 示例 使用Spark SQL创建Hive语法OBS表,并插入10条数据。模拟数据源。 CREATE
在“创建程序包”对话框,配置以下参数。 包类型:选择“JAR”。 OBS路径:程序包所在的OBS路径。 分组设置和组名称根据情况选择设置,方便后续识别和管理程序包。 单击“确定”,完成创建程序包。 图12 创建程序包 步骤7:创建Spark Jar作业 登录DLI控制台,单击“作业管理 >
60.0,2021-03-25 12:03:00,0002,Bob,330110) 常见问题 Q:作业运行失败,运行日志中有如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
60.0,2021-03-25 12:03:00,0002,Bob,330110) 常见问题 Q:作业运行失败,运行日志中有如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org