检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
oKeeper的端口。 使用root用户ssh登录任意一个MRS主机节点。具体请参考登录MRS集群节点。 执行以下命令获取MRS对应主机节点的hosts信息,复制保存。 cat /etc/hosts 例如,查询结果参考如下,将内容复制保存,以备后续步骤使用。 步骤2:获取DLI队列网段
oKeeper的端口。 使用root用户ssh登录任意一个MRS主机节点。具体请参考登录MRS集群节点。 执行以下命令获取MRS对应主机节点的hosts信息,复制保存。 cat /etc/hosts 例如,查询结果参考如下,将内容复制保存,以备后续步骤使用。 步骤2:获取DLI队列网段
BOOLEAN value1和value2的数据类型和值不完全相同返回 TRUE。 value1和value2的数据类型和值都相同返回 FALSE。 将 NULL 视为相同。 例如: 1 IS DISTINCT FROM NULL 返回 TRUE; NULL IS DISTINCT FROM
); 参数说明 表1 参数说明 参数 是否必选 说明 connector 是 固定为print。 print-identifier 否 配置一个标识符作为输出数据的前缀。 standard-error 否 该值只能为true或false,默认为false。 若为true,则表示输出
--> </plugins> <!-- ... --> </build> 随后在main目录下创建scala目录,并新建一个包,随后在包目录下新建一个scala文件,在里面写入: import org.apache.spark.sql.catalyst.expressions
弹性资源池扩缩容历史记录 功能介绍 该API用于查询当前弹性资源池扩缩容历史记录。 调试 您可以在API Explorer中调试该接口。 URI GET /v3/{project_id}/elastic-resource-pools/{elastic_resource_pool_name}/scale-records
total_price) AS SELECT orderdate, totalprice FROM orders; 用表orders的汇总结果新建一个表orders_by_data: CREATE TABLE orders_by_date COMMENT 'Summary of orders
数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。
请求参数说明详情,请参见创建弹性资源池。 请求示例 描述:在项目ID为48cc2c48765f481480c7db940d6409d1的项目下创建一个名称为elastic_pool_dli的弹性资源池。 示例URL:POST https://{endpoint}/v3/48cc2c487
数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。
数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。
创建批处理作业 功能介绍 该API用于在某个队列上创建批处理作业。 调试 您可以在API Explorer中调试该接口。 URI URI格式: POST /v2.0/{project_id}/batches 参数说明 表1 URI参数 参数名称 是否必选 参数类型 说明 project_id
编辑“应用程序”,选择1上传的OBS地址。 图11 配置应用程序 Spark 3.3以下版本: 分别上传Jar包到OBS和DLI下。 登录OBS控制台,将生成的Jar包文件上传到OBS路径下。 将Jar包文件上传到DLI的程序包管理中,方便后续统一管理。 登录DLI管理控制台,单击“数据管理 > 程序包管理”。
本节操作介绍DBT连接DLI的操作步骤。 操作前准备 环境要求 确保您的系统环境满足以下要求。 操作系统:Windows 或 Linux DBT是一个基于Python的工具,请确保已安装了Python。 Python 版本:Python 3.8 或更高版本,推荐使用 Python 3.8
登录Kafka管理控制台,选择“Kafka专享版”,单击对应的Kafka实例名称,进入到Kafka实例的基本信息页面。 单击“Topic管理 > 创建Topic”,创建一个Topic。Topic配置参数如下: Topic名称。本示例输入为:testkafkatopic。 分区数:1。 副本数:1。 其他参数保持默认即可。
参考创建Flink OpenSource作业,创建flink opensource sql作业,输入以下作业脚本,并提交运行。该作业脚本将Datagen作为数据源,将数据写入到Doris作为结果表中。 create table student_datagen_source( `user_id`
查询作业模板列表 功能介绍 该API用于查询作业模板列表。 调试 您可以在API Explorer中调试该接口。 URI URI格式: GET /v3/{project_id}/templates?type=spark 参数说明 表1 URI参数说明 参数 是否必选 参数类型 描述
实例为默认实例。 LakeFormation中每一个数据目录只能创建一个映射,不能创建多个。 例如用户在DLI创建了映射名catalogMapping1对应LakeFormation数据目录:catalogA。创建成功后,在同一个项目空间下,不能再创建到catalogA的映射。 登录DLI管理控制台。
MySQL数据库连接时需要上传MySQL的驱动,单击“连接管理 > 驱动管理”,进入驱动管理界面。 参考CDM管理驱动下载MySQL的驱动包到本地,将下载后驱动包本地解压,获取驱动的jar包文件。 例如,当前下载MySQL驱动包压缩文件为“mysql-connector-java-5.1.48
MySQL数据库连接时需要上传MySQL的驱动,单击“连接管理 > 驱动管理”,进入驱动管理界面。 参考CDM管理驱动下载MySQL的驱动包到本地,将下载后驱动包本地解压,获取驱动的jar包文件。 例如,当前下载MySQL驱动包压缩文件为“mysql-connector-java-5.1.48