检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在“SQL编辑器”页面创建模板。 在管理控制台左侧,单击“SQL编辑器”。 单击SQL作业编辑窗口右上方的“更多”,选择“设为模板”,可将编辑窗口中的SQL语句设置为模板。 输入模板名称、语句和描述信息,详细介绍请参见表1。 单击“确定”,完成模板创建。 使用模板提交SQL作业 执行模板操作步骤如下: 在
本例创建名为table3并以col_2为分区依据的DLI分区表。在OPTIONS中配置pmultiLevelDirEnable和compression。 multiLevelDirEnable:本例设置为true,表示查询该表时会迭代读取表路径中的所有文件和子目录文件,若不需要此项配置可以设置为false或不设置(默认为false);
单击所要查看的数据库名,进入对应的“表管理”页面; 查看对应表的“数据存储位置”是否为DLI。 如果有存储在DLI中的数据,则按照存储计费的标准计费。 计费详情可参考《数据湖探索价格详情》。 如果上述内容排查后均无问题,可提交工单,将会有服务支撑人员在后台为您排查。 父主题: 计费相关问题
S), outputFunction(S, R)) 返回从数组减少的单个值。将按顺序为数组中的每个元素调用inputFunction。除了获取元素之外,inputFunction还获取当前状态,最初为initialState,然后返回新状态。将调用outputFunction将最终
创建增强型跨源连接后,使用CSS提供的"内网访问地址",格式为"IP1:PORT1,IP2:PORT2"。 resource 指定在CSS关联的资源名,用"/index/type"指定资源位置(可简单理解index为database,type为table,但绝不等同)。 说明: ES 6.X
写数据时刷新数据的最大行数,默认值为100。 sink.buffer-flush.interval 否 1s Duration 刷新数据的时间间隔,单位可以为ms、milli、millisecond/s、sec、second/min、minute等,默认值为1s。设置为0则表示不根据时间刷新。
String connector的类型,需配置为:hbase-2.2。 table-name 是 无 String 连接的HBase表名。 zookeeper.quorum 是 无 String HBase Zookeeper quorum 信息。格式为:ZookeeperAddress:ZookeeperPort。
选择待设置的作业,单击其“操作”列中的“更多”>“权限管理”。“用户权限信息”区域展示了当前具备此作业权限的用户列表。 权限设置有3种场景:为新用户赋予权限,为已有权限的用户修改权限,回收某用户具备的所有权限。 为新用户赋予权限 新用户指之前不具备此作业权限的用户。 单击“权限信息”右侧的“授权”,弹出“授权”对话框。
配置完成后,单击“立即购买”。 “虚拟私有云”为步骤1:创建VPC创建的VPC。 添加路由。 进入VPC的路由表,配置路由规则。通常NAT创建成功会自动创建到NAT网关的路由。 目的地址为访问的公网IP地址,下一跳为NAT网关。 图6 添加路由 添加SNAT规则。 为新建的NAT网关添加SNAT规
图6 新建Package和类文件 Package根据需要定义,本示例定义为:“com.huawei.demo”,完成后回车。 图7 自定义Package 在包路径下新建Java Class文件,本示例定义为:SumUdfDemo。 图8 新建Java Class文件 编写UDF函
湖探索API参考》>《创建批处理作业》。 如果选择spark版本为2.3.2(即将下线)或2.4.5提交作业时,需要指定Module模块,名称为:sys.datasource.redis。 如果选择Spark版本为3.1.1时,无需选择Module模块, 需在 'Spark参数(--conf)'
表1 参数说明 参数 是否必选 说明 connector.type 是 数据源类型,‘jdbc’表示使用JDBC connector,必须为jdbc connector.url 是 数据库的URL connector.table 是 读取数据库中的数据所在的表名 connector
16:8000替换为DWS的内网IP和端口,testdwsdb为创建的DWS数据库名 'table-name' = 'test\".\"dws_order', ---test为创建的DWS表的schema,dws_order为对应的DWS表名 'username' = 'xxxxx'
管理DLI具数据源的访问凭证: Spark 3.3.1及以上版本、Flink 1.15及以上版本的跨源访问场景 推荐使用数据加密服务DEW来存储数据源的认证信息,为您解决数据安全、密钥安全、密钥管理复杂等问题。 具体操作请参考使用DEW管理数据源访问凭证。 使用DEW管理数据源访问凭证时,您还需要创建D
connector 是 无 string 固定值为:kafka。 topic 是 无 string 结果表对应topic名称。 properties.bootstrap.servers 是 无 string Kafka Broker地址。格式为:host:port,host:port,host:port,以英文逗号(
url DDS的连接信息,需要先创建跨源连接,管理控制台操作请参考增强型跨源连接。 创建增强型跨源连接后,使用DDS提供的"随机连接地址",格式为: "IP:PORT[,IP:PORT]/[DATABASE][.COLLECTION][AUTH_PROPERTIES]" 例如:"192
注意事项 使用API方式对SQL创建的Hudi表触发Compaction时需要添加参数hoodie.payload.ordering.field为preCombineField的值。 使用由DLI提供的元数据服务时,本命令不支持使用OBS路径。 系统响应 可以检查任务状态是否成功,查看任务结果,查看任务日志确认有无异常。
否 3 Integer 写数据失败时的最大尝试次数,默认值为:3。 示例 从Kafka中读取数据,并将数据插入到数据库为flink、表名为order的ClickHouse数据库中,其具体步骤如下(clickhouse版本为MRS的21.3.4.25): 参考增强型跨源连接,在DL
从IAM服务获取的用户Token。 Accept 是 默认值application/json。 Content-Type 是 指定类型为application/json。 charset 是 指定编码格式为utf8。 请求参数如表3所示。 表3 请求参数说明 参数 是否必选 参数类型 说明 cluster_name
column","name")”指定,name为列名 如果需要保存嵌套的DataFrame,则通过“.option("model","binary")”进行保存 如果需要指定数据过期时间:“.option("ttl",1000)”;秒为单位 读取redis上的数据 1 sparkSession