检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时间宏dataformat中的第一个参数的日期格式定义可参考“java.text.SimpleDateFormat.java”中的定义,但需要遵循目标系统的约束,例如HDFS/OBS目录不支持特殊符号等。 Loader宏定义 目前Loader默认支持以下时间宏定义: 表1 Loader常用宏定义
Flink系统的管理节点,管理所有的TaskManager,并决策用户任务在哪些Taskmanager执行。JobManager在HA模式下可以有多个,但只有一个主JobManager。 Flink系统提供的关键能力: 低时延 提供ms级时延的处理能力。 Exactly Once 提供异步快照机制,保证所有数据真正只处理一次。
时间宏dataformat中的第一个参数的日期格式定义可参考“java.text.SimpleDateFormat.java”中的定义,但需要遵循目标系统的约束,例如HDFS/OBS目录不支持特殊符号等。 Loader宏定义 目前Loader默认支持以下时间宏定义: 表1 Loader常用宏定义
word[2]); } }); //将Stream1注册为Table1 tableEnv.registerDataStream("Table1", kafkaStream, "name
小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。 void show() 用表格形式显示DataFrame的前20行。 Row[] take(int n) 返回DataFrame中的前n行。 表7 基本的DataFrame Functions介绍
小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。 void show() 用表格形式显示DataFrame的前20行。 Row[] take(int n) 返回DataFrame中的前n行。 表7 基本的DataFrame Functions介绍
任务的最长等待时间。默认为5分钟,取值范围为1分钟到24小时。若自动刷新任务的等待时间超过设定的最长等待时间,自动化任务界面对应的任务状态显示为"timeout"。 start_refresh_ahead_of_expiry:基于mv _validity设置物化视图自动刷新任务的
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同,您可以从地区和终端节点中查询服务的终端节点。 基本概念 账号 用户注册华为云时的账号,账号对其所拥有的资源及服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议
DELETE_STORAGE_GROUP 删除存储组。 IoTDB管理员权限 delete storage group root.ln; CREATE_FUNCTION 注册UDF。 IoTDB管理员权限 create function example AS 'org.apache.iotdb.udf.UDTFExample';
无数据:当前分片节点上该表没有数据。 已同步:当前分片节点上该表有数据,并且分片下多个副本实例间的数据一致。 未同步:当前分片节点上该表有数据,但分片下多个副本实例间的表数据不一致。 详情 数据表在对应ClickHouseServer实例上的表数据同步详情。 过滤条件 选择“按数据表查
约束限制: 不涉及 取值范围: true:自动支付,会自动选择折扣和优惠券进行优惠,然后自动从客户账户中支付,自动支付失败后会生成订单成功、但订单状态为“待支付”,等待客户手动支付。 false:手动支付,需要客户手动去支付,客户可以选择折扣和优惠券。 默认取值: false 表8
log HiveServer启动前的工作日志 /hiveserver/check-serviceDetail.log Hive服务启动是否成功的检查日志 /hiveserver/cleanupDetail.log HiveServer卸载的清理日志 /hiveserver/startDetail
使用ls命令查看DataNode数据目录中的每个目录是否存在。 是,执行26。 否,执行12。 使用mkdir 数据目录命令创建该目录,查看是否可以创建成功。 是,执行24。 否,执行13。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看是否存在告警“ALM-12017
log HiveServer启动前的工作日志 /hiveserver/check-serviceDetail.log Hive服务启动是否成功的检查日志 /hiveserver/cleanupDetail.log HiveServer卸载的清理日志 /hiveserver/startDetail
Broker安装后的工作日志。 prestart.log Broker启动前的工作日志。 checkService.log Broker启动是否成功的检查日志。 start.log Broker进程启动日志。 stop.log Broker进程停止日志。 checkavailable.log
le时创建了HDFS连接,当创建StoreFile或加载StoreFile完成时,HDFS方面认为任务已完成,将连接关闭权交给HBase,但HBase为了保证实时响应,有请求时就可以连接对应数据文件,需要保持连接,选择不关闭连接,所以连接状态为CLOSE_WAIT(需客户端关闭)。
单击“用户”,集群已启用Kerberos认证(安全模式)添加一个人机用户,集群未启用Kerberos认证(普通模式)添加一个机机用户,并绑定已创建的角色。 用户创建成功后,使用该用户登录Manager并修改初始密码。 使用具有“Manager_administrator”和“Manager_viewer”
user 运行这个任务的用户。 applicationType 例如MAPREDUCE或者SPARK等。 finalStatus 可以知道任务是成功还是失败。 elapsedTime 任务运行的时间。 获取Yarn资源的总体信息。 命令: curl -k -i --negotiate -u
“名称”输入作业的名称,“类型”选择“导入”。 “连接”选择一个连接。默认没有已创建的连接,单击“添加”创建一个新的连接,完成后单击“测试”,测试是否可用,待提示成功后单击“确定”。 MRS与外部数据源交换数据和文件时需要连接数据源,“连接”表示连接数据源时的连接参数集合。 表1 连接配置参数一览表 连接器类型
表中所有二级索引表的表名+列名的累积长度*(单位:字符) 3800** * Hive允许的上限值或可用资源的上限值。 ** 二级索引表使用hive注册,并以json格式的值存储在HiveSERDEPROPERTIES中。由hive支持的SERDEPROPERTIES的最大字符数为4000个字符,无法更改。