执行以下命令创建数据库(例如名称为“example_db”)并切换。 create database if not exists example_db; use example_db; 执行以下命令创建表。 CREATE TABLE `lineorder_stream_u` ( `LO_ORDERKEY`
Kerberos用户对象 Kerberos协议中,每个用户对象即一个principal。一个完整的用户对象包含两个部分信息:用户名和域名。在运维管理或应用开发的场景中,需要在客户端认证用户身份后才能连接到集群服务端。系统操作运维与业务场景中主要使用的用户分为“人机”用户和“机机”用户。二者主
Manager的操作运维场景,以及在组件客户端操作的场景。选择该值需同时填写“密码”和“确认密码”。 “机机”用户:用于MRS应用开发的场景。选择该值用户密码随机生成,无需填写。 在“用户组”,单击“选择添加的用户组”,选择对应用户组将用户添加进去。 如果用户组添加了角色,则用户可获得对应角色中的权限。 为新用户分配
对应组件的管理权限,导致界面报错或部分功能不可用。 例如: 使用当前用户登录Flink WebUI后,部分内容不能正常显示,且没有权限创建应用、创建集群连接、创建数据连接等: 使用当前用户访问HDFS WebUI报错:Failed to retrieve data from /jmx
请参考7。 执行以下命令,加载HFiles: hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles <path/for/output> <tablename> 注意事项 批量更新会把满足条件的行对应的字段值替换为要更新的值。
ArtsCC有如下使用场景: 提升存算分离架构访问数据的性能 利用MemArtsCC的本地存储,访问热点数据不必跨网络,可以提升OBS上层应用数据读取效率。 减少OBS服务端压力 MemArtsCC会将热点数据存储在计算侧集群,可以起到降低OBS服务端带宽的作用。 MemArtsCC与Spark的关系
t,相关样例请参考使用KafkaStreams统计数据 springboot/kafka-examples 基于SpringBoot搭建的应用Demo,实现了生产数据的REST API以及消费数据的REST API。参考Kafka对接SpringBoot样例代码。 父主题: Kafka开发指南(安全模式)
r的根路径。 使用SQL语句注册该UDF,语法如下: CREATE FUNCTION <UDF-NAME> AS '<UDF-CLASS-FULL-PATHNAME>' 例如,注册名称为“example”的UDF命令为: CREATE FUNCTION example AS 'com
Role”。 设置“Role Name”为“admin”,在“Users”区域,单击“Select User”,选择对应用户名。 单击Add Users按钮,在对应用户名所在行勾选“Is Role Admin”,单击“Save”保存配置。 说明: 用户绑定Hive管理员角色后,在每个维护操作会话中,还需要执行以下操作:
Role”。 设置“Role Name”为“admin”,在“Users”区域,单击“Select User”,选择对应用户名。 单击Add Users按钮,在对应用户名所在行勾选“Is Role Admin”,单击“Save”保存配置。 说明: 用户绑定Hive管理员角色后,在每个维护操作会话中,还需要执行以下操作:
nodemanager.linux-container-executor.cgroups.cpu-set-usage 设置为“true”时,应用以cpuset模式运行。 false 配置strictcpuset模式,即Container只能使用配置的CPU,需要在Manager界面添加以下配置。
若要使用其他用户在节点上读取已提交的作业相关文件,需确保该用户与提交作业的用户具有相同的用户组和具有对应的FlinkServer应用管理权限角色,如参考创建FlinkServer权限角色勾选“应用查看”。 作业状态为“运行中”的作业可以查看作业详情。 作业状态为“运行失败”、“运行成功”和“停止”的作
对应组件的管理权限,导致界面报错或部分功能不可用。 例如: 使用当前用户登录Flink WebUI后,部分内容不能正常显示,且没有权限创建应用、创建集群连接、创建数据连接等: 使用当前用户访问HDFS WebUI报错: Failed to retrieve data from /jmx
priority=<priority> [path1] [path2] 命令行中参数含义为: <jar>:指定需要运行的jar包名称。 [mainClass]:指jar包应用工程中的类的main方法。 <priority>:指定任务的优先级,其取值可为:VERY_HIGH、HIGH、NORMAL、LOW、VERY_LOW。
priority=<priority> [path1] [path2] 命令行中参数含义为: <jar>:指定需要运行的jar包名称。 [mainClass]:指jar包应用工程中的类的main方法。 <priority>:指定任务的优先级,其取值可为:VERY_HIGH、HIGH、NORMAL、LOW、VERY_LOW。
径不存在的分区。 “true”:过滤掉分区路径不存在的分区; “false”:不进行过滤。 false 在spark-submit命令提交应用时,通过“--conf”参数配置是否过滤掉分区表分区路径不存在的分区。 示例: spark-submit --class org.apache
图1展示了使用IoTDB套件的全部组件形成的整体应用架构,IoTDB特指其中的时间序列数据库组件。 图1 IoTDB结构 用户可以通过JDBC/Session将来自设备传感器上采集的时序数据和服务器负载、CPU内存等系统状态数据、消息队列中的时序数据、应用程序的时序数据或者其他数据库中的时序
nodemanager.linux-container-executor.cgroups.cpu-set-usage 设置为“true”时,应用以cpuset模式运行。 false 配置strictcpuset模式,即container只能使用配置的CPU,需要添加以下配置。 表2
在spark-beeline中创建或删除表失败 用户问题 客户在spark-beeline频繁创建和删除大量用户的场景下,个别用户偶现创建/删除表失败。 问题现象 创建表过程: CREATE TABLE wlg_test001 (start_time STRING,value INT); 报错: Error: org.apache
将列a1的精度从10更改为18。 ALTER TABLE test_db.carbon CHANGE a1 a1 DECIMAL(18,2); 系统响应 通过运行DESCRIBE命令,将显示被修改列变更后的数据类型。 父主题: DDL
您即将访问非华为云网站,请注意账号财产安全