检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
directory</name> <value>[1]查询中间结果的临时目录</value> </property> JAVA样例:使用JDBC接口访问HBase public String getURL(Configuration conf)
g-kafka-0-10_2.12-3.1.1-hw-ei-311001-SNAPSHOT.jar 用户自己开发的应用程序以及样例工程都可使用上述命令提交。 但是Spark开源社区提供的KafkaWordCount等样例程序,不仅需要添加--jars参数,还需要配置其他,否则会报
g-kafka-0-10_2.12-3.1.1-hw-ei-311001-SNAPSHOT.jar 用户自己开发的应用程序以及样例工程都可使用上述命令提交。 但是Spark开源社区提供的KafkaWordCount等样例程序,不仅需要添加--jars参数,还需要配置其他,否则会报
directory</name> <value>[1]查询中间结果的临时目录</value> </property> JAVA样例:使用JDBC接口访问HBase public String getURL(Configuration conf)
注意事项 不允许多个线程在同一时间共用同一个HTable实例。HTable是一个非线程安全类,因此,同一个HTable实例,不应该被多个线程同时使用,否则可能会带来并发问题。 父主题: HBase数据读写样例程序
port”,获取HSBroker端口号。 user 访问HetuEngine的用户名,即在集群中创建的“机机”用户的用户名。 SSL 是否使用HTTPS连接,默认为“false” 父主题: HetuEngine样例程序(Java)
表employees_info_extended中的入职时间为2014的分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾的邮箱的员工信息。 提交数据分析任务,统计表employees_info中有多少条记录。 父主题: Hive JDBC访问样例程序
Manager统一控制,参考准备集群认证用户信息,确保该用户具有操作IoTDB服务的角色权限。 需在本地环境变量中设置环境变量认证用户名和认证用户密码,建议密文存放,使用时解密,确保安全。其中: 认证用户名为访问IoTDB的用户名。 认证用户密码为访问IoTDB的用户密码。 /** * 安全模
datasource.write.hive_style_partitioning' = 'true', --使用hive支持的分区格式。 'read.streaming.enabled' = 'true',
”。 集群中Hive服务运行状态正常。 对于开启了Kerberos认证的集群,已创建具有Hive操作权限的用户。 配置Hive SQL防御使用约束 防御规则默认动态生效时间为5秒,修改队列后Hive防御规则重新加载时间为10分钟。 拦截和熔断规则会中断SQL任务,请根据实际业务配置合理的值。
如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 如果需要删除资源池,需满足以下要求: 集群中任何一个队列不能使用待删除资源池为默认资源池,删除资源池前需要先取消默认资源池,请参见配置MRS租户队列。 集群中任何一个队列不能在待删除资源池中配置过资源分
print("------------------read_write_kafka----------------") read_write_kafka() 表1 使用Python提交普通作业参数说明 参数 说明 示例 bootstrap.servers Kafka的Broker实例业务IP和端口。 192
8080 WebService提供的供用户访问端口 该端口用于使用HTTP协议访问Web UI 安装时是否缺省启用:是 安全加固后是否启用:是 - 28443 WebService提供的供用户访问端口 该端口用于使用https协议访问Web UI 安装时是否缺省启用:是 安全加固后是否启用:是
Manager统一控制,参考准备集群认证用户信息,确保该用户具有操作IoTDB服务的角色权限。 需在本地环境变量中设置环境变量认证用户名和认证用户密码,建议密文存放,使用时解密,确保安全。其中: 认证用户名为访问IoTDB的用户名。 认证用户密码为访问IoTDB的用户密码。 /** * 安全模式下,“SS
集群的安全组名称。 流式Core节点LVM管理 流式Core节点的LVM管理功能是否开启。 数据盘密钥名称 用于加密数据盘的密钥名称。如需对已使用的密钥进行管理,请登录密钥管理控制台进行操作。 数据盘密钥ID 用于加密数据盘的密钥ID。 组件版本 集群安装各组件的版本信息。 委托 通
默认实例组不支持修改。 删除实例组:在“实例组”页签定位到指定的实例组。单击,在弹出窗口单击“确定”。默认实例组不支持删除。 多余或者不再使用的实例组可以删除,删除前需要将组内的实例全部迁移至其他实例组。系统默认的实例组不可删除。 查看实例组信息:在“实例组”页签导航栏选择一个角
getProperty("user.dir") + File.separator + "conf" + File.separator + "user.keytab"”处使用的keytab文件需与用户的keytab一致。 conf目录下的log4j.properties文件可根据自己的需要进行配置。 父主题: 准备HDFS应用开发环境
print("------------------read_write_kafka----------------") read_write_kafka() 表1 使用Python提交普通作业参数说明 参数 说明 示例 bootstrap.servers Kafka的Broker实例业务IP和端口。 192
该例子有两种实现模式,其中实现1的逻辑如图1所示,实现2的逻辑如图2所示。 图1 实现1逻辑 实现1的逻辑说明 : 根据车牌号聚合该车通过的所有收费站并排序,处理后数据如下。 车牌号1,[(通过时间,收费站3),(通过时间,收费站2),(通过时间,收费站4),(通过时间,收费站5)] 标识该收费站是这辆车通过的第几个收费站。
都上传到同Region的OBS文件系统中。 因为不同Region间有网络隔离,MRS虚拟机无法下载其他Region上的OBS文件。 脚本中如何从OBS文件系统下载文件。 您可以在脚本中指定从OBS下载需要的文件。如果将文件上传到私有文件系统,需要用hadoop fs下载。 例如,