检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
*”表示读取其路径是以“/test”开头的所有文件。 说明: 为确保一致性,配置特定模式以仅缓存其他客户端不经常修改的文件。 正则表达式模式将仅验证URI的path部分,而不验证在Fully Qualified路径情况下的schema和authority。 - dfs.client.metadata.cache
请通过该功能授权后,联系运维人员进行巡检并获取巡检结果。MRS支持的所有巡检脚本见界面中的巡检脚本列表,MRS目前仅支持证书检测脚本,用来检查集群中的证书是否过期。 开启巡检授权 登录MRS控制台。 单击集群名称进入集群详情页面。 选择“巡检授权”页签。 配置巡检参数。 巡检授
--创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证 show databases; ┌─name───┐ │ default │ │ system │ │ test
--创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证 show databases; ┌─name───┐ │ default │ │ system │ │ test
现有集群节点安装补丁 扩容节点安装补丁 前提条件 从OBS路径中下载的补丁工具“MRS_Log4j_Patch.tar.gz”,下载路径:https://mrs-container1-patch-cn-south-1.obs.cn-south-1.myhuaweicloud.com/
”、“DEBUG”、“INFO”、“WARN”、“ERROR”和“FATAL”信息。 由于开源中定义的不同,组件的日志级别定义略有差异。 验证日志级别设置已生效,请下载日志并查看。请参见下载MRS集群日志(MRS 3.x及之后版本)。 修改服务日志级别与日志文件大小 KrbSer
配置SparkSQL支持Hudi Schema演进 Schema演进开启后不能关闭。 本章节仅适用于MRS 3.2.0及之前版本。 使用spark-beeline时,需要登录Manager页面,选择“集群 > 服务 > Spark2x > 配置 > 全部配置”。 在搜索栏中搜索参数“spark
认证用的密码写入代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; # 本示例以密码保存在环境变量中来实现身份验证为例,运行本示例前,请先在本地环境中设置环境变量HETUENGINE_PASSWORD password = os.getenv('HETUENGINE_PASSWORD')
”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。 登录Kafka客户端: cd Kafka客户端安装目录/Kafka/kafka kinit flume_kafka(输入密码)
ZooKeeper上Client和Server之间的凭证由X509AuthenticationProvider执行。根据以下参数指定服务端证书及信任客户端证书,并通过这些证书初始化X509AuthenticationProvider。 zookeeper.ssl.keyStore.location
已创建的MRS集群如何修改Kerberos状态? 问: 已创建的MRS集群如何修改Kerberos认证的开启状态? 答: MRS服务暂不支持集群创建完成后手动开启和关闭Kerberos服务,如需更换Kerberos认证状态,建议重新创建MRS集群,然后进行数据迁移。 父主题: 用户认证及权限类
Tracking URL”链接登录Flink原生页面查看作业信息。 图3 在Yarn WebUI查看作业信息 验证作业执行结果: FlinkIoTDBSink执行结果验证: 在IoTDB客户端执行以下命令,查看数据是否已经从Flink写入到IoTDB中。 SQLselect * from
'user'='dbadmin', 'password'='xxx'); 查询Spark表,验证显示的数据是否与DWS数据相同: SELECT * FROM spk_dws_order; 可以验证返回的数据与1中所示的数据相同。 父主题: 周边云服务对接
写文件过程为: 使用FileSystem实例的create方法获取写文件的输出流。 使用该数据流将内容写入到HDFS的指定文件中。 在写完文件后,需关闭所申请资源。 代码样例 如下是写文件的代码片段,详细代码请参考com.huawei.bigdata.hdfs.examples中的HdfsExample类。
写文件过程为: 使用FileSystem实例的create方法获取写文件的输出流。 使用该输出流将内容写入到HDFS的指定文件中。 在写完文件后,需关闭所申请资源。 代码样例 如下是写文件的代码片段,详细代码请参考com.huawei.bigdata.hdfs.examples中的HdfsExample类。
报告和筛选策略。 Queue 队列名称,支持通配符“*”。 如需子队列继承上级队列权限,可打开递归开关按钮。 Non-recursive:关闭递归 Recursive:打开递归 Description 策略描述信息。 Audit Logging 是否审计此策略。 Allow Conditions
接收由其它服务器转发过来的请求 logviewer.https.port 29248 29248 logviewer提供HTTPS服务 ui.https.port 29243 29243 Storm UI提供Https服务(ui.https.port) YARN常用端口 表中涉及端口的协议类型均为:TCP。
应的数据。 通过调整“spark.sql.shuffle.partitions”参数值可以调整取模时的基数,改善数据分块不均匀的情况,多次验证发现配置为质数或者奇数效果比较好。 在Driver端的“spark-defaults.conf”配置文件中调整如下参数。 表1 参数说明 参数
”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。 登录Kafka客户端: cd Kafka客户端安装目录/Kafka/kafka kinit flume_kafka(输入密码)
'obs://mrs-word001/table/'; 执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。 show tables; 图1 Spark验证返回已创建的表名 使用“Ctrl + C”退出spark beeline。 父主题: 客户端使用类