检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
方式不同外其他使用方法相同。由于Spark JDBCServer是Hive中的HiveServer2的另外一个实现,其使用方法,请参见https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients。 Spark多租户HA方案实现
“名称”输入作业的名称,“类型”选择“导出”即导出。 “连接”选择一个连接。默认没有已创建的连接,单击“添加”创建一个新的连接,完成后单击“测试”,测试是否可用,待提示成功后单击“确定”。 表1 连接配置参数一览表 连接器类型 参数名 说明 generic-jdbc-connector JDBC驱动程序类
在本地Windows环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。
使用CDM服务迁移MRS HDFS数据至OBS 应用场景 MRS支持在大数据存储容量大、计算资源需要弹性扩展的场景下,用户将数据存储在OBS服务中,使用MRS集群仅作数据计算处理的存算分离模式,从而实现按需灵活扩展资源、低成本的海量数据分析方案。 CDM支持文件到文件类数据的迁移,本章节以MRS
在本地Windows环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。
ALM-24001 Flume Agent异常 告警解释 Flume Agent监控模块对Flume Agent状态进行监控,当Flume Agent进程故障(每5秒检测一次)或Flume Agent启动失败时(即时上报告警),系统产生此告警。 当检测到Flume Agent进程故障恢复,Flume
件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 已安装客户端时编译并运行程序 进入样例工程本地根目录,在Windows命令提示符窗口中执行下面命令进行打包。 mvn -s "{maven_setting_path}" clean package 上述打包命令中的{
受聚合模型的约束,可以发挥列存模型的优势(只读取相关列,而不需要读取所有Key列)。 Doris样例工程介绍 MRS样例工程获取地址为https://github.com/huaweicloud/huaweicloud-mrs-example,切换分支为与MRS集群相匹配的版本分
Engine的消费者数量,通过增加该参数,可以提高消费数据吞吐,但总数不应超过对应topic的partitions总数。 其他配置可参考:https://clickhouse.com/docs/zh/engines/table-engines/integrations/kafka。
对某数据库下的表赋予写入权限: GRANT INSERT ON TABLE TO user; 更多ClickHouse授权操作及详细权限说明可参考https://clickhouse.tech/docs/zh/sql-reference/statements/grant/。 执行如下命令,退出客户端。
受聚合模型的约束,可以发挥列存模型的优势(只读取相关列,而不需要读取所有Key列)。 Doris样例工程介绍 MRS样例工程获取地址为https://github.com/huaweicloud/huaweicloud-mrs-example,切换分支为与MRS集群相匹配的版本分
更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 创建集群成功。 错误码 请参见错误码。 父主题: 集群管理接口
更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 正常响应示例。 错误码 请参见错误码。 父主题: 集群管理接口
Engine的消费者数量,通过增加该参数,可以提高消费数据吞吐,但总数不应超过对应topic的partitions总数。 其他配置可参考https://clickhouse.com/docs/zh/engines/table-engines/integrations/kafka。
使用方法相同。由于Spark JDBCServer是Hive中的HiveServer2的另外一个实现,其使用方法,请参见Hive官网:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients。 父主题:
使用方法相同。由于Spark JDBCServer是Hive中的HiveServer2的另外一个实现,其使用方法,请参见Hive官网:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients。 指定租户
路径下并修改所属用户/组(chown omm:wheel mysql-connector-java-*.jar)。 HTTP地址。如“https://doris-community-test-1308700295.cos.ap-hongkong.myqcloud.com/jdbc
yum install -y xz-devel yum install bzip2-devel 下载对应Python版本源码。 wget https://www.python.org/ftp/python/3.6.6/Python-3.6.6.tgz 执行如下命令,解压python源码压缩包,例如下载在“opt”目录下。
根据集群版本选择对应的分支,下载并获取MRS相关样例工程。 例如本章节场景对应示例为“WordCountDemo”样例,获取地址:https://github.com/huaweicloud/huaweicloud-mrs-example/tree/mrs-3.1.0/src/kafka-examples。
String 用户名称。 查询Resource Pool 查询scheduler engine中所有resource pool。 URL GET https://<SS_REST_SERVER>/ws/v1/sscheduler/resourcepools/list 输入 无 输出 JSON