检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
只有“Avro”类型的Source才有此配置项。 true表示启用 false表示不启用 false 单击“导出”,将配置文件“properties.properties”保存到本地。
3306 log_level 否 日志打印级别,可选值为 debug info warn error info output_ddl 否 是否发送DDL(数据库与数据表的定义修改)事件 true:发送DDL事件 false:不发送DDL事件 false producer 是 生产者类型
只有“Avro”类型的Source才有此配置项。 true表示启用 false表示不启用 false 单击“导出”,将配置文件“properties.properties”保存到本地。
注意:查询的字段中不能有数据类型为字符串的字段,否则会报错:java.sql.SQLException: Invalid value for getLong()。
“用户类型”设置为“人机”。 设置登录Hue的WebUI界面的“密码”、“确认密码”。 单击“用户组”后的“添加”,在弹出的界面选择3创建的用户组、supergroup、hadoop和hive用户组,单击“确定”。 “主组”选择“hive”。
登录FusionInsight Manager页面,选择“集群 > 服务 > Kafka > 配置”,参数类别设置为“全部配置”,搜索“ssl.mode.enable”并配置为“true”。 客户端配置。
ClickHouse日志详细信息 日志类型 日志文件名 描述 ClickHouse相关日志 /var/log/Bigdata/clickhouse/clickhouseServer/clickhouse-server.err.log ClickHouseServer服务运行错误日志文件路径
默认取值: false 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 result String 参数解释: 请求操作结果。非包周期节点组扩容请求下发成功时,会包含该字段且内容为success。
表1 开源组件Web站点地址 站点类型 站点地址(MRS 3.x之前版本) 站点地址(MRS 3.x及之后版本) HDFS NameNode MRS 3.x之前版本集群,在集群详情页选择“组件管理 > HDFS > NameNode WebUI > NameNode (主)”。
“作业类型”选择“HadoopStreaming”,参考表1配置作业信息。 表1 作业配置信息 参数 描述 示例 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。
图1 添加Artifacts 您可以根据实际情况设置Jar包的名称、类型以及输出路径。 图2 设置基本信息 选中“'FlinkStreamJavaExample' compile output”,右键选择“Put into Output Root”。然后单击“Apply”。
3306 log_level 否 日志打印级别,可选值为 debug info warn error info output_ddl 否 是否发送DDL(数据库与数据表的定义修改)事件 true:发送DDL事件 false:不发送DDL事件 false producer 是 生产者类型
返回作业管理页面,可以查看到已创建的作业名称、类型、状态、作业种类和描述等信息。 作业创建完成后,可在对应作业的“操作”列对作业进行启动、开发、停止、编辑、删除、查看作业详情和Checkpoint故障恢复等操作。
create connection -c 连接器类型ID 例如,连接器类型的ID为6,则执行如下命令: create connection -c 6 sqoop:000> create connection -c 6 Creating connection for connector
create connection -c 连接器类型ID 例如,连接器类型的ID为4,则执行如下命令: create connection -c 4 sqoop:000> create connection -c 4 Creating connection for connector
约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 result String 参数解释: 更新映射请求操作结果。
create connection -c 连接器类型ID 例如,连接器类型的ID为6,则执行如下命令: create connection -c 6 sqoop:000> create connection -c 6 Creating connection for connector
create connection -c 连接器类型ID 例如,连接器类型的ID为4,则执行如下命令: create connection -c 4 sqoop:000> create connection -c 4 Creating connection for connector
“用户类型”选择“人机”。 设置登录Hue的WebUI界面的“密码”、“确认密码”。 单击“用户组”后的“选择添加的用户组”,在弹出的界面选择创建的用户组、supergroup、hadoop和hive用户组,单击“确定”。 “主组”选择“hive”。
报错问题 解决Hive向量化if语句中由于数据被覆盖导致数据错误和NPE问题 解决开启向量化时,str_to_map函数执行长时间异常问题 解决Hive开启向量化参数后使用split函数执行MR任务效率很低问题 解决Hive开启向量化后查询包含nvl函数和decimal(10,5)字段类型的表报错问题