检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
写能力。 在“计算实例”页签,在待操作的实例所属租户所在行的“操作”列单击“配置”,进入“配置实例”页签,添加如下自定义参数。 表1 自定义参数 名称 值 参数文件 materialized.view.rewrite.enabled true coordinator.config
point恢复失败,具体限制如下: 不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka")
point恢复失败,具体限制如下: 不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka")
point恢复失败,具体限制如下: 不允许source的个数或者类型发生变化。 source的参数变化,这种情况是否能被支持,取决于source类型和查询语句,例如: 速率控制相关参数的添加、删除和修改,此种情况能被支持,如:spark.readStream.format("kafka")
户的user.keytab文件与krb5.conf文件。用于在样例工程中进行安全认证。 图5 下载认证凭据 参考信息 如果修改了组件的配置参数,需重新下载客户端配置文件并更新运行调测环境上的客户端。 父主题: 准备Hive应用开发环境
弹出“Preferences”窗口。 在左边导航上选择“General > Workspace”,在“Text file encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置Eclipse的编码格式 Windows环境下直接提交任务
API需要访问zookeeper元数据,管理消费Topic队列的offset,一般情况不推荐使用。 代码样例 SimpleConsumer API主方法需要传入三个参数,最大消费数量、消费Topic、消费的Topic分区。 public static void main(String args[])
DORIS_MY_PASSWORD为访问Doris的用户密码。 导入“doris-rest-client-example”样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群
确保集群稳定,不存在其他问题。如有任何问题,请先修复。 为“hbase.master.initializationmonitor.timeout”参数配置一个较大的值,默认值为“3600000”毫秒。 重启HBase服务。 父主题: HBase故障排除
确保集群稳定,不存在其他问题。如有任何问题,请先修复。 为“hbase.master.initializationmonitor.timeout”参数配置一个较大的值,默认值为“3600000”毫秒。 重启HBase服务。 父主题: HBase故障排除
DORIS_MY_PASSWORD为访问Doris的用户密码。 导入“doris-rest-client-example”样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群
全部配置 > HiveServer(角色) > 自定义”,在“hive.server.customized.configs”中添加如下两个参数,保存配置,并滚动重启服务。 hive-ext.skip.ranger.showtables.auth=false hive.show.all
使用spark-submit或者spark-sql运行SQL语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M
ReplaceCommitMetadata中的元数据。 如何执行Clustering 同步执行Clustering配置。 在写入时加上配置参数: option("hoodie.clustering.inline", "true"). option("hoodie.clustering
弹出“Preferences”窗口。 在左边导航上选择“General > Workspace”,在“Text file encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图1所示。 图1 设置Eclipse的编码格式 修改样例(未开启Kerberos认证集群可跳过此步骤)。
Manager和集群提供的审计日志记录了用户活动信息和操作信息,可通过Manager导出审计日志。当系统中的审计日志过多时,可通过配置转储参数,将审计日志转储到指定服务器,避免引起集群节点磁盘空间不足。 维护责任人 网络监控工程师、系统维护工程师。 Manager例行维护 为了保
NITION等类型,匹配到不同的资源组,分配不同的资源来执行查询。 启用资源组 在创建计算实例的时候,增加参数文件“resource-groups.json”的自定义配置参数,具体操作请参见3.e。 资源组属性 资源组属性配置请参见表2。 表2 资源组属性 配置项 必选/可选 配置说明
com时,则此处应填写hive/hadoop.abc.com@ABC.COM。 确保可以正常的认证连接HiveServer。 在客户端执行以下命令 source 客户端安装目录/bigdata_env kinit username 然后再使用客户端执行beeline,确保可以正常运行。
Gson(); return gson.toJson(dataPoints); } PUT_URL中加入了sync参数,表示必须等到数据写入HBase后才可以返回,强烈建议使用此参数;如果不使用sync,表示采用异步写入HBase的方式,可能存在丢失数据的风险。具体信息请参考OpenTSDB应用开发常见问题。
使用spark-submit或者spark-sql运行SQL语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M