检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
LDAPCONF=${CONTROLLER_HOME}/ldapserver/ldapserver/local/conf/ldap.conf命令),观察查询出来的内容是否提示有error错误信息。 是,执行3.d。 否,执行4。 使用告警出现日期之前的备份包进行LdapServer恢复和OMS恢复。 必须使用同
clean.task.enabled”的值置为“false”并保存配置。单击“实例”,勾选所有HSBroker,选择“更多 > 重启实例”,根据界面提示重启实例以使配置生效。 父主题: 管理HetuEngine计算实例
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名 说明 示例
修改参数值适当增加内存大小。仅支持整数值,且需要输入单位M或者G。例如输入512M。 参考信息 DRIVER内存不足时,查询操作可能遇到以下错误提示信息: 2018-02-11 09:13:14,683 | WARN | Executor task launch worker for
然后执行source bigdata_env命令设置环境变量。 如果集群采用安全版本,要进行安全认证。 执行kinit hdfs命令,按提示输入密码。向MRS集群管理员获取密码。 执行hdfs dfs -ls 文件或目录路径命令,检查该目录下的文件或目录是否是可以删除的无用文件。
那么就会抛出OOM(OutOfMemory)的异常,然后Driver端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults
那么就会抛出OOM(OutOfMemory)的异常,然后Driver端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults
那么就会抛出OOM(OutOfMemory)的异常,然后Driver端一直在进行GC,尝试回收垃圾来存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults
sdk目录,单击“OK”。 图25 Scala SDK files 设置成功,单击“OK”保存设置。 图26 设置成功 设置IDEA的文本文件编码格式,解决乱码显示问题。 在IDEA首页,选择“File > Settings...”。 图27 选择Settings 在“Settings”页面,展开“Editor”,选择“File
请求体大小有限制,而一次写入的数据量超过了这个限制。 规避:修改Nginx配置项client_max_body_size为一个较大的值。 解决:写本地表,不要通过balancer写入数据。 禁用实验特性 内容要求:ClickHouse实验特性可能存在设计或功能缺陷,不具备商用能力
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名 说明 示例
”页签,单击“删除”,并勾选“我已阅读此信息并了解其影响。”,再单击“确定”删除与服务资源的关联。 单击“确定”。 单击“确定”,等待界面提示租户创建成功。 父主题: 作业管理类
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名 说明 示例
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名 说明 示例
bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinitHetuEngine用户 根据回显提示输入密码。 执行如下命令创建目录,并将已准备好相应的UDF函数包上传到目录路径。 hdfs dfs -mkdir -p /udf/hetuserver
登录FusionInsight Manager。 选择“集群 > 服务 > HetuEngine > 概览”。 在页面右上角,选择“更多 > 下载客户端”,根据界面提示下载“完整客户端”文件到本地。 解压HetuEngine客户端压缩包文件“FusionInsight_Cluster_集群ID_ HetuEngine_Client
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“sftp-connector”,单击“添加”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。Loader支持配置多个SFTP服务器操作数据,单击“添加”可增加多行SFTP服务器的配置信息。 表1 连接参数
/jobs/<jobid>/config Job使用用户定义的执行配置。 /jobs/<jobid>/exceptions Job探察到不可恢复的异常。截取的标识提示是否存在更多异常,但不列出这些异常,否则回复会太大。 /jobs/<jobid>/accumulators 聚合用户累加器加上Job累加器。
添加备份数据文件 单击导航中某个数据库的名称,将展开显示此数据库中的所有表,勾选指定的表。 正则表达式筛选 单击“正则表达式输入”。 根据界面提示,在第一个输入框填入Doris表所在的数据库,需要与当前存在的数据库完全匹配,例如“/example_db”。 在第二个框输入正则表达式,
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“sftp-connector”,单击“添加”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。Loader支持配置多个SFTP服务器操作数据,单击“添加”可增加多行SFTP服务器的配置信息。 表1 连接参数