检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看Kerberos服务的健康状态是否为“良好”。 是,执行2.a。 否,执行1.c。 参考ALM-25500 KrbServer服务不可用的相关维护信息进行操作。 再次执行1.b。 检查ZooKeeper组件状态。 查看ZooKeeper服务的健康状态是否为“良好”。 是,执行3.a。 否,执行2
个字符。 默认取值: 不涉及 表2 Query参数 参数 是否必选 参数类型 描述 path 是 String 参数解释: 文件目录。比如访问“/tmp/test”目录列表,此处必须是目录,整体URI为/v2/{project_id}/clusters/{cluster_id}/files
确认后续配置,单击“Next”;如无特殊需求,使用默认值即可。 选择推荐的JDK版本,单击“Finish”完成导入。 在开发环境IntelliJ IDEA中,样例工程的conf目录下,打开文件“clickhouse-example.properties”,按需修改表1的参数。 (可选)如果使用机机用户认证,需
单击参数值后面的图标可快速恢复配置项的参数值至系统默认值,单击图标可查看该配置项的历史修改记录。 配置参数较多时,可通过界面右上角的服务过滤框进行筛选,或者在搜索框中直接搜索关键字。 如需修改配置项参数值,根据参数描述修改配置后,单击“保存”,在弹出的窗口中单击“确定”。 查看所有非统一值:
调测Kudu应用 使用Maven编译。 解决“Error:(123,49) java: -source 1.5 中不支持 diamond 运算符”错误: 得到输出包: 上传jar包到Linux服务器执行。 父主题: Kudu开发指南(安全模式)
调测Kudu应用 使用Maven编译。 解决“Error:(123,49) java: -source 1.5 中不支持 diamond 运算符”错误: 得到输出包: 上传jar包到Linux服务器执行。 父主题: Kudu开发指南(普通模式)
查看KrbServer服务的运行状态是否为“良好”。 是,执行5。 否,执行3。 参考“ALM-25500 KrbServer服务不可用”的处理步骤进行操作。 再次执行2。 检查ZooKeeper服务状态。 查看ZooKeeper服务的运行状态是否为“良好”。 是,执行8。 否,执行6。
IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long 问题 IntelliJ IDEA中远程提交拓扑,执行Main方法时IntelliJ IDEA报如下错 : Command line is too long. Shorten
System.out.println(result); jsc.stop(); 上面是简单示例,其它sparkSQL特性请参见如下链接:http://spark.apache.org/docs/latest/sql-programming-guide.html#runni
easy_install命令,找到easy_install程序路径。如果有多个路径,使用easy_install --version确认选择setuptools对应版本的easy_install,例如:/usr/local/bin/easy_install。 使用对应的easy_install命令,安装dependency_python3
easy_install命令,找到easy_install程序路径。如果有多个路径,使用easy_install --version确认选择setuptools对应版本的easy_install,例如/usr/local/bin/easy_install。 使用对应的easy_install命令,安装dependency_python3
在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令在Linux系统HDFS客户端使用命令hadoop fs
编译并生成Jar包,并将Jar包复制到与依赖库文件夹同级的目录“src/main/resources”下,具体步骤请参考在Linux调测程序。 使用集群安装用户登录集群客户端节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,
编译并生成Jar包,并将Jar包复制到与依赖库文件夹同级的目录“src/main/resources”下,具体步骤请参考在Linux调测程序。 使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env 创建输入Topic和输出To
具体权限说明请参见IAM用户同步MRS集群说明。 如果通过MRS管理控制台操作,需要已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 添加删除集群组件 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,选择“组件管理
append”参数在开源社区版本中默认值是关闭,在FusionInsight版本默认值是开启。 该参数为服务器端参数。建议开启,开启后才能使用Append功能。 不适用HDFS场景可以考虑使用其他方式来存储数据,如HBase。 HDFS不适用于存储大量小文件 HDFS不适用于存储大量的小文件,因为大量小文
xml文件后未及时重启NameNode导致产生告警如何处理? 问:修改hdfs-site.xml文件后未重启NameNode进程却产生了告警如何处理? 答:用户修改了比如dfs.namenode.checkpoint.period参数后,如果不重启NameNode进程,可能会产生误报的告警,需尽快重启NameNode进程。
编译并生成Jar包,并将Jar包复制到与依赖库文件夹同级的目录“src/main/resources”下,具体步骤请参考在Linux调测程序。 使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env kinit 组件操作用户(例如developuser)
编译并生成Jar包,并将Jar包复制到与依赖库文件夹同级的目录“src/main/resources”下,具体步骤请参考在Linux调测程序。 使用集群安装用户登录集群客户端节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]