检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"statement" : "show tables", "status" : "FINISHED", "result_location" : "obs://my_bucket/uuid_date/xxxx.csv", "content" : [ [ "t1", null ], [ null
增大如上服务端参数配置值即可。 滚动重启3个节点耗时约15分钟。 Guardian 直接重启 请求Guardian失败,任务拿不到访问OBS的aksk 直接重启耗时约5分钟 滚动重启 滚动重启无影响 滚动重启10个节点耗时约10分钟 IoTDB 直接重启 重启期间无法进行数据的写入
keystore、truststore相关配置文件,该目录是由用户自定义创建。 配置客户端访问keystore或truststore文件路径。 相对路径(推荐) 请执行如下步骤配置“flink.keystore”和“flink.truststore”文件路径为相对路径,并确保Flink客户端执行命令的目录可以直接访问该相对路径。
右键单击“ClickHouseApplication”,选择“Run ClickHouseApplication”运行应用程序工程。 操作步骤 在IDEA界面复制clickhouse-example.properties路径。右键clickhouse-example.properties文件,单击“Copy
totalZeroCopyBytesRead : 0 进入debug模式(可选)。 make gdb 执行该命令之前需要安装GDB,安装步骤可参考安装GDB。 执行结果如下。 [root@10-120-85-2 hdfs-c-example]# make gdb gdb hdfs_test
hadoop.com”),否则HetuEngine无法根据主机名称连接到非本集群节点。 已创建HetuEngine计算实例。 添加Hive数据源步骤 获取Hive数据源集群的“hdfs-site.xml”和“core-site.xml”配置文件。 登录Hive数据源所在集群的FusionInsight
右键单击“ClickHouseApplication”,选择“Run ClickHouseApplication”运行应用程序工程。 操作步骤 在IDEA界面复制clickhouse-example.properties路径。右键clickhouse-example.properties文件,单击“Copy
该节点与主OMS节点NTP服务不能正常同步时间。 该节点NTP认证的key值与主OMS节点NTP服务的key值不一致。 该节点与主OMS节点NTP服务时间偏差太大。 处理步骤 检查该节点的NTP服务模式。 以root用户登录主管理节点,执行su - omm切换到omm用户,执行以下命令查看主备节点的资源状态。 sh
在使用HetuEngine前,请确保客户端操作用户/连接数据源的配置文件中的用户是具备预期的操作权限,如果没有请参考对应的数据源权限配置。 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击
增大如上服务端参数配置值即可。 滚动重启3个节点耗时约15分钟。 Guardian 直接重启 请求Guardian失败,任务拿不到访问OBS的aksk 直接重启耗时约5分钟 滚动重启 滚动重启无影响 滚动重启10个节点耗时约10分钟 IoTDB 直接重启 重启期间无法进行数据的写入
conf); } } 本样例工程中,假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,A业务操作流程如下: 序号 步骤 1 根据已有信息创建表。 2 导入用户数据。 3 增加“教育信息”列族,在用户信息中新增用户的学历、职称等信息。 4 根据用户编号查询用户姓名和地址。
properties”配置日志打印信息。 登录主管理节点查看系统日志“/var/log/Bigdata/tomcat/web.log”。 操作步骤 运行“UserManager”类,运行成功会有如下日志信息: 2020-10-19 14:22:52,111 INFO [main] Enter
WebUI提供可视化的作业编排页面,用户可快速创建CDL作业,实现实时数据入湖。 前提条件 开启Kerberos认证的集群需已创建具有CDL管理操作权限的用户。 操作步骤 使用具有CDL管理操作权限的用户或admin用户(未开启Kerberos认证的集群)登录CDLService WebUI界面,请参考登录CDLService
运行一个名字为CLASSNAME的类。 top 运行集群利用率监控工具。 -Dmapreduce.job.hdfs-servers 如果对接了OBS,而服务端依然使用HDFS,那么需要显式在命令行使用该参数指定HDFS的地址。格式为hdfs://{NAMESERVICE}。其中{NAMESERVICE}为hdfs
大小。单位:字节。 取值范围为:10240~10485760。 carbon.graph.rowset.size 100000 数据加载图步骤之间交换的行集大小。 最小值=500,最大值=1000000 carbon.number.of.cores.while.loading 6
大小。单位:字节。 取值范围为:10240~10485760。 carbon.graph.rowset.size 100000 数据加载图步骤之间交换的行集大小。 最小值=500,最大值=1000000 carbon.number.of.cores.while.loading 6
>全部配置”,在“搜索”框里搜索“dfs.http.policy”,然后勾选“HTTP_AND_HTTPS”,单击“保存”,单击“更多 > 重启服务”重启HDFS服务。 操作步骤 登录FusionInsight Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。
>全部配置”,在“搜索”框里搜索“dfs.http.policy”,然后勾选“HTTP_AND_HTTPS”,单击“保存”,单击“更多 > 重启服务”重启HDFS服务。 操作步骤 登录FusionInsight Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。
policy”,然后勾选“HTTP_AND_HTTPS”,单击“保存配置”,并勾选“重新启动受影响的服务或实例。”,单击“是”,重启HDFS服务。 操作步骤 登录MRS Manager,单击“服务管理”,选择“HDFS”,单击进入HDFS服务状态页面。 由于webhdfs是http/https