检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设备ID,用于唯一标识一个设备,在注册设备时由物联网平台分配获得。 commandId 可选 String query 设备命令ID,用于唯一标识一条命令,在下发设备命令时由物联网平台分配获得。 pageNo 可选 Integer query 分页查询参数,查询结果分页显示时指定要查看的
产生告警的主机名。 对系统的影响 告警长期存在时,会导致Manager频繁主备倒换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 cep进程持续重启,导致告警上报时间段监控数据采集异常,严重时可导致告警上报时间段监控数据丢失。 可能原因 cep进程异常。
产生告警的主机名。 对系统的影响 告警长期存在时,会导致Manager频繁主备倒换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 fms进程持续重启,导致告警上报时间段告警数据上报异常,严重时可导致告警上报时间段告警数据上报和恢复失败。 可能原因 fms进程异常。
server.2=192.168.0.228:2888:3888 server.3=10.201.0.168:2888:3888 #开启四字命令 4lw.commands.whitelist=* 配置日志目录 # sed -i 's/ZOO_LOG_DIR\=\"\$ZO
以root用户分别登录Master1和Master2节点。 执行ps -ef |grep aos命令检查aos进程号。 执行kill -9 aos进程号 结束aos进程。 等待aos进程自动重启成功,可通过ps -ef |grep aos命令查询进程是否存在,如果存在则重启成功,如果不存在请稍后再查询。 父主题:
链代码调测 对链代码进行调测,可以使用CloudIDE进行单元测试,具体请参见以下操作。 操作步骤 进入CloudIDE首页。 创建链代码工程,具体请参见创建并启动IDE实例。 图1 创建链代码工程 链代码调测。 以下截图对1.4风格(使用shim包)的链代码进行调测。 父主题: Go语言链代码开发
DLI支持将数据存储到OBS上,后续再通过创建OBS表即可对OBS上的数据进行分析和处理。 本指导中的操作内容包括:创建OBS表、导入OBS表数据、插入和查询OBS表数据等内容来帮助您更好的在DLI上对OBS表数据进行处理。 前提条件 已创建OBS的桶。具体OBS操作可以参考《对象存储
配的默认子域名进行API调用测试,ROMA Connect对默认子域名的访问次数做了限制,每天最多可以访问1000次。 配置API授权(可选) 仅使用APP认证方式的API,才需要配置调用授权,把API授权给指定集成应用,用户使用集成应用的Key和Secret进行API请求的安全认证。
本章节介绍使用ioredis客户端连接Redis实例的方法。更多的客户端的使用方法请参考Redis客户端。 以下操作以通过弹性云服务器上的客户端连接Redis实例为例进行说明。 约束与限制 本章节操作,仅适用于连接单机、主备、Proxy集群实例,如果是使用ioredis客户端连接Cluster集群,请参考NodeJs
执行。********为创建Redis实例时自定义的密码,请按实际情况修改后执行。 执行go build -o test main.go命令进行打包,如打包名为test可执行文件。 若打包后需要在Linux系统下运行则需要在打包前设置: set GOARCH=amd64 set GOOS=linux
其中sparkthriftserver2x是ZooKeeper上的目录,表示客户端从该目录下随机选择JDBCServer实例进行连接。 示例:安全模式下通过Beeline客户端连接时执行以下命令: sh CLIENT_HOME/spark/bin/beeline -u "jdbc:hive2://<
复制历史投票时,投票主题没修改,该如何区分? 同样主题的投票会根据创建时间进行排序,可根据创建时间进行区分。 父主题: 应用
执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 执行以下命令,进行用户认证。
建议根据需求设置合理的RETENTION POLICY,通过RETENTION POLICY自动删除数据。 HELP命令 HELP,查看所有支持的命令。 图15 查看支持的全部命令 HELP <COMMAND>,查询某一命令的使用方法。 示例:HELP DESC 父主题: 最佳实践
可以采用对全量数据进行聚合的方法(如下命令所示)。也可以采用只对增量数据进行聚合的方法。只对增量数据进行聚合即对含有相同的标签的用户集合放到表的一条记录中,通常可以通过upsert来实现。考虑到其中频繁的update操作可能产生大量的脏数据,因此对增量数据进行聚合的方法,建议将userinfoset表创建为行存表。
程、函数的编译产物进行全局缓存,执行产物进行session级缓存,开启该功能可以节省高并发下数据库节点的内存使用。 该参数属于POSTMASTER类型参数,请参考表1中对应设置方法进行设置。 取值范围:布尔型 on表示对编译产物进行全局缓存。 off表示不进行全局缓存。 默认值:off
SSH登录机器后,检查NPU设备检查。运行如下命令,返回NPU设备信息。 npu-smi info # 在每个实例节点上运行此命令可以看到NPU卡状态 npu-smi info -l | grep Total # 在每个实例节点上运行此命令可以看到总卡数 如出现
包括CREATE、ALTER、DROP。 只能在GUC参数enable_mtd为on的状态下使用。 只能在非PDB中进行该操作。不支持在M兼容数据库中执行该命令。 操作用户需要为gs_role_create_pdb的角色,或拥有sysadmin权限。 最多可以创建128个用户PDB。
应用到Hive源码。 根据需要切换Hive源码分支,例如Hive内核版本号为2.3.9,则执行如下命令: git checkout rel/release-2.3.9 执行以下命令,将patch应用到切换分支后的Hive源码工程。 mvn patch:apply -DpatchFile=${your
执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤)