检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HBase)或者表格存储服务(CloudTable)的数据时,支持导出指定时间段内的数据,配合CDM的定时任务,可以实现HBase/CloudTable的增量迁移。 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替换为“数据开发作业计划
TESTPROC(?,?,?)}"),执行存储过程绑定参数时,可以按照占位符的顺序绑定参数,注册第一个参数为出参。也可以按照存储过程中的参数顺序绑定参数,注册第四个参数为出参,上述用例为此场景,注册第四个参数为出参。 当游标作为存储过程的返回值时,如果使用JDBC调用该存储过程,返回的游标将不可用。
月末扣费:账单ID 此参数不携带或携带值为空时,不作为筛选条件;携带值为null时,作为筛选条件;不支持携带值为空串。 account_manager_id 否 String 最大长度:64 客户经理标识。 此参数不携带或携带值为空时,不作为筛选条件;携带值为null时,作为筛选条件;不支持携带值为空串。
如果您已有一个华为账号,请忽略此步骤。如果您还没有华为账号,请参考以下步骤创建。 打开华为云官网,单击“注册”。 根据提示信息完成注册,详细操作请参见“注册华为账号并开通华为云”。 注册成功后,系统会自动跳转至您的个人信息界面。 参考个人账号如何完成实名认证或企业账号如何完成实名认证,完成个人或企业账号实名认证。
外出时用手机打卡,系统提示不在打卡有效区? 您好,这是因为您超出了有效打卡范围,目前WeLink考勤支持设置公司位置100米到3000米为有效打卡范围,如果您超出了公司设置的打卡范围,就无法打卡成功。 如果员工有出外勤的需求,可以在设置考勤组规则的时候,在“更多设置”模块,开启“
执行Npm构建时,报错提示node-sass下载失败 问题现象 执行Npm构建任务时,日志报如下异常信息: Downloading binary from https://github.com/sass/node-sass/releases/download/v4.14.1/linux-x64-72_binding
执行Maven构建时,提示license信息检查不通过 问题现象 异常信息如下: 1 [ERROR] Failed to execute goal org.apache.rat:apache-rat-plugin:0.12:check (rat-check) on project
使用Android构建时,项目配置的Jcenter()不稳定 问题现象 执行过构建任务日志报错信息如下: Caused by: org.gradle.internal.resource.transport.http.HttpErrorStatusCodeException: Could
开通的功能模块删除时失败是什么原因? 当开通的功能模块下存在依赖的命名空间,无法删除该功能模块。比如命名空间下已经勾选了某个功能点,此时需要编辑命名空间,删除掉已勾选的功能点,然后才能在“开通功能模块”页面删除对应的功能点。 父主题: MAS使用相关问题
添加路由时,为什么选不到对应的服务? 添加路由时,目标服务会根据对应的网关协议进行过滤。过滤规则如下: HTTP协议的网关可以选择HTTP协议的服务 TCP协议的网关可以选择TCP协议的服务 GRPC协议的网关可以选择GRPC协议的服务 HTTPS协议的网关可以选择HTTP、GRPC协议的服务
执行Kafka Topic创建操作时发现无法创建提示“NoAuthException” 问题背景与现象 在使用Kafka客户端命令创建Topic时,发现Topic无法被创建。 kafka-topics.sh --create --zookeeper 192.168.234.231:2181/kafka
TEXTFILE类型文件使用ARC4压缩时查询结果乱码 问题现象 Hive查询结果表做压缩存储(ARC4),对结果表做select * 查询时返回结果为乱码。 可能原因 Hive默认压缩格式不是ARC4格式或者未开启输出压缩。 解决方案 在select结果乱码时,在beeline中进行如下设置。
Presto查询Kudu表时系统报错找不到表 用户问题 使用Presto查询Kudu表报错。 问题现象 使用Presto查询Kudu表,报表找不到的错误: 后台报错: 原因分析 在实际的运行节点(worker实例所在节点)没有Kudu相关配置。 处理步骤 在集群Presto所有的
使用substring截取带中文的数据时出现乱码 问题现象 客户需要查询某张表的name字段,返回的数据中只截取到“学年”及以前部分,使用substring函数实现时出现乱码,如下图所示。 原因分析 UTF-8字符集编码下,一个中文占3个字节,如需获取结果显示为“2014-201
GDS导入数据时,脚本执行报错:out of memory 问题现象 在使用GDS导入数据时,脚本执行报错“out of memory”。 原因分析 使用copy命令或者导入数据时,源数据单行数据的大小超过1GB。 由于源文件中的格式符不成对出现,比如引号,文件格式异常导致系统识别的单行数据过大超过1GB。
源端系统盘大小超过1 TB时,如何迁移? 背景说明 主机迁移服务受限于使用镜像创建云服务器时,系统盘大小有不能超过1 TB的限制。如果您迁移的源端服务器系统盘大小超过1 TB,需要满足一定条件并进行磁盘调整后才可以迁移。 Linux文件级迁移 源端服务器系统盘大小超过1 TB,但是利用率较低,实际已用大小低于1
变更ServiceComb引擎规格 ServiceComb引擎专享版规格支持在线自动变更。当前只支持扩容变更,不支持缩容变更场景。变更时业务侧感知到会有闪断,对业务本身没影响。变更期间不支持注册新服务。 变更ServiceComb引擎规格 登录微服务引擎控制台。 在左侧导航栏选择“ServiceComb引擎专享版”。
ID相同的应用程序才能进入同一个房间进行互动。应用的appId请参考应用管理进行获取。 domain:可选,string[128]类型,服务器的域名。需要与注册到SparkRTC平台的合法企业域名保持一致,该参数在SDK 1.0+版本中必填,SDK 2.0+版本中非必填。 countryCode: 可选,string[2]类型,需要满足ISO
myhuaweicloud.com,则必须指定桶所在区域(location),且指定的区域必须与终端节点(endPoint)区域一致,否则会返回状态码400。 比如初始化时使用的终端节点endPoint是obs.cn-north-4. myhuaweicloud.com,那么在创建桶的时候必须指定Location:cn-north-4
MySQL数据连接 连接RDS MySQL时,相关参数如表1所示。 表1 RDS MySQL数据连接参数 参数名 说明 名称 数据连接的名称,只能包含英文字母、中文、数字、“-”、“_”,且长度为1~32个字符。 实例ID 选择数据库实例的ID。 域名 选择实例ID后,自动匹配数据库的内网地址,不支持修改。