检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
业务服务的专用Region。 可用区(AZ,Availability Zone) 一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。
合如下复杂度要求: 密码长度不能少于6个字符,且不超过32个字符。 密码不能包含用户名或者用户名的倒序。 至少包括一个大写字母(A~Z),一个小写字母(a~z),一个数字字符(0~9)。 至少包括1个特殊字符(包括!"#$%&'()*+,-./:;<=>?@[\]^`{_|}~ 以及空格)。
如何新建部署架构? 部署架构主要为技术架构的服务配置清单,在设计中心添加技术架构后,点击技术架构名称右侧的【操作】按钮,选择【新建】按钮即可新建部署架构。一个技术架构下可新建多个部署架构。 图1 新建部署架构 父主题: 设计中心
initcap(string A) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 A 是 STRING 待转换的文本字符串。 返回值说明 返回一个STRING类型字符串,字符串中每个单词首字母大写,其余变为小写。 示例代码 返回Dli Sql SELECT initcap("dLI sql");
public KafkaConfig() 构造一个无参数的KafkaConfig 方法列表 返回类型 方法和说明 static KafkaConfig getConfig(String servers, String groupId) 获取一个配置,用于访问MQS提供的Kafka(不开启sasl_ssl)。
Flink对接云搜索服务(CSS)样例程序(Java) 功能介绍 当前基于随机数生成器实现了一个持续产生长度为4字符串的数据源用于写入数据。 样例代码 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.flink.examples。 public class
追加上传 追加上传可实现对同一个对象追加数据内容的功能。您可以通过appendObject进行追加上传。示例代码如下: NSString *filePath = [[NSBundle mainBundle] pathForResource:@"FileName" ofType:@"FileSuffix"];
创建部门或个人空间 功能介绍 创建一个部门或个人空间。 URI POST /koodrive/ose/v1/space/{owner_id} 表1 路径参数 参数 是否必选 参数类型 描述 owner_id 是 String 拥有者标识 请求参数 表2 请求Header参数 参数
DROP MODEL 功能描述 删除一个已训练完成保存的模型对象。 注意事项 所删除模型可在系统表gs_model_warehouse中查看到。 语法格式 DROP MODEL model_name; 参数说明 model_name 模型名称 取值范围:字符串,需要符合标识符命名规范。
如果您需要提高RocketMQ集群实例的可靠性,在创建4.8.0版本实例时,建议选择3个或以上的可用区,不支持选择2个可用区。原因如下:使用2个可用区的实例,如果其中一个可用区故障,可能会导致实例不可用。 父主题: 实例问题
可以成功播放,但播放视频的分辨率为原始分辨率。转码帧率也不支持上采样。 转码分辨率和帧率,不支持配置高于源流。 前提条件 已添加推流域名。 已在域名DNS服务商处完成CNAME解析配置。 新增媒体直播转码模板 支持在直播控制台,新增媒体直播转码模板。 登录视频直播控制台。 在左侧导航树中,选择“媒体直播
业务脚本灵活引用自定义告警。 运维人员可以查看和处理业务告警。 自定义子域名 图16 域名配置 通过自定义域名,提供安全可靠的内外网访问机制,实现一个运行环境多个域名(该特性仅对专享版运行环境灰度开放)。 自定义域名支持SSL证书认证和应用访问控制,保护应用访问安全。 提供安全可靠的内外网访问机制,不同用户不同登录认证。
updateApiGroup 绑定域名 ApiGroup createDomainBinding 修改安全传输协议 ApiGroup modifySecureTransmission 解绑域名 ApiGroup relieveDomainBinding 添加域名证书 ApiGroup addDomainCertificate
创建用户并加入到角色中 前提条件 以安全管理员登录NetEco。 背景信息 当需要创建少量用户时,可通过创建单个用户实现。 当需要创建多个用户,或用户来自其他系统的导出文件时,可通过批量创建用户实现。 停用用户时,如果用户已登录管理系统,停用用户会导致用户被强制注销,请谨慎操作。
2-准备开发用户中下载的user.keytab和krb5.conf文件拷贝到Linux环境的“/opt/conf”目录下,可参考5.4.1-编译并运行程序。 在二次开发过程中,PRINCIPAL需要用到的用户名,应该填写为带域名的用户名,例如创建的用户为test,域名为HADOOP.COM,则其PRINCIPAL用户名则为test@HADOOP
典型场景:从关系型数据库导入数据到Hive 操作场景 该任务指导用户使用Loader将数据从关系型数据库导入到Hive。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的Hive表。 获取关系型数据库使用的用户和密码。 检查磁
配置https协议需要的SSL证书密钥,只能在此处添加。 加密套件:选择SSL证书中包含的加密套件和客户端支持的加密套件。 域名列表:允许访问后端哪些域名,支持正则匹配,比如“*”代表所有域名。 http路由 URI匹配规则:支持前缀匹配、精确匹配和正则匹配。 URI:填写URI。 目标服务:选择
访问密钥中的AK。 N/A secret_access_key 访问密钥中的SK。 N/A server 连接OBS的服务地址。可包含协议类型、域名、端口号。示例:https://your-endpoint:443。(出于安全性考虑,建议使用https协议) N/A max_retry_count
array MAP / MULTISET object ROW object 示例 该示例是从kafka的一个topic中读取数据,并使用kafka sink将数据写入到kafka的另一个topic中。 根据kafka所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安
导致第一个任务一直在等待,后续任务一直在排队。从现象上看,就是如问题中的图1中所示,会有两个任务一直在等待。 因此,当Web出现两个任务一直在等待的情况,首先检查Spark的核数是否大于Receiver的个数。 Receiver在Spark Streaming中是一个常驻的Spark