检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
operation”错误 原因分析 HDFS集群节点都绑定了EIP,在创建MRS Hive数据源时,上传的配置文件中全部用的EIP,Hosts里面也配置好IP与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。 解决方案
解密密码箱中证书密码的key值 输入参数 key:证书密码的key值 返回信息 返回解密后的证书密码消息体,消息体如下格式: { "cipherType": "CERTIFICATE", "passphrase": "xxx", "privateKey": "xx", "privateKey": "xx"
部署在VPC下的应用是否可以调用API? 默认部署在VPC下的应用可以调用API。如果域名解析失败,则参考怎样切换内网DNS,在当前终端节点上配置DNS服务器。配置完成后,部署在VPC下的应用可以调用API。 父主题: 服务集成
(可选)如果函数API支持HTTPS请求协议,则需要为独立域名绑定SSL证书。否则跳过此步骤。 在已绑定的独立域名右侧单击“选择SSL证书”。 在选择SSL证书弹窗中勾选要绑定的SSL证书,完成后单击“确定”,完成SSL证书的绑定。 若证书列表中无可用的SSL证书,可单击“创建SSL证书”,新增SSL证书。
(可选)如果数据API支持HTTPS请求协议,则需要为独立域名绑定SSL证书。否则跳过此步骤。 在已绑定的独立域名右侧单击“选择SSL证书”。 在选择SSL证书弹窗中勾选要绑定的SSL证书,完成后单击“确定”,完成SSL证书的绑定。 若证书列表中无可用的SSL证书,可单击“创建SSL证书”,新增SSL证书。
Kafka数据源连接失败 原因分析 连接地址填写的是MQS内网地址,且MQS同时开启了SSL与VPC内网明文访问时,“是否SSL”选择了“是”。 解决方案 修改“是否SSL”为“否”。 如果排除以上问题后,仍然连接失败,可参考数据源连接测试失败排查操作进行问题排查。 父主题: 数据源
APIC > 自定义后端”,在“配置管理”页面单击“添加配置”。 在添加配置弹窗中配置相关信息,完成后单击“确定”。 表1 公共引用配置 参数 配置说明 配置名称 填写配置的名称,根据规划自定义。 所属集成应用 选择配置所归属的集成应用。 配置类型 选择配置的类型,可选择“模板变量”、“密码”和“证书”。
是否开启客户端证书校验。只有绑定证书时,该参数才生效。当绑定证书存在trusted_root_ca时,默认开启;当绑定证书不存在trusted_root_ca时,默认关闭。 缺省值:false is_has_trusted_root_ca Boolean 是否存在信任的根证书CA。当绑
ssl_infos Array of SslInfo objects SSL证书列表 表5 SslInfo 参数 参数类型 描述 ssl_id String SSL证书编号 ssl_name String SSL证书名称 algorithm_type String 证书算法类型: RSA
FDI通过公网对接其他租户的MRS HIVE如何配置? 首先需要将MRS的IP全部绑定EIP,然后在MRS配置文件中的私网IP全部替换成EIP,再到hdfs-site.xml文件中添加一个配置项“dfs.client.use.datanode.hostname”,值设为“true”。
在html中引入signer.js及依赖。 <script src="js/hmac-sha256.js"></script> <script src="js/moment.min.js"></script> <script src="js/moment-timezone-with-data
Topic管理”页面,单击“下载SSL证书”下载客户端证书。 准备开发环境 安装开发工具 请根据所使用语言选择适合的开发工具。 安装2018.3.5或以上版本的IntelliJ IDEA,安装包请至IntelliJ IDEA官方网站下载。 安装3.0.3及以上版本Apache Maven,安装包请至Maven官方下载页面下载。
请求后计算签名信息,验证计算后的签名信息与APIC的签名信息是否一致。 使用HTTPS对请求进行加密。使用此方法前,需要确保已有相应的SSL证书。 父主题: 服务集成
config_name String 应用配置名称 config_value String 应用配置值 update_time String 应用配置更新时间 description String 应用配置描述 状态码: 401 表5 响应Body参数 参数 参数类型 描述 error_code
解压Kafka命令行工具和客户端证书。 进入文件压缩包所在的目录,然后执行以下命令解压文件。 解压命令行工具文件: tar -zxf kafka_tar 其中,kafka_tar为Kafka命令行工具压缩包的名称。 解压客户端证书文件: unzip cert_zip 其中,cert_zip为客户端证书文件压缩包的名称。
分组下存在API时分组无法删除,需要删除所有分组下的API后,再删除分组。 删除分组时,会一并删除直接或间接关联到该分组下的所有资源,包括独立域名、SSL证书等等。并会将外部域名与子域名的绑定关系进行解除(取决于域名cname方式)。 URI DELETE /v1/{project_id}/a
登录Kibana可视化界面。 访问地址:IP:Port 其中,IP为ELK所部署服务器的IP;Port为Kibana端口号,默认为5601,也可以在修改ELK配置时自定义端口号。如果网络中部署了防火墙,需提前配置防火墙的端口访问权限。 用户名密码:在部署ELK时自定义的用户名和密码。 在
API认证方式为华为IAM认证时可配置。 控制 API 的调用来源 IP 。新建实例的“op_trusted_ips”默认禁止所有源IP访问,需要在“配置参数”页面的“op_trusted_ips”中添加源IP网段才可以访问。 访问控制策略中的IP地址控制属于API级别控制IP,此处的IP控制属于实例级别控制IP。
分组下存在API时分组无法删除,需要删除所有分组下的API后,再删除分组。 删除分组时,会一并删除直接或间接关联到该分组下的所有资源,包括独立域名、SSL证书等等。并会将外部域名与子域名的绑定关系进行解除(取决于域名cname方式)。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API
Hive的配置文件中使用的私网IP,私网IP与FDI数据面IP不通导致连接失败。 HDFS URL填写了根目录hdfs:///hacluster,机机交互用户名填写的用户不具备管理员权限导致连接失败。 解决方案 将MRS Hive的服务端机器绑定EIP,在配置文件中将IP换成EIP,在hdfs-site