检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
加以下命令。 ip:port获取ip地址和端口: ip地址获取:进入集群的Manager页面,单击“集群 > Kafka > 实例 > 管理IP(Broker)”,可获取ip地址。 port获取:单击配置,进入配置页面,搜索“port”,获取端口(该port是Broker服务监听的PLAINTEXT协议端口号)。
FE上的mysql server端口。 允许 8030 FE上的http server端口。 允许 8040 BE上的http server的端口。 允许 8050 FE上的https server端口 步骤四:执行MySQL命令插入数据 创建一个数据库。 CREATE DATABASE demo;
700 clickhouse 然后执行以下命令连接ClickHouse集群,端口请参见表1。 非安全集群连接命令 ./clickhouse client --host 集群内网地址 --port 端口 --user admin --password password 安全集群
HMaster RPC端口 TCP 16020 RegionServer RPC端口 TCP 2181 监听ZooKeeper客户端连接监听端口 TCP 2888 Follower连接监听端口 TCP 3888 ZooKeeper选举端口 TCP 2000 Hagent访问端口 步骤二:下载HBase客户端和客户端校验文件
show='table' 相关参数介绍如下: tablename.to.show:表示需查看相关索引定义的数据表名称。 查询结果如图1所示,会打印索引列定义、覆盖列定义、TTL、预分区信息、索引状态等: 图1 索引查询结果 父主题: 使用全局二级索引工具
如何查看回收站数据 登录CloudTable控制台。 创建Doris集群。 连接Doris集群。 查看回收站数据。 show trash; 图1 回收站数据 恢复回收站数据。 curl -X POST http://{be_host}:{be_webserver_port} /api/restore_tablet
filename] [FORMAT format] 示例: 查看ClickHouse集群信息。 select * from system.clusters; 显示当前节点设置的宏。 select * from system.macros; 查看数据库容量。 select sum(rows) as
进入组件中的配置文件查看参数。 HDFS组件查看。 cd ./HDFS/hadoop/etc/ 进入hadoop目录。 cd hadoop/hdfs-site.xml 打开hdfs-site.xml配置文件,查找相关参数。 vim hdfs-site.xml Hive组件查看。 /opt
角色由用户自己定义。 查看权限 登录表格存储服务管理控制台。 单击管理控制台左上角的,选择区域。 单击左侧集群管理,显示当前集群列表,选择需要操作的集群,进入用户管理页面。 单击操作列“查看权限”,弹出用户权限页面。 表2 查看权限 参数 说明 用户名 新建的用户名。 全局权限 查询、插入、更改、创建、删除。
集群内网地址 --port 端口 --user admin --password password 安全集群连接命令,详细操作请参见ClickHouse安全通道章节。 ./clickhouse client --host 集群内网地址 --port 端口 --user admin
FE上的mysql server端口。 允许 8030 FE上的http server端口。 允许 8040 BE上的http server的端口。 允许 8050 FE上的https server端口 父主题: 使用Doris
查询CloudTable集群列表 功能介绍 查看用户创建的集群列表信息。 调试 您可以在API Explorer中调试该接口。 URI GET /v2/{project_id}/clusters 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
单击用户名,在下拉列表中单击“我的凭证”。 在“API凭证”页面的项目列表中查看项目ID。 多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。 图1 查看项目ID 调用API获取项目ID 项目ID可以通过调用查询指定条件下的项目信息API获取。 获取项目ID的接口为“GET ht
/clickhouse/client/client/bin/certificate.crt:指证书存放路径。 host、port:host指的是内网地址,port指的是https协议端口。 JDBC连接 public void run() throws InterruptedException
进入组件中的配置文件查看参数。 HDFS组件查看。 cd ./HDFS/hadoop/etc/ 进入hadoop目录。 cd hadoop/hdfs-site.xml 打开hdfs-site.xml配置文件,查找相关参数。 vim hdfs-site.xml Hive组件查看。 /opt
配额说明 表格存储服务用户默认的基础资源如下: 实例数 CPU数量 内存容量(GB) 磁盘数 磁盘容量(GB) 上述资源的配额查看及修改,请参见关于配额。
http://fe_host:http_port/api/{db}/{table}/_stream_load Header中支持属性见下面的‘导入任务参数’说明。 格式为:-H "key1:value1"。 port:HTTP的端口。 创建导入任务的详细语法可以通过HELP STREAM LOAD命令查看。Stream
加以下命令。 ip:port获取ip地址和端口。 ip地址获取:进入集群的Manager页面,单击“集群 > Kafka > 实例 > 管理IP(Broker)”,可获取ip地址。 port获取:单击配置,进入配置页面,搜索“port”,获取端口(该port是Broker服务监听的PLAINTEXT协议端口号)。
如需再次使用,需要重新给该用户关联企业项目。 创建时间 集群创建的时间。 计费模式 集群的计费模式,有按需和转包周期。 操作 查看监控信息:单击“查看监控信息”,进入“云服务监控 > 表格存储服务”的监控图表页面。 删除:单击删除,删除一个集群。 重启:单击重启,集群重启。 转包周期:集群的计费模式转为包年/包月。
h为“/v3/auth/tokens”。 query-string 查询参数,是可选部分,并不是每个API都有查询参数。查询参数前面需要带一个“?”,形式为“参数名=参数取值”,例如“limit=10”,表示查询不超过10条数据。 例如您需要获取IAM在“华北-北京一”区域的To