检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 参数解释: 文件属组。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 permission String 参数解释: 权限信息。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 replication Integer 参数解释: 副本数。 约束限制: 不涉及
会生成id,其他操作id为空。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 message String 参数解释: 错误信息。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 statement String 参数解释: 执行的SQL语句。 约束限制:
agency_mappings 是 Array of AgencyMapping objects 参数解释: 用户(组)与委托之间的映射关系详细信息。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 表3 AgencyMapping 参数 是否必选 参数类型 描述 agency
gaussdb-mysql:云数据库GaussDB(for MySQL) 默认取值: 不涉及 source_info String 参数解释: 数据源信息,为json格式。 约束限制: 不涉及。 取值范围: 不涉及 默认取值: 不涉及 connector_id String 参数解释: 数据连接ID。
TimeRange:查询的时间范围。范围中的时间是UNIX时间戳,表示自1970年1月1日00:00 UTC以来经过的毫秒数。 优先查询热数据。 在查询客户所有记录等信息的范围查询中,HBase可以扫描热存储和冷存储中的数据。查询结果将根据数据行按写入表时的时间戳降序返回。在大多数情况下,热数据出现在冷数据
SparkPython:该类型作业将转换为SparkSubmit类型提交,MRS控制台界面的作业类型展示为SparkSubmit,通过接口查询作业列表信息时作业类型请选择SparkSubmit。 HiveScript HiveSql DistCp,导入、导出数据。 SparkScript SparkSql
external=true, "auto.purge"=false); -- 通过DESC FORMATTED 语句,可以查看建表的详细信息 desc formatted orders ; Describe Formatted
ZKFC进程状态异常 ALM-14034 Router进程状态异常 ALM-14035 HttpFS进程状态异常 ALM-14036 NameNode进入安全模式 ALM-14037 存在集群外的DataNode ALM-14038 Router堆内存使用率超过阈值 ALM-14039 集群内存在慢DataNode
打开浏览器,输入:http://ClickHouse客户端节点IP:8080/clickhouse/executeQuery,查看浏览器返回信息: ClickHouse springboot client runs normally. Linux环境下执行运行方式: 登录Click
Master节点上执行。如果选择关闭,表示在所有Master节点执行。默认关闭。 参数 - 自动化脚本参数,支持通过传入以下预定义变量获得弹性伸缩相关信息: ${mrs_scale_node_num} :弹性伸缩节点数量,总是正数 ${mrs_scale_type} :弹性伸缩类型,扩容为“
已添加关联Yarn并分配了动态资源的租户。 通过管理控制台配置租户队列 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,单击“租户管理”。 单击“队列配置”页签。 在租户队列表格,指定租户队列的“操作”列,单击“修改”。 在“租户管理”
WebUI界面的用户登录FusionInsight Manager。 选择“集群 > 服务 > HetuEngine”,进入HetuEngine服务页面。 在概览页签下的“基本信息”区域单击“HSConsole WebUI”后的链接,进入HSConsole界面。 单击“计算实例”,查看待操作的租户的实例状态,当绿色图
throws Exception “beforeStart”方法有以下作用: 帮助用户解析SQL语句中的UDF参数。 配置UDF运行时必要的信息,即指定UDF访问原始数据时采取的策略和输出结果序列的类型。 创建资源,比如建立外部链接,打开文件等。 UDFParameters UDF
eohash的自定义实现类。自定义索引抽象类方法包括: Init方法,用来提取、验证和存储handler属性。在失败时发生异常,并显示错误信息。 Generate方法,用来生成索引。它为每行数据生成一个索引数据。 Query方法,用来对给定输入生成索引值范围列表。 导入命令同普通Carbon表:
0x14000073f13b657b closed 查看HDFS日志获取应用运行情况 可以查看HDFS的NameNode日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: 调测HDFS应用
eohash的自定义实现类。自定义索引抽象类方法包括: Init方法,用来提取、验证和存储handler属性。在失败时发生异常,并显示错误信息。 Generate方法,用来生成索引。它为每行数据生成一个索引数据。 Query方法,用来对给定输入生成索引值范围列表。 导入命令同普通Carbon表:
BY的情况下,所有行都被视为对等行,因此未绑定的前导和当前行之间的范围等于未绑定的前导和未绑定的后续之间的范围。 例如:下面的查询将salary表中的信息按照每个部门员工工资的大小进行排序。 --创建数据表并插入数据 create table salary (dept varchar, userid
result String 参数解释: 操作结果。 约束限制: 不涉及 取值范围: succeeded:操作成功。 操作失败时返回的错误码信息如错误码所示。 默认取值: 不涉及 请求示例 配置集群弹性伸缩规则 POST https://{endpoint}/v1.1/{proje
0x12000059699f69e1 查看HDFS日志获取应用运行情况 可以查看HDFS的namenode日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: 调测HDFS应用
result String 参数解释: 操作结果。 约束限制: 不涉及 取值范围: succeeded:操作成功。 操作失败时返回的错误码信息如错误码所示。 默认取值: 不涉及 请求示例 在MRS集群中扩容1个core节点。 PUT /v1.1/{project_id}/clus