-
发布应用资产 - 云商店
根据需要选择是否支持云小站。 安装所需空间(MB) 必选 填写安装软件包所需要的本地磁盘空间。 支持文件打开类型 必选 输入软件支持打开的文件后缀,以英文分号隔开。单击文本框右下角的“填入”,将通用文件类型填入。 安装需要管理员权限 必选 判断安装软件包是否需要PC电脑管理员权限。 启动需要管理员权限
-
如何修改Linux弹性云服务器的密码? - 弹性云服务器 ECS
如何修改Linux弹性云服务器的密码? 处理方法 根据已有的密钥文件,通过密钥方式以root用户登录Linux弹性云服务器。 执行以下命令,重置root的用户密码。 passwd 如果是重置其他用户的密码,请将“passwd”替换为“passwd username”。 根据系统显示的如下回显信息,输入新密码。
-
Doris安全通道 - 表格存储服务 CloudTable
host:port:host指的是内网地址,port指的是https协议端口。 test_db:指定数据库名称。 1.sql:指写入sql语句的文件。 path:证书存放的路径。 连接客户端 安全集群创建后,打开详情页面,下载证书。 下载证书后,自定义存放路径。 连接集群。 mysql
-
导入元数据 - Astro轻应用 AstroZero
参数类型 描述 filename 是 String 参数解释: 上传的文件名称,需要为zip包,包中可包含多个元数据文件。 约束限制: 需要为zip包。 取值范围: 不涉及。 默认取值: 不涉及。 请求参数 上传的文件应转换为流传入,无其他参数。 响应参数 表2 响应参数 参数 参数类型
-
CCE.Storage.OBS - 资源编排服务 RFS
name: {get_input: storage-name} 样例2:用户自定义k8sManifest实现 1.15集群版本,yaml文件配置示例如下: tosca_definitions_version: huaweicloud_tosca_version_1_0 node_templates:
-
Notebook cache盘告警上报 - AI开发平台ModelArts
U或者Ascend资源,对GPU或Ascend类型的资源,ModelArts会挂载硬盘至“/cache”目录,用户可以使用此目录来储存临时文件。 当前开发环境的cache盘使用时,没有容量告警,在使用时很容易超过限制,并直接重启Notebook实例。重启后多种配置重置,会导致用户
-
发布应用资产 - 工业数字模型驱动引擎
改商品LOGO。 安装所需空间(MB) 必选 填写安装软件包所需要的本地磁盘空间。 支持文件打开类型 必选 输入软件支持打开的文件后缀,以英文分号隔开。单击文本框右下角的“填入”,将通用文件类型填入。 安装需要管理员权限 必选 判断安装软件包是否需要PC电脑管理员权限。 启动需要管理员权限
-
Flink Savepoints CLI介绍 - MapReduce服务 MRS
并继续运行。该机制利用了Flink的checkpoint机制创建流应用的快照,并将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下:
-
HDFS WebUI无法正常刷新损坏数据的信息 - MapReduce服务 MRS
Web UI没有显示损坏数据的信息。 当此错误被修复后,HDFS Web UI没有及时移除损坏数据的相关信息。 回答 DataNode只有在执行文件操作发生错误时,才会去检查磁盘是否正常,如果发现数据损坏,则将此错误上报至NameNode,此时NameNode才会在HDFS Web UI显示数据损坏信息。
-
Hudi写入小精度Decimal数据失败 - MapReduce服务 MRS
初始入库BULK_INSET方式会使用Spark内部parquet文件的写入类进行写入,Spark对不同精度的Decimal类型处理是不同的。 UPSERT操作时,Hudi使用Avro兼容的parquet文件写入类进行写入,这个和Spark的写入方式是不兼容的。 解决方案: 执
-
配置MapReduce shuffle address - MapReduce服务 MRS
置连接到特定的IP。 配置描述 当需要MapReduce shuffle服务绑定特定IP时,需要在NodeManager实例所在节点的配置文件“mapred-site.xml”中(例如路径为:${BIGDATA_HOME}/FusionInsight_HD_xxx/x_xx_No
-
FlinkSavepoints CLI介绍 - MapReduce服务 MRS
并继续运行。该机制利用了Flink的checkpoint机制创建流应用的快照,并将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下:
-
Flink Savepoints CLI介绍 - MapReduce服务 MRS
并继续运行。该机制利用了Flink的checkpoint机制创建流应用的快照,并将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下:
-
准备Impala应用开发用户 - MapReduce服务 MRS
”列选择“更多 > 下载认证凭据”。保存后解压得到用户的user.keytab文件与krb5.conf文件。用于在样例工程中进行安全认证。 参考信息 如果修改了组件的配置参数,需重新下载客户端配置文件并更新运行调测环境上的客户端。 父主题: 准备Impala应用开发环境
-
Flink与其他组件的关系 - MapReduce服务 MRS
Flink基于Yarn的集群部署 Flink Yarn Client首先会检验是否有足够的资源来启动Yarn集群,如果资源足够,会将Jar包、配置文件等上传到HDFS。 Flink Yarn Client首先与Yarn Resource Manager进行通信,申请启动Application
-
Spark Core内存调优 - MapReduce服务 MRS
Collection),评估内存中RDD的大小来判断内存是否变成性能瓶颈,并根据情况优化。 监控节点进程的GC情况(在客户端的conf/spark-default.conf配置文件中,在spark.driver.extraJavaOptions和spark.executor.extraJavaOptions配置项中添加参数:"-verbose:gc
-
使用HDFS Colocation存储Hive表 - MapReduce服务 MRS
在相同的存储节点上。Hive支持HDFS的Colocation功能,即在创建Hive表时,设置表文件分布的locator信息,当使用insert语句向该表中插入数据时会将该表的数据文件存放在相同的存储节点上(不支持其他数据导入方式),从而使后续的多表关联的数据计算更加方便和高效。
-
Hudi写入小精度Decimal数据失败 - MapReduce服务 MRS
初始入库BULK_INSET方式会使用Spark内部parquet文件的写入类进行写入,Spark对不同精度的Decimal类型处理是不同的。 UPSERT操作时,Hudi使用Avro兼容的parquet文件写入类进行写入,这个和Spark的写入方式是不兼容的。 解决方案: 执
-
预训练数据处理 - AI开发平台ModelArts
--tokenizer-type PretrainedFromHF #3.执行完成后在 datasets文件夹中可以得到 data_text_document.idx 与data_text_document.bin 两个文件 父主题: 预训练
-
规划导出数据 - 云数据库 GaussDB
创建导出的数据文件存放目录“/output_data”。 mkdir -p /output_data 修改数据文件目录属主为gdsuser。 chown -R gdsuser:gdsgrp /output_data Local模式 在集群的每个DN上创建导出数据文件存放目录“/output_data”。