检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是否是GPU类型的规格。 system_disk_type String 系统盘类型。 system_disk_size String 系统盘大小,单位GB。 data_disk_size String 数据盘大小,单位GB。 gpu_desc String GPU描述。 bill_switch String
一个List,每个元素包含字符串形式的code和message信息。 表5 参数results中各要素说明 参数 类型 说明 columns List 返回的字段名。 data List 返回的数据值,每个元素代表一条记录。 stats Object 返回的增删改统计信息。 plan Object 如果cyph
--------------+--------+------------+---------+--------- 1 | -> Data Node Scan on "__REMOTE_FQS_QUERY__" | 0 | | 0
和训练结束后输出数据的路径。 在“输入”的输入框内设置变量:ORIGINAL_TRAIN_DATA_PATH、ORIGINAL_HF_WEIGHT。 ORIGINAL_TRAIN_DATA_PATH:训练时指定的输入数据集路径。 ORIGINAL_HF_WEIGHT:加载tokenizer与Hugging
和训练结束后输出数据的路径。 在“输入”的输入框内设置变量:ORIGINAL_TRAIN_DATA_PATH、ORIGINAL_HF_WEIGHT。 ORIGINAL_TRAIN_DATA_PATH:训练时指定的输入数据集路径。 ORIGINAL_HF_WEIGHT:加载tokenizer与Hugging
和训练结束后输出数据的路径。 在“输入”的输入框内设置变量:ORIGINAL_TRAIN_DATA_PATH、ORIGINAL_HF_WEIGHT。 ORIGINAL_TRAIN_DATA_PATH:训练时指定的输入数据集路径。 ORIGINAL_HF_WEIGHT:加载tokenizer与Hugging
以root用户登录记录的管理IP地址,并执行df -lh命令,查看磁盘占用率为100%的挂载目录,例如“${BIGDATA_DATA_HOME}/kafka/data1”。 进入该目录,执行du -sh *命令,查看该目录下各文件夹的大小。查看是否存在除“kafka-logs”目录外的其他文件,并判断是否可以删除或者迁移。
JobPipelineInfoItems 参数 参数类型 描述 scms Array of CreateBuildJobScm objects 构建执行SCM parameters parameters object 参数 job_name String 任务名称 job_name_massage
通道类型。 COMMON:普通通道,表示1MB带宽。 ADVANCED:高级通道,表示5MB带宽。 枚举值: COMMON ADVANCED data_type 否 String 源数据类型。 BLOB:存储在数据库管理系统中的一组二进制数据。 JSON:一种开放的文件格式,以易读的文
batch_task_id 否 String 筛选标注任务(数据集来源(data_source)为标注(LABEL)时必填) label_meta_names 否 Array of strings 标注名(数据集来源(data_source)为标注(LABEL)时必填) only_valid
多租查询参数。 约束限制: 不涉及。 取值范围: EXCLUDE_PUBLIC_DATA:不包括公共数据。 INCLUDE_PUBLIC_DATA:包括公共数据。 ONLY_NEED_PUBLIC_DATA:只有公共数据。 默认取值: 不涉及。 sort 否 String 参数解释:
file: *** (errno: 2 - No such file or directory)” 增量阶段失败报错,关键词“Data truncation: Data too long for column” 增量阶段失败报错,关键词“Failed to read file header
-s/--schema-only和-a/--data-only不能同时使用。 -r/--roles-only和-a/--data-only不能同时使用。 -t/--tablespaces-only和-a/--data-only不能同时使用。 -g/--globals-only和-a/--data-only不能同时使用。
NoDataCondition 参数 参数类型 描述 no_data_timeframe Integer 无数据周期的个数。 no_data_alert_state String 数据不足时,阈值规则的状态。 “no_data”:数据不足并发送通知 “alerting”:告警 “ok”:正常
bigdata.hbase.examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut.");
bigdata.hbase.examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut.");
bigdata.hbase.examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public void testPut() { LOG.info("Entering testPut.");
边上权重应大于0。 - directed 否 是否考虑边的方向。 Boolean true或false。 false 表2 response_data参数说明 参数 类型 说明 path List 最短路径,格式: [vertexId,...] 其中, vertexId:string类型
URL函数 Geospatial函数 HyperLogLog函数 UUID函数 Color函数 Session信息 Teradata函数 Data masking函数 IP Address函数 Quantile digest函数 T-Digest函数 Set Digest函数 父主题:
源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明: 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 源数据库的数据库