检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
非必填。表示训练step迭代次数,根据实际需要修改。 SEED 1234 随机种子数。每次数据采样时,保持一致。 SAVE_INTERVAL 10 表示训练间隔多少step,则会保存一次权重文件。 模型参数设置规定 TP张量并行 、PP流水线并行、CP context并行的参数设置:TP×PP×CP的
ork/chatglm3-6b/config.json。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
json。不同模型推理支持的max-model-len长度不同,具体差异请参见表1。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
--epochs=30 \ --workers=8 \ --model ViT-B-32 参数说明: save-frequency:指定运行多少个epoch就保存模型参数,可以调大。 report-to tensorboard:指定输出loss指标到tensorboard,一般需要做精度评估才需要带上。
String 计费码。 period String 计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 GET https://{endpoint}/v2/{project_id}/workflows/{workflow_id}
运行,提升运维效率。 计费模式 请选择“包年/包月”模式。 包年/包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 目前暂不支持按需计费。 区域 不同区域的云服务产品之间内网互不相通;请就近选择靠近您业务的区域,可减少网络时延,提
录:基于vLLM不同模型推理支持最小卡数和最大序列说明。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
false, "default": 24, "help": "每多少步记录一次步骤" }, { "name":
Integer 同步类型。可选值如下: 0:不同步 1:同步数据 2:同步标签 3:同步数据和标签 repetition 否 Integer 每个样本由多少人标注,最少为1。 synchronize_auto_labeling_data 否 Boolean 是否同步更新智能标注数据。可选值如下:
录:基于vLLM不同模型推理支持最小卡数和最大序列说明。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
String 计费码。 period String 计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 更新工作流信息 PUT https://{endpoint}/v2/{project_id}/workflows/a8f31
false, "default": 24, "help": "每多少步记录一次步骤" }, { "name":
Cluster资源池的参数说明 参数名称 子参数 说明 计费模式 包年/包月 包年/包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费 按需计费是后付费模式,按云服务器的实际使用时长计费,可以随时开通/删除云服务器。 集群规格 集群名称 系统默认提供一个名称,可以手动修改。
计费模式 - 计费模式可以选择“包年/包月”或“按需计费”。 包年/包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费是后付费模式,按云服务器的实际使用时长计费,可以随时开通/删除云服务器。 集群规格 集群名称 Standard专属资源池的名称。
标注任务标签统计信息。 pass_rate Double 团队标注任务验收通过率。 repetition Integer 团队标注任务每个样本可以由多少人标注,最少为1。 sample_search_conditions Array of SearchCondition objects 创建任务时的样本筛选条件。
录:基于vLLM不同模型推理支持最小卡数和最大序列说明。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
ork/chatglm3-6b/config.json。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和
Notebook使用涉及到计费,具体收费项如下: 处于“运行中”状态的Notebook,会消耗资源,产生费用。根据您选择的资源不同,收费标准不同,价格详情请参见产品价格详情。当您不需要使用Notebook时,建议停止Notebook,避免产生不必要的费用。 创建Notebook时,如果选择使用云硬
标注任务标签统计信息。 pass_rate Double 团队标注任务验收通过率。 repetition Integer 团队标注任务每个样本可以由多少人标注,最少为1。 sample_search_conditions Array of SearchCondition objects 创建任务时的样本筛选条件。
录:基于vLLM不同模型推理支持最小卡数和最大序列说明。 --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。 --dtype:模型推理的数据类型。支持FP16和