检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
能超过8MB,数据量大时推荐使用OBS Browser+上传 。 标签名是由中文、大小写字母、数字、中划线或下划线组成,且不超过32位的字符串。 表1 PASCAL VOC格式说明 字段 是否必选 说明 folder 是 表示数据源所在目录。 filename 是 被标注文件的文件名。
确定性,较高的值使模型更加随机。“0”表示贪婪采样。 stop 否 None None/Str/List 用于停止生成的字符串列表。返回的输出将不包含停止字符串。 例如,设置为["你","好"]时,在生成文本过程中,遇到“你”或者“好”将停止文本生成。 stream 否 False
“asc”为递增排序,默认为“asc”。 “desc”为递减排序。 search_content 否 String 指定要查询的文字信息,例如训练作业名字,默认为空,字符串的长度为[0,64]。 workspace_id 否 String 指定作业所处的工作空间,默认值为“0”。 请求消息 无。 响应消息 响应参数如表3所示。
训练时transformers版本要求为4.45.0,训练完成后保存的tokenizer.json文件中的“merges”时保存的是拆开的列表不是字符串,导致推理异常 解决措施,以下两种方法任选其一: ①更新transformes和tokenizers版本 GLM4-9B模型,容器内执行以下步骤:
“asc”为递增排序,默认为“asc”。 “desc”为递减排序。 search_content 否 String 指定要查询的文字信息,例如可视化作业名字,默认为空,字符串的长度为[0,64]。 workspace_id 否 String 指定作业所处的工作空间,默认值为“0”。 请求消息 无请求参数。 响应消息
算法名称。限制为1-64位只含数字、字母、下划线和中划线的名称。 description String 对算法的描述,默认为“NULL”,字符串的长度限制为[0, 256]。 workspace_id String 指定算法所处的工作空间,默认值为“0”。“0” 为默认的工作空间。
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
训练时transformers版本要求为4.45.0,训练完成后保存的tokenizer.json文件中的“merges”时保存的是拆开的列表不是字符串,导致推理异常 解决措施,以下两种方法任选其一: 更新transformes和tokenizers版本 GLM4-9B模型,容器内执行以下步骤:
训练时transformers版本要求为4.45.0,训练完成后保存的tokenizer.json文件中的“merges”时保存的是拆开的列表不是字符串,导致推理异常 解决措施,以下两种方法任选其一: 更新transformes和tokenizers版本 GLM4-9B模型,容器内执行以下步骤:
请求参数如表2所示。 表2 参数说明 参数 是否必选 参数类型 说明 config_desc 否 String 对训练作业的描述,默认为空,字符串的长度限制为[0,256]。 worker_server_num 是 Integer 训练作业worker的个数,最大值请从查询作业资源规格接口获取。
位,仅包含英文、数字、下划线(_)和中划线(-),并且以英文开头的名称。 type 否 String 参数的类型,枚举值如下: str:字符串 int:整型 bool:布尔类型 float:浮点型 description 否 String Workflow工作流配置参数的描述。 example
训练作业参数名称。限制为1-64位只含数字、字母、下划线或者中划线的名称。 config_desc 否 String 对训练作业的描述,默认为空,字符串的长度限制为[0,256]。 worker_server_num 是 Integer 训练作业worker的个数,最大值请从查询作业资源规格接口获取。
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model
单页查询最大数量,该值为空或者0时默认返回500条记录,单页最大允许查询500条记录。 continue 否 String 分页查询的上一页标记,内容为UUID字符串,查询第一页时为空。 since 否 Integer 事件开始时间戳。 until 否 Integer 事件结束时间戳。 type 否 String
训练时transformers版本要求为4.45.0,训练完成后保存的tokenizer.json文件中的“merges”时保存的是拆开的列表不是字符串,导致推理异常 解决措施,以下两种方法任选其一: 更新transformes和tokenizers版本 GLM4-9B模型,容器内执行以下步骤:
damp_percent=0.01, desc_act=False, sym=True, use_exllama=False) 您也可以将自己的数据集作为字符串列表传递,但强烈建议使用GPTQ论文中的相同数据集。 dataset = ["auto-gptq is an easy-to-use model